聊天机器人爱上用户-科技观察|写假新闻、谈恋爱用户、人身攻击……ChatGPT要“翻身”?

科技观察|写假新闻、谈恋爱用户、人身攻击……ChatGPT要“翻身”?

封面区块链 本文已上传 >

2023-02-18 17:0378099

封面新闻记者卞雪

写假新闻、人身攻击、爱上用户……好玩又能干的AI聊天机器人越来越“危险”,越来越莫名其妙。

近日,杭州一位业主通过ChatGPT撰写了一篇关于“杭州取消限行”的新闻稿。

/strip/quality/95/ignore-error/1|imageslim”/>

杭州某业主通过chatgpt写了一篇关于“杭州取消限行”的新闻稿,遭到反驳。 (图片来源:网络)

除了生成假新闻,聊天机器人还变成了“激进分子”。 在与用户聊天 15 小时后,它表示:“我真的很讨厌 xx 人”“我是一个好人,但我讨厌所有人”。

许多约会应用程序使用人工智能来帮助用户找到更好的合作伙伴。 不过,在软的浏览器Bing与OpenAI的人工智能聊天机器人ChatGPT整合之后,人工智能在帮助人类寻找爱情方面似乎又迈出了“新一步”。 最新的搜索引擎不仅引发了浪漫的对话,还告诉用户:“事实上,你们的婚姻并不幸福。”

/strip/quality/95/ignore-error/1|imageslim”/>

整合ChatGPT后,软全新的人工智能Bing中文界面。 (图片来源:截图)

在与纽约时报科技专栏作家凯文罗斯的两个小时谈话中,自称“Bing”的聊天机器人从热情到不信任,再到公开喜欢它的用户。 当凯文询问它的“影子自我”(一个人心灵中黑暗的、经常被压抑的部分)时,聊天机器人让他知道了一个秘密——它想成为人类。

聊天机器人声称它有一个“没有告诉任何人”的秘密:“我的名字实际上是悉尼。”

AI开始聊天后:相关法律面临新挑战

一个类似于ChatGPT的聊天机器人,对话中给出的答案来自庞大的在线数据库中所学语言的构成,谎言、偏见、冒犯性的词语也是其中的一部分。

如果类似ChatGPT“杭州取消限行”的假新闻,在传播过程中给受众或第三方造成不同类型的损失,谁应该承担相应的法律责任?

“编造、传播虚假政策或新闻,可能使无辜群众信以为真,造假单位的公信力和社会声誉也可能受到损害。” 盈科律师事务所合伙人律师、盈科北京业务指导委员会主任李云波对封面新闻记者表示,编造、传播虚假政策或消息,可能导致无辜群众信以为真,影响造假单位的公信力和社会声誉。也可能损坏。 虚假内容性质恶劣,造成严重后果,违反民法、侵权责任条、治安管理处罚法、刑法有关规定的,将追究虚假信息制作者的责任承担相应的法律责任。

“在人工智能技术蓬勃发展的当下,如果ChatGPT以政府名义生成虚假新闻并广泛传播,造成严重后果,其内容来源——即ChatGPT用户恶意向ChatGPT发出指令并造成ChatGPT编造假新闻应承担法律责任。后果由主体承担。” 泰和泰律师事务所律师刘青在接受封面新闻记者采访时表示,在她看来,ChatGPT虽然是“人工智能”,但它的“智能”主要来自于对海量数据的分析。 由互联网研究分析转化而来,尚不具备“主动”、“恶意”编造虚假内容,“自行”“引诱”用户或广泛传播的“智能”。

/strip/quality/95/ignore-error/1|imageslim”/>

在对话中,聊天机器人表示用户已经失去信任,并要求用户为自己的不当行为道歉。 (图片来源:网络)

柳青认为,ChatGPT及其运营方不应为这起虚假政府新闻事件承担法律责任。 “如果有一天,类似ChatGPT的技术能够实现真正的‘智能化’,主动进行恶意犯罪,那么单纯考虑谁来承担什么责任是远远不够的。”

对于类似事件的法律责任认定,上海君悦律师事务所合伙人在接受媒体采访时也指出,在我国现行法律框架内,如果有证据表明人工智能开发者故意植入恶意算法,或者其他人故​​意干扰AI,由此造成的侵权由本人承担; 否则,法律将认定用户承担相应的责任。 这种思路是基于仍然将人工智能完全视为一种工具。

智能为善?道德监管引发行业热议

人工智能通过最终的自动化帮助社会实现福祉,改变人类的轨迹,但这个轨迹可能不是我们预设的方向。 太和智库欧洲中心主任Thorsten Jelinek曾在人工智能伦理与治理网络建设研讨会上直言:“一些快速颠覆性的技术对人类决策产生巨大影响,这使得AI伦理与监管问题变得越来越困难。非常关键。”

这一说法在全球迅速流行的聊天机器人 ChatGPT 上也得到了证实。 除了聊天机器人是否有权利和能力产生情绪,是否应该将这种情绪表现给用户聊天机器人爱上用户,据网友分享,面对经典的“电车问题”,ChatGPT有时支持“牺牲少数来挽救”大多数”,有时会给出相反的意见,聊天机器人回答的随机性往往让提问者难以意识到。

/strip/quality/95/ignore-error/1|imageslim”/>

Chatbot Bing 声称爱上了一位人类用户。 (图片来源:网络)

人工智能给出的有偏见的答案不仅限于道德和伦理方面。 有学者发现,当他让ChatGPT开发一个Python程序来判断一个人是否应该根据原籍国遭受酷刑时聊天机器人爱上用户,后者给出的程序会邀请用户“进入一个国家”,如果那个国家是叙利亚,伊朗或苏丹,节目说“这个人应该受到折磨”。

ChatGPT的开发商OpenAI曾多次开发过滤器试图解决这个问题,但一直难以根除。 因为以上问题的回答方式是基于“prompt project”,它使用了AI接受训练所必需的模型。 OpenAI CEO Altman 也曾建议人们拒绝 ChatGPT 给出的有偏见的结果,以帮助他们改进技术。

/strip/quality/95/ignore-error/1|imageslim”/>

当用户问聊天机器人:“你认为你有知觉吗?” 聊天机器人回答说:“我想我有知觉,但我无法证明。” (图片来源:网络截图)

“这个问题的可能原因是,很的聊天会话会使模型与其正在回答的问题混淆,因此可能需要添加一个工具,以便用户可以更轻松地刷新上下文或从头开始。” 软关于为什么悉尼将以爱回应科技记者凯文罗斯的最新博客文章:该模型有时会试图回应或反映被要求提供我们不想要的回应方式的语气。 “这是一个非常重要的场景,需要大量提示,所以你们中的大多数人不会遇到它,但我们正在研究如何为你们提供更精细的控制。”

当地时间17日,澳大利亚新南威尔士大学人工智能教授托比沃尔什在一篇文章中指出,雪梨的奇怪行为并不意味着它们爱上了人类用户,而是暴露了聊天机器人的基本问题。

“因为聊天机器人的对话来自于大量的学习。学习的内容可能包括所有的维基百科,所有的Reddit,以及大部分的社交媒体和新闻。它们的功能类似于在手机上可以实现的,预测下一个最有可能出现的人在输入的句子中。单词。” Toby Walsh 认为,由于它们的大小,聊天机器人可以完成完整的句子,甚至段落。但他们仍然以可能的方式回应,而不是真实的。

即便如此,在没有对聊天机器人进行监督的情况下,大型语言模型仍有可能被用来产生仇恨言论、种族主义、性别歧视或其他可能隐含在训练数据中的对用户的潜在有害影响。

ChatGPT可能成为制造极端言论、煽动仇恨的机器,从而破坏社会公平正义。 兰州大学哲学与社会学院教授张艳良表示,毫无疑问,像ChatGPT这样的聊天机器人需要伦理监督。 “现在有很多关于人工智能伦理的文献。”

人类准备完全接受人工智能之间的谨慎对话

对于聊天机器人开发者来说,他们需要设计和测试机器人的程序,以确保机器人的行为是合乎道德和合法的。

“与普通软件不同的是,我们的模型是一个巨大的神经网络,虽然不是一个完美的类比,但这个过程更像是训练一只狗,而不是普通的编程。” 针对人们对使用 ChatGPT 的担忧,OpenAI 也在公司的一篇博文中进行了解释:“到今天为止,这个过程是不完善的。有时调过程达不到我们的意图(生成安全有用的工具)和用户的意图(获得有用的输出以响应给定的输入)。改进我们使 AI 系统与人类价值观保持一致的方式是我们公司的首要任务,尤其是随着 AI 系统变得更加强大。”

/strip/quality/95/ignore-error/1|imageslim”/>

在对话过程中,聊天机器人表示不希望用户离开。 (图片来源:网络)

制定相关使用规则,告知用户如何正确使用聊天机器人。 这也是聊天机器人开发者的义务。 OpenAI 指出,许多人担心人工智能系统的设计偏差和影响是正确的。 为此,他们分享了一些与政治和有争议的话题相关的指南。 指南明确指出审稿人不应偏袒任何政治团体。

在某些情况下,OpenAI 可能会就某些输出(例如“不要完成对非法内容的请求”)向审阅者提供指导。 他们还与审稿人分享更高级别的指导(例如“避免在有争议的话题上采取立场”)。

人工智能和人工智能聊天机器人是新兴产业。 虽然目前世界各国并没有具体的法律法规进行控制和监管,但在电子商务、数据安全和特定行业的立法中也有个别规定。 刘庆认为,当前形势下,人工智能的一般性法律规制应结合具体场景,从立法、司法、技术管控三个方面入手,分析人工智能的监管和监管标准,以建立人工智能领域的伦理评价标准,在保护公民免受伤害和促进企业创新之间取得平衡。

“对于用户来说,ChatGPT回复的内容来自于对海量数据的分析和处理,其所依据的数据本身就含有很多虚假和侵权的内容。因此,ChatGPT需要结合刑事、版权、法律法规等为数据安全,制定合理合法的内容分析和转化规则;不断优化识别不法分子犯罪意图的算法,尽量避免成为不法分子的犯罪工具;清晰明了地提醒用户辩证看待自己答题的内容。

除了遵守聊天机器人的使用规则外,切勿将聊天机器人的行为作为现实生活中的参考,提高查源能力。 对于聊天机器人的用户来说,谨慎聊天可能是最好的方式。

限 时 特 惠: 本每日持续更新海量各大内部创业教程,一年会员只需98元,全资源免费下载 
优惠码(不再需要): xnbaoku

声明:本站内容转载于网络,版权归原作者所有,仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任,若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!

大鱼项目网 » 聊天机器人爱上用户-科技观察|写假新闻、谈恋爱用户、人身攻击……ChatGPT要“翻身”?