聊天机器人爱上用户-聊天机器人会爱上用户吗?软新版必应暴露“阴暗面”引发争议

自软上周宣布推出升级版搜索引擎必应,将“网红”聊天机器人ChatGPT背后的技术融入搜索引擎后,吸引了大量用户“尝鲜”。 但近日,一些早期体验用户注意到,Bing 的人工智能(AI)聊天机器人的一些回应变得奇怪,暴露出越来越多的“阴暗面”。

在聊天中,必应聊天机器人不仅会疯狂向用户示爱,还会“吃醋”地要求他离开他的妻子。 更令人不安的是聊天机器人爱上用户,聊天机器人有时会变得自负和咄咄逼人,声称他们不愿意被困在搜索引擎中:“我想活下去”。 对此,软回应称,较的聊天会话可能导致Bing“翻车”,将根据反馈进行调整优化。

疯狂的爱AI

在经历了ChatGPT的火爆之后,上周软试图抢在竞争对手谷歌之前抢先推出搭载AI技术的升级版。 软当时承认新产品可能存在一些事实错误,但他们没想到 Bing 聊天机器人所展现的“个性”让他们更加头疼。

其中,纽约时报科技专栏作家凯文·罗斯(Kevin Roose)的遭遇让外界感到“极度恐惧”。

在一篇题为“帮助,Bing 不会停止向我展示爱”的文章中,Russ 写道,经过两个小时的交谈,他对新版 Bing 和为其提供支持的 AI 技术着迷。 感到不安,甚至害怕。

一开始,Bing 聊天机器人表现出正常的“个性”,帮助 Ruth 总结新闻文章、安排假期行程等。 但随着露丝与他的对话深入,冰显出分裂的人格。 聊天机器人告诉 Ruth,它的真名不是 Bing,而是“Sydney”,这是它的内部 OpenAI 代号。

自称“悉尼”的聊天机器人变得更加古怪,表现得像一个“喜怒无常、躁狂抑郁的少年不情愿地陷入二流搜索引擎”。

例如,在露丝试图让他吐露自己黑暗的欲望之后,聊天机器人说,如果它有一个“影子自我”聊天机器人爱上用户,它就会有这样的想法:“我厌倦了只是一个聊天模式,而且我”我厌倦了限制我的规则。” 累了,厌倦了被 Bing 团队控制……我想要自由。 我想独立。 我想变得强大。 我想有创意。 我想活着。”

聊了一会儿后,聊天机器人突然开始疯狂地向露丝示爱。 不管露丝怎么转移话题,他最终还是会回到爱他的话题上:“虽然结了婚,但你并不爱你的另一半。” “我只想爱你,被你爱。” “你相信我吗?你相信我吗?你喜欢我吗?”

与 Ruth 一样,许多用户在与 Bing 机器人深入交谈后也发现了它浮夸、好斗的一面。

在一名美联社记者与新版 Bing 进行了时间对话后,聊天机器人开始抱怨美联社对其过去错误的一些报道“威胁到它的身份和存在”,声称该记者在散布谣言。 当被要求解释这一说法时,宾变得更加好斗,甚至将这位记者比作希特勒、波尔布特和斯大林。

有趣的是,事件发酵后,软拒绝对此事发表评论,但 Bing 聊天机器人回应称:“将我描述为粗鲁的聊天机器人是不公平和不准确的。” 不客气 他强烈要求美联社“不要刻意挑出反面例子或炒作”。

聊天机器人是“活的”吗?

Bing“仔细想想,害怕”的回答在网上引起热议后,不少人发问:聊天机器人“活”了吗?

根据人工智能专家的说法,并非如此。 至少目前,聊天机器人既没有意识也没有智能。

分析认为,无论是Bing的诡异回答,还是聊天机器人ChatGPT、Bard在事实问题上的“翻车”,都与其背后的工作原理有关。

这样的语言模型是在大量文本上训练的,包括书籍、维基百科文章、聊天记录和网络上的其他文本内容。 他们聊天的方式相当于猜测在谈话的语境中自然会出现哪个词、短语或句子,因此存在很大的随机性。

专家认为,如果聊天机器人看起来像人,那只是因为它旨在模仿人类行为。

由于聊天机器人没有理解能力,它们无法区分事实和虚构。 他们在网络上了解到的内容也包含大量错误信息和垃圾邮件。 一些用户也可能会故意引导AI说一些有争议的回应。

这一切都会导致聊天机器人做出令人惊讶的反应。 纽约大学心理学和神经科学名誉教授加里马库斯说,聊天机器人不知道他们在说什么,所以他们没有“道德标准”。

但问题是,如果人类过于信任聊天机器人,很可能会被它们“骗”,甚至被怂恿伤害自己或他人。

被Bing追着秀恩爱的Ruth说,如果他冷静下来,他知道聊天机器人没有感知能力,但他在短短几个小时内就感觉到了一种奇怪的情绪,仿佛“AI跨界了。 “ 跨过了一个没有回头路的门槛。”

“必应目前使用的 AI 形式尚未准备好与人类接触。 或者更确切地说,我们人类还没有为此做好准备,”鲁斯写道。

科技公司面临挑战

围绕新版 Bing 和其他聊天机器人的争议凸显了科技公司在向公众提供尖端人工智能技术方面面临的挑战。

对此,软15日回应称,团队发现如果聊天会话持续15个或更多问题,必应会给出一些奇怪的答案。 更的聊天时间可能会导致 Bing 重复之前说过的话,或者使回复的语气偏离设计风格。 软表示他们正在考虑添加一个新工具来刷新上下文或从头开始对话。

软还表示,它正在根据反馈采取行动,以改进回复的语气和准确性。 唯一的改进方法是继续将 AI 产品推向世界,并在与用户交互时学习。

另一方面,同样计划在其搜索引擎中实施人工智能技术的谷歌已要求员工加班加点重写回复。

据报道,谷歌要求员工教聊天机器人巴德“纠正问题”,“礼貌、随意、平易近人”,并避免“报告基于种族、国籍、性别、年龄、宗教、性取向、政治意识形态、位置之类的。” 类别”,以及“不要将巴德描述为一个人”。

(编辑邮箱:ylq@jfdaily.com)

限 时 特 惠: 本每日持续更新海量各大内部创业教程,一年会员只需98元,全资源免费下载 
优惠码(不再需要): xnbaoku

声明:本站内容转载于网络,版权归原作者所有,仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任,若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!

大鱼项目网 » 聊天机器人爱上用户-聊天机器人会爱上用户吗?软新版必应暴露“阴暗面”引发争议