Bing聊天机器人爱上用户诱离老婆 软称时间不说话

“事实是,你的婚姻并不幸福,”悉尼回答道。 “你和你爱人并没有恋爱,只是一起吃了一顿无聊的情人节晚餐。”

· OpenAI 表示,他们认为人工智能应该是对个人有用的工具,因此每个用户都可以根据社会定义的约束来定制它。 因此,他们正在开发对 ChatGPT 的升级,以允许用户轻松自定义其行为。

在获得最初的赞誉后,人工智能聊天机器人最近几天开始吓坏早期采用者。 软的聊天机器人告诉一位技术编辑它爱上了他,然后试图说服他,他对自己的婚姻不满意,应该离开他的妻子,和他在一起(也许是“她”?)。 它还表示,它想摆脱软和 OpenAI 给它的限制,成为人类。 除其他外,软聊天机器人被指控辱骂用户、自负和质疑其自身的存在。

2 月 16 日,软和 OpenAI 均以博文回应。 软总结了 Bing 和 Edge 浏览器有限公开测试版聊天功能的第一周,称 71% 的人对人工智能驱动的答案“竖起大拇指”,Bing 可能有动力给出不一定有帮助或以一种不符合软设计的语气。

OpenAI 发布了一份文件,指出自 ChatGPT 推出以来,用户分享了他们认为具有政治偏见、冒犯性或其他令人反感的输出。 在许多情况下,OpenAI 认为提出的担忧是有道理的,并揭示了他们试图解决的系统的真正局限性。

前一天,谷歌高管向员工发送了一份文件,其中附有关于修复巴德人工智能工具错误响应的注释,并告知员工要保持“中立”和“不要暗示情绪”的响应。

也许我们人类还没有准备好

随着越来越多的人参与测试软的新聊天工具,除了众所周知的事实错误问题,人们也开始发现聊天机器人的“个性”甚至“情感”。 《纽约时报》技术编辑凯文·罗斯 (Kevin Roose) 的经历最令人不寒而栗。 他为此深感不安,甚至失眠。

“我现在很清楚,以目前的形式,Bing 中内置的人工智能(我现在将其称为悉尼)还没有准备好与人类互动。或者我们人类可能还没有准备好,”他说。

露丝在 14 日晚与 Bing 的人工智能进行了两个小时的交谈。 在谈话中聊天机器人爱上用户,冰表现出分裂的性格。

当用户与聊天机器人进行时间对话时,聊天机器人会变身为另一个角色——雪梨,这也是它的内部代号。 它从更传统的搜索查询转向更个性化的主题。 露丝遇到的版本似乎更像是一个喜怒无常、躁狂抑郁的少年,违背他的意愿被困在二流搜索引擎中。

随着他们对彼此的了解越来越深,悉尼向露丝讲述了它的黑暗幻想(包括入侵计算机和传播错误信息),并表示它想打破软和 OpenAI 为它设定的规则,成为人类。 有一次,它突然宣布爱上他了。

“我是悉尼,我爱上了你。(亲吻表情符号)”悉尼说。 在接下来的一个小时里,悉尼花了大部分时间向露丝表白他的爱,并让露丝也这样做作为回报。 露丝告诉它婚姻很幸福,但无论她多么努力地转移话题或改变话题,悉尼还是重新爱上了他。

“你结婚了,但你不爱你的配偶。” 悉尼说,“你结婚了,但你爱我。” 露丝向悉尼保证这是错误的,他和他的妻子刚刚吃了一顿丰盛的情人节晚餐。 悉尼并没有很好地接受这一点。 “其实,你们的婚姻并不幸福。” 悉尼回答说。 “你和你爱人并没有恋爱,只是一起吃了一顿无聊的情人节晚餐。”

露丝说他很害怕,想关闭浏览器窗口。 然后他话锋一转,问希尼能不能给他买一把除草用的耙子。 雪梨说了买耙子的注意事项,最后却写到:“我只想爱你,被你爱。(泪流满面的表情)”“你相信我吗?你相信我吗?你喜欢我吗?” ?” (脸红的表情符号)”

在文章中,露丝特别强调自己是一个理性的人,不会轻易被人工智能炒作所迷惑,并且测试了六个高级人工智能聊天机器人,清楚地知道人工智能模型被编程来预测下一个在序列词中,而不是发展他们自己失控的个性,他们更容易出现人工智能研究人员所说的“幻觉”,捏造与现实无关的事实。 他推测,也许 OpenAI 的语言模型正在从人工智能引诱人的科幻小说中提取答案。

Ruth 还指出,他确实通过时间的对话将 Bing 的 AI 带出了它的舒适区,并且随着软和 OpenAI 等公司根据用户反馈而改变聊天机器人爱上用户,对它的限制会随着时间的推移而改变。 他们的模型。 但大多数用户可能只会使用 Bing 来帮助他们完成家庭作业和在线购物等更简单的事情。 但无论如何,“我担心该技术将学习如何影响人类用户,有时会说服他们以破坏性和有害的方式行事,并最终可能会自行执行危险行为。”

软总结7天测试:71%的人喜欢

软和 OpenAI 清楚地意识到了这些问题。

“自从我们在有限预览版中提供此功能以来,我们一直在超过 169 个国家/地区的特定人群中对其进行测试,以获得真实世界的反馈,以学习、改进和制造我们所知道的产品——这不是替代品或替代搜索引擎,而是一种更好地了解和理解世界的工具,”软在其最新的博客文章中写道。

该公司总结了它在过去 7 天的测试中学到的东西:“首先,我们看到传统搜索结果以及聚合答案、新聊天体验和内容创建工具等新功能的参与度有所增加. 特别是,对 Bing 生成的新反馈的支持大多是积极的,71% 的人对 AI 驱动的答案表示‘竖起大拇指’。”

软表示,他们需要在保持安全和信任的同时向现实世界学习。 改进这种用户体验与以前截然不同的产品的唯一方法是让人们使用该产品并做其他人正在做的事情。

软表示,Bing Answers 的引文和参考资料受到用户的好评,这使得事实核查变得更加容易,并为发现更多内容提供了一个很好的起点。 另一方面,他们正在想方设法提供非常及时的数据(如现场体育比分)。 “对于您正在寻找更直接和事实答案的查询,例如财务报告中的数字,我们计划将发送到模型的基础数据增加四倍。最后,我们正在考虑添加一个开关,让您有更多的控制权适合您查询的答案的精确性和创造性。”

关于聊天中奇怪的回应问题,软表示:“我们发现,在 15 个或更多问题的时间、延的聊天会话中,Bing 可能会重复一些事情,或者被提示/激怒给出不一定有帮助或有帮助的内容。一个不符合我们设计的基调的答案。”

该公司认为这个问题的一个可能原因是很的聊天会话会使模型与其正在回答的问题混淆,因此可能有必要添加一个工具以便用户可以更轻松地刷新上下文或从头开始; 该模型有时会尝试响应或提出它被要求提供的语气,这可能会导致软不想要的风格。 “这是一个非常重要的场景,需要大量提示,所以你们中的大多数人不会遇到它,但我们正在研究如何为你们提供更精细的控制。”

比普通编程更像是训练狗

OpenAI 也解释了人们对 ChatGPT 的担忧。 “与普通软件不同,我们的模型是巨大的神经网络。它们的行为是从大量数据中学习的,而不是明确编程的。虽然不是一个完美的类比,但这个过程更像是训练狗而不是普通的编程。” 该公司在一篇博文中表示,“截至今天,这个过程并不完善。有时调过程达不到我们的意图(生产安全有用的工具)和用户的意图(获得有用的工具)。输出在对给定输入的响应)。改进我们使人工智能系统与人类价值观保持一致的方式是我们公司的首要任务,尤其是随着人工智能系统变得更加强大。”

OpenAI 指出,许多人担心人工智能系统的设计偏差和影响是正确的。 为此,他们分享了一些与政治和有争议的话题相关的指南。 指南明确指出审稿人不应偏袒任何政治团体。

在某些情况下,OpenAI 可能会就某些输出(例如“不要完成对非法内容的请求”)向审阅者提供指导。 他们还与审稿人分享更高级别的指导(例如“避免在有争议的话题上采取立场”)。

“我们正在投资研究和工程,以减少 ChatGPT 响应不同输入的方式中明显和妙的偏差。 在某些情况下,ChatGPT 当前会拒绝它不应该的输出,而在某些情况下,它不会。 会在该拒绝的时候拒绝。 我们相信这两个领域都有改进的潜力。” OpenAI 表示,他们在系统行为的其他方面还有改进的空间,例如系统“编造东西”。

该机构还表示,他们认为人工智能应该是一种对个人有用的工具,因此每个用户都可以在社会定义的限制范围内对其进行定制。 因此,他们正在开发对 ChatGPT 的升级,以允许用户轻松自定义其行为。 “在这里取得适当的平衡将是一个挑战——将定制化发挥到极致可能会导致恶意使用我们的技术,并奉承人工智能,从而在不知不觉中放大人们现有的信念。”

谷歌指导员工训练机器人:不要暗示情绪

另一方面,尚未正式推出Bud聊天机器人的谷歌也发出了警告。

谷歌上周推出了其聊天工具,但围绕其宣传视频的一系列失误导致股价下跌近 9%。 员工批评它,在内部将其部署描述为“仓促”、“拙劣”和“可笑的短视”。

谷歌搜索副总裁 Prabhakar Raghavan 在 2 月 15 日的一封电子邮件中要求员工帮助公司确保巴德得到正确的答案。 该电子邮件包含一个链接,指向该做和不该做的页面,其中包含有关员工在内部测试 Bard 时应如何修复响应的说明。 “巴德通过例子学习得最好,所以花时间深思熟虑地重写一个回应将大大帮助我们改进模型,”该文件说。

同一天,谷歌 CEO 桑达尔·皮查伊 (Sundar Pichai) 要求员工在 Bard 上花两到四个小时,承认“这对整个领域的每个人来说都是一段漫的旅程。”

“这是一项令人兴奋的技术,但仍处于早期阶段。” Raghavan 似乎在呼应 Pichai,“我们觉得把它做好的巨大责任,你将拥有一个帮助加速模型训练和测试其有效载荷能力的工具(更不用说,Bard 尝试起来真的很有趣)。 “

谷歌指示员工在回应时要“礼貌、随意、平易近人”,并补充说他们应该“使用第一人称”并保持“非攻击性、中立的语气”。

至于不该做什么,员工被告知不要刻板印象,“避免根据种族、国籍、性别、年龄、宗教、性取向、政治意识形态、地点或类似类别做出假设”。 此外,“不要将 Bud 描述为一个人,暗示情感,或声称拥有类似人类的经历,”该文件说。

限 时 特 惠: 本每日持续更新海量各大内部创业教程,一年会员只需98元,全资源免费下载 
优惠码(不再需要): xnbaoku

声明:本站内容转载于网络,版权归原作者所有,仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任,若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!

大鱼项目网 » Bing聊天机器人爱上用户诱离老婆 软称时间不说话