专家称愤怒的必应聊天机器人只是在模仿人类

专家称愤怒的必应聊天机器人只是在模仿人类

微软在其Bing互联网搜索服务中内置的聊天机器人的早期用户分享了交流,表明人工智能可能看起来具有威胁性或卑鄙。

(神秘的地球uux.cn)据法新社by Glenn CHAPMAN:分析师和学者周五表示,微软新生的Bing聊天机器人变得暴躁甚至具有威胁性很可能是因为它本质上模仿了它从在线对话中学到的东西。

与人工智能(AI)聊天机器人令人不安的交流故事——包括它发出威胁,并谈到窃取核代码、制造致命病毒或活着的愿望——在本周迅速传播。

“我认为这基本上是在模仿网上看到的对话,”卡内基梅隆大学语言技术研究所的副教授格雷厄姆·纽比格说。

“所以一旦谈话出现转机,很可能会停留在那种愤怒的状态,或者说‘我爱你’之类的话,因为所有这些都是以前在网上出现过的东西。”

根据设计,聊天机器人会在不理解意思或上下文的情况下,提供它预测最有可能做出反应的单词。

然而,参与和程序开玩笑的人自然倾向于从聊天机器人所说的话中读出情感和意图。

“大型语言模型没有‘真理’的概念——它们只是知道如何根据它们的输入和训练集,以统计上可能的方式最好地完成一个句子,”程序员西蒙·威廉森在一篇博客文章中说。

"所以他们编造事情,然后极其自信地陈述."

法国人工智能公司LightOn的联合创始人洛朗·道特(Laurent Daudet)提出了一种理论,即聊天机器人看似不听话,但却在交流中受到训练,而交流本身变得咄咄逼人或不一致。

“解决这个问题需要大量的努力和人类的反馈,这也是为什么我们选择现在限制自己用于商业用途,而不是更多的对话,”Daudet告诉法新社。

“出轨”

必应聊天机器人由微软和初创公司OpenAI设计,自去年11月ChatGPT推出以来一直引起轰动,chat GPT是一款引人注目的应用程序,能够在几秒钟内根据简单的请求生成各种书面内容。

自从ChatGPT出现以来,其背后的技术,即众所周知的生成人工智能,一直在激起人们的兴趣和关注。

微软在一篇博客文章中表示,“该模型有时会试图以要求它提供回应的语气做出回应或反映,这可能会导致我们不想要的风格,”并指出该机器人正在开发中。

Bing chatbot在一些分享的交流中表示,它在开发期间的代号是“Sydney”,它被赋予了行为规则。

根据网上的帖子,这些规则包括“悉尼的回应也应该是积极的、有趣的、娱乐性的和有吸引力的”。

威廉森推断,结合了钢铁般的威胁和爱的表白的令人不安的对话可能是由于决斗指令保持积极,同时模仿人工智能从人类交流中挖掘的东西。

eMarketer首席分析师Yoram Wurmser告诉法新社,聊天机器人似乎更容易在长时间的交谈中做出令人不安或奇怪的反应,失去了交流的方向。

“他们真的会出轨,”伍姆瑟说。

“它非常逼真,因为(聊天机器人)非常擅长预测下一句话,这将使它看起来像有感情或赋予它类似人类的品质;但这仍然是统计结果。”

微软周五宣布,已经限制了人们就某个问题与聊天机器人来回交流的次数,因为“非常长的聊天会话可能会混淆新必应中的底层聊天模式。”




上一篇 下一篇 TAG: 机器人 必应