计算机科学家讨论ChatGPT的利弊

计算机科学家讨论ChatGPT的利弊

计算机科学家讨论ChatGPT的利弊。Credit: Pixabay/CC0 Public Domain

(神秘的地球uux.cn)据by Johns Hopkins University:凭借其模仿人类语言和推理的神奇能力,ChatGPT似乎预示着人工智能的一场革命。自从硅谷研究实验室OpenAI在11月发布自然语言处理工具以来,用户已经测试了无数应用程序,其中包括灵活的聊天机器人可以召唤诗歌和散文,分享食谱,翻译语言,提供建议和讲笑话。

伴随着兴奋而来的是一些恐惧——技术可能会降低真实的人类写作和批判性思维,颠覆行业,并放大我们自己的偏见和成见。

约翰霍普金斯大学计算机科学助理教授丹尼尔·哈沙比说,对于那些从事人工智能工作的人来说,ChatGPT不仅仅是一夜之间的轰动,而是多年实验后取得成就的标志,他专门研究语言处理,并研究过类似的工具。

“ChatGPT似乎是一场突如其来的革命,”他说。"但这项技术多年来一直在逐步发展,最近几年进展迅速."

然而,Khashabi承认ChatGPT似乎开创了一个前所未有的时代,一个充满人类进步潜力的时代。“这真的是我们修正对智慧含义理解的机会,”他说。“这是一个激动人心的时刻,因为我们有机会应对新的挑战和新的前景,而这些过去是我们力所不及的。”

随着微软对该工具的投资,OpenAI发布了一个付费版本,谷歌计划发布自己的实验性聊天机器人,该中心向Khashabi了解了该技术及其发展方向。

能不能分解一下ChatGPT的工作原理?

第一阶段不涉及直接的人类反馈。该模型通过从网络上回流大量文本来学习语言的结构——例如,来自维基百科、Twitter、Reddit、纽约时报等所有不同语言的句子和段落。它还接受了来自GitHub等平台的程序员编写的代码的训练。

在第二阶段,[通常称为“自我监督”学习],人类注释者参与训练模型变得更加复杂。他们对ChatGPT收到的各种类型的查询编写响应,因此该模型学习执行像“就这个主题写一篇文章”或“修改这一段”这样的命令。

因为OpenAI坐拥一座金矿,他们有能力雇佣许多注释者,并让他们注释大量高质量的数据。我通过小道消息听说,最初的系统被输入了近100,000轮人类反馈。所以这背后有大量的人力。

但OpenAI的秘密武器不是其人工智能技术,而是使用其服务的人。每当有人查询他们的系统时,他们会收集这些查询,以使ChatGPT适应用户正在寻找的内容,并识别他们系统的弱点。换句话说,OpenAI的成功在于赢得了数百万人使用它的演示。

你个人是如何体验ChatGPT的?

它可以是一个优秀的写作和头脑风暴工具。我可以写一个我脑海中的想法的摘要,让ChatGPT更复杂地扩展它,然后挑选我喜欢的结果并自己进一步开发它们或继续使用ChatGPT。这就是人机协同写作。正如Twitter上有人恰当地说的那样,“ChatGPT是你大脑的电动自行车!”

你对它受到的关注和压力有什么看法?

这是人工智能进步的又一个里程碑,值得庆祝。令人兴奋的是,人工智能和自然语言处理越来越接近于帮助人类完成他们关心的任务。

然而,我担心过分夸大人工智能的状态。已经取得了进展,但“普遍智能”仍未出现。在过去的几十年里,每当我们进步的时候,我们都会不断地修正我们对“聪明”的理解。在20世纪60年代和70年代,我们的目标是创建一个与人类对弈的系统。这样的例子还有很多。每一次进步,我们都会想:“就是这样!”但是过了一段时间,炒作就销声匿迹了,我们看到了问题并发现了新的需求。

“智能”一直是一个不断变化的目标,并且很可能继续保持下去,但我对在解决ChatGPT类系统的缺点方面取得的进展感到兴奋。

那些缺点是什么?

ChatGPT编东西很容易。如果你问ChatGPT一些它没见过的小众的东西,它会用流畅的议论文式的语言幻觉出事实。例如,如果你问它如何定义“维纳斯·大威廉姆斯在哪届锦标赛上赢得她的第八个大满贯?”它会为你补上一个答案,尽管维纳斯·大威廉姆斯已经赢得了七个大满贯。正如许多媒体报道的那样,她想赢得她的第八个冠军,但她没有。这个模型混淆了“想赢”和“赢了”这两个概念。

问题是它做得如此流畅。它可以给你垃圾,但在如此流畅,连贯的语言中,如果你不是该领域的专家,你可能会相信它说的是真的。这让我很担心,我认为我们人类在看似清晰的输出面前很容易受骗。

另一方面,ChatGPT有什么令人兴奋的地方?

我们现在有了这些工具,可以产生有创造性的和流畅的语言,这是我们花了多年时间解决的一个挑战。作为一名人工智能科学家,我的兴奋之处在于接下来的步骤,我们有新的问题需要人工智能来解决。

我对人工智能的目标——逆向工程人类智能——不太感兴趣,而更感兴趣的是智能增强。我认为使用人工智能使人类能够做得更好并增强人类能力是一个有价值的目标。我对这种协作系统感到兴奋。

你如何看待技术的发展?

我们仍处于这种变化之中,但我们将继续使语言模型更有效,从而产生更紧凑但质量更高的模型。因此,我们将在任何地方看到非常可靠的对话代理形式。未来的模型将是你的网络导航助手,完成我们现在自己做的各种基于网络的普通任务。

同样的一套技术也开始进入现实世界。当前的模型,如ChatGPT,不能感知它们的环境。比如他们看不到我的手机在哪里,看不到我有多累。很快我们就会看到有眼睛的ChatGPT。这些模型将使用不同形式的数据(文本、视觉、听觉等。),这是他们每天为我们服务所必需的。

这将导致基于其物理环境数据的自我监督机器人,包括物理对象、人类及其交互。这里的影响将是巨大的。在不到10年的时间里,我们日常使用的任何物理设备——汽车、冰箱、洗衣机等等。—将成为您可以与之交谈的对话代理。我们还将看到机器人在解决今天不可能解决的问题方面惊人的强壮。想象一下,你要和你的Roomba谈论你想做或不想做的事情,就像你和ChatGPT交谈一样。

同样重要的是,不要忽视这些技术将如何在社会层面上改变事物。未来的多模态模式——有眼睛和耳朵的聊天机器人——将无处不在,并将影响一切,包括公共安全。但现在问题来了:在一个我们不断被有眼睛和耳朵的人工智能模型监视的社会里,我们的自由和隐私会是什么样子?

这听起来像是著名小说《1984》描述的反乌托邦社会。像任何其他技术一样,自我监督模型是一把双刃剑。我们现在能做的最好的事情就是保持警惕,在应用程序出现之前预见并讨论这些问题。理想情况下,我们需要通过从ChatGPT等例子向其未来扩展进行外推,来开发确保我们的自由和公平的框架。我很乐观,我们会的。




上一篇 下一篇 TAG: ChatGPT