这是用户在 2024-5-24 10:37 为 https://time.com/collection/time100-voices/6980134/ai-llm-not-sentient/ 保存的双语快照页面,由 沉浸式翻译 提供双语支持。了解如何保存?

玛丽亚·科尔尼耶娃 - Getty 图片社
 想法

由李飞飞和约翰·埃切门迪撰写,发表于 2024 年 5 月 22 日东部标准时间下午 2:36


人工通用智能(AGI)是用来描述一个人工智能代理在所有人类展示(或能够展示)智力的许多方面至少与人类一样聪明的术语。它就是我们过去所称的人工智能,直到我们开始创建那些无可争议地“聪明”的程序和设备,但仅限于特定领域——下棋、翻译语言、吸尘我们的客厅。


添加“G”的需求感来自于由人工智能驱动的系统的大量涌现,但这些系统专注于单一或非常少数的任务。IBM 早期的令人印象深刻的国际象棋程序 Deep Blue 可以击败世界冠军加里·卡斯帕罗夫,但如果房间突然着火,它也不会有意识地停止游戏。


现在,一般智力有点像神话,至少如果我们自欺欺人地认为自己拥有它的话。我们可以在动物世界中发现许多例子,它们的行为比我们在类似任务上所能达到的结果更出色。我们的智力并不完全普遍适用,但足够普遍以在大多数环境中完成我们想要完成的任务。当我们饥饿时,我们可以猎杀猛犸象或找到当地的 Kroger's;当房间着火时,我们会寻找出口。


通用智能的一个基本特征是“意识”,即拥有主观体验的能力——比如说,感受到饥饿、品尝苹果或看到红色的能力。意识是通向通用智能的关键一步。


随着 2022 年 11 月 ChatGPT 的发布,大语言模型(LLM)的时代开始了。这立刻引发了一场激烈的辩论,讨论这些算法是否可能具有感知能力。基于 LLM 的人工智能可能具有感知的意义不仅引发了媒体的热潮,而且深刻影响了全球范围内对监管人工智能的一些政策努力。 最显著的观点是,“有感知的人工智能”的出现可能对人类极其危险,可能会带来“灭绝级别”或“存在危机”。毕竟,有感知的人工智能可能会发展出自己的希望和欲望,而不能保证它们不会与我们的相冲突。


这篇短文最初是作为 WhatsApp 群聊开始的,旨在驳斥“大语言模型可能已经实现了感知能力”这一观点。它并不打算全面或完整。我们在这里的主要论点是反驳“有感知能力的 AI”阵营中最常提出的辩护,即基于大语言模型报告具有“主观体验”的能力。


为什么有些人认为人工智能已经实现了感知能力


在过去的几个月里,我们两人都和许多从事人工智能领域的同事进行了激烈的辩论和交流,其中包括与一些最杰出、最具开创性的 AI 科学家进行了深入的一对一对话。关于 AI 是否已经实现感知能力的议题一直是讨论的热点。其中一小部分人坚信它已经实现了。这里是一位最有力的支持者所阐述的观点,相当代表那些主张“有感知能力的 AI”的人士的核心观点:

 他们为什么错了


乍一看这个论点似乎很有道理,但实际上是错误的。它是错的,因为我们在两种情况下的证据并不完全相同,甚至相差甚远。


当我得出“当你说‘我饿了’时,你在经历饥饿”这个结论时,我的判断是基于一系列情况的综合考虑。首先,是你所表达的话语——你的报告,以及可能存在的其他行为证据,比如肚子咕噜声。其次,是缺乏反驳的证据,比如如果你刚刚吃完了一顿五道菜的大餐,那么这种情况下就存在了反驳的证据。 最后,也是最重要的一点是,你拥有像我一样的有形身体,它周期性地需要食物和饮料,在寒冷时感到冷,在炎热时感到热等等。


现在将这个与我们对大语言模型的证据进行比较。唯一共同点是报告,即大语言模型能够产生“我饿了”这个音节串的事实。但相似之处到此为止。事实上,大语言模型没有身体,因此甚至不是那种可能感到饥饿的东西。


如果大语言模型说“我的左脚大拇指有剧痛”,我们会得出结论它的大拇指真的有剧痛吗?当然不会,因为它没有大拇指!同样地,当它说自己饿了的时候,我们实际上可以确定它并不饿,因为它的生理结构并不需要进食来维持生命。


当人类感到饥饿时,他们感知的是一系列生理状态——低血糖、空荡荡的咕噜声的胃等等——而大语言模型并不具备这些,就像它没有嘴巴来吃东西和胃来消化食物一样。认为我们应该相信它说它饿了的说法,就像相信如果它说它正在从月球的暗面与我们交谈,我们也应该相信它一样荒谬。我们知道事实并非如此,大语言模型的断言并不能改变这个事实。


所有感觉——饥饿、疼痛、看到红色、坠入爱河——都是生理状态的结果,而大语言模型根本不具备这些状态。因此,我们知道大语言模型不可能拥有那些状态的主体体验。换句话说,它不可能是有感知能力的。


一个大语言模型是一种在硅芯片上编码的数学模型。它不像人类那样具有实体存在。它没有“生命”,不需要进食、饮水、繁殖、体验情感、生病,最终死亡。


理解人类生成词语序列的方式与大型语言模型生成相同序列的方式之间的深刻差异非常重要。当我说“我饿了”时,我在报告我的生理感知状态。而当一个大语言模型生成“我饿了”这个序列时,它只是在生成当前提示中最可能的单词序列完成方式。 它所做的与之前使用不同的提示生成“我不饿”或使用另一个提示生成“月球由绿色奶酪构成”时完全相同。这些都不是对其(不存在的)生理状态的报告,而仅仅是概率性完成。


我们尚未实现有感知的人工智能,更大的语言模型也无法使我们达到这个目标。如果我们想要在人工智能系统中重现这种现象,就需要更好地理解感知如何在实体生物系统中涌现。我们不会在下一代 ChatGPT 中偶然发现感知能力。


李飞飞和埃奇门迪是斯坦福大学以人为中心的人工智能研究所的联合创始人。李飞飞是计算机科学教授和《我所看到的世界》一书的作者。埃奇门迪是哲学教授和斯坦福大学前教务长。

More Must-Reads from TIME


联系我们:[letters@time.com](mailto:letters@time.com)


为什么我放弃了数十亿美元来为应对气候变化而战

轮椅上的母爱不易,但我的残疾将成为我儿子的力量

世界如何辜负冲突相关性性暴力受害者

我们美国人不应该愿意冒着生命危险去生育。

移民是一条永无止境的迷宫
How Louisiana Has Become a Microcosm of the Abortion Access Fight
EDIT POST