人工智能(AI)的历史无法完全与可追溯至古代世界的整体技术发展分割开来。就像算盘一样,我们今天所称的 AI 机器能够再现并自动化我们的形式化和认知能力,只是其抽象程度更高。更正式地说,AI 研究始于战后时期的“符号”范式,该范式试图在软件架构中编程实现人类的逻辑、知识、本体论和语义等能力。这比听起来要困难得多。尽管整个领域始终充满乐观情绪,但符号方法遇到了重大的后勤和概念局限性,并在世纪之交开始陷入停滞。
另一种竞争性方法——机器学习——开发了通过“蛮力”优化来模拟人类思维某些基本效应的算法。起初,这一范式受限于数据和计算能力的匮乏,但在新千年到来时,这些瓶颈被打破:互联网积累了海量信息,而一种小众技术(图形处理单元,即 GPU,原本用于个人电脑和游戏机)被证明对机器学习模型所需的高强度计算非常有用。
2011 年,计算机科学家 Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton 设计了一种神经网络(一种松散借鉴大脑结构的模型),以应对传奇性的 ImageNet 竞赛——一个在当时被许多人工智能研究人员嘲笑的、资金拮据的自动图像标注比赛。该团队的模型以 85%的准确率描述图像,相较于此前的尝试有了重大提升。很快,人工智能研究的大部分资源被重新导向这一此前被忽视的子领域,这最终促成了如今推动社交媒体、搜索引擎和电子商务的神经网络,以及一种全新的消费级产品的诞生。
2015 年,一个名不见经传的非营利组织 OpenAI 由 Sutskever、Elon Musk、Sam Altman 以及一批计算机科学家和工程师创立。七年后,该组织发布了 ChatGPT,将生成式 AI 介绍给公众,并且正如一篇文章所形容的那样,这款产品的营销是“零宣传”。OpenAI 对其反响措手不及,未能为涌入的流量准备足够的计算能力。那还是三年前的事。如今,生成式 AI 已经无处不在,而 OpenAI 的估值被推测高达 3000 亿美元。
没有人会对这段简短的技术史感到惊讶:历史的反复无常——进步的跳跃、循环与停滞;奇怪的偶然性(GPU);共识的谬误;认可的随意性;成功的令人抓狂的不可预测性。然而,一种流行的幻想却提供了一个更整齐的叙事,把计算机历史简化为一条可绘制的胜利与顿悟的时间线,在这种叙事中,进步是轻而易举且稳定呈指数增长的。我指的是围绕 AI 的炒作——那些由行业推动、吹遍社会各个角落的热空气,以及它们意图点燃的文化狂热。
普林斯顿大学计算机科学家 Arvind Narayanan 和 Sayash Kapoor 撰写了 《AI Snake Oil》 ,旨在帮助非专业公众依靠“常识性的方法来评估所谓的进步是否可信”,从而识别并抵制 AI 炒作。作者并不否认生成式 AI 在“真实且显著”的进步,但他们对其广泛采用和使用所带来的社会后果深感担忧,甚至持悲观态度。
作者认为,问题的很大一部分在于人们对人工智能本身含义的混淆,这种混淆源于并被当下的人工智能商业热潮所维系。想想好莱坞对叛逆 AI 的重新痴迷(《碟中谍:致命清算(上)》、《Atlas》、《造物主》),或者商业界争相在吸尘器、加湿器等基础家电,甚至 Spotify 和 YouTube 的老牌算法上贴上 AI 标签的现象。更近一些,出现了名义上使用机器学习的服务(Amazon Fresh)以及根本不使用机器学习的服务(所谓的“AI”日程安排软件 Live Time),这些都进一步加剧了公众对人工智能身份与能力的困惑。
Narayanan 和 Kapoor 尤其担心将生成式 AI(通过对人类输入进行概率性响应来生成内容)与预测式 AI(声称能够准确预测现实世界结果,无论是求职者的成功率还是内战的可能性)混为一谈。Narayanan 和 Kapoor 写道,虽然采用生成式 AI 的产品“尚不成熟、不可靠且容易被滥用”,但使用预测式 AI 的产品“今天不仅无法运作,而且很可能永远无法运作”。在炒作的漩涡中,这种关键的区分已经被忽视,使得骗子、科技救世主和伪知识分子能够进一步利用神话与预言操纵公众。
虽然在商业和技术史上,鼓吹主义并不罕见,但这一波炒作的规模和强度之大,显而易见地体现在不断扩充的书架上,这些作者从事的无异于一种技术占卜:《奇点更近》,作者为谷歌的 Ray Kurzweil; 《枢纽》,作者为 Yuval Noah Harari;以及 《创世》,作者为前微软高管 Craig Mundie、前谷歌 CEO Eric Schmidt,以及已故的 Henry Kissinger,这些只是其中的几个例子。
许多人工智能预言家令人困惑的一个特点,是他们对这项技术本身并不熟悉。2015 年,《未来简史》 出版后,这本借助流行进化生物学和后人类主义幻想来预测技术创新的书,使得受过军事史学训练的哈拉瑞,意外获得了“人工智能专家”的名声。《Nexus》 意在“为人工智能革命提供更准确的历史视角”,但读起来更像是一篇本科生水平的误读、分类错误和生硬套用的习作。在解释机器学习的基础原理时,哈拉瑞将“婴儿算法”的预训练比作“有机新生儿”的童年,这恰好是对该技术最糟糕的类比。我们对人类如何学习所知甚少(这种学习方式使我们能够从极少的数据中独立进行泛化),但可以确定的是,这与机器学习的运作方式完全不同(机器学习必须在海量数据上进行训练)。 哈拉瑞毫不气馁地强调模型具备以迭代方式“自我学习新事物”的能力。他举了一个例子,即“当代的下棋 AI”,它们“除了游戏的基本规则外什么都没被教过”。然而,暂且不论目前世界上最成功的国际象棋引擎 Stockfish 实际上是通过编入多种人类棋局策略来运行的,哈拉瑞并未解释,虽然机器学习模型会为特定问题(例如在某个棋局位置上的最佳走法)构建一个解决方案模板,但定义这些问题和解决方案的框架完全是由工程师构建的。这类模型深深植根于特定的人类判断与知识体系之中,从功能上来说,它们根本无法超越这一体系。
在一段又一段的论述中,哈拉瑞在涉及人工智能的直白问题和观点时频频出错。哲学家尼克·博斯特罗姆提出的“对齐问题”版本,是人工智能讨论中的常见议题,它是一个简单的思想实验,用来说明人工智能可能会通过出乎意料的方式实现人类目标,而这些方式可能违背其设计者的更广泛利益。比如,一个被赋予最大化用户在社交媒体平台上停留时间任务的 AI,可能会通过向用户推送怪诞、虚假或政治极端的内容来实现这一目标。然而,哈拉瑞试图论证对齐问题是一个跨越时代的难题,却将其套用到与人工智能并无实质关联的历史事件(例如“美国入侵伊拉克”),并将其解释为“短期军事”目标与“长期地缘政治目标”的背离。然而,博斯特罗姆的警示并非关于基本的目光短浅,而是关于一种长远的视野——这种视野对非人类系统在过程中采取的中间步骤视而不见。
在某些情况下,这种无知似乎是有意为之。Harari 讨论了“替代制裁的罪犯矫正管理画像系统”(Correctional Offender Management Profiling for Alternative Sanctions,简称 COMPAS),这是一种被多个州法院采用的机器学习工具,用于评估被告再次犯罪的可能性。Harari 正确地将 COMPAS 的使用描绘为一场丑闻,其中“晦涩不明的算法”威胁着“民主透明度”。然而,他并未提及 COMPAS 最基本的缺陷:正如 Narayanan 和 Kapoor 所写,这个“工具一开始就不太准确;其相对准确率为 64%”,仅比抛硬币略好一些——他们认为这一数字“很可能是高估”,尽管该工具的所有者和其他研究人员对此类评估持有异议。 但考虑到 Harari 对该技术持批判立场、引用了一项刑事司法研究(该研究概述了这些系统“表现不一”),以及提及了 ProPublica 对 COMPAS 的调查(Narayanan 和 Kapoor 也引用了该调查),他的这种省略令人费解。
机器学习工具的不透明性确实是一个真正的技术问题,但哈拉里却将其当作魔术师的丝巾,用来在神秘化与神话化他的主题之间切换。然而,在这种做法中,哈拉里相比基辛格、蒙迪和施密特这几位“高阶祭司”来说,只是一个笨拙的信徒。三人合著的 《创世纪》 接续了 《人工智能时代》(2021),这本巨著被纳拉亚南和卡普尔形容为“夸张得没完没了”,且“充斥着人工智能的炒作”。事实上,要评估 《创世纪》 中的论断颇具挑战,因为它对人工智能的理解与笔者(虽不专业)对该技术的认识相去甚远。 (也许是因为我的技术文盲,使我坚信“星际舰队”这一短语绝不应出现在任何希望被认真对待的技术预测中。)在其草率的体裁中, 创世纪却颇为雄辩——它是一系列自命不凡的历史奥德赛,将人类的努力(科学、政治、战争等)推向在 AI 之手下即将发生蜕变的边缘:
在面对上帝、我们的世界,以及如今我们最新的创造物时,我们的心智依然如孩童般稚嫩……
但 AI 会成为征服者吗?人类领导者会沦为它们的代理人——拥有主权却无主权的君主吗?或者,也许如同神一般的 AI 会复活那曾经无处不在的“君权神授”人类信条,而由 AI 自身来为国王加冕?……
那些基于人类大脑结构、看似拥有更高智慧的机器,若与我们对它们的高度依赖相结合,会否让一些人相信,我们人类本身正在成为,或正在与神性融合?
这似乎足以被嘲讽为硅谷知识文化的典型废话,直到你察觉到其中的政治色彩。基辛格、蒙迪和施密特习惯性地思考“个人和整个社会在强大 AI 来临时可能表现出的‘宿命论’、‘被动性’、‘顺从’和‘信仰’”。与哈拉瑞一样,这些作者反复强调 AI 的“晦涩难懂”,以此为类似这样的思考正名:“AI 时代是否不仅无法推动人类前进,反而会催化人类回到前现代对无法解释的权威的接受?”这些带有倾向性的问题可能会引发读者提出类似的疑问:这些智者所关注的被动性,是否暗示着他们希望在读者中灌输这种态度?他们所代表的富豪和巨头,是否可能从让宿命论在公众眼中显得体面甚至合理中获益?将 AI 描绘成全能、全知且不可知的形象,是否可能在某种程度上起到迷惑媒体、震慑潜在监管者,尤其是刺激金融市场的作用?
专注于革命与灾难、开端与终结,Genesis 提出了一种以“失控的人工智能”所带来的“生存性”风险为核心的末世论。作者将人工智能与核武器进行比较,以此将围绕 AI 的地缘政治角力框定为一场重演冷战的“军备竞赛”。尽管他们这种基辛格式的对未来的阴郁展望,奇怪地类似于战后国际格局(“单极化可能是一条能够最大限度降低灭绝风险的路径”),但他们将核末日(一个长期存在且真实的可能性)与 AI(一个定义模糊、假设性的)全球威胁相提并论的做法,并非他们独有。这一策略是 OpenAI 的 Sam Altman 的心头好,他曾对 Genesis 给予高度赞誉,并且似乎很喜欢告诉听众,人工智能“极有可能导致世界的终结”。
Narayanan 和 Kapoor 认为,来自人工智能的“生存风险这一心头大患”会“夸大其能力,低估其局限性”,同时让民选官员和公民“忽视人工智能虚假承诺带来的更直接危害”。我还要补充,这种说法垄断了我们的想象力,并维持了围绕人工智能的狂热讨论氛围,这两者既能吸引投资者,又为大型公司提供了攫取监管权的手段。 当奥特曼在 2023 年出席参议院委员会作证谈论 AI 的危险时,他主张设立一个政府机构,这将方便地巩固 OpenAI 的先发优势,因为这会将监管负担转嫁给新的竞争者,同时忽视了“研究人员一直要求 OpenAI 遵守的许多透明度要求”。不谨慎地将 AI 系统嵌入社会结构中确实会带来威胁,但 Narayanan 和 Kapoor 认为,“社会已经拥有冷静应对[这些]风险的工具”,而由奥特曼、Genesis 的作者,以及所谓的 AI 安全社区所培养的流氓 AI 幽灵,“最好留在科幻领域”。
从科幻小说中引入理念是雷·库兹韦尔的事业;字面意义上的事业。库兹韦尔在其著作 《奇点临近》(2005)中提出的同名事件,最早由科幻传奇人物沃纳·文奇在其 1993 年的文章中普及,他在文中预测将在三十年内出现“超人类智能”,并宣告“人类时代”的终结。库兹韦尔续作 《奇点更近》 的前提是,人类已经开始为这场迟来的技术“升天”做最后的准备,这一事件由他的“加速回报定律”所保证,该定律据称描述了“正反馈循环”和信息技术成本下降如何使“设计其下一阶段变得更容易”。人工智能将在众多领域进行统筹,带来如此迅猛且持续的进步,以至于库兹韦尔断言,人类将在 2045 年左右“与 AI 融合”。 这是库兹韦尔的“奇点”,一个虚构的事件,用来说明他思想中原始的机制,而这些机制几乎完全由推演构成。
典型的库兹韦尔预言通常以引用某个行业或领域的最新进展开头。例如,在评估医学时,他指出,2023 年,一种利用机器学习设计的药物“进入了治疗一种罕见肺部疾病的二期临床试验”。随后,他会高谈阔论一些与主题关系不大的哲学或数学话题,用未加解释的术语和极其庞大的数字让读者摸不着头脑——“1024 次运算每秒”、“306,000,000 GB”、“100 万亿人类”、“一个 googleplex 个零”、“1010 123 个可能的宇宙”、“百万亿亿亿亿亿亿种可能性”——这些数字似乎是为了让我们相信,“指数级”的进步将冲破任何剩余的天花板、障碍或瓶颈,至少是库兹韦尔提到的那些。这种表演的中场就像看着一只鸟在网下挣扎。因为一旦库兹韦尔摆脱了证据和智识谦逊的束缚,他便真正地 展翅高飞。 随着人工智能革新医学,他断言,到 2020 年代末,应用将激增,使我们能够在 2030 年代通过人工智能控制的纳米机器人对抗人类寿命的生物学限制,最终实现对衰老的“彻底”战胜。到了 2040 年代,基于云的技术将使我们能够将思维上传到数字环境中,从而彻底摆脱我们的生物外壳。
人们或许会好奇,为什么库兹韦尔会将自己束缚在如此具体的时间框架上,毕竟他以前也不得不修正过这些预测。难道对于一个预言家来说,保持暧昧和模糊不是更有利吗?但随后你会想起,库兹韦尔已经七十七岁了,也许(本着推测的精神)他之所以选择未来三十年作为我们实现超越的时间窗口,是因为这是他最有可能——甚至可以说是最后一次——亲眼见证自己预言成真的机会。(作为保险,他已经付费将自己的身体“低温冷冻保存”,以便将来复活时能惊叹于自己的先见之明。)对库兹韦尔来说,死亡是一个必须解决的技术问题,无论解决方案多么可怜或怪诞。读者的下巴会在他描述用个人家庭记录训练的“爸爸机器人”时微微张开——他称之为“让父亲回来的第一步”。接下来他与这个模拟“父亲”的对话令人感到可悲,但并不是库兹韦尔所认为的那种原因。
为什么技术的核心承诺——减轻繁重劳作——还不够?也许在人工智能的情况下,是因为目前尚不清楚它究竟能现实地减轻哪些繁重劳作。我和 Narayanan 以及 Kapoor 一样,并不怀疑机器学习会在各个行业(包括医疗)找到积极的应用,同时其背后的计算机科学也会继续曲折前行。(人工智能并不是像加密货币那样毫无希望的偏离型技术。)但人工智能的承诺并不能让人相信,正如 Kurzweil 所说,我们正生活在“人类历史上最激动人心、最重要的岁月”中。
读完这些书后,我开始质疑,“炒作”这个词是否足以描述由众多硅谷领袖、研究人员和记者推动的一场无组织却全球性的混淆与操纵运动。公众之所以容易受到这种运动的影响,部分原因在于技术创新的累积性。理解像 ChatGPT 这样的产品,例如,需要对其所依托的工具和主题(如 transformers、神经网络)有基本的熟悉,而这些工具和主题本身又依赖于类似的前置知识(如反向传播、线性代数)。如此一来,这类技术会施加一种复合的认知成本。在每项技术特有的某个临界点上,这种负担会变得过于沉重,以至于普通人再也没有时间或精力去抵抗那种孕育炒作的欺骗。矛盾的是,表明一项技术已跨过这一转折点的标志,并不是广泛的冷漠,而是表面的着迷与睁大双眼的乌托邦式幻想(核聚变和量子计算就是很好的案例)。因此,炒作似乎是一种社会机制,通过它,技术变成了一种魔法。 当《 创世纪 》的作者引用阿瑟·C·克拉克——“任何足够先进的技术都与魔法无异”——时,他们当然不会提到,克拉克是在描述一位十九世纪科学家对二十世纪技术的第一印象。对他们来说,克拉克的这句格言只是呼应了他们唯一真正的目标:人为地延长我们对新奇玩意和工具的孩童般的迷醉,以便为技术人员争取时间去兑现那些超凡的承诺。
在明确阐述功能之前就构建或改造一项技术,通常是注定失败产品的标志(参见 Google Glass、Apple Vision Pro 或元宇宙)。然而,在过去三十年中,许多领先的科技初创公司、大型企业和风险投资公司却一直遵循一种反向逻辑,而这种逻辑在机器学习领域却出奇地成功。这种成功在一定程度上归功于像 Sam Altman 和 Elon Musk 这样的人物,他们将制造公众热情的艺术发挥到了极致。在这种情况下,围绕 AI 的炒作不仅仅是无害的宣传。通过塑造人们对其能力的预期(例如一个被如神般机器所吸引的未来文明),Kurzweil、Harari 及其同类为公众广泛接受科技公司 CEO 相对谦逊的承诺和预测铺平了道路(在那些星际舰队面前,全自动驾驶汽车算得了什么?)。但这一切依然是脱离现实的卡通化想象,与一种强大但有限的技术的真实情况相去甚远。如果要对 AI 做出一个有把握的预测,那就是它的成功应用将会被不懈地灌输进公众意识中。 但几乎没有人会去计算这样一个全或无的行业所带来的机会成本——它忽视了那些并不光鲜却可能真正通过机器学习得以解决的日常问题和低效之处。让大多数人的生活稍微变得更好的目标,正被用来交换为一个不可能实现的乌托邦而付出的难以想象的浪费。