《AI万金油:商业幻想与科技狂潮》
[美]阿尔文德·纳拉亚南(Arvind Narayanan)
[美]萨亚什·卡普尔(Sayash Kapoor)著
责编| 柒排版| 拾零
第 9248 篇深度好文:4058字 | 11 分钟阅读
几乎每个行业都在谈AI——它能预测、能写作、能设计、能决策。AI似乎无所不能,成为新时代的“万金油”。
无论是教育、医疗、金融还是法律领域,都有人坚信:AI能让系统更高效、更公平、更聪明。
但正如普林斯顿大学的信息技术政策中心主任阿尔文德·纳拉亚南(Arvind Narayanan)与他的博士生萨亚什·卡普尔(Sayash Kapoor)在《AI万金油:商业幻想与科技狂潮》中指出的那样,每一次技术狂热,都会伴随新的幻觉。
AI的真正问题,往往不在算法本身,而在于围绕它的故事——那些由公司、研究者、媒体与公众人物共同编织的“智能神话”。
这本书提醒我们:AI炒作并非单一事件,而是一种机制。它由商业利益驱动、由技术乐观主义润色、由新闻媒体放大,再由我们每个人的认知偏见推动。
于是,AI成了一个万能叙事——既是生产力革命的象征,又是人类终将被取代的预兆。
当一个模型被形容为“像人一样理解语言”、当一项技术被称作“正在重塑文明”,我们更容易被宏大的故事打动,而非去追问数据、验证方法与实际效果。
纳拉亚南和卡普尔在书中提出,AI炒作的危害不只是夸大预期,更在于它扭曲了整个技术生态的重心——资金、人才、政策与舆论都被吸引到“更大的模型”和“更强的智能”上,而非那些真正能解决问题的应用场景。
一、资本驱动:AI研究依附商业逻辑
AI的发展历程始终伴随着对其能力的过度乐观。短期内的炒作能吸引资本和关注,带来快速增长;但这种高预期也为现实表现设下了过高门槛,一旦承诺无法兑现,“AI寒冬”便会降临。
现代AI研发高度依赖企业资助。无论是算力、硬件还是人力成本,现代大模型的开发都超出大多数学术机构的能力范围。
因此,近年来最强大的AI系统几乎都出自OpenAI、谷歌和Meta等公司。越来越多研发人员也随资金流向企业,成为商业研发的一部分。
考虑到行业资金和影响的作用,企业更看重能够整合到盈利产品中的工程突破,而非科学理解。
许多公司甚至在完全理解产品工作原理之前就推出新技术,使得这些技术看起来像“魔法”。因此,研究人员往往知道哪些AI技术有效,但由于缺乏时间和资源,尚不清楚其背后的运行机制。
同时,研发人员出于声望或竞争压力,常发表未经实证验证的推测性声明。这些言论因作者的权威而被误认为事实。
更有甚者,语言上的夸张进一步助长炒作——诸如“人类级阅读理解”这样的说法,往往仅基于基准数据集的结果,而非现实应用。
二、科学失真:
AI学术研究的可复制性危机
推动AI炒作的并不仅仅是企业。许多被媒体广泛传播的“AI突破”,其实源自学术研究;但这些成果往往并不牢靠,因为AI领域正遭遇一场可复制性危机。
可复制性是科学研究的基石——只有当独立团队在相同条件下能够重复实验并获得一致结果时,结论才具有可信度。
然而,在AI研究中,这一原则正被系统性忽视。挪威科技大学对顶级会议论文的审查发现,没有一篇研究完全满足可复制标准:实验代码未公开,数据集受限,参数缺失,结果难以验证。
例如,OpenAI的Codex模型被广泛用于学术研究,已经在上百篇论文中被引用。Codex对编程任务非常有用,但与大多数其他OpenAI模型一样,它并非开源,因此用户需要依赖OpenAI的服务来使用模型。
2023年3月,OpenAI宣布将停止支持Codex,并且仅提前三天通知用户。
这一决定导致数百篇学术论文失去可复制性,独立研究人员无法验证这些研究的有效性,也无法在其基础上进一步探索。
除了研究人员对商业AI模型的依赖,AI模型的评估方式也存在严重问题。常见的“数据泄露”错误使得结果被人为夸大:模型在训练中接触过的样本在测试阶段再次出现,相当于在考试前提前看到题目。
三、媒体放大:新闻制造“智能幻觉”
每天都有关于AI新成就的报道充斥媒体。这些新闻通常缺乏深入分析,而是专注于AI实现的惊人进步,却很少提及其局限性。
为了更好地理解新闻中的AI炒作,2024年分析的50篇新闻文章研究媒体如何助推炒作中显示,新闻报道往往未经批判地重复研究机构的宣传,频繁使用机器人的图片,对AI进行拟人化描述,并淡化其局限性。
即使是新闻报道中使用的AI图片,也可能误导公众对AI工作原理的理解。
许多关于AI的文章配有机器人的图片,即使讨论的应用与机器人毫无关系。这种视觉呈现误导人们将AI等同于机器人。
AI新闻报道中夸大其词的原因有很多,最主要的原因之一是媒体面临的经济压力。社交媒体的兴起和点击量驱动的新闻模式使得营利性深度报道的能力大幅下降。
同时,作为一个相对新兴的领域,AI的技术复杂性也使记者难以具备足够的专业知识来揭穿公司可能的万金油式宣传。
另一方面,销售AI产品的公司通常拥有充足的资金用于公关宣传。如果记者的报道过度批评,公司可能会限制其对新产品的访问权限,或禁止其接触内部消息来源。
对工作负担沉重、缺乏时间进行深入调查的记者而言,与公司保持良好关系往往显得更为重要。在这种情况下轻微修改公司提供的新闻稿后直接发布,成为一种既省时又能满足双方需求的选择。
四、权威加持:精英话语延续神话
在OpenAI发布GPT-4不到一个月后,生命未来研究所发表了一封公开信,呼吁暂停训练“比GPT-4更强大”的语言模型,为期6个月。
这封信得到了包括埃里克·施密特和埃隆·马斯克在内的众多知名研究人员和技术专家的签名支持。
信中提出:“我们是否应该让所有工作都自动化,包括那些能带来满足感的工作?”(原文强调)。
GPT-4发布时,围绕其在人类考试(如律师执业资格考试和美国医学执照考试)中的表现产生了大量炒作。信中直接采纳了OpenAI的说法,声称“当代AI系统目前在一般任务上已具备与人类竞争的能力”。
然而,聊天机器人在基准测试上的表现,并不能有效说明它们在现实世界中是否能够自动化工作。
尽管信中表面上批评了聊天机器人的草率部署,同时却夸大了它们的能力,将其描绘得远比实际强大。这种措辞实际上帮助了相关公司,塑造出它们正在创造超越现实的新技术系统的形象。
信中还陈述道:“我们是否应该开发可能最终数量超越人类,智力超越人类,使我们过时并取代我们的非人类思维?我们是否应冒着失去对文明的控制的风险?”
AI社区内部关于失控AI可能带来生存风险的担忧正在升温,而信中关于“失去对文明的控制”的表述正是这一担忧的体现。
我们承认思考AI长期影响的重要性,但这些对未来的担忧已经分散了应对AI当前真正紧迫风险的资源和注意力。
五、认知偏见:
人类为何甘愿相信AI奇迹
到此为止,已经看到公司、研究人员、记者与公众人物如何共同推动AI神话。
但若公众能保持批判性思考,这些叙事未必能成立。问题在于,我们每个人都受到认知偏见的影响。
解释深度错觉让人误以为自己理解复杂系统。这种错觉可能导致过度自信,使人们不去提出批判性问题或探索其他可能性。
例如,AI是一个宽泛的术语,但很少有人有时间深入了解其不同类型,因而无法形成对不同AI应用的具体看法。
启动效应让科幻意象主导我们对AI的想象;例如,科幻小说和大众媒体长期以来将AI与机器人联系在一起。然而,AI的应用远超机器人领域。
虚假真理效应使重复的信息更容易被相信;正如我们所见,关于AI的不准确主张常被不同利益相关者(包括记者)一再重复,因此公众相信这些说法并不令人意外。
锚定偏见让我们固守最初印象,即使证据改变;在AI的讨论中,人们往往会牢牢抓住公司对AI能力的夸大主张,当这些主张的缺陷被揭露时,他们可能不会及时修正自己的看法。
确认偏见让人只接收符合自身信念的讯息。一旦我们开始接受那些逐利公司发布的营销主张,就容易陷入一种接受AI宏大主张的反馈循环,而忽视其潜在缺陷。
列举这些例子的目的不是责怪人们。认知偏见并非有意为之,实际上公司、研究人员和记者是在利用这些偏见来牟取利益。
虽然尚未得出最终结论,但最新研究表明,通过训练可以减少人们对偏见的敏感性。
建立你的“技术免疫系统”
理解AI狂热的成因,是建立理性判断的前提。但更重要的是,我们如何在铺天盖地的AI叙事中保持清醒。
面对下一次“颠覆性突破”或“智能革命”,可以从以下三个维度练习一种“技术免疫力”:
1.追问数据,而非故事。
当听到某项AI技术“超过人类”“实现突破”时,先问三个问题:
它的测试数据是否公开?是否经过独立验证?结果是否能在现实环境中复现?
如果答案模糊或回避,这往往是“概念领先于能力”的信号。
AI炒作之所以反复出现,是因为每一方都从中获益:
公司需要融资,学者需要声望,媒体需要流量,公众人物需要立场。
理解这些叙事的经济学,有助于判断信息的可靠度。越是强调“革命”“奇迹”的说法,越需要保持距离。
3.用现实场景来校验
任何真正的技术突破,最终都要落在“改变流程、降低成本、提升体验”上。
如果一个AI项目只停留在概念演示、宣传视频或投资说明书中,而没有实质性改变任何人的工作方式,那么它更可能是一种幻觉。
*文章为作者独立观点,不代表笔记侠立场。