常泽平
2025年春晚,智能机器人舞团引发全民惊叹;企业财报上,AI驱动已成为新标签;甚至医疗诊断与司法量刑的灰色地带,也出现了预测式算法的身影。一股近乎宗教狂热的技术信仰正在全球蔓延。值此关键时刻,阿尔文德・纳拉亚南与萨亚什・卡普尔合著的《AI万金油:商业幻想与科技狂潮》(以下简称《AI万金油》)如同一柄经过精密校准的手术刀,冷静地剖开了人工智能热潮的华丽外衣与内部肌理。作为普林斯顿大学信息技术政策权威与前脸书AI工程师的跨界之作,这本书以学界洞察与产业亲历的双重视角,对AI神话展开了从技术本源、社会建构到治理路径的系统性祛魅,为迷失于技术迷雾的公众、决策者与业界,提供了难得的理性坐标系。

阿尔文德・纳拉亚南、萨亚什・卡普尔著《AI万金油:商业幻想与科技狂潮》,王勇、王安心译,中信出版集团,2025年8月
从万能叙事到有限工具的范式转换
《AI万金油》打破了一种普遍认知,即人工智能是统一、连贯且持续逼近人类智能的技术实体,这种想法在公众乃至部分业界人士心中根深蒂固。作者首先进行了一项至关重要的概念清理工作,将当下被笼统称为“AI”的技术现象,清晰划分为生成式、预测式与内容审核式三大类别。这绝非单纯的学术分类,而是对技术本质的回归,不搞笼统定义,而是直面不同AI的真实属性。它迫使读者认识到,谈论AI的影响本身可能是一个伪命题,我们必须具体到哪一种AI、在何种场景下、基于何种数据与算法进行讨论。如将ChatGPT与贷款风险评估算法统称为“AI”,其混为一谈的误导性堪比将自行车与航天飞机归为同一类交通工具。这种分类法为后续的批判性分析奠定了坚实的逻辑基石。
在对生成式AI的剖析中,作者避免了全盘否定或盲目推崇的简单化立场,而是进行了一场精密的价值与风险权衡。他们一方面客观记录了此类工具在代码辅助生成、图像创作等特定场景中带来的效率革命;另一方面,则毫不留情地揭示了其“通过学习训练数据中的统计模式来生成文本”本质。谷歌Bard因错误陈述韦伯空间望远镜成果而引发母公司市值暴跌的案例,用以说明生成式AI所固有的幻觉问题,它能够生成语法流畅、看似权威的文本,却无法保证其与客观事实的锚定。更严峻的挑战在于,这种一本正经地胡说八道的特性,在缺乏监管的商业环境中被迅速放大。书中列举了亚马逊上AI生成的毒蘑菇鉴别指南、新闻网站上漏洞百出的AI报道,这些案例暴露的不只是技术缺陷,更是资本驱动下的伦理真空,技术被异化为流量与利润的工具,以致脱离了责任约束。
如果说生成式AI的风险主要体现在虚构层面,那么预测式AI则被置于更危险的境地。这类技术宣称能够预见从疾病发展、员工表现到犯罪概率的未来轨迹,并已深度嵌入医疗、司法、金融等社会核心系统的决策链条。然而,本书则层层剥开了其科学精准的伪装。美国医疗保险算法错误预测一名85岁老人康复进度、进而导致其保险被提前终止的案例,深刻揭示了预测式AI将人类生命的复杂性与不确定性,粗暴简化为有限数据指标的算法暴力。而好事达保险公司被曝光的冤大头名单则更具社会学意义,算法并非如宣传那样消除了人类偏见,反而通过学习历史数据,将原本存在于社会中的年龄歧视等不公自动化、规模化。最为釜底抽薪的批判来自对AI研究根基的审视,书中引述的挪威科技大学对400篇顶级AI期刊论文的可重复性检验显示,没有一篇完全满足可复制性的所有标准。这一发现无异于指出,许多被企业奉为圭臬并应用于现实决策的高精度模型,其科学性基础可能建立在一片无法验证的流沙之上。
内容审核AI的困境则揭示了技术逻辑与社会价值判断之间的根本性张力。曾亲历脸书内容审核系统开发的卡普尔,贡献了诸多内部视角的鲜活案例。例如,脸书上的黑人用户经常被封禁,却对一张配有标题“没有宠物的家不算家”,而画面则是一对白人家庭和一个黑人孩子的图片无能为力。这绝非简单的算法bug,而是暴露了一个结构性难题,内容审核本质上是复杂的社会价值判断和语境理解,试图用统一的、基于模式识别的数学模型来编码千变万化的道德与伦理边界,是一项本质上不可能完美完成的任务。其根源在于我们试图用计算语言学工具,去解决一个实质上属于道德哲学和政治社会学范畴的问题。
共谋链条下的技术幻觉生产机制
《AI万金油》并没有停留在技术批判的表面,而是深入挖掘了AI万金油现象得以形成和持续膨胀的社会生态系统。作者描绘了一条环环相扣的“研究-资本-媒体-公众”共谋链条,揭示了技术幻觉是如何被系统性生产出来的。
链条的源头是学术研究界的内部空心化。许多宣称取得突破的研究,因其代码和数据不公开而如同黑箱,结果无法被独立验证。医疗保健公司Epic的败血症模型从未公开接受同行评审,关于AI预测内战的惊人论文,事后被揭露存在严重的数据泄露错误。这种“重性能指标、轻科学理解”的氛围,被批评为现代炼金术。它使得前沿研究本身变成了一个缺乏坚实基座的泡沫,为后续的商业炒作提供了看似光鲜却经不起推敲的科学原材料。作者进一步追溯了AI社区根植于“春天与冬天”交替的历史性叙事习惯——从感知器、专家系统到今日的大模型,技术愿景总被提前许诺为革命性突破,而在周期性幻灭(AI寒冬)后,社区又迅速转向下一个热点,形成了“许诺-狂热-遗忘-再许诺”的循环。这种文化深刻影响了研究伦理,使夸大规模与影响的“炒作”成为某种生存策略。
企业资本是这一链条的核心加速器。书中分析了科技公司在风险投资驱动下的内在扭曲激励,对于无数初创公司而言,在吹牛无需成本、但沉默注定失败的市场环境中,为了融资与竞争,必须将产品包装成由尖端AI驱动的革命性方案,这导致了大量伪AI产品的出现。无论是Epic通过支付百万美金奖励来推动医院采用其有缺陷的模型,还是初创公司通过操纵前N准确率等指标将性能优化到吸引投资者的数字,甚至如x.ai、Live Time等公司被揭露其AI背后实为人工或并未使用AI,AI成了一种商业修辞学。更深层的风险在于,当少数科技巨头通过控制算力、核心模型和数据成为AI基础设施的提供者时,其商业利益将可能深刻塑造甚至垄断整个技术发展的路径与伦理议程,使以人为中心的考量让位于市场与资本的逻辑。
不幸的是,媒体与公众的认知非但未能成为防火墙,反而成了滋养炒作生态的温床。作者批评了新闻机构在经济效益与专业素养之间的失衡,它们常常不经批判地重复公司的宣传通稿,并热衷于AI达到人类水平、某项工作将被取代等戏剧化标题(如对犯罪预测算法90%准确率的报道)。这种叙事将复杂、渐进的技术发展简化为非黑即白的转折点,严重混淆了基准测试表现与现实世界能力之间的鸿沟。而从公众认知角度,作者引入了深刻的认知心理学洞察。面对社会复杂性,人们普遍存在技术救世主情结与控制幻觉,渴望一个客观、强大的技术方案一劳永逸地解决难题。对算法黑箱的神秘感,配合解释深度错觉、光环效应(因AI在围棋获胜便认为其全能)、锚定偏见(深信最初的夸大宣传)等认知偏差,使得AI炒作获得了远比以往科技泡沫更为稳固的社会心理基础。这条共谋链条并非松散集合,而是形成了闭环反馈。不透明的研究为资本提供了炒作素材,资本的推波为媒体制造了报道热点,媒体的夸张叙事塑造并迎合了公众的认知偏见,而公众的期待与市场热情,反过来又激励资本投入和学术圈追逐更宏大的愿景,却忽视扎实的验证与审慎的评估。
迈向有限信任与系统治理的负责任创新
作为一部旨在建设性祛魅的著作,《AI万金油》并未滑向技术悲观主义,其最终落点在于如何在狂热中保持理性、在风险中把握机遇,勾勒出一套兼具原则性与操作性的框架。这里的核心原则是审慎的乐观与主动的治理,即在承认AI工具价值的同时,始终保持对其能力边界和潜在风险的清醒认知,并通过制度设计来引导其正向发展。
在技术应用的伦理与社会定位层面,本书超越了简单的工具论,深入探讨了如何将AI融入而非植入社会。作者指出,AI的未来影响不取决于技术本身,而更多取决于社会和政治如何应对和利用这些技术。书中通过“凯的世界”与“玛雅的世界”两个详尽的对比性未来情境,深刻揭示了社会选择的关键性。在“凯的世界”里,因恐惧而生的严格禁令与实际执行的低效,导致儿童暴露于缺乏监管、追求成瘾的AI娱乐应用中,而教育系统则滥用预测式AI对学生进行可能形成自我实现预言的分流。相反,在“玛雅的世界”中,在充分研究支持下,AI被设计为有趣且有益的学习伙伴,教育者被赋能将AI作为教学工具,社交媒体因互操作性要求而变得多元,公众对自动化决策保持警惕。这两种未来的根本分野,正在于是以畏惧和顺从还是以理解和塑造的态度来面对技术。
监管与治理创新被视为破局的关键。监管必然扼杀创新或监管永远滞后于技术等观点远非合理。监管的核心目的应是纠正市场失灵,即当企业没有经济动力去解决其技术带来的广泛社会损害(如艺术家收入损失)时,公权力的介入就变得必要。本书务实分析了全球并存的多种监管范式:美国的垂直管理模式(各领域机构依职权监管)、欧盟的横向风险规制(如《人工智能法案》),以及中国先垂直后横向的实践。这种多样性本身被视为一种优势,有助于探索有效的监管原则。作者特别强调,许多现有法律已为监管AI提供了依据,例如美国联邦贸易委员会已利用反虚假商业行为规则追究AI公司的误导性宣传。同时,也尖锐地警告了监管俘获的风险,即企业通过推动对自己有利的许可制等规则,将监管变为排斥竞争、固化自身优势的工具。因此,有效的治理不仅需要规则,更需强化监管机构自身的资源、独立性与专业能力。
长远而言,社会认知与公共讨论的重塑是构建健康技术生态的根基。本书本身就是一场AI素养的普及实践,其目的不仅是传授知识,更是培养一种批判性质疑的习惯。当一项AI技术被部署时,人们应追问其证据基础、问责机制与社会影响。全书展现了一种拥抱复杂性的智慧,在医疗、教育、司法等涉及高度人性化的领域,承认社会过程的复杂性与预测的固有局限,远比迷信算法提供、看似精确实则可能充满偏见的伪确定性更为重要。这种深刻的谦卑,构成了抵御技术万能论的最后,也是最坚固的防线。
在技术的镜像中,照见人类自身的抉择
《AI万金油》的深刻性,在于它成功地将一个看似前沿的技术议题,还原为一个经典的社会与哲学议题。当纳拉亚南和卡普尔写下“真正决定AI对经济和社会产生何种影响的,是一个国家能否有效地将AI融入现有体制与系统”时,他们已然指明了问题的本质。所谓的“AI万金油”,并非技术自主演化的必然产物,它本质上是一面镜子,清晰地映照出人类社会的欲望、偏见、短视以及对简单解决方案的永恒迷恋。
在一个技术概念被资本、媒体与公众情绪反复炒作和消费的时代,本书不止于提供批判的弹药,还在于提供了一套完整的批判性思维工具包,一种审视技术宣称的怀疑精神,一种追溯利益链条的分析方法,以及一种在拥抱进步的同时坚守人文价值的平衡智慧。它告诉我们,在面对令人目眩的技术奇观时,要多问一句:它是如何工作的?谁从中受益?谁可能受损?我们失去了什么?
历史总在回响。十九世纪,兜售“包治百病”的蛇油贩子在美国猖獗横行;一个多世纪后的今天,面对种种可能被过度包装的智能解决方案,我们更需要清醒的辨别力,《AI万金油》提供了我们这个时代急需的一剂清醒剂。它不鼓吹抛弃AI,而是倡导一种清醒的拥抱,既不过度神化其无所不能的幻象,也不轻易否定其作为工具的革新潜力。它指引我们在幻想与现实之间、在恐惧与狂热之间,寻找那条让技术真正服务于人的尊严、公平与福祉的理性之路。在AI持续重塑社会基石的漫长进程中,这样的系统性反思,其重要性或许将超越任何单一的技术突破本身。
当然,本书的祛魅,更应是一场必要对话的开端,而非终点。它所揭示的“研究-资本-媒体-公众”共谋链条,像是一幅静态的生态系统剖面图。若将视野拉宽,还能发现当下驱动这一生态更具能动性的角色——国家。书中虽提及全球监管范式的多样性,但对于不少国家将AI视为新一轮科技竞赛与综合国力博弈的核心场域,进而通过顶层战略、产业政策与巨额资源投入,自上而下地主动制造并助推政策驱动型技术狂热的现象,探讨尚不充分。这种国家意志与资本逻辑的合流,不仅放大了炒作声量,更可能扭曲技术研发的优先次序,使本应审慎的治理考量让位于追赶与领先的竞赛心态。对这一维度的深入剖析,或将使对炒作生态系统的批判更具政治经济学的纵深感。
与此同时,本书的论述重心落在了对过度炒作的降温和对现有危害的揭露上。若顺着这一批判逻辑继续向深审视,或许会发现另一类同等重要的批判视角,即当AI技术并非作为言过其实的万金油被推销,而是作为一套静默、高效且已被广泛接纳的基础设施(如平台内容审核、全球物流调度、金融信用评分等)深度嵌入社会运行时,它所引发的权力集中、劳动过程隐形化、社会控制形式变迁等更为根本性的社会议题。对这些成功应用的常态化批判,关乎技术如何重塑社会结构本身,或许是本书精彩解构之后亟待探讨解决的诸多未尽任务之一。
此外,本书对恶意AI的祛魅颇具价值,戳破了科幻化的生存威胁炒作,但其将恶意AI完全归为科幻小说,并视作批判性炒作,却可能忽视了技术工具属性下的风险放大效应,恶意AI的核心风险并非只是技术自主觉醒,而是AI降低了大规模破坏的实施门槛与成本。深度伪造用于舆论操纵、AI辅助挖掘网络漏洞攻击关键基础设施,这些并非科幻,而是已初现的现实威胁。原书警惕风险再定义的逻辑固然合理,但难免弱化了对恶意使用AI这一维度的关切。我们真正需要警惕的,从来不单单只是觉醒的机器,而是被AI赋能的恶意行为与权力滥用,这一点不应因批判炒作而被遮蔽。
《AI万金油》给社会递上了一面批判的透镜,它没有穷尽所有问题,却教会了我们发现问题的思路与方法。无论面对喧嚣的技术炒作,还是国家竞赛的复杂动力,书中倡导的清醒拥抱与系统性怀疑精神,都为我们穿越技术迷雾、做出理性抉择提供了重要指引。
责任编辑:钟源 图片编辑:张颖 校对:刘威
上一篇:争夺游艇界劳斯莱斯,打起来了