AIPress.com.cn报道
随着各大AI公司不断推出更强大的模型,一份最新发布的《2025冬季AI安全指数》(Winter 2025 AI Safety Index)正在给行业浇下一盆冷水——报告指出,八家头部AI公司的安全实践普遍不足,缺乏足够的风险防控机制、外部监督和长期安全治理框架,难以匹配当下AI能力的快速跃升。
该指数由非营利组织未来生命研究院(Future of Life Institute,简称FLI)发布,共评估了35项安全指标,涵盖风险评估、信息透明、内部汇报制度、研究投入等六大领域,并由八位独立专家打分,包括来自麻省理工学院和中国科学院的研究人员。结果显示行业明显出现“安全分层”:Anthropic、OpenAI、Google DeepMind位居前三,但最高也仅拿到C+,而Alibaba Cloud垫底,仅为D-,xAI、Meta等公司同样被归入“安全基础薄弱”阵营。报告认为,这些公司在安全框架公布、治理结构、全面风险评估等方面缺漏明显。
FLI主席、MIT教授Max Tegmark直言,AI监管滞后是问题根源,“现在AI的监管甚至不如三明治制作严格”,并强调行业正以高速冲向不可预测的未来。研究团队特别担心的是,随着企业追求类人甚至超人智能(AGI/ASI),潜在灾难性风险可能被低估,安全策略远跟不上能力增长的速度。
受访研究员Sabina Nong表示,行业正在呈现明显分化,“领先公司至少建立了部分安全流程,而第二梯队仍在主要追赶能力,却没有同步提升安全治理”。报告同时建议企业提高透明度、接受第三方安全审查、建立内部举报保护机制,并减少对政策游说的依赖。
面对质疑,多家企业做出回应。OpenAI表示,“安全始终是系统研发核心,我们持续进行前沿安全研究并邀请外部专家评估。”Google方面也强调,其Frontier Safety Framework已覆盖高级模型风险防控。
报告指出,模型能力正以惊人速度刷新,但安全资源与制度建设并未同步扩容,“能力与安全间的缺口正在快速扩张,这会让行业在未来面临系统性风险”。在生成式视频、图像、代码等应用逐步走向消费市场的当下,这一结论显得格外刺耳。
这意味着,2025年的AI行业表面繁荣,但基础安全“地基”仍需加固。未来几年,当模型逼近更高级智能形态,安全是否能跟得上,将决定AI到底是造福人类还是引爆风险。行业下一阶段,看能力,更要看刹车系统是否足够可靠。(AI普瑞斯编译)