世界领导人今年将重点从炒作转向投资回报率,讨论主权AI、开放生态系统和职场变革。
人工智能主导了今年世界经济论坛在达沃斯的讨论——从关于治理的闭门圆桌会议到关于商业转型的高规格小组讨论。斯坦福HAI联合主任James Landay和HAI项目与外部参与管理总监Vanessa Parli参加了为期一周的峰会,为主题演讲、小组讨论和利益相关者会议做出了贡献。
在整个一周中,他们听到了一个一致的主题:对AI的热情依然很高,但基调已从炒作转向有效的现实世界部署。领导者们正在推动切实的影响和更明确的责任。地缘政治也占据了重要地位,影响着关于"主权AI"、开放生态系统以及过度依赖任何单一国家或公司风险的辩论。
今年达沃斯围绕AI的氛围如何
James Landay:人们仍然乐观,但更加现实。与过去几年相比,感觉更少有人说"尝试一切"。更多人在说,"我们需要AI现在就交付实际回报。"炒作依然存在,但展示有效成果的压力更大。
Vanessa Parli:我们仍然听到很多关于AI能做什么的兴奋之声,但我也很高兴听到行业领导者问,我们如何让负责任的AI成为商业案例?这在西方国家公众对AI信任度相当低的时候尤为重要。
哪个"AI之外"的因素最影响对话
Landay:特朗普总统的存在和评论——特别是关于格陵兰岛的——投下了一些阴影。人们真诚地问,"到底发生了什么?"这直接影响了一个已经在建构的对话:主权AI以及如果合作伙伴(或市场)不可靠会发生什么。
"主权AI"被频繁提及,人们的意思是什么
Landay:对不同的人意味着不同的事情。大体上,许多人在谈论国家希望对其AI未来有更多控制——通常是为了应对地缘政治不确定性和大型科技公司的主导地位。
我试图强调的是:首先,定义目标。我们的HAI政策团队一直在分析这个问题,一个有用的框架是,国家通常追求主权来保护国家安全、经济安全和繁荣、文化价值观以及其他国家韧性目标等。然后国家可以选择在"AI堆栈"中关注哪里,比如计算(GPU、数据中心)、数据、模型、应用程序和人才。不同国家根据其目标强调不同的层面。
Parli:HAI目前正在进行研究,帮助定义AI主权的不同角度和每种角度的好处——描述它意味着什么,组成部分是什么,不同方法如何有益。创造基于研究的见解对国家做出正确决策至关重要。
你同意主权AI的"建立我们自己的模型"版本吗
Landay:不作为唯一选择。很多辩论假设主权意味着:"我们控制一切,所以我们必须建立自己的模型。"我认为还有另一条路径:开源——在国际上建立共享能力,这样就没有单一公司或国家控制它。
Parli:HAI通常倾向于开放生态系统——开放数据和开放模型将有助于建立技术的透明度和信任,并加速创新。如果任何国家要看到技术的真正好处,用户需要信任它。
HAI在这个方向上做任何具体的事情吗
Landay:是的。我们已经宣布与苏黎世联邦理工学院和洛桑联邦理工学院签署谅解备忘录——这是我们在开放模型和相关工作上更广泛全球努力中的第一个合作伙伴。我们也在与其他政府和研究中心进行对话。
人们如何思考AI和工作性质的变化
Landay:AI的投资回报率被频繁提及。我听到更少关于工人替代的内容,更多的是关于工人增强和转变工作流程。人们说,如果我有AI,工作流程及其设计如何改变,角色如何改变,我们可以开发什么新产品?有人举了一个很好的例子:如果AI在五分钟内而不是五天内做出贷款决定,这如何改变你的产品和客户的可能性?
在以前的年份,我们听到这么多炒作,如果我们不快速进入AI,我们就完蛋了。今年,人们开始意识到,我们需要这样做,但我们需要聪明地做,否则不会带来真正的好处。
工人的压力在哪里
Landay:在一次演讲中,我听到一家主要科技公司重要业务部门的高管说,他被要求在未来三到五年内将其业务部门增长约400亿美元,而不增加员工数量。这意味着虽然他们不会裁员,但也不会招聘。他们将使用AI来提高每个人的个人生产力。主要结论是,虽然我们可能避免这类公司的大规模裁员,但未来不会有大量新工作。如果我是应届毕业生,我会担心。不过从长远来看,我和其他人仍然看好AI创造更多新工作。
很多人在谈论AI智能体,你的想法
Landay:"智能体"以两种方式出现:公司内部的实际实施(这已经在发生),以及许多独立智能体在开放互联网上协商信息和资金的更广阔愿景。我对后者更加谨慎——特别是当涉及个人或金融数据时。在成为人们广泛信任的东西之前,仍需要重要的研究和基础设施。
在你自己的小组讨论中,你强调了什么
Parli:我提醒人们,虽然AI有很多机会,但这不是保证的,我们需要批判性地思考它是如何设计和部署的。你需要对话中的许多声音来确保AI让每个人受益。
Landay:如果我们希望AI成功并对社会有益,我们需要三样东西,其中任何一个都不足够:
除了以用户为中心之外,还要考虑社区和社会的设计过程——这就是我认为的以人为中心的AI。
为构建这些系统的人提供伦理教育和专业规范。
监管、政策和法律,因为一些参与者会走捷径或作弊——社会需要应对机制,就像我们在其他行业中所做的那样。
这三个都很重要。即使有了这三个,仍然会有问题——我们需要现实的期望和在事情出错时做出反应的能力。
Q&A
Q1:今年达沃斯论坛对AI的态度有什么变化?
A:今年达沃斯论坛对AI的态度从炒作转向了更加现实和务实的部署。领导者们仍然保持乐观,但更多地关注AI如何交付实际的投资回报,要求展示切实有效的成果,而不是像以前那样盲目"尝试一切"。
Q2:主权AI在达沃斯论坛上是如何被讨论的?
A:主权AI是今年的热门话题,不同国家对其理解不同。主要是指国家希望对AI未来有更多控制权,以应对地缘政治不确定性和大型科技公司的主导地位。各国可以在AI堆栈的不同层面(如计算、数据、模型、应用程序和人才)根据自身目标进行重点布局。
Q3:AI智能体技术的发展前景如何?
A:AI智能体主要以两种方式出现:一是在公司内部的实际应用(已经在实施),二是独立智能体在开放互联网上协商信息和资金的更广阔愿景。对于后者需要更加谨慎,特别是涉及个人或金融数据时,还需要重要的研究和基础设施建设才能获得广泛信任。