【文/观察者网 杨蓉】

据英国《金融时报》12日报道,在中国人工智能(AI)初创公司DeepSeek推出的开放式推理大模型R1震惊世界后,美国谷歌公司前首席执行官埃里克·施密特(Eric Schmidt)警告,西方国家需要专注于构建开源AI模型,否则就有可能在这项尖端技术的全球竞赛中输给中国。

报道说,施密特日前在巴黎参加AI行动峰会时接受采访指出,目前除了Meta的Llama以外,美国大部分顶级AI大语言模型都是闭源的,包括谷歌的Gemini、Anthropic的Claude和OpenAI的GPT-4。“如果我们不对此做些什么,中国最终将成为开源领域的领导者,而世界其他国家将成为闭源国家。”施密特说。

开源大模型是指其模型权重和代码对公众开放,允许自由使用、修改和再训练,而闭源大模型则由开发者严格控制,用户只能通过API或特定平台访问,无法直接获取和调整底层模型。施密特告诉《金融时报》,如果西方国家不对开源技术进行投资,可能影响自身科研进展,因为许多高校负担不起昂贵的闭源模型。

谷歌前CEO:如果西方不采取行动,中国将成为开源领域领导者

当地时间2025年2月10日,施密特在巴黎AI行动峰会上 视觉中国

AI大模型的开闭源路径之争,一直是业内激烈交锋的话题。美国OpenAI公司早年的主要投资人之一、特斯拉创始人马斯克去年“杠上”OpenAI,指控之一就是后者违背“初心”,为了营利将大模型闭源。

OpenAI方面反驳了马斯克的说法,并公布证据称,马斯克此前也支持将OpenAI转变为一家营利性公司,只是因为他无法获得控制权而退出。不过,对于开闭源孰优孰劣,OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)最近倒是承认,OpenAI的闭源策略站在了“历史错误的一边”。

奥尔特曼表示,OpenAI员工正在讨论开源的可能性,但补充说:“并非所有人都认同这种观点,这也不是我们当前最优先考虑的事项。”奥尔特曼还称赞DeepSeek的最新模型是“非常好的模型”。他说,尽管自己认为OpenAI未来仍将开发出更好的模型,但将无法像过去那样保持那么大的领先优势。

谷歌前CEO:如果西方不采取行动,中国将成为开源领域领导者

当地时间2025年2月11日,奥尔特曼在巴黎AI行动峰会期间于初创企业园区Station F参加活动 视觉中国

针对奥尔特曼这一罕见表态,施密特则认为奥尔特曼“认错”有点“太快”。在施密特看来,AI发展的未来在于将开源和闭源模型结合起来。他说,虽然美国通过像GPT-4这样强大的AI模型在产业发展的第一阶段占据了主导地位,但欧洲有机会通过思考如何在技术之上建立“应用”,将AI应用于企业,获得经济收益。

“欧洲必须行动起来。”施密特说,“应用层的功能非常强大,它将使你们的欧洲更加高效。”

此外,施密特还呼吁西方国家与中国在AI安全方面开展合作。《金融时报》称,施密特将这比作不同国家军方测试火箭时的信息共享:“我们向他们提供信息,他们可以利用这些信息使他们的模型更加安全,这对我们怎么可能是坏事呢?”

今年1月,DeepSeek发布其最新开源模型DeepSeek-R1,用较低的成本达到了接近于OpenAI开发的GPT-o1的性能,在海内外迅速出圈,引发热烈讨论。图灵奖得主、Meta AI首席科学家杨立昆(Yann Le Cun)当时评价,DeepSeek成功的最大意义就是证明了AI开源的价值,即任何人都能从中受益。

“这是一个特殊的时刻,一家中国公司成为事实上的开源领导者,而除了Meta以外的大多数美国大公司继续严格保密其方法论。”施密特上月28日在美国《华盛顿邮报》与人联合发表专栏文章写道。

他指出,虽然当前AI的开闭源之争和中美科技竞赛尚无明确胜负,但DeepSeek依靠远少于美国科技巨头的资源,就能与它们竞争,这已给美国AI企业带来巨大压力。他表示,美国试图通过芯片出口管制措施阻碍中国的产业发展,但这事实上可能反而促使中国企业和研究人员提高效率,探索提升训练效率的新方法。

“长期以来,美国的竞争优势一直依赖于开放科学以及行业、学术界和政府之间的合作。”文章写道,“我们应该接受开放科学可能再次为人工智能时代的美国注入活力的可能性。”

值得一提的是,就在2月11日落幕的巴黎AI行动峰会上,包括法国、中国、印度、欧盟在内的60个国家和国际组织共同签署了《关于发展包容、可持续的AI造福人类与地球的声明》。但法国总统府当日在官网公布的声明文件显示,美国和英国均未签署该声明。

据报道,该声明确立了AI发展的几大优先事项,包括:促进AI可及性以缩小数字鸿沟、确保AI的开放透明和可信性、推动创新以促进工业发展、积极塑造劳动力市场和可持续增长、提升AI对人类和地球的可持续性、加强国际合作促进全球治理协调等。

英国政府在一份简短声明中称,其“同意领导人声明的大部分内容”,但认为声明“没有就全球治理提供足够的实用明确性,也没有充分解决有关国家安全的更棘手问题,以及AI构成的挑战”。

然而,这引来一些业内人士的不解。独立研究机构“埃达·洛夫莱斯研究所”(Ada Lovelace Institute)副主任迈克尔·伯特威斯尔(Michael Birtwistle)对英国广播公司(BBC)表示:“从峰会公报来看,很难确定政府到底不同意该声明中的哪些内容。”

据“政客”新闻网欧洲版报道,美国政府对声明措辞中呼吁发展“包容和可持续”AI的部分并不赞同。一名接近主办方的消息人士则告诉路透社,考虑到美国特朗普政府在AI监管方面的立场,他们对美国没有签署声明并不感到惊讶。

美国副总统万斯11日在峰会发表演讲说,美国打算继续保持在AI方面的主导地位,并强烈反对对AI进行“过度监管”,并称这“可能会扼杀一个变革性的行业”。分析认为,万斯的演讲显示,美国的科技产业政策发生了明确的转变。“安全将不再是首要关注点,取而代之的是加速创新,以及相信技术是一种机遇。安全等于监管,监管等于失去这种机遇。”斯坦福以人为本AI研究院执行主任罗素·瓦尔德(Russell Wald)说。