诺贝尔物理奖变身图灵奖?科学家解释人工智能先驱为何“爆冷”获奖

瑞典皇家科学院10月8日宣布,将2024年诺贝尔物理学奖授予两位人工智能先驱——美国科学家约翰·霍普菲尔德和加拿大科学家杰弗里·辛顿,表彰他们在使用人工神经网络进行机器学习的基础性发现和发明。

诺贝尔物理学奖怎么颁给了人工智能专家?诺贝尔奖变身图灵奖了?大奖一揭晓,就引发了网民的议论。当然,这已不是诺贝尔物理学奖第一次“跨界”,比如在2021年,这项大奖的三位获得者中,真锅淑郎和克劳斯·哈斯曼是气候学家,获奖原因是他们在地球气候预测模型和“预测全球变暖”方面作出的贡献。

此次瑞典皇家科学院为何“相中”人工智能?霍普菲尔德和辛顿的成果与物理学有何关联?解放日报·上观新闻记者采访了复旦大学、上海交通大学和达观数据的三位专家。

将物理学与其他多个学科交叉

“霍普菲尔德和辛顿的研究领域是统计物理、数学物理、非线性物理,所以属于物理学领域。”复旦大学智能复杂体系实验室主任、上海数学中心谷超豪研究所长聘教授林伟介绍,他们研发的人工神经网络是典型的复杂系统,需要用格物致知的精神去深入探究,将物理学与数学、统计学、计算机科学、脑科学等学科进行交叉。

诺贝尔物理奖变身图灵奖?科学家解释人工智能先驱为何“爆冷”获奖

瑞典皇家科学院宣布,将2024年诺贝尔物理学奖授予约翰·霍普菲尔德和杰弗里·辛顿。

人工神经网络是20世纪80 年代以来,人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。作为一种运算模型,人工神经网络由大量的节点(即神经元)相互连接构成,每个节点代表一种特定的输出函数,每两个节点间的连接都代表一个对于通过该连接信号的加权值,这相当于人工神经网络的记忆。

林伟告诉记者:“霍普菲尔德上世纪80年代发明的霍普菲尔德神经网络,是用来描述和模拟人脑联想记忆的。”它是一种结合存储系统和二元系统的神经网络,提供了模拟人类记忆的模型。

人感知到一些事物或经历了某件事后,其记忆会被唤醒,脑海中浮现出越来越清晰的图景。霍普菲尔德神经网络也有这个功能,比如科研人员把曾输入神经网络的一张图片加工一下,让它的部分像素缺失,随后将这张图片输入神经网络。经过多次循环,它会神奇地让原图复现,就像人脑将遗忘的事物回忆起来一样。

霍普菲尔德神经网络还可以解决“旅行商问题”。对于给定的一系列城市和每对城市之间的距离,它能找到访问每座城市仅一次并回到起始城市的最短回路。

对人工智能发展起到关键作用

林伟介绍,辛顿发明了一种可以自动发现数据特征的方法,从而执行“识别图片中特定元素”等任务。他以霍普菲尔德神经网络为基础,创建了一个使用不同方法的新网络——玻尔兹曼机,这种网络可以学习识别给定类型数据中的特征元素。

辛顿使用统计物理学的工具,通过输入在机器运行时很可能出现的例子来训练机器。玻尔兹曼机可用于分类图像,或创建与其训练模式类型相似的新例子。在此基础上,这位科学家继续研究,助力启动了当前机器学习的飞速发展。

诺贝尔物理奖变身图灵奖?科学家解释人工智能先驱为何“爆冷”获奖

2024年诺贝尔物理学奖得主肖像

上海交通大学物理与天文学院、张江高等研究院教授洪亮认为,辛顿留下的最大“科学遗产”是被人工智能时代广泛认可并且至今在各大模型中应用的“反向传播”方法。在训练人工智能系统时,运用这种计算方法,既“正着走”也“反着走”,也就是在正向过程中不断反向验证,从而让AI与真实更加接近,也更为稳定。

达观数据董事长兼CEO、复旦大学计算机专业博士陈运文说:“霍普菲尔德和辛顿开创性提出的神经网络和深度学习技术,为现代人工智能奠定了重要的理论基础,使计算机能够模拟人类的记忆和学习过程,对人工智能如今的蓬勃发展起到了关键性作用,在计算机技术发展史上具有划时代意义。”

或将推动物理学科研范式改变

谈及今年诺贝尔物理学奖的“跨界”问题,洪亮表示:“91岁的霍普菲尔德是统计物理学家,77岁的辛顿则是一位100%的计算机学家,而且已经得过计算机领域的最高奖——图灵奖。所以获奖消息一公布,就在我们物理与天文学院群里引起了辩论。”这场还在持续的辩论,甚至让他想起了《三体》中物理学家发出的“灵魂拷问”:物理是不是不存在了?洪亮在他的朋友圈里表示,今天或许是物理学历史上“悲哀的一天”,却可能是科学史上“崭新的一天”。

在林伟看来,这是诺贝尔奖主动拥抱“AI时代”的一个重要举措,体现了物理学与其他学科交叉融合的趋势,值得肯定。

洪亮认为,霍普菲尔德和辛顿此次获奖,可能将推动物理学科研范式的改变。洪亮本科学物理,读硕士时学化学,读博士时学生物,之后研究计算生物学,如今是上海交大国家应用数学中心副主任。他通过跨学科的研究经历发现,相比爱用AI的工程学家和生物医药学家,物理学家对AI的接受程度并不高。

究其原因,在解释世界的方法上,物理学家最擅长的是“从底层往上推”,即先搞清楚1+1=2,再推出1+2=3、2+2=4,进而发展出减法、乘法和除法等,一层一层地复杂化,直至理解这个最复杂的世界。而另一种解释世界的方法是“自上而下”,也就是AI最擅长的大数据驱动,凭借足够多的数据倒推出合理的结果,而其中的逻辑可能存在于无法破解的黑箱里。

“第一种方法是简单而美的,另一种方法是复杂而有用的。”洪亮以谷歌 DeepMind开发的AI模型Alphafold为例,它预测蛋白质、DNA、RNA、小分子等生物分子结构和相互作用的精确性,往往可以超过从底层向上逐层推演、反复验证的传统科研范式。那么,完美理解这个世界的物理之道,究竟用什么方法更好?洪亮认为,物理学家可改变思维,正如诺奖评审改变思路一样,在更大程度上拥抱新的范式。