4 月 14 日,GOOGLE首席科学家 Jeff Dean 在苏黎世联邦理工学院举办的信息学研讨会上发表了一场演讲,主题为「AI 的重要趋势:大家是如何走到今天的,大家现在能做什么,以及大家如何塑造 AI 的未来?」
在这场演讲中,Jeff Dean 首先以GOOGLE多年来的重要研究成果为脉络,展现了 AI 近十五年来的发展轨迹,之后又分享了 Gemini 系列模型的发展历史,最后展望了 AI 将给大家这个世界带来的积极改变。
机器之心将在本文中对 Jeff Dean 的演讲内容进行总结性梳理,其中尤其会关注演讲的第一部分,即GOOGLE过去这些年对 AI 领域做出的奠基性研究贡献。大家将看到,Transformer、蒸馏、MoE 等许多在现代大型语言模型(LLM)和多模态大模型中至关重要的技术都来自GOOGLE。正如 网友 @bruce_x_offi 说的那样,你将在这里看到 AI 的进化史。
在 DistBelief 中,实际上还有一个中心系统,可以接收来自模型不同副本的梯度更新,并将它们应用于参数。但 Jeff Dean 表示他们的做法实际上在数学上并不正确,因为这个过程是完全异步的。不同的模型副本将获得参数的新副本,在一些数据上进行计算,再将基于这些参数和该批次训练数据的梯度发送回参数服务器。但这时候,参数已经有变化了,因为其他模型副本在此期间应用了它们的梯度。因此,根据梯度下降算法,这在数学上显然是不正确的,但它是有效的。所以这就是个好方法。