[加州] 唏嘘:十年前的百度,聚拢了硅谷最杰出的天才
格雷戈里·迪亚莫斯(Gregory Diamos)来百度之前,是英伟达CUDA架构师。他在百度对DeepSpeech和DeepVoice系统有贡献,他关注的则是更底层的系统问题:训练过程如何被拆解、调度和优化,如何把高性能计算的思路真正嫁接到深度学习训练中。
在这些人之间,后来创办Anthropic的阿莫迪当时并不显眼。
他在团队里的身份,只是一名研究科学家,参与模型和系统的实际打磨。但正是在这段经历中,一种后来被反复提及的直觉,逐渐成形。

多年之后,阿莫迪在回顾自己职业路径时提到,他对“规模”的认识,并不是来自某一次灵光乍现,而是来自反复的工程实践。在Deep Speech的实验中,当模型规模、数据量和计算资源被同步放大时,系统性能并不是随机起伏,而是呈现出一种平滑而稳定的提升趋势。
那时,“缩放定律”还没有成为一个被命名的概念,多年后,2024年底,已经是Anthropic创始人的阿莫迪透露此事,引发了“百度是不是先于OpenAI发现缩放定律”的争议。
当年在百度观察到类似“缩放定律”的科学家,迪亚莫斯也是其中之一。
到现在他的领英界面上百度那段工作经历里还写着头衔是“大语言模型缩放定律研究员(LLM Scaling Law Researcher)”。

随着项目推进,实验室本身也在变化。
最初,它更像一个相对独立的研究飞地;但到2016年前后,语音、视觉、自然语言处理、自动驾驶等方向同时展开,团队迅速膨胀,研究开始不可避免地与公司整体战略发生更紧密的咬合。
实验室不再只是“做研究”,而逐渐承担起连接前沿探索与内部工程体系的角色。
正是在这种张力之下,百度在2017年做出了一个新的组织性选择。第二个大型研发中心在硅谷设立,这一次,重心不再是基础研究,而是更明确地服务于自动驾驶等方向的工程落地。

觉得新闻不错,请点个赞吧
还没人说话啊,我想来说几句
在这些人之间,后来创办Anthropic的阿莫迪当时并不显眼。
他在团队里的身份,只是一名研究科学家,参与模型和系统的实际打磨。但正是在这段经历中,一种后来被反复提及的直觉,逐渐成形。

多年之后,阿莫迪在回顾自己职业路径时提到,他对“规模”的认识,并不是来自某一次灵光乍现,而是来自反复的工程实践。在Deep Speech的实验中,当模型规模、数据量和计算资源被同步放大时,系统性能并不是随机起伏,而是呈现出一种平滑而稳定的提升趋势。
那时,“缩放定律”还没有成为一个被命名的概念,多年后,2024年底,已经是Anthropic创始人的阿莫迪透露此事,引发了“百度是不是先于OpenAI发现缩放定律”的争议。
当年在百度观察到类似“缩放定律”的科学家,迪亚莫斯也是其中之一。
到现在他的领英界面上百度那段工作经历里还写着头衔是“大语言模型缩放定律研究员(LLM Scaling Law Researcher)”。

随着项目推进,实验室本身也在变化。
最初,它更像一个相对独立的研究飞地;但到2016年前后,语音、视觉、自然语言处理、自动驾驶等方向同时展开,团队迅速膨胀,研究开始不可避免地与公司整体战略发生更紧密的咬合。
实验室不再只是“做研究”,而逐渐承担起连接前沿探索与内部工程体系的角色。
正是在这种张力之下,百度在2017年做出了一个新的组织性选择。第二个大型研发中心在硅谷设立,这一次,重心不再是基础研究,而是更明确地服务于自动驾驶等方向的工程落地。

| 分享: |
| 注: | 在此页阅读全文 |



