硅谷“大脑”中的离心力:为何最优秀的科学家离开大公司?

十年前的3月,历史性的“世纪对抗”在韩国首尔发生。在AlphaGo与李世石的第二局比赛中,机器在第37步落下一颗棋子,让在场的所有人都窒息。在当时所有人类棋手看来,这似乎是明显的“弱棋”。然而,随着棋局的进行,人们惊讶地发现,这一棋克服了人类的“弱棋”,确保了人工智能的胜利。当天,AlphaGo 首席创造者、谷歌 DeepMind 首席科学家 David Silver 向世界证明,AI 不再能够简单地模仿人类,而是能够展现出超越人类直觉的“新的智能品质”。十年后,单枪匹马推倒人类围棋圣殿的“AlphaGo之父”,标志着他职业生涯新的“第37手棋”。十多年后,席尔瓦离开谷歌,创办了自己的初创公司 Ineffable Intelligence。席尔瓦并不孤单。此举限制了去年硅谷人工智能“大脑”走出国门的趋势。 OpenAI 联合创始人兼首席科学家 Ilya Satskeva 离职后创立了超级智能公司 SSI。 DeepMind AlphaZero核心团队成员集体辞职,创立Reflection AI。最大的消息是深度学习核心创始人、图灵奖得主Yann LeCun将于2025年底离开Meta,创办自己的公司。 1、大模型路径依赖导致技术窒息 随着人工智能成为全球经济新引擎,拥有最多算力、数据和资金的科技巨头正在失去最宝贵的资产:定义未来的大脑。这不仅对高层次人才的变化产生深远影响,而且对人工智能技术优势、科研组织形态变革、生产力新提升产生巨大影响。要理解席尔瓦家族的离开,我们必须超越公关看看繁荣泡沫,看看大公司内部正在蔓延的“技术锁定”。自2022年ChatGPT诞生以来,全球AI产业正在进行一场以大规模语言模型(LLM)为核心的军备竞赛。这些模型的中心逻辑是“压缩”和“模仿”。通过学习大量语料库数据并通过人类反馈强化学习 (RLHF) 对其进行优化,人工智能学会了像人类一样说话、画画和编写代码。这条道路带来了前所未有的商业成功,这很快就反映在优秀报告中令人印象深刻的增长曲线上。但对于席尔瓦这样的强化学习信徒来说,这种繁荣背后隐藏着一场重大危机。换句话说,屋顶是关闭的。 LLM本质上是对人类现有知识的重组和平滑。读过莎士比亚,我就能用莎士比亚的风格写诗。你可以通过律师考试,因为你已经记住了所有的法律。但就像爱因斯坦一样,他设计了unme相对论,或者像AlphaGo的第37手一样,他发现了人类尚未掌握的新知识。席尔瓦认为,要实现真正的通用人工智能(AGI),甚至超级智能,我们必须摆脱人类数据的“本质”。它的强化学习路径是让AI在虚拟环境中通过数亿次的自我对弈和试错来独立探索问题的最优解决方案,即使这些解决方案是人类无法理解的完整思维。但在谷歌,这种激进的、非共识的研究正变得越来越困难。首先,商业逻辑对科学逻辑的压力。随着AI成为谷歌对抗微软和OpenAI的外护城河,该公司的战略重点将不可避免地转向“防御性创新”和“产品部署”。计算资源有限,必须优先考虑Gemini模型,以满足激烈的商业竞争。探索性研究arch成本高、周期长、效果未知,不可避免地被边缘化。然后是安全性和合规性限制。作为全球巨头,谷歌无法承受人工智能伦理方面的重大事件。 AI“政治正确”、“无毒” 为了确保这一点,各大厂商在其模型的训练中都实施了极其严格的安全屏障。这是必要的社会责任,但对于寻求突破界限的科学家来说,这就像给短跑运动员穿上重甲。所以在席尔瓦这样的科学家眼中,大制造商已经从曾经放肆的“象牙塔”变成了充满KPI考核、部门纠纷、合规审查的“血汗工厂”。他们明白,试图在现有的企业帝国体系内培养超人的超级智能,就像在城市中心进行核试验一样:这是不允许的,也没有成功的机会。 2、组织建设取得重大进展人工智能研究和开发的形式。谷歌 DeepMind 曾经是全球人工智能研究的圣地。它的成功基于特殊的组织结构。虽然我们有谷歌无限的资金支持,但我们保持着学术和相对独立的氛围。但随着谷歌将 DeepMind 与 Google Brain 合并,以整合资源对抗 OpenAI,这家原本独立的公司逐渐被纳入谷歌庞大的官僚机构。这种“整合”策略可以帮助产品快速迭代,但却扼杀了颠覆性创新。 Silva、Sutskvi 等人的创业精神。它本质上是创建一个更高效的科学研究组织的尝试。首先,从“人力海上战术”到“精英突击”。大公司习惯于积累人才和资金来解决问题,行政和沟通成本往往呈指数级增长。席尔瓦、苏图克维等人奉行一种非常理性的精英主义。他们相信在藻类中在原始无人区,一个天才的成就远远超过1000个平庸工程师的总和。团队规模小意味着决策中的摩擦很少,想法密度非常高。正如 OpenAI 颠覆了 Google 最初仅用几十名员工就拥有数千名员工的情况一样。新一代超级聪明的初创公司正在将“组织极简主义”发挥到极致。第二,资本和算力完全分离。过去,科学家们从来不敢放弃谷歌,因为只有谷歌才能负担得起10万块显卡和庞大的数据中心。这是大工厂最坚固的“物理护城河”。但现在,这条护城河正被大量资本所填补。在全球资本对人工智能热衷的同时,风险投资机构和主权财富基金也渴望为这些顶尖人才提供媲美大型制造商的资源支持。 Sutskvi 的 SSI 在没有生产的情况下筹集了 30 亿美元。咳。当“自由计算“人工智能”不再是大公司的特权,高水平的科学家将失去留在大公司、忍受官僚主义的最后理由。多用途的决策模式注定会平庸。相反,这些人工智能巨头创办的初创公司往往只有一个中心目标:建立安全的超级智能。Suthukvi先生曾公开承诺,在实现此类战略决策之前,他不会分心开发任何商业产品。 3、区分基础设施而“登月”项目席尔瓦等人的离开并不意味着谷歌或Meta这样的巨头公司的衰落,也不意味着大工厂模式的失败,相反,它可能预示着AI产业的全球生态系统正在成熟并形成更高效的分工,未来几年,新的AI生产力将在全球范围内形成两级体系。LLM项目,他们将继续主导大型模型。他们的角色类似于电力和水务公司,致力于将人工智能变成稳定、廉价和普惠性的基础服务。专注于模型工程优化、多模态融合,与搜索、办公、社交网络等应用场景完全融合。这部分工作的核心是对现有知识进行数字化重组,线性提升生产效率。最顶层是“初创公司主导的月球探索层”。由外籍科学家领导的精英初创公司将利用强化学习等边缘技术路线来征服“超越人类水平”的超级智能。这部分工作的核心是自主发现增量洞察,大幅提升生产效率。这种分工是符合经济规律的。大厂家有责任“维护诚信”使用确定性技术为数亿用户提供服务。初创公司有责任带来惊喜并做出冒险的赌注,以进入下一个技术时代。这对中国也有重要影响。目前,全国“百模大战”的重点是复制ChatGPT的路线,这是确定性路径上的工程恢复。建立自主可控的产业生态系统固然重要,但也要警惕“大厂商垄断创新”带来的同质化和平庸。创造新的人工智能生产力,既需要“基础设施层”的可扩展能力,也需要“月球探测层”的制度化试错空间。这不仅需要各大厂商投入大量资金,还需要建立慷慨且多样化的科研和投融资机制来支持这种“无协议”的探索。底线:永远寻找下一个“37步”。如果说法学硕士是挖掘人类现有的知识财富,那么席尔瓦所代表的强化学习之路就是寻找新的脉络。十年前,当AlphaGo出了37步违背人类直觉的棋时,李小龙困惑了很长一段时间,但随后在评论中感叹这是“上帝的棋步”。十年后,席尔瓦家族不断扩张。他们选择放弃模拟工厂,从头开始。在外界看来,这可能是你职业生涯中的一次“危险举动”,或者是一次不合理的“第37次举动”。但在席尔瓦看来,这或许是未来唯一正确的答案。因为真正的创新往往是对旧秩序的背离和颠覆。这种离心力看似组织的分裂,但实际上是人类好奇心的融合。它提醒我们,在新生产力的伟大故事中,中心变量始终是大脑不愿意接受现状。 (作者王翔为复旦大学数字移动治理实验室研究员)来源:王翔
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。

admin

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注