Hassabis 为人谦逊和蔼,说话平静,但语速很快。他一生都在取得巨大成就,最近因 AlphaFold 这项工作与他的同事 John Jumper 一起获得了世界上最崇高的荣誉——诺贝尔奖。AlphaFold 是 AI 辅助蛋白质研究的一项突破,可能会彻底改变药物发现。
尽管如此,Hassabis 的职业生涯却正进入一个充满挑战的新阶段。多年来,他一直被 AI 解决人类最大挑战的潜力所激励,这是他和谷歌共同的愿景,后者允许他以极大的自主权去追求这一目标。 但现在,他必须将其与日益增长的压力结合,不断推出新技术,保持产品的相关性 。成功与否,取决于他在科学理想和商业现实之间取得平衡的能力。
我 10 月初到访时,经过几天的细雨,伦敦的天空已经放晴,阳光照进会议室里,Hassabis 向我解释了他是如何努力工作,以确保 Google DeepMind 的工作场所没有硅谷特有的密闭氛围。
Google DeepMind 的办公室独具一格,有以“交流电之父” Nikola Tesla 命名和装饰的,还有向世界上第一个程序员 Ada Lovelace、“人工智能之父” Alan Turing 和其他科技杰出人物致敬的,这并不令人惊讶;也有向哲学家 Baruch Spinoza 和 Ludwig Wittgenstein 致敬的;还有以英国小说家 Mary Shelley 命名的,她最著名的作品《科学怪人》(Frankenstein)讲述了 200 年前 AI 出错的故事;还有一家咖啡馆以科幻小说作家 Isaac Asimov 的名字命名,他在 1942 年提出了机器人三定律——第一条是“机器人不得伤害人类,也不得因不作为而让人类受到伤害”。
他们的图书馆,收藏了各种主题的纸质书籍,Hassabis 对物理学家 David Deutsch 于 1997 年出版的量子理论著作《现实的结构》(The Fabric of Reality)特别感兴趣。图书馆内还有科技风格的艺术品,包括大厅里的两个巨大的玻璃钢多面体。根据旁边的标语,这些结构由英裔美国雕塑家 Anthony James 创作,旨在“为数字计算的抽象之美赋予了一种刚硬而闪亮的触感”。
这种多学科氛围反映了 Hassabis 的多元兴趣,涵盖“哲学、艺术和人文”等各个领域,他说, “在价值观和社会方面,我也是这么想的。我觉得世界需要投入它想要的 AI —— 而不仅仅是加州一百平方英里的一块地方。”
Hassabis 发现,他对 AI 的另一种方法很感兴趣:神经网络。 通过模仿人脑的运作方式,基于该模型构建的软件可以像人一样学会做很多事情。该技术一直受到计算能力的限制,但 Hassabis 坚信,随着超级计算机的功能越来越强大,神经网络可以取得长足进步。
2010 年,DeepMind 成立了,这家初创公司非常低调,最初的网站只有一个标志,没有其他内容。 早期,该公司开发了可以玩 20 世纪 70 年代 Atari 视频游戏的软件——不是因为世界需要玩 Atari 游戏的计算机,而是作为开发 AI 的起点,这种 AI 可以自己找出规则和目标,而不需要费力地将它们编码进去。(老式 Atari 游戏卡带仍然堆放在 Google DeepMind 游戏室里。)
在破解了《太空侵略者》和《打砖块》之后,DeepMind 将注意力转向了一项更大的挑战:围棋。这项拥有 2500 年历史的棋盘游戏非常复杂,许多人认为计算机可能永远无法掌握它。2016 年,AlphaGo 软件击败了传奇围棋大师李世石——这是 AI 史上比击败 Kasparov 更伟大的时刻。第二年,一个名为 AlphaGo Zero 的新版本出现了,它无需使用人类游戏数据进行训练,就可以通过自学成为一名更优秀的围棋选手,这是 AI 的另一个重大进步,它以与人类相同的方式学习,但速度要快得多。
未来生命研究所执行董事 Anthony Aguirre 表示,谷歌最近推出的一系列 Gemini 功能表明,“他们被迫与 LLM 竞争,因为一旦 OpenAI 打开了这扇门,每个人都必须这样做。”这家非营利组织于 2023 年 3 月发布了一封公开信,呼吁 LLM 开发暂停六个月,已有 33000 多人签名。“我认为这有点不幸,因为我非常喜欢设计 AI 来解决我们实际存在的问题的目标。”
尽管谷歌和其他 AI 公司一样,没有遵从暂停研究的呼吁,但这封公开信确实引发了关于 AGI 潜在生存风险的更坦率的讨论。今年 5 月,Hassabis 和 Legg、Hinton、OpenAI 首席执行官 Sam Altman、Anthropic 联合创始人 Dario Amodei 和 Daniela Amodei、微软首席技术官 Kevin Scott 等签署了一封令人警醒的 23 字公开信:“减轻 AI 灭绝的风险应该成为全球优先事项,与其他社会规模的风险(如流行病和核战争)一样。”
负责任地部署 AI 可能只在最近才成为头条新闻,但 DeepMind 早在初创时期就深谙这一点:“在我采访 Legg 时,他谈到了智能体和安全的重要性,”早期招募的现任高级责任总监 King 说。2018 年,随着公司的重点从游戏 AI 转向具有更大潜在影响的工作,如 AlphaFold,拥有一支致力于这项工作的团队,至关重要。
Ibrahim 负责组建这个委员会,她之前曾在英特尔和 Coursera 等公司工作多年,最近才出任首席运营官。起初,“我们实际上称之为‘稍后命名的委员会’,因为我们不想暗示风险很高,”她回忆道。“我们的目标是,建立一种符合 DeepMind 的文化,但又能引导和解决其中一些问题。”
随着时间的推移,CTBNL 的正式名称变成了“安全与责任委员会”。该委员会由来自整个公司的领导组成,负责对正在进行的项目提供反馈,重点是在潜在问题真正出现之前就发现它们。“早期参与是最好的参与方式,这样实际上有助于塑造和影响工作,”负责任开发总监 Dawn Bloxwich 说道。
这种对 AI 安全的预期方法并没有阻止谷歌发布存在明显缺陷的功能 ,例如那些搜索 AI 概览无法理解人类何时在开玩笑而不是提供有用的建议。“对于我们所做的所有测试,我们永远不会涵盖世界上每个人可能尝试的所有事情,因为人类是有创造力的,”King 说,并指出在某些情况下,问题可能更多地与特定产品的实施有关,而不是 Google DeepMind 为其他谷歌团队提供的核心技术。“每当我们看到安全问题时,它对我们来说都是有用的,因为这样我们就可以推动模型开发的变化。”
谷歌不得不为用户发现的故障道歉,这凸显了它在后 ChatGPT 时代推出新功能的紧迫性。 根据 The Information 的 Jon Victor 在 4 月发表的一篇文章,Hassabis 本人对日益强调迅速将 AI 商业化以惠及大众感到不安,这导致 DeepMind 和 Google Brain 合并为 Google DeepMind。