前DeepMind科学家创业Reflection AI,豪掷1.3亿美元逐梦超级智能

前DeepMind核心成员成立Reflection AI,目标直指超级智能,已获1.3亿美元融资。他们计划利用AI agent实现自主编程,并探索新型AI架构。

原文标题:目标超级智能,前DeepMind科学家离职创业,获1.3亿刀融资

原文作者:机器之心

冷月清谈:

两名前Google DeepMind研究人员Misha Laskin和Ioannis Antonoglou成立Reflection AI公司,目标是开发超级智能。该公司已获得1.3亿美元融资,估值高达5.55亿美元。Reflection AI计划构建自主编程工具,并最终将其扩展到更广泛的计算机工作类别。公司将专注于开发能够自动执行相对狭窄编程任务的AI agent,如扫描代码漏洞、优化内存使用等,并计划使用大语言模型、强化学习以及新型架构来驱动其软件。团队成员曾在DeepMind、OpenAI等机构主导开发AlphaGo 和 Gemini 等先进人工智能系统。该公司还计划使用多达数万块显卡来训练其模型,并致力于开发适用于非大语言模型的类似 vLLM 平台。

怜星夜思:

1、Reflection AI 的“超级智能”定义为“能够执行大多数涉及计算机工作的智能系统”,这个定义是否过于宽泛?你怎么理解“超级智能”?
2、Reflection AI 计划从开发自主编程工具入手,你认为这是一个好的切入点吗?如果让你来选择,你会从哪个方向入手?
3、Reflection AI 提到要探索新型的神经网络架构,并使用数万块显卡进行训练,你认为 Transformer 架构会被替代吗?未来的AI模型会是什么样的?

原文内容

机器之心报道

编辑:杨文、泽南

从来没见过人类做出这样的决策……太优美了。


又有谷歌大模型核心成员出来创业了。


3 月 8 日,两名前谷歌 DeepMind 研究人员在社交平台 X 上宣布,成立一家名为 Reflection AI 的公司,旨在开发超级智能。



该公司一亮相,就已宣布获得 1.3 亿美元融资,估值更是高达 5.55 亿美元。


这家公司的两名创始人 Misha Laskin(图右)和 Ioannis Antonoglou(图左)也来头不小。



担任 CEO 的 Misha 曾帮助开发谷歌 Gemini 大语言模型系列的训练工作流程,而联合创始人 Ioannis 则是谷歌 DeepMind 的创始工程师,也是 AlphaGo 的幕后功臣,还从事了 Gemini 的训练后系统工作。


其团队成员也都是曾在 DeepMind、OpenAI 和其他前沿实验室发挥主导作用的研究人员和工程师,参与打造了过去十年间一些最先进的人工智能系统,比如 AlphaGo 和 Gemini 等。



可谓是谷歌、OpenAI 重磅 AI 研究的原班人马。


对于他们「开发超级智能」的使命,网友也有不同看法。


有人认为,从 AGI 到 ASI 的转变会很快,一旦实现了真正的通用智能,超越人类水平应该会很容易。



也有人质疑,他们是在利用 ASI 的噱头来融资。



打造超级智能


据介绍,Reflection AI 的目标是开发超级智能,他们将其定义为能够执行大多数涉及计算机工作的智能系统。


作为实现这一目标的第一步,该公司正在构建一个自主编程工具。Reflection AI 认为,创建此类工具所需的技术构建模块可以重新用于构建超级智能。


Reflection AI 工作人员在一篇博客中写道,「构建完全自主编码系统所需的突破性技术 —— 如高级推理和迭代自我改进 —— 自然会扩展到更广泛的计算机工作类别。」


该公司将先专注于开发能够自动执行相对狭窄编程任务的 AI agent 。一些 agent 将专注于扫描开发人员代码中的漏洞。其他 agent 将优化应用程序的内存使用并测试其可靠性问题。


Reflection AI 还计划实现一系列相关任务的自动化。据该公司称,其技术可以生成解释特定代码片段工作原理的文档,该软件还将帮助管理客户应用程序运行的基础设施。


据 Reflection AI 网站上的一则招聘启事显示,该公司计划使用大语言模型和强化学习来驱动其软件。过去,开发人员在训练人工智能模型时,使用的数据集中的每个数据点都附带一个解释,而强化学习则无需包含这些解释,这使得创建训练数据集变得更加容易。


该招聘启事还透露,该公司计划为其 AI 系统「探索新型的架构」。这表明该公司可能会超越目前支撑大语言模型的 Transformer 神经网络架构。越来越多的大语言模型正在使用一种名为 Mamba 的竞争架构,它在某些方面更加高效。


此外, Reflection AI 还计划使用多达数万块显卡来训练其模型。该公司还提到将致力于开发「适用于非大语言模型的类似 vLLM 平台」。开发人员使用 vLLM 这一流行的人工智能开源工具来减少语言模型的内存使用。


两位谷歌DeepMind元老



ReflectionAI 的 CEO Misha Laskin 曾于 2022-2024 年任 Google DeepMind 研究科学家,此前曾在加州大学伯克利分校念博士后,是芝加哥大学理论物理学博士。


Misha Laskin 深度参与了 Gemin 大模型的研发,研究方向为通用智能体,并对大模型中的强化学习有所研究。



ReflectionAI 联合创始人 Ioannis Antonoglou 此前任 Google DeepMind 资深研究科学家,曾参与过 AlphaGo 和 AlphaZero 项目。



期待他们的首个公开项目。


参考内容:

https://www.sequoiacap.com/founder/ioannis-antonoglou/

https://www.reflection.ai/

https://x.com/MishaLaskin/status/1898048928236421363

https://x.com/kimmonismus/status/1898076692645880242

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

如果从纯粹工程的角度,这个定义也许是合理的。毕竟,他们首先要解决的是“能干活”的问题,而不是先追求“像人”。也许他们认为只要效率足够高,覆盖面足够广,量变就能引起质变,最终就实现了超级智能。但如果从哲学角度,超级智能可能不仅仅是效率问题,还涉及到意识、创造力等等更深层次的难题,就不是简单堆砌算力可以解决的。

这个定义就很“AI”。。。把智能定义成一种“可执行的任务”,然后想办法让机器去完成。但真正的智能难道不应该是具备自我意识和情感吗?如果只是执行任务,那和高级机器人有什么区别?

Transformer 架构目前来看确实是主流,但肯定不是终点。Mamba 架构的出现已经展示了新的可能性。未来的模型可能会结合 Transformer 的全局理解能力和 Mamba 的高效处理能力,甚至可能出现全新的、我们现在还无法想象的架构。硬件方面,数万块显卡听起来很唬人,但算力需求只会越来越高,说不定未来会有专门为 AI 设计的芯片出现。

Transformer 架构的成功很大程度上是因为它易于并行化,适合大规模训练。但它的计算复杂度也比较高。未来的模型可能会在效率上做更多优化,比如减少参数量、降低计算复杂度等等。量子计算说不定也能给 AI 模型带来新的突破。

我觉得他们选择自主编程是很聪明的。首先,DeepMind 在 AlphaGo 上的成功已经证明了强化学习在特定领域的潜力。其次,程序员是高薪群体,如果能用 AI 替代一部分工作,市场潜力巨大。如果让我来选,可能会先从辅助编程入手,比如代码自动补全、bug 自动检测等等,逐步积累技术和数据,再向自主编程过渡。

如果我有这么多钱,我就直接砸钱搞AGI!一步到位!自主编程什么的,都是小打小闹。当然,理想很丰满,现实很骨感… 但梦想还是要有的,万一实现了呢?

我觉得他们的定义确实有点宽泛了。“大多数涉及计算机的工作”,这几乎涵盖了现在所有人类的脑力劳动。我理解的“超级智能”应该在通用性之外,还要在特定领域超越人类专家,比如在科研、艺术创作等方面有突破性进展。

自主编程是个非常有吸引力的方向,如果能实现,就能极大提升软件开发效率。而且,编程本身也需要逻辑推理和问题解决能力,这与构建通用智能有很多相通之处。但难度也很高啊,感觉要解决很多编译器、算法和知识库的问题,还要处理各种异常情况,想想都头大。