奥特曼:AGI 即将到来,三大经济学观察

Sam Altman 认为 AGI 即将到来,并分享了关于 AI 经济学的三个重要观察,指出 AI 使用成本持续下降,而其社会经济价值将超指数级增长。

原文标题:DeepSeek冲击下,奥特曼刚刚给出对AGI的「三个观察」,包括成本速降

原文作者:机器之心

冷月清谈:

OpenAI CEO Sam Altman 近期发表博客文章,分享了他对 AGI 经济学的三个观察,并预测 AGI 将对社会经济产生巨大影响。

1. 计算资源投入与模型智能水平呈对数关系:训练和运行 AI 模型所需的计算、数据和推理资源与模型的智能水平呈对数关系,这意味着持续投资可以带来可预测的智能提升。DeepSeek 等公司推出的低价高性能 AI 模型佐证了这一观点。
2. AI 使用成本持续下降:特定水平 AI 的使用成本大约每 12 个月下降 10 倍,更低的成本将促进更广泛的应用。GPT-4 的 token 成本下降就是一个例证。
3. 智能的社会经济价值呈超指数级增长:即使智能呈线性增长,其带来的社会经济价值也会呈超指数级增长,这支持了对 AI 的持续指数级投资。

Altman 认为,AGI 的影响将类似于晶体管,渗透到经济的各个角落,并预言未来十年每个人都能比现在最有影响力的人取得更大的成就。他还展望了 AI 智能体作为虚拟同事的未来,以及 AGI 如何加速科学进步、改变商品价格和劳动力市场。他强调了公共政策和社会共识的重要性,呼吁技术与社会共同发展,并探讨了如何确保 AGI 的益处得到广泛分配。

怜星夜思:

1、如果 AI 智能体真的能达到顶级软件工程师的水平,那软件工程师这个职业的未来会是什么样的?
2、文章提到 AGI 的好处可能分配不均,这会带来哪些社会问题?该如何应对?
3、文章中提到的“Scaling Law”是什么?它对 AI 发展有什么意义?

原文内容

机器之心报道
编辑:蛋酱、陈陈

今天凌晨,OpenAI CEO 再次发布长文,重申自己对于 AGI 的三个观察。


核心观点如下:

1. 人工智能模型的智能大致等于用于训练和运行该模型的资源的对数。
2. 使用一定水平的人工智能的成本每 12 个月就会下降约 10 倍,而较低的价格会带来更多的使用。
3. 线性增长的智能的社会经济价值具有超指数性质。

DeepSeek 等科技公司推出的强大且价格低廉的人工智能模型似乎支持了第一个观点。有证据表明,训练和开发成本也在下降。基于第二个观点,尽管推动人工智能技术的边界不会变得更便宜,但用户将在此过程中获得越来越强大的系统。但奥特曼指出,要实现 AGI 甚至更高级别的人工智能,仍然需要大量投资。

OpenAI 实际上并不打算通过使用 AGI 一词来在短期内结束与密切合作伙伴兼投资者微软的关系。我们知道,微软和 OpenAI 对 AGI 有一个非常具体的定义 —— 可以产生 1000 亿美元利润的人工智能系统。一旦满足这一定义,OpenAI 就可以协商更有利的投资条款。

这不是奥特曼第一次声称 AGI 即将问世。而博客中的「我们现在已经开始推出 AI 智能体,它们最终会给人一种虚拟同事的感觉」,更是让人好奇这家公司即将带来怎样的技术突破。


与此同时,OpenAI 官方的一条新动态引发了人们的猜想:莫非这几天要有新发布了?


这一次,OpenAI 将会以何种形式解锁通往 AGI 的新关卡?

以下是奥特曼博客原文整理:

我们的使命是确保 AGI 造福全人类。

开始指向 AGI 的系统正在进入人们的视野,因此我们认为了解我们所处的时刻非常重要。AGI 是一个定义模糊的术语,但一般来说,我们的意思是,它是一个能够在人类水平上解决许多领域日益复杂问题的系统。

人是工具的创造者,天生就有一种理解和创造的动力,这将使我们所有人的世界变得更加美好。每一代人都在前人发现的基础上创造出功能更强大的工具 —— 电力、晶体管、计算机、互联网,以及即将出现的人工智能。

随着时间的推移,人类不断创新,带来了前所未有的繁荣,改善了人们生活的方方面面。

从某种意义上说,AGI 只是我们共同搭建的人类进步的脚手架上的又一个工具。从另一种意义上说,这是一个开始,很难不说「这次不一样」;我们眼前的经济增长看起来令人震惊,我们现在可以想象这样一个世界:我们可以治愈所有疾病,有更多的时间与家人享受天伦之乐,可以充分发挥我们的创造潜能。

十年后,也许地球上的每个人都能比今天最有影响力的人取得更大的成就。

我们将继续看到人工智能的快速发展。以下是关于人工智能经济学的三点观察:

1. 人工智能模型的智能大致等于用于训练和运行该模型的资源的对数。这些资源主要是训练计算、数据和推理计算。看起来,你可以花费任意数量的资金,获得持续且可预测的收益;预测这一点的 Scaling Law 在许多数量级上都是准确的。

2. 使用一定水平的人工智能的成本每 12 个月就会下降约 10 倍,而较低的价格会带来更多的使用。从 2023 年初的 GPT-4 到 2024 年中的 GPT-4o 的 token 成本就可以看出这一点,在这段时间内,每 token 的价格下降了约 150 倍。摩尔定律每 18 个月改变世界的速度达到了 2 倍,这简直强得令人难以置信。

3. 线性增长的智能的社会经济价值具有超指数性质。由此产生的一个结果是,我们认为指数级增长的投资在不久的将来没有理由停止。

如果这三个观点继续成立,那么对社会的影响将是巨大的。

我们现在已经开始推出 AI 智能体,它们最终会给人一种虚拟同事的感觉。

让我们来设想一个专注于软件工程的智能体,这是我们期望的、特别重要的智能体。想象一下,这个智能体最终将能够完成顶级公司中拥有数年经验的软件工程师所能完成的大部分任务,而且这些任务可能需要几天时间。可能这些智能体不会有最伟大的新想法,需要大量的人工监督和指导,在某些事情上表现出色,但在另一些事情上却出人意料地糟糕。

尽管如此,我们还是可以将其想象为一个真实但相对初级的虚拟同事。设想一下有 1000 个这样的虚拟同事,或者 100 万个。更进一步的,想象一下在每一个知识工作领域都有这样的虚拟同事。

在某些方面,人工智能在经济上可能会像晶体管一样 — 一个规模巨大的科学发现,几乎渗透到经济的每一个角落。我们不会过多地考虑晶体管或晶体管公司,而且其收益分布非常广泛。但我们确实期望我们的电脑、电视、汽车、玩具等能够创造奇迹。

世界不会一下子改变,从来都是如此。在短期内,我们的生活将基本保持不变,2025 年的人们将以 2024 年的方式度过他们的大部分时间。我们仍然会恋爱、建立家庭、在网上吵架、在大自然中远足等等。

但是,未来将以一种无法忽视的方式向我们袭来,我们的社会和经济将发生巨大的长期变化。我们将找到新的工作、新的互利方式和新的竞争手段,但它们可能与今天的工作不太一样。

智能化、意志和决心可能会变得极其宝贵。正确决定要做什么以及如何驾驭瞬息万变的世界将具有巨大的价值;应变能力和适应能力将是需要培养的有用技能。AGI 将成为人类意志力的最大杠杆,使个人的影响力超过以往任何时候。

我们预计,AGI 的影响将是不均衡的。虽然有些行业的变化很小,但科学进步的速度可能会比今天快得多;AGI 的这种影响可能会超过其他一切。

许多商品的价格最终会大幅下降(现在,智能成本和能源成本制约了很多东西),而奢侈品等少数固有的有限资源的价格可能会更大幅上涨。

从技术上讲,我们面前的道路看起来相当清晰。但是,关于如何将人工智能融入社会的公共政策和集体意见非常重要;我们之所以要尽早、频繁地推出产品,其中一个原因就是要给社会和技术留出共同发展的时间。


人工智能将渗透到经济和社会的各个领域;我们将期望一切都变得智能。我们中的许多人预计需要给予人们比以往更多的技术控制权,包括更多的开源,并接受安全与个人能力之间的平衡,这需要权衡利弊。

虽然我们永远不想鲁莽行事,而且很可能会有一些与 AGI 安全相关的重大决定和限制会不受欢迎,但从方向上来说,随着我们越来越接近实现 AGI,我们认为更趋向于个人赋权是很重要的。

确保广泛分配人工智能的好处至关重要。技术进步的历史影响表明,我们关心的大多数指标(健康结果、经济繁荣等)都会在平均水平上长期改善,但平等程度的提高似乎并不是由技术决定的,要做到这一点可能需要新的想法。

特别是,资本和劳动力之间的力量平衡似乎很容易被打破,这可能需要早期干预。我们对一些听起来很奇怪的想法持开放态度,比如给予一定的计算预算,让地球上的每个人都能使用大量的人工智能,但我们也能看到很多方法,只要坚持不懈地尽可能降低智能成本,就能达到预期效果。


到 2035 年,每个人都应该能够调动相当于 2025 年所有人的智力总和;每个人都应该拥有无限的智慧,可以随心所欲地运用。目前,世界上有许多人才因资源不足而无法充分展现自己,如果我们改变这一现状,全球的创造力将得到极大释放,从而为我们所有人带来巨大的利益。


参考链接:
https://blog.samaltman.com/three-observations
https://x.com/sama/status/1888695926484611375

© THE END 
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]

“文章提到 AGI 的好处可能分配不均,这会带来哪些社会问题?该如何应对?” 这问题很深刻啊。我觉得最直接的可能就是失业加剧,一些人享受到技术红利,另一些人则被淘汰。应对的话,除了加强教育培训,还得考虑更底层的社会保障体系,比如UBI,以及对AI相关的产业进行监管,避免一家独大。

Scaling Law 的存在也带来了一些挑战,例如需要大量的计算资源和能源消耗,同时也引发了对 AI 安全和伦理的担忧。因此,除了关注 Scaling Law 之外,还需要探索更有效、更可持续的 AI 发展路径。

我觉得软件工程师这个职业不会消失,而是会转型。AI 智能体可以承担很多重复性的工作,让工程师能专注于更具创造性的任务,例如设计更复杂的系统架构、探索新的算法等等。就像自动化工具的出现并没有让工人失业,而是让他们可以操作更先进的机器一样。

引用一下问题:“如果 AI 智能体真的能达到顶级软件工程师的水平,那软件工程师这个职业的未来会是什么样的?” 这得看“顶级”的定义了。如果只是能写代码、debug,那初级程序员肯定要被替代不少。但如果是架构设计、创新思维这类,AI 还是有差距的,高级工程师的需求依然存在,只是门槛会更高。

“文章中提到的“Scaling Law”是什么?它对 AI 发展有什么意义?” Scaling Law简单来说就是“大力出奇迹”,模型越大,数据越多,算力越强,效果就越好。但它不是无限的,也有瓶颈,找到更高效的算法才是关键。不过至少目前,砸钱还是有效的。

软件工程师可能会变成 AI 智能体的“教练”或者“产品经理”,负责指导 AI 的学习和工作,并评估其产出。就像现在数据科学家需要管理和解释机器学习模型一样,未来的软件工程师也需要管理和解释 AI 智能体的行为。

分配不均可能会加剧贫富差距,甚至导致社会动荡。 我觉得需要政府和企业共同努力,制定相应的政策和措施,例如提供普遍的基本收入、加强教育和培训,帮助人们适应新的就业环境,以及对 AI 技术的应用进行伦理审查,等等。

我觉得一个可能的社会问题是,掌握 AI 技术的少数群体可能会利用其优势进一步巩固自己的权力和地位,从而形成新的“数字寡头”。为了应对这个问题,需要鼓励开源和共享 AI 技术,并加强对 AI 技术的监管,防止其被滥用。