来源:m6米乐在线入口 发布时间:2025-05-04 02:24:35
C114讯 2月10日消息(岳明)面对deepseek的冲击波,OpenAI联合创始人Sam Altman真的有些坐不住了。北京时间2月10日凌晨,Sam Altman公开撰文,谈论AI经济学的三个观察。 Sam Altman在博文中还是坚持“算力为王”和“scaling law”的思维。他指出,AI模型的智能大致等于用于训练和运行它的资源的对数。这些资源主要是训练算力、数据和推理算力。似乎你可以投入任意金额并获得持续且可预测的收益;预测这一点的扩展定律在多个数量级上都是准确的。 在成本端,使用特定水平AI的成本每12个月下降约10倍,而较低的价格会带来更多使用。从2023年初的GPT-4到2024年中期的GPT-4o,每个token的价格在这期间下降了约150倍,这就是明证。摩尔定律曾以每18个月2倍的速度改变了世界;而这种变化令人难以置信地更强劲。 线性增长的智能带来的社会经济价值呈超指数性质。这导致我们看不到指数增长的投资在近期会停止的理由。 指向AGI的系统慢慢的开始显现,因此我们大家都认为理解当前所处的时刻至关重要。AGI是一个定义较为模糊的术语,但一般而言,我们指的是一个能够在多个领域以人类水平处理日益复杂问题的系统。 人类天生就是工具创造者,具有理解和创造的内在驱动力,这使得世界慢慢的变好。每一代人都在前人发现的基础上创造出更强大的工具——电力、晶体管、计算机互联网,以及马上就要来临的AGI。 随着时间推移,虽然时有起伏,但人类创新的稳步前进为我们正常的生活的方方面面带来了前所未有的繁荣与改善。 从某种意义上说,AGI只是我们共同构建的人类进步之梯上的另一个工具。但从另一个角度来看,它是某种新事物的开端,但必须得说这一次真的不同;我们面前的经济稳步的增长看起来令人惊叹,我们现在能想象一个治愈所有疾病、有更多时间与家人相处、充分实现创造潜能的世界。 1. AI模型的智能大致等于用于训练和运行它的资源的对数。这些资源主要是训练算力、数据和推理算力。似乎你可以投入任意金额并获得持续且可预测的收益;预测这一点的扩展定律在多个数量级上都是准确的。 2. 使用特定水平AI的成本每12个月下降约10倍,而较低的价格会带来更多使用。从2023年初的GPT-4到2024年中期的GPT-4o,每个token的价格在这期间下降了约150倍,这就是明证。摩尔定律曾以每18个月2倍的速度改变了世界;而这种变化令人难以置信地更强劲。 3. 线性增长的智能带来的社会经济价值呈超指数性质。这导致我们看不到指数增长的投资在近期会停止的理由。 让我们想象一个软件工程Agent的情况,这是我们预期很重要的一种Agent。设想这个Agent最终能完成一个顶级公司里有几年经验的软件工程师能做的大多数事情,能处理长达几天的任务。它不会产生最重大的新想法,它需要大量人类监督和指导,它在某些方面会很出色,但在别的方面会出人意料地差劲。 尽管如此,把它想象成一个真实但相对初级的虚拟同事。现在想象有1,000个这样的代理。或者100万个。再想象在每个知识工作领域都有这样的Agent。 从某些方面来说,AI在经济上可能会像晶体管一样——一个可以良好扩展并渗透到经济几乎每个角落的重大科学发现。我们不会过多考虑晶体管,或晶体管公司,其收益被广泛分配。但我们确实期待我们的计算机、电视、汽车、玩具等能创造奇迹。 世界不会一下子就改变;它从来都不会。在短期内,生活将基本保持不变,2025年的人们大多会像2024年一样度过时光。我们仍会坠入爱河、组建家庭、在网上争吵、在大自然中徒步等。 但未来将以一种无法忽视的方式向我们袭来,对我们社会和经济的长期变化将会巨大。我们会发现可以做新的事物,新的方式来互帮互助,新的竞争方式,但它们可能与今天的工作大不相同。 主动性、意志力和决心可能会极其宝贵。正确决定做什么以及找出如何在一直在变化的世界中导航将具有巨大价值;培养韧性和适应能力将是有帮助的技能。AGI将成为人类意志力最大的杠杆,使个人能够产生比以往更大的影响,而不是更小。 我们预期AGI的影响将不均衡。尽管有些行业变化很小,但科学进步可能会比现在快得多;AGI在这方面的影响可能超过其他所有方面。 许多商品的价格最终将一下子就下降(目前,智能成本和能源成本制约着许多事物),而奢侈品和一些本质上有限的资源(如土地)的价格可能会更加剧烈地上涨。 从技术角度来说,我们面前的道路看起来相当清晰。但关于我们该如何将AGI整合到社会中的公共政策和集体意见很重要;我们早期且频繁推出产品的原因之一是为了给社会和技术一起发展的时间。 AI将渗透到经济和社会的所有领域;我们会期待一切都变得智能化。我们中的许多人预期需要给予人们比历史上更多的技术控制权,包括开源更多详细的内容,并接受在安全和个人赋权之间需要权衡取舍的事实。 虽然我们永远不想冒进,而且可能会有一些与AGI安全相关的重大决定和限制不受欢迎,但方向上来说,随着我们越来越接近实现AGI,我们始终相信趋向更多的个人赋权很重要;我们能看到的另一条可能的道路是AI被用来通过大规模监控和剥夺自主权来控制他人。 确保AGI的收益能够广泛分配至关重要。技术进步的历史影响表明,我们关心的大多数指标(健康结果、经济繁荣等)从中等水准和长久来看都会变得更好,但提高平等性似乎并非技术决定的,要做好这一点在大多数情况下要新的想法。 特别是,资本和劳动力之间的权力平衡似乎很容易出问题,这在大多数情况下要及早干预。我们愿意接受一些听起来很奇怪的想法,比如给予每个地球人某种计算预算以使用大量AI,但我们也能看到很多方式,只要坚持不懈地将智能成本降到最低就能达到预期效果。 2035年的任何人都应该能够调动相当于2025年所有人的智力能力;每个人都应该能获得无限的天才智慧,按照他们能想象的方式来指导。现在有大量人才缺乏充分表达自己的资源,如果我们改变这一点,世界由此产生的创造性产出将为我们所有人带来非常大益处。