街坊秀 街坊秀

当前位置: 首页 » 街坊资讯 »

展望达沃斯2026:当全球精英讨论AI秩序时,关注重点是什么?

来源:经济学家圈

2026年1月19日至23日,第56届世界经济论坛年会将在达沃斯举行。在这个汇聚近3000名来自130个国家领导人的平台上,人工智能治理将成为超过200场直播会议中最核心的议题——从生成式AI的负责任部署到技术如何重塑劳动力市场,从地缘政治风险到包容性增长的路径。然而,在关于谁来定义AI规则的全球对话中,有一个名字,无论在不在阿尔卑斯山脉的会议室里,其影响力也无处不在——Sam Altman。这位40岁的OpenAI首席执行官,在过去三年里不仅创造了改变9亿人数字生活的ChatGPT,更通过一系列精心设计的行动,将自己塑造为全球AI治理议程的关键参与者。

当达沃斯的政商领袖在19号开始的正式议程中讨论AI监管框架时,他们讨论的,很难绕开Altman早在2023年5月在美国参议院提出的议程——建立类似国际原子能机构的AI监管体系。当他们辩论AI对就业的影响时,Altman资助1400万美元的全民基本收入(UBI)研究和他提出的全民极端财富构想也会成为讨论的主要参照系。当他们担忧AI军备竞赛般角逐时,2025年12月Altman发出的Code Red备忘录、OpenAI与Google围绕GPT-5.2和Gemini 3的正面对决,正在实时演绎这场竞争的激烈程度。国际上,欧盟法案与各国框架虽然各自成体系,但在许多关键概念与争论轴线上,Altman的表达已经成了默认参照。

就在一周前,Altman发表了一个令人震撼的宣言:人类已经进入超级智能时代。他认为,AI系统正在越来越多的认知任务上超越人类表现,而驱动这一转变的最强大力量是AI加速自身发展,将几十年的技术进步压缩到一代人的时间里。这不仅是一次技术预判,更是一场文明叙事的重构。达沃斯汇聚的全球精英们应该看到真正让Altman从硅谷创业导师转变为全球AI权力中心的,是他在技术开发、资本布局、政策游说三个维度的协同运作。2025年10月完成的OpenAI结构重组,巩固了微软作为主要股东的地位,OpenAI公司估值达5000亿美元,构成了他权力网络的物质基础。然而,2025年6月一份名为OpenAI档案的报告揭示,多位前高管曾严重质疑Altman是否适合掌握AGI按钮。这种争议恰恰凸显出一个本次达沃斯论坛应该讨论的重要问题:当AI决策可能影响人类文明走向时,什么样的治理结构才是合适的?

从请监管我们到不要阻碍创新

在华盛顿,他的身份不是CEO,而是证人。Sam Altman对AI政策议程的影响力,始于一场精心策划的游说攻势。

2023年ChatGPT发布后的几个月内,他在华盛顿特区展开了密集的魅力攻势,在国会山与超过20名立法者共进早餐展示ChatGPT,与两党领袖进行私下会谈,并与副总统卡玛拉·哈里斯及多位内阁官员会面。据《纽约时报》统计,Altman在那几个月至少会见了100名国会议员。这种主动出击的策略,与社交媒体公司早期对华盛顿的傲慢形成鲜明对比——Altman显然从Facebook和Twitter的教训中学到了教训。

2023年5月16日,Altman在参议院司法委员会的证词成为转折点。他在开场陈述中说:我们相信,政府监管行动对于缓解日益强大模型带来的风险至关重要。他提出了三项具体建议:建立新的机构对大规模AI项目进行许可并可撤销许可;创建安全标准以评估危险能力(如自我复制或失控传播);实施独立审计以验证是否符合既定安全标准。更引人注目的是,他主张建立类似国际原子能机构(IAEA)的全球AI治理机构。他说:“美国应该在这方面发挥领导作用并树立先例……我们确实需要全球性的机制。”这种将AI与核武器类比的框架,既强调了技术的严肃性,也巧妙地将监管责任推向国际层面——暗示单一国家的过度监管可能损害全球竞争力。

然而到了2025年5月,当Altman再次出现在参议院商业委员会听证会(关于”赢得AI竞赛:加强美国计算和创新能力”的听证会)上时,他的立场发生了微妙但关键的转变。这一次,他反复拒绝具体的监管呼吁,称要求AI开发者在推出系统前进行审查的提案将对行业造成灾难。当被问及由美国国家标准与技术研究院(NIST)设定AI标准的有限提案时,Altman回答:“我认为我们不需要它。”他转而倡导不会拖慢我们的明智监管。这种从2023年请监管我们到2025年不要过度监管的转变,反映出Altman对权力游戏的精准拿捏:在技术早期OpenAI拥有优势时主动拥抱监管树立负责任形象,在面对资源、政策瓶颈时则强调创新自由。参议院商业委员会主席、共和党人Ted·Cruz表示将推出法案,“创建AI监管沙盒……消除AI采用的障碍、防止不必要的州过度监管。”这正是Altman希望看到的政策方向。

Altman在华盛顿的成功,不仅在于他能说服立法者,更在于他塑造了整个AI治理的话语框架。通过将AI类比为核技术,他成功地将辩论引向国际协调而非国内严管;通过强调其他大国竞争威胁,他将加速创新包装为爱国行为;通过资助1400万美元的UBI研究,他展示了对AI社会影响的前瞻性关切。英国智库Centre for Governance of AI在2025年6月的分析中指出,Altman代表了制度主义路径——认为治理是条约、监督机构和多边合作的领域。但这一愿景仍然是理想化的,而OpenAI自身在透明度、安全测试和模型发布决策方面面临批评。当一个人既是最大的AI开发者,又能有力影响监管框架时,冲突将是不可避免的。

从UBI到全民极端财富的社会愿景

如果说在华盛顿的游说展现了Altman的政治智慧,那么他对AI时代社会形态的构想则揭示了他的思想深度。

早在2016年担任Y Combinator总裁期间,Altman就开始资助UBI研究,这比ChatGPT的诞生早了六年!从2020年开始,他通过OpenResearch组织在伊利诺伊州和德克萨斯州进行了为期三年的UBI实验,每月向参与者发放1000美元现金,总投入约2400万美元(Altman个人出资1400万美元,OpenAI出资1000万美元)。这项研究的核心问题是:当AI替代大量工作时,UBI是否是可持续的社会模式?

2024年7月研究结果公布时,Altman在声明中说:Beth和OpenResearch团队做了关键研究,为UBI相关问题提供了洞见。但到了2025年8月,Altman的思考已经超越了简单的现金发放。在一次采访中,他提出了全民极端财富(universal extreme wealth)的概念。他说:我认为社会将迅速得出结论,我们需要一种新的经济模式来在人们之间分享和分配财富。但他强调,传统UBI可能导致人们的被动感。我想要的是……对AI塑造的未来的所有权份额。这种构想超越了发钱的简单逻辑,而是主张每个人都应拥有AI系统本身的股权,一种在他2024年5月播客中就提到过的全民基本算力(universal basic compute)的概念。

这种愿景的激进之处,在于它试图重新定义资本主义的基础逻辑。在Altman的设想中,AI不仅会创造巨大财富,更应该让每个人都成为这个财富创造过程的股东而非领取救济者。这与他在2026年1月的另一个表态呼应:他预测2035年的毕业生可能会从事薪酬极高的太阳系探索工作。这种对未来的乐观主义态度,既是对AI悲观论的反击,也是对现有社会焦虑的安抚。

Altman对未来社会的构想,不仅停留在经济模式,更延伸到人类意义本身。2025年1月26日在X上发表的推文“反思”中,他写道:我们相信,使AI系统安全的最佳方式是迭代地、逐步地将其发布到世界中,让社会有时间适应并与技术共同进化,从经验中学习,并继续使技术更安全。这种渐进式发布哲学,既是技术策略,也是社会实验——本质上是让数十亿用户成为AI安全测试的参与者。当他在2025年12月20日的采访中暗示AGI可能已经悄然而来,并表示将在2026年第一季度发布比GPT-5.2有重大改进的模型时,他实际上在宣告:人类与AI的关系已经不可逆转地改变,而我们只能在爬坡中不断适应。这种叙事其实已将社会焦虑转化为必然接受,将技术决定论包装为共同进化——这正是Altman作为未来叙事构建者的核心能力。

400家公司背后的技术判断力

如果说政策游说和社会愿景是Altman的软实力,那么他横跨400多家公司、价值20—28亿美元的投资组合则是他权力网络的硬基础。但Altman的投资哲学远不止财务回报,他投资的是对未来技术基础设施的判断。在2014年至2019年担任Y Combinator总裁期间,他主导投资了Cruise自动驾驶、Instacart即时配送、Reddit社交平台等明星项目。但更能体现他前瞻性的,是那些看似科幻的押注:核聚变能源、抗衰老研究、生物科技,以及其联创最具争议的Worldcoin数字身份项目。

Altman对核聚变公司Helion Energy的投资,堪称其战略眼光的最佳例证。2025年1月,Helion获得SoftBank、Lightspeed Venture Partners领投的4.25亿美元融资,估值突破54亿美元,累计融资超过10亿美元。Helion承诺到2028年建成世界首座核聚变发电站,并随后向微软供电。这不仅是一次能源革命的押注,更是对AI算力基础设施的前瞻性布局。当Altman在2025年12月透露OpenAI的算力在过去一年增长了约三倍、2026年预计再翻三倍时,Helion投资的深层逻辑就更加清晰了:算力的指数级增长背后是对能源的巨大需求。拥有近乎无限的清洁能源供应能力,将成为AI时代的终极竞争优势。这种将个人投资与行业基础设施、未来能源需求深度绑定的能力,让Altman不仅是OpenAI的CEO,更是整个AI生态的架构师。

而他最大胆也最具争议的赌注——Worldcoin(后更名为World)项目,则展现了Altman对AI时代基础设施的另一层思考。这个通过虹膜扫描建立全球数字身份系统的项目,于2025年5月获得Andreessen Horowitz和Bain Capital Crypto领投的1.35亿美元融资。World目前在美国运营1600个活跃的Orb(用来扫描人眼虹膜/面部特征的一个球形硬件终端)设备,计划到2025年底部署7500个,并与Visa、Stripe、Match Group(Tinder母公司)建立战略合作。Altman的逻辑是:当AI生成内容泛滥、深度伪造成为常态时,如何证明你是人类可能成为数字世界最基础的问题。尽管隐私争议持续存在——肯尼亚等国曾暂停该项目运营——Altman显然将其视为与OpenAI互补的基础设施:一个创造超级智能,一个确保人类身份的可验证性。

这种投资哲学的核心,在于Altman对什么是基础性变革的独特判断。他不投资应用层的快钱,而是押注能源、身份、长寿这些文明级的基础设施。2025年6月Observer的分析显示,Altman投资组合中至少有14家公司正在重新定义各自行业。他通过Altman Capital、Apollo Projects和Hydrazine Capital等多个投资实体,在这些领域布局数亿美元。Altman在去年底2026年初多次坦言OpenAI若不持续大幅增加训练支出,本可以更早实现盈利,“我们坚持选择现在大量投资训练,稍后变现”他说。

被质疑的AGI按钮掌控者

2023年11月17日,Sam Altman被OpenAI董事会突然解雇的五天风暴,成为理解其权力本质的关键事件。董事会声称Altman在沟通中缺乏一贯的坦诚,但这场变故的深层原因远比表面复杂。2025年6月,两家非营利监督机构编制的OpenAI档案报告揭示了更多细节:前首席技术官Mira Murati在2023年曾对员工说,她对Sam领导我们走向AGI感到不舒服;前首席科学家Ilya Sutskever则表示:我不认为Sam是应该掌握AGI按钮的人。这些内部质疑指向一个核心问题:当AI的决策可能影响人类文明走向时,领导力标准应该是什么?

这个问题值得此次达沃斯论坛上全球每一位精英深思。

这场持续仅五天的风暴最终以Altman胜利告终——770名员工威胁集体辞职、微软CEO施压、原董事会几乎被全面替换。但OpenAI档案报告指出,这场危机暴露的治理问题并未真正解决:OpenAI相信人类可能距离开发出能自动化大部分人类劳动的技术只有几年时间。引领如此重要项目的治理结构和领导力诚信,必须反映使命的规模和严肃性。报告呼吁重大改变才能达到异常高的标准。讽刺的是,2025年10月的公司重组——在重组中将微软之前在OpenAI for-profit部分约32.5%的股份调整为新公司(OpenAI Group PBC)的27%股权,投资价值约1350亿美元,OpenAI估值达5000亿美元,这在很大程度上是向商业逻辑的进一步倾斜,而非治理透明度的提升。于是,他的语言不再是愿景,而是筹码。

Altman在2025年12月底的另一个表态,或许更能揭示他对风险的真实认知。他警告称,AI代理正成为网络安全的重大威胁。Google的报告预测,2026年AI代理将越来越多地被恶意行为者武器化。作为应对,OpenAI宣布将招聘防备主管(Head of Preparedness),负责管理先进AI系统带来的危险。Altman强调,这个角色将帮助决定,何时以及如何发布新的AI能力,特别是存在滥用风险时。这意味着安全决策将更加制度化,而非个人判断。然而,当他在2026年1月宣称人类进入超级智能时代、AGI可能已经悄然而来时,这种模糊表述本身就引发质疑:如果AGI真的已经到来,为何没有按照OpenAI自己的章程触发特殊治理机制?

结语

站在2026年1月达沃斯会议召开之际,Sam Altman已经成为一个无法简单定义的存在:他是技术先知,宣告超级智能时代的到来;是政策设计师,将AI治理框架从国会听证室推向全球议程;是资本布局者,编织横跨能源、身份、AI开发的权力网络;更是争议人物,被内部高管质疑是否适合掌握AGI按钮。他对AI发展的影响,不仅体现在ChatGPT从2022年发布至今改变9亿人的数字生活,更在于他如何塑造了整个时代对AI的理解框架和所指未来。Altman的每一步行动都在回答同一个问题:在AI重塑人类文明的过程中,谁来定义规则、谁来分配权力、谁来承担责任?

特别声明:以上内容仅代表作者本人的观点或立场,不代表Hehson财经头条的观点或立场。如因作品内容、版权或其他问题需要与Hehson财经头条联系的,请于上述内容发布后的30天内进行。

未经允许不得转载: 街坊秀 » 展望达沃斯2026:当全球精英讨论AI秩序时,关注重点是什么?