游戏百科

当神的铠甲太重,已经勒进肉里"神"开始流血了2025年11月6日,Sam Alt

当神的铠甲太重,已经勒进肉里

"神"开始流血了

2025年11月6日,Sam Altman发了一篇1200字的声明。

语气很诚恳。姿态很低。但你能感觉到,他在出汗。

同一周,北京的月之暗面团队发布了 KimiK2。训练成本:460万美元。在 SWE-Bench Verified这个专业代码生成测试上,它跑出了71.3%的成绩一 -超过了 GPT-5。

OpenAI 的 CFO 前一天刚说"可能需要政府融资支持"。

第二天就改口。

这不是巧合。这是流血的声音。

//什么是"神"//

神不是某个人,是一套信念。

这套信念说:只有闭源、重资本、天价算力,才能训练出最强的模型。它的代言人是 OpenAl,是SamAltman,是那份横跨8年、总额1.4万亿美元的基础设施承诺清单。

1.4万亿是个什么概念?

相当于整个非洲大陆2023年的GDP。相当于可以建造140个三峡大坝。相当于给全球每个人发200美元。

这笔钱,OpenAI准备用来建数据中心、买芯片、铺光纤。他们说服了Broadcom、 Oracle、Microsoft、Nvidia。差点说服了政府。

但现在,DeepSeek用560万美元训练出了 R1。

Kimi K2用460万美元,跑通了1T参数的 MoE架构。

这两个数字,一个是1.4万亿,一个是460万。

差了多少倍?

30万倍。

//为什么流血//

想象一下这个画面:

OpenAI 每年烧掉数千亿美元,像一台巨型蒸汽机,轰隆作响,吞吐着电力和芯片。

而月之暗面的团队在北京的办公室里,用384个"专家"(这是MoE架构里的技术术语,可以理解为384个小型专业模型)、32B激活参数,在15.5万亿 token的训练过程中实现了零损失尖峰。

什么叫零损失尖峰?

简单说,就是训练过程全程稳定,不需要重启,不需要人工干预,不需要"救火"。

在 SWE-Bench这样的专业代码生成任务上,KimiK2逼近了GPT-5的水平。在推理场景中,它打败了Claude Opus 4的部分能力。

更要命的是,这些模型开源。

任何人都可以下载权重,部署在自己的服务器上。跑100万token只需要0.15美元输入、

2.5美元输出。OpenAI的API定价?十倍以上。

Sam Altman在声明里花了三段篇幅解释"我们不需要政府担保",又花了两段解释"我们的收入增长计划"。

他说,OpenAl今年年化收入约200亿美元,预计2030年要涨到数千亿。

这套叙事建立在一个假设上:闭源模型的性能壁垒能维持足够长的时间,让用户愿意为

京目的APU付费

评论列表

用户64xxx80
用户64xxx80 2
2025-11-10 20:17
我很恶心的是,模型来源有鸟用!!!

神兽的雪碧 回复 11-10 21:39
别的不懂,很多人已经靠 AI 挣到钱了,有些歌还不错的说