游戏百科

中美差距到底有多大? 梁文锋毫不避讳、一针见血地回答:“表面上中国 AI 与美

中美差距到底有多大? 梁文锋毫不避讳、一针见血地回答:“表面上中国 AI 与美国可能仅有一两年的技术代差,但真实的差距是原创和模仿之差。如果这个差距不改变,中国永远只能是追随者,所以有些探索是逃不掉的。” 这话要是换个外行说,大家可能觉得是在危言耸听,但梁文锋说这话,分量太重了。 要知道,就是他带队搞出来的DeepSeek,在应用商店下载榜上曾经把大名鼎鼎的ChatGPT都甩在了身后,而且他们那个DeepSeek-V3模型,仅仅用了557.6万美元的训练成本,这点钱甚至都不够OpenAI塞牙缝的,就硬是在数学、写代码还有中文问答这些硬指标上,跟GPT-4打得有来有回。 就是这样一个已经拿着赢来的筹码坐在牌桌上的人,却偏偏要在这个时候给大家泼一盆冷水,为什么?因为他太清楚,在那些让人看着兴奋的排名表底下,藏着咱们看不见、或者说不愿意承认的病根。 乍一看,咱们这边的形势确实一片大好,你看手机里装的百度文心一言、阿里的通义千问,用起来那是真顺手,写个藏头诗、润色个公文,那股子“中国味”比国外的GPT-4还地道。 连斯坦福大学的报告都说,顶级模型之间的性能差距可能只有微不足道的0.3%,这种应用层面的繁荣,很容易让人产生一种错觉,觉得咱们是不是这就稳了?觉得这就好比装修房子,既然住着舒服,何必管房子是谁盖的呢? 但问题恰恰就出在这个“盖房子”的人身上,梁文锋嘴里那个“原创差距”,指的就是这个要害,咱们现在引以为傲的产品升级,说白了都是在别人搭好的地基上搞装修。 不管是做支撑的核心骨架Transformer架构,还是让AI画图火遍全网的Diffusion技术,那最初的图纸,都是谷歌、OpenAI这些美国公司在无人区里深一脚浅一脚摸索出来的。 当我们在应用层面把“术”玩出花来,忙着给AI加上带货功能、搞直播变现这种赚快钱的项目时,人家大洋彼岸已经在“道”的层面上把路封死或者开辟新路了。 比如谷歌都已经搞出了能自己“生孩子”的AutoML,让AI去设计AI,生出来的“子AI”在图像识别上比人类科学家设计的还准,这种让机器具备“自我创造”能力的降维打击,根本不是咱们靠堆人头、做优化就能追平的。 如果说底层逻辑的缺失是隐痛,那硬件算力的被动就是摆在明面上的硬伤,练大模型就好比太上老君炼丹,你方子再好,没有顶级丹炉也炼不出九转金丹。 在这方面,英伟达的H100芯片就是那口所有人都想抢的“金饭碗”,马斯克为了训练Grok3,眼都不眨地砸进去了20万张H100,那种铺张程度简直让人绝望。 反观咱们国内企业,不仅买不到这种满血版“丹炉”,能拿到手的往往是被砍了好几刀的“阉割版”。 最早的H800传输速度被砍了一半多,后来的H20更是只剩了七成算力,哪怕是咱们的国产之光华为昇腾,虽然性能追上来不少,但面对人家构筑多年的生态壁垒,开发者在兼容性上还是得头疼好一阵子。 DeepSeek之所以厉害,是因为他们在只有2048块“阉割版”芯片的条件下,靠着极致的代码优化把模型练出来了,但这属于“戴着脚镣跳舞”,是没办法的办法,绝不是长久之计。 更让人心里没底的,是砸钱的决心,造原子弹要钱,造“AI原子弹”更要钱,美国那些科技巨头现在是豁出去了,亚马逊、微软、谷歌,宁可让手里的现金流腰斩,也要把钱填进AI这个无底洞,2024年美国私营AI投资飙到了1000多亿美元。 而咱们呢?不到100亿美元,这中间差了整整十二倍,而且人家愿意花钱去赌那些不确定的基础研究,比如斯坦福那个能自己组建科研团队的“虚拟实验室”,而咱们的大多数资金,还是更乐意往能迅速见钱的商业模式里钻。 再加上人才流动这堵墙,美国那边高校教授和企业高管互相跳槽是常事,理论和实践无缝衔接,咱们这边产学研之间还是隔着一层,很多前沿理论还停在纸面上,变不成战斗力。 梁文锋说“探索是逃不掉的”,这不是一句口号,而是一张必须兑现的账单,我们靠着聪明才智和庞大的数据市场,在应用层确实跑得挺漂亮,但这并没有改变地基不稳的现实。 从DeepSeek开源技术架构,到尝试打破显存瓶颈的新架构,其实都是在逼着我们从“装修工”向“建筑师”转型。 这个过程注定是痛苦的,看不见流量,听不到掌声,只有无尽的试错和烧钱,但只有承认差距,看清真正的战场,真正沉下心来去磨那块如果不做就永远被卡脖子的芯片、去推导那个如果不搞就永远在模仿的公式,那才是中国AI从“跟随”走向“引领”的开始。 这条路,没法躲,也没处藏,只能硬着头皮蹚过去。 对此你怎么看?