前天,几条消息几乎是前后脚冒出来的。腾讯科技、IT之家,还有专注半导体的EE Times,都提到了同一件事:阿里和百度,真把自家设计的芯片,用在了大模型训练的主线上。
不是测试,不是演示,也不是“跑个demo看看效果”,而是实实在在地,把通义千问、文心一言这些大模型的“大脑发育”任务,交给了自己人做的芯片——倚天710、含光800、昆仑P800。
你可能对这些名字不太熟。它们不像手机处理器那样天天出现在发布会PPT上,也不像显卡那样被游戏玩家挂在嘴边。但它们干的事,其实更关键:训练一个能写文章、答问题、甚至编代码的大模型,背后需要海量计算。以前这活儿基本被英伟达的GPU包了,贵不说,还常被卡脖子。现在,阿里和百度开始用自己的芯片来扛这个重担了。

自主研发芯片
这听起来像技术圈的内部调整,离普通人远得很?其实不然。你可以这么想:如果大模型是新时代的“水电煤”,那训练它的芯片就是发电厂里的核心机组。以前我们只能买别人的发电机,现在,终于有国产机组并网发电了。
而且,这次不是“备用机”,是正式上岗。
举个例子。过去训练一个千亿参数的大模型,可能得靠几千块高端GPU拼起来,电费、维护、采购周期,哪样都不轻松。现在,阿里用倚天710搭配自研的CIPU架构,在云端直接调度算力。这意味着什么?意味着他们可以更灵活地安排计算资源,就像自家厨房做饭,不用再依赖外面餐馆的灶台排期。
百度那边也类似。昆仑P800不是简单模仿GPU,它走的是更适合AI计算的架构路线。传统GPU像万能瑞士军刀,啥都能干,但AI训练这种特定任务,其实更需要一把“专用扳手”。昆仑芯的设计思路,就是把这把扳手做得更顺手、更高效。

云端算力调度示意
有意思的是,这两家公司都没大张旗鼓开发布会。消息是零星从技术文档、行业会议和合作伙伴口中流出来的。这种低调,反而让人觉得更真实。不是为了宣传而宣传,而是事情已经做到这一步了,自然就发生了。
我翻了下阿里云最近的公开资料,里面提到他们的推理成本下降了50%以上。虽然没明说全靠自研芯片,但结合上下文,很难不让人联想。成本下来了,意味着未来大模型服务的价格也可能跟着降。你现在用文心一言或通义千问,可能是免费的,但背后烧的是真金白银。一旦底层算力效率提升,企业就能把更多资源投入到优化体验、开发新功能上,而不是整天算电费账单。
再说个细节。含光800最早是2019年发布的,当时外界还半信半疑,觉得不过是阿里秀肌肉。可这几年,它一直在迭代,默默支撑着淘宝的推荐系统、支付宝的风险识别。现在轮到大模型,算是水到渠成。技术这东西,从来不是一锤子买卖,而是持续积累的结果。

AI生态链完整闭环概念图
有人可能会问:自研芯片真的能替代英伟达吗?坦白讲,现在还不行。尤其在顶尖性能上,差距依然存在。但重点不在“替代”,而在“选择”。当一条路被堵住时,另一条路的存在本身就有意义。更何况,这条路已经能跑车了。
更深层的变化在于生态。芯片、框架、模型、应用,这一整套链条,正在被中国企业一点点接起来。以前我们擅长做应用层创新,比如社交、电商、短视频,底层却总是依赖别人。现在,从芯片开始往上堆,像是在重新打地基。
这不是一天建成的。阿里从平头哥成立到现在,快十年了;百度搞昆仑芯,也熬了六七年。中间肯定有过质疑,有过瓶颈,但他们没停。现在回头看,这些投入像是一颗颗埋下的种子,到了今年,突然一起发了芽。
老百姓能感受到什么?也许短期内,是你用的AI助手反应更快了,回答更准了,或者某天发现某个本地生活服务突然变得更懂你了。这些变化不会贴着“国产芯片”的标签,但它们确实源于那些藏在数据中心里的黑色小方块。
科技的进步,往往不是一声惊雷,而是一阵细雨。润物无声,却让土地变得不同。
信源:腾讯科技、IT之家、EE Times、阿里云官方技术博客、百度AI开发者大会公开资料
评论列表