OpenAI 的 Sora 2 更新了,所有用户现在都能生成 15 秒的视频,Pro 用户则可以在网页端生成最长 25 秒的内容。
这个消息在 10 月 16 日正式公布,距离 Sora 2 应用上线不过半个月时间。
很多人第一反应是:
这不就是个“AI 做短视频”的工具吗?
有什么好说的?
但如果你仔细看看它背后的变化,会发现事情没那么简单。
我们先说点实在的。
现在的短视频平台,不管是抖音、快手,还是 YouTube Shorts、TikTok,内容生产门槛已经压得很低了。
但即便如此,拍一条视频还是需要你出镜、打光、录音、剪辑,哪怕只是十几秒,对很多人来说仍然是个麻烦事。
而 Sora 2 的出现,等于把“写一段话”直接变成“一段带声音、带画面、带动作的视频”。
你不用出镜,不用买设备,甚至不用会剪辑,只要会打字,就能做出看起来挺像那么回事的视频。
这不是科幻,这是已经上线的功能。
而且,它还在快速迭代。
就在几天前,Sora 2 还只能生成 10 秒的视频(普通用户),Pro 用户最多 15 秒。
现在,普通用户直接拉到 15 秒,Pro 用户冲到 25 秒。
别小看这多出来的几秒,在短视频的世界里,15 秒是完整讲一个小故事的底线,25 秒则足以表达一个有起承转合的片段。
比如,“一只猫从窗台跳下,追着一只蝴蝶跑进花园,最后被洒水器淋了一身水”:
这种带情节、带动作、带环境互动的内容,现在 AI 能一口气生成出来,而且画面连贯、动作自然、声音匹配。
更关键的是,Sora 2 还加了“音频生成”能力。
以前的 AI 视频大多是“默片”,现在它能自动配上环境音、对话、甚至背景音乐。
你输入“两个朋友在咖啡馆聊天”,它不仅能生成两人对坐的画面,还能让他们的嘴型和语音对得上,背景还有咖啡机的声音和轻柔的爵士乐。
这种“声画一体”的能力,是过去很多 AI 视频工具做不到的。
很多人可能不知道,Sora 2 不只是一个网页工具,它还有一个独立的 App。
这个 App 上线不到一周,就在美国 App Store 下载榜登顶,首周下载量达到 62.7 万次,超过了当年 ChatGPT 的首周表现(60.6 万次)。
要知道,Sora 2 目前还是邀请制,只对美国和加拿大的部分用户开放。
即便如此,黑市上邀请码已经炒到几百块一个。
这说明什么?
说明用户真的愿意为这种“一句话生成视频”的能力买单。
当然,光有技术还不够。
OpenAI 这次更新还加了一个叫“故事板”的功能,目前只对 Pro 用户开放。
你可以把它理解成一个简易的时间轴编辑器:
把一段视频拆成几个场景卡片,每个卡片对应一个镜头,你可以调整顺序、修改提示词、预览效果。
这样一来,视频创作就不再是“一次性生成碰运气”,而是可以分段控制、反复调整。
这对内容创作者来说,是个实实在在的效率提升。
还有一个容易被忽略但特别重要的点:
Sora 2 引入了“客串”功能。
你只需要在 App 里录一段自己的视频和语音,系统就会生成你的“数字形象”。
之后,你就可以让这个形象出现在任何你生成的视频里,比如让你自己“穿越”到火星上讲话,或者“客串”一部古装剧。
更进一步,你还能授权别人使用你的形象去创作他们的视频,当然,需要你同意。
这种机制,本质上是在构建一个基于 AI 的“数字身份”生态。
听起来是不是有点像社交平台?
其实 OpenAI 正是这么想的。从产品设计来看,Sora 2 不只是个工具,更像是一个“AI 短视频社交平台”。
它内置了“Remix”功能,允许用户对别人的视频进行二次创作:改台词、换场景、换主角,甚至用对方的数字形象重新演绎。
所有这些二创内容都会被打上标签,形成话题流。
这和 TikTok 的“合拍”、Instagram 的“Reels Remix”逻辑非常相似,只不过 Sora 2 把创作门槛降到了几乎为零。
这种模式一旦跑通,可能会改变内容生产的底层逻辑。
过去,短视频创作是“人驱动内容”:你有想法,你去拍,你去剪。
未来,可能是“想法驱动内容”:你有个点子,AI 帮你实现,别人还能在此基础上继续发挥。
创作变成了一种接力,而不是孤岛。
当然,问题也不少。首先是版权。
如果我用 Sora 2 生成一段“奥特曼介绍风衣”的视频,算不算侵权?
如果我用朋友的形象生成一段搞笑视频,他会不会不高兴?
OpenAI 显然意识到了这些问题。
10 月 16 日,他们同步宣布了新的版权管理机制:内容授权制。
11 也就是说,版权方可以对自己的角色、形象、声音设置使用权限,甚至参与收益分成。这套机制虽然还在初期,但至少表明 OpenAI 不想在法律边缘试探,而是试图建立一个可持续的创作生态。
其次是真实性问题。Sora 2 生成的视频越来越逼真,动作、光影、物理交互都接近真实世界。但正因为太像真的,反而容易被滥用。比如伪造名人发言、制造虚假事件。对此,OpenAI 在身份验证环节做了限制:要使用“客串”功能,必须通过生物识别验证(录视频+语音),而且生成的视频会带有不可见的数字水印,方便平台识别是否为 AI 生成。这些措施不能完全杜绝滥用,但至少提高了门槛。
再来看商业层面。10 月 17 日,微软宣布 Sora 2 已上线 Azure AI Foundry 国际版,进入公共预览阶段,定价是每秒 0.1 美元。这意味着企业用户现在可以直接调用 Sora 2 的 API,批量生成广告、教学视频、产品演示等内容。比如一家电商公司,上传 100 款商品图,输入“生成带货短视频”,几小时内就能产出上百条视频,每条 15 秒,带解说、带场景、带卖点。这种效率,传统视频团队根本没法比。
但也要清醒一点:Sora 2 现在还不完美。有用户反馈,网页端的 15 秒选项有时找不到,下载按钮偶尔失灵;生成的视频在复杂场景下仍可能出现逻辑错误,比如人物穿模、物体漂浮;音频虽然能同步,但语调和情感还比较机械。这些都不是致命问题,但说明它仍处于快速打磨阶段。
那么,普通用户现在能用上吗?
如果你在美国或加拿大,可以通过官网注册 ChatGPT 账号,输入邀请码激活 Sora 2。
国内用户暂时无法直接使用,但可以通过切换 Apple ID 地区下载 iOS App(仍需邀请码)。
至于邀请码,目前主要靠官方发放,二手平台虽有交易,但风险不小。
从更广的视角看,Sora 2 的出现,标志着 AI 内容生成从“文字时代”正式迈入“视频时代”。
ChatGPT 让我们相信 AI 能写出像样的文章,MidJourney 让我们看到 AI 能画出惊艳的图像,而 Sora 2 则让我们意识到:
AI 也能拍视频了,而且拍得还不错。
这不是一夜之间的突变,而是技术积累的自然结果。
OpenAI 在图像生成、语言理解、物理模拟、多模态对齐等方面投入多年,Sora 2 是这些能力的集大成者。
它之所以能处理体操、滑冰、水流、光影等复杂动态,是因为背后有强大的物理引擎约束和时序建模能力。
这些技术细节普通用户看不见,但最终体现在视频的流畅度和真实感上。
未来几个月,我们可以预期 Sora 2 会继续延长生成时长、提升分辨率、优化音频质量,并逐步开放更多编辑功能。
也许到明年,普通用户就能生成 60 秒的 4K 视频,还能实时调整镜头、添加特效、更换配音。
那时候,短视频创作的门槛将进一步降低,内容生产的民主化会真正到来。
但别误会,这并不意味着专业创作者会被淘汰。
恰恰相反,AI 工具会让创意的价值更加凸显。
当技术不再是瓶颈,谁的想法更有趣、叙事更巧妙、情感更真实,谁就能脱颖而出。
Sora 2 不是取代创作者,而是把他们从繁琐的技术操作中解放出来,让他们更专注于“讲好一个故事”。
最后说点实在的建议。如果你是个内容创作者,不妨关注 Sora 2 的进展。
即使现在用不上,也可以思考:
如果有一天你能用一句话生成视频,你会讲什么样的故事?
如果你是个普通用户,也不用焦虑“会不会被 AI 取代”。
技术永远是工具,关键是你怎么用。
就像当年智能手机普及后,人人都能拍照,但真正拍出好照片的,还是那些有审美、有想法的人。
Sora 2 的这次更新,看似只是多了几秒视频时长,实则打开了一扇门。
门后是一个人人都能参与视频创作的新世界。
这个世界不一定完美,但足够真实,也足够有趣。
而我们,正站在门口。