4月2日消息,字节跳动视频生成模型Seedance 2.0即日起正式面向公众开放。通过火山引擎完成企业实名认证并在官网留资的用户,现已可以申请开通使用。
这一动作意味着,此前需要高额预付、动辄千万级“最低消耗”的接入门槛被替换为按实际调用付费的模式。
Seedance 2.0最早于今年2月发布,是字节跳动豆包大模型团队推出的视频生成基础模型,其API通过火山引擎对外开放。
该模型支持文本、图片、音频、视频四种模态输入,宣称可实现原生音画同步与多镜头长叙事,单次生成时长可达15秒,输出分辨率最高支持2K。
在底层架构上,Seedance 2.0采用统一的多模态音视频联合生成架构,与快手可灵3.0、谷歌Veo 3.1等模型同属目前第一梯队的视频生成工具。
不过,此次开放并非毫无限制。据相关消息,新签约用户默认仅获得10个并发,且无法提升;在未达到较高框架规模时,暂不支持真人脸、自定义虚拟人像等高级功能,仅能使用公共虚拟人像库进行二次创作。
火山引擎官网也显示,模型现阶段支持480P和720P两种输出规格,帧率固定为24fps,单账号最大并发任务数为10。定价方面,含视频输入的价格为28元/百万tokens,纯生视频的价格为46元/百万tokens。
从行业视角看,Seedance 2.0的全面开放恰逢视频生成赛道的激烈竞争期。快手可灵3.0于今年2月初上线,谷歌Veo 3.1也在1月发布,而OpenAI则在上月宣布关停Sora。
有观点认为,字节跳动的Seedance等工具在Sora关停后承接了部分创作者需求。在独立基准测试中,Seedance 2.0在运镜控制方面得分9.0/10,动作真实度9.2/10,均处于领先位置。
值得思考的是,当字节跳动将Seedance 2.0以API形式推向更广泛的B端用户,而快手可灵、爱奇艺纳逗Pro等竞品也在各自生态内加速布局时,AI视频生成的技术红利究竟会流向哪些真正能跑通商业化的团队。
模型的“可用”与“好用”之间尚有不小距离,仅10个并发这一限制,就让工业级应用难以落地。



