当天报价

二级分类:

外媒:中国AI视频模型再掀热潮



 据《日本经济新闻》2月13日报道,2月12日,中国互联网巨头字节跳动发布了人工智能(AI)视频生成模型Seedance 2.0。该模型完成度获得高度评价,包括更精准的构图理解和运用多角度镜头切换呈现电影级视觉效果。

据悉,自2月12日起,人们可以在字节跳动旗下企业即梦AI的网站使用Seedance 2.0,字节跳动面向消费者的AI产品“豆包”的手机应用及网站也已接入该模型。根据文字或图片等内容,该模型可生成配有声音的5秒或10秒视频。

Seedance 2.0已于2月上旬在部分网站进行限量公测。其对图像构图的理解能力较强,能够生成自然的影像,场景切换等视觉表现被评价为具有电影质感。

据路透社2月12日报道,字节跳动新推出的视频生成AI模型已给包括马斯克在内的众多名人留下了深刻印象并在中国爆红。人们把它和深度求索(DeepSeek)相提并论,称赞它仅凭几句提示词就生成电影级叙事的能力。在DeepSeek、开放人工智能研究中心(OpenAI)的聊天生成预训练转换器(ChatGPT)等以文本为核心的AI模型得到普遍采用的当下,专门用于视频与图像生成的模型代表技术颠覆潜力的下一个前沿。

字节跳动于周四正式推出Seedance 2.0。该公司发表声明称,这个系统为专业影视、电商及广告制作设计,可同时处理文本、图像、音频与视频并显著降低内容创作成本。

此番产品发布正值中国和全球投资者都在密切关注DeepSeek的R1与V3模型之后的下一个突破:这两款模型于约1年前在全球横空出世,引发系统性冲击。

世界首富马斯克在自己的社交平台X上回复一则称赞Seedance 2.0的帖子,凸显Seedance 2.0引发的热议。马斯克评论说:“进展迅速。”

据西班牙《机密报》网站2月10日报道,本月,中国科技巨头字节跳动和快手科技分别发布了其生成式视频模型的新版本:Seedance 2.0和可灵3.0。

这两款工具能够根据多模态指令合成具有物理连贯性、音频同步性和照片级真实感的视频片段,它们打破了将合成内容与实拍影像区隔开的技术壁垒。

可灵3.0的架构基于快手所说的“一体化”产品框架,将视频理解、生成和编辑整合在单一工作流程中。它能够以复杂序列和长镜头生成最长15秒的视频片段,超越了前代模型在时间连贯性上的限制。另一方面,Seedance 2.0令人印象深刻的是,它能够生成超逼真的人物,并能在编辑上精确控制,让用户可以修改内容的特定部分而不改动场景的其他部分。

音频方面也出现了质的飞跃。可灵3.0可生成多种语言的同步原生声音,包括英语、汉语、日语、韩语和西班牙语,并能够制作复杂的对话场景。

Seedance 2.0则提供完整的多模态输入,允许使用现有的文字、图像和音频来引导视频生成。开源证券公司的分析师预言,这种多功能性将“首先被广泛运用于AI漫画和短剧领域”。(编译/苏佳维、马晓云、赵菲菲)