‌·
分享到:

南都记者实测8款视频生成大模型应用,最长可生成2分钟视频,最短3秒

让猫咪包饺子?AI视频生成“翻车”:有的猫爪变人手 有的“偷感”十足

来源:南方都市报     2024年10月12日        版次:GA04    作者:林文琪

  “甄嬛在后宫大吃汉堡”“等我老了依靠小猫养老”……近期,用AI大模型制作的视频走红网络。利用AI,有人将经典电视剧《甄嬛传》变成了“舌尖上的中国”,有人持续推出AI萌系宠物视频快速在社交媒体上成为宠物博主。 

  这些视频的背后,是“中国版Sora”的快速崛起。今年年初,Sora在发出60秒视频一鸣惊人后,迟迟不上线变成了遥不可及的“期货”。在这期间,多家中国厂商抢先入场,推出多款视频大模型产品,包括字节、快手、阿里云、昆仑万维、美图在内的互联网厂商,以及Minimax、智谱、爱诗科技与生数科技等大模型初创厂商都在快速跟进。

  中国版Sora哪家强?近期,南都记者对8家热门视频大模型进行了测评,在文生视频方面发现生成效果参差不齐,而图生视频领域,大部分的产品还有很大提升空间。

  快手、字节围攻Sora“期货”  

  今年春节期间,Sora的横空出世投下了一枚炸弹,瞬间让卷“文生文”“文生图”的大模型厂商开启了“视频的ChatGPT时代”。不过,Sora一鸣惊人后却迟迟未上线,被外界称为“期货”。

  几天前的10月5日,Meta抢在OpenAI之前推出对标Sora的Meta Movie Gen。据悉,这款应用可创建不同宽高比的高清长视频,支持1080p,不但可以通过文本输入生成视频,还可以通过文本对现有视频进行编辑修改。此外,它还能生成配套的背景音乐和音效、根据文本指令编辑视频,以及根据用户上传的图像生成个性化视频,号称逼真程度超越Sora。

  其实,Meta动作并不算快,中国企业早已迫不及待,抢先布局。

  ◎今年3月底,字节跳动旗下剪映团队研发的AI创作平台“即梦AI”开放内测,8月6日,该应用移动版正式上架至苹果应用商店,目前已拥有文生图、文生视频、图生视频等功能。

  ◎6月13日,美图推出基于美图奇想大模型、聚焦短片创作的平台MOKI。创作者在平台上仅需经过前期设定、内容生成和后期制作,即可打造动画短片、网文短剧、故事绘本和MV,南都记者测试后发现制作出来的视频时长能到2分钟。

  ◎6月21日,快手旗下的可灵推出了图生视频功能。7月24日,可灵宣布基础模型再次升级,在画面质量、运动表现方面均有所提升。

  ◎9月19日,阿里云通义万相发布全新视频生成模型,上线文生视频和图生视频功能。在文生视频功能中,用户输入任意文字提示词,即可免费生成一段高清视频。  

  大模型初创企业布局视频生成  

  大模型初创企业方面,Minimax、智谱、爱诗科技与生数科技均在视频大模型方面有所布局。

  ◎早在今年1月,爱诗科技就正式发布AI视频生成产品PixVerse,能够免费生成4K高清视频。到7月24日,爱诗科技正式发布视频生成产品PixVerse V2,一次生成多个视频片段,可实现单片段8秒和多片段40秒的视频生成。

  值得一提的是,爱诗科技创始人王长虎曾在2017年加入字节跳动担任AI Lab总监,从0到1支撑了抖音与TikTok等国民级视频产品的建设和发展。他曾公开表示,中国公司在短视频赛道做出了10亿级别的国民级产品抖音、TikTok,视频应用在中国有用户基础和生长土壤,且在AI生成视频这条赛道上有机会诞生大的巨头公司。

  ◎今年4月,同为大模型初创企业的生数科技发布了视频生成模型Vidu,支持最长16秒、最高1080P分辨率视频的生成。两个月后,视频时长升级为最长32秒。不过,生数科技7月底上线的Vidu官网仅提供4秒和8秒两种时长选择。

  ◎7月26日,大模型初创企业智谱AI宣布AI生成视频模型清影(Ying)正式上线智谱清言。南都记者关注到,应用清影生成6秒视频只需要30秒的时间,该功能不仅支持文生视频、图生视频,也支持视频生成视频。

  ◎9月2日,MiniMax发布了视频模型abab-video-1,并透露该模型压缩率高、文本响应好、风格多样,支持原生高分辨率、高帧率视频等特点,能媲美电影质感。

  实测一

  测评指令:左边白猫包饺子 右边黑猫切韭菜

  近期,大批用AI制作的宠物视频在社交媒体上传播。以此为例,南都记者以“一只白猫和一只黑猫在厨房,左边的白猫在包饺子,右边的黑猫在切韭菜”为提示词对8款产品进行测试,效果参差不齐。 

  智谱清影文生视频模型生成的视频中,猫爪像人手。

  生成结果

  通义猫咪“只看不做菜”,生数科技猫爪变人手

  对于视频生成的时长,生数科技CEO唐家渝曾对外介绍,生成时长的能力,本质上与模型对物理世界和对语义输入的理解相关。南都记者对上述8家企业进行测评后发现,目前各家厂商推出的视频大模型中,能生成的时长最长可到2分钟,最短的3秒钟。 

  南都记者在测评中从第一性原理出发,C端用户用AI大模型做视频,追求的是效率的提升,或许还夹杂着对新科技的未知期待。从这一点看,本次测评要考量的首先是AI大模型能否达到用户的基本要求,这一点可以从输入指令后得出的视频来逐一测评是否达到基本效果,同时也对比输出视频的时长。

  其次,从用户对新科技的未知期待上,南都记者在测评时也将观察,某些视频大模型能否做出让人意向不到的附加效果,比如运镜、视频风格上能否在完成基本需求的情况下有所突破。

  海螺AI 基本理解猫咪做菜指令

  海螺AI生成的视频基本理解做菜指令。

  Minimax的海螺AI基本理解了提示词中想让猫咪拟人化进行做菜的指令。两只猫在包饺子、剁菜时的画面都十分了得,白猫虽然边“包饺子”边压抑不住本性想凑上前闻饺子,但还是把一个个饺子完好地包了出来,黑猫也真的拿起菜刀开始“切韭菜”。

  通义 两只猫“只看不做菜”

  通义生成的视频,猫咪“只看不做菜”。

  阿里云通义生成后两只猫并没有实现包饺子、切韭菜,而是看着一把刀对韭菜和饺子随意切了起来。

  即梦 呈现效果“偷感”十足

  即梦生成的视频,猫咪像在嗅闻。

  字节即梦生成的视频中,两只猫试图伸爪子“参与”到包饺子和切韭菜活动中,但像是在蹑手蹑脚地嗅闻,“偷感”十足。

  PixVerse

  “翻车”,“做菜”变吃菜

  爱诗科技视频大模型PixVerse中,黑猫和白猫没有理解“做菜需求”,直接“上手”吃饺子皮、啃韭菜,出现“翻车”。 

  可灵

  两只猫角色“互换”

  快手大模型可灵文生视频模型理解了让猫“拟人化”做菜的需求,猫能用爪子包饺子,但是黑猫不切韭菜,直接拿起了刀切饺子。

  智谱清影

  实现各司其职

  智谱清影文生视频模型读懂了让猫拟人化做菜的需求,同时黑猫和白猫实现了各司其职,一只在包饺子,一只在切韭菜。

  南都记者在测试时还勾选了“电影感、镜头推进、紧张刺激”等风格、运镜方式、氛围方面的要求,测试出来的视频基本都能符合要求。

  Vidu

  猫爪突变成“人手”

  Vidu生成的视频,突然出现人手。

  生数科技Vidu视频大模型理解了让猫拟人化做菜的需求,在生成的视频中,两只猫处在一个现代化的厨房中,白猫学会了包饺子,黑猫虽然做出了切韭菜的动作,但画面中并没有刀,黑猫只能做出“挠爪子”的动作。 

  不过,生数科技的Vidu视频在生成的视频中还出现了一个画面转换的镜头。该镜头将韭菜放进包好的饺子中间,不过放置韭菜的手变成了“人手”。 

  美图MOKI

  将提示词扩写成完整脚本

  在美图MOKI视频平台中输入同一提示词,该视频大模型首先将提示词扩写成了完整脚本,同时依照选定风格生成了两个角色,随后会生成逐帧视频,用户可以在其中修改图片、移动位置,最后生成了一个视频,而用户可以选择后期对运镜、音乐等进行加工。

  实测二

  图生视频比文生视频更易“翻车”

  南都记者还做了图生视频的尝试。

  当输入一张有两只猫的照片,并输入提示词“两只猫在厨房,左边的猫在包饺子,右边的猫在切韭菜,两只猫互相瞪了对方一眼,镜头聚焦到包饺子的猫手上,它包得特别快”,字节即梦、快手可灵的图生视频功能中,照片中的两只猫在生成的视频中仅仅能实现上下左右晃头、时不时动动爪子,并没有实现包饺子、切韭菜等功能。 

  阿里云通义视频大模型实现了切韭菜的动作,不过韭菜和刀在画面中凭空出现。智谱清影也出现了擀饺子皮、包饺子的动作,不过从输入两只猫的图片到生成擀饺子皮视频的过程中,视频画面衔接非常生硬,擀饺子皮的手也突然从提示词中要求的“猫爪子”变成了人的手。 

  在爱诗科技PixVerse中输入一张图片和上述提示词,图片中的猫动起来但并没有实现包饺子,而是在嬉戏吃饺子。 

  可以看到,相较于文生视频功能,目前大多数视频模型的图生视频功能仍有很大提升空间。大多数视频模型只能粗浅表现让照片中的两只猫动起来,能理解提示词并在视频中加入新物品、加入转场效果的视频模型并不多,也更容易出现“翻车”现象。  

  采写:南都记者 林文琪

  图片均为AI生成视频截图

手机看报
返回奥一网 意见反馈