C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  一级军士长

注册:2010-4-284
发表于 2024-11-8 21:40:20 |显示全部楼层
金磊 发自 凹非寺
量子位 | 公众号 QbitAI
国产AI,正式把视频生成拉进了有声影片时代。

自从Sora引爆视频生成之后,基本上所有AI生成的视频都属于“默片”的效果,也就是没有对应的音效(注意不是配乐)。

但现在,音效是可以直接自带了!而且还是4K、60帧高清画质的那种。

那么AI视频生成现在能到什么水平?

大家直接拿这个国产AI做了个微影片,请看VCR:

如何?是不是已经有影片的那个feel了?

这个国产AI,正是智谱刚升级的新清影,总体来看有三大特点:

  • 影片级效果:除了刚才提到的4K、60帧高清之外,还支撑10秒时长和任意比例视频。
  • 模型能力全面提升:背后的CogVideoX模型更懂复杂prompt,能够保持人物等主体的连贯性,效果更逼真。
  • 自带音效:引入CogSound模型,能够自动根据视频内容生成匹配的音效,这个月将正式上线清言APP。
如此一来,AI已经具备了制作像上面这样微影片(或短视频)的全要素,而且在操作上也是非常简单。

大家先把一个主题“喂给”智谱清言的GLM 4 Plus,让它帮大家生成微影片的脚本

亚星游戏官网-yaxin222



然后大家再用文生图的AI,生成几张高清大图,以开头片段为例,Prompt是这样的:

镜头从公园的鸟鸣和晨光中缓缓推进,聚焦在一位满头白发的老太太身上。她坐在长椅上,手中拿着一本书,眼神宁静而深远。
亚星游戏官网-yaxin222



再进入新清影的图生视频界面,把这张图像传上去,并填写想要效果的prompt:

镜头从公园的鸟鸣和晨光中缓缓推进,聚焦在一位满头白发的老太太身上。她坐在长椅上,缓缓把书合上,望向远方陷入深思。
亚星游戏官网-yaxin222



接着在下方面选择基础参数即可:

亚星游戏官网-yaxin222



在静候片刻之后,一段影片级别、自带音效的高清视频片段就这么水灵灵的诞生了。

重复上面的方法,大家便可以得到后边的那些视频片段。

至于旁白部分,采用的则是智谱在前不久刚发布的GLM-4-Voice情感语音模型,可以做到宛如真人配音。

嗯,打得就是一套智谱的AI组合拳

亚星游戏官网-yaxin222



而联想人类从第一部无声影片(1895年)到第一部有声影片(1927年),足足花费了32年

若是从Sora算起,那么AI生成的视频从无声到有声,耗时仅仅9个月

此时此刻,“AI一天,人间一年”这句话,是真真儿的具象化了。

随意一段视频,秒出有声影片片段

那么智谱的CogSound模型还能hold住什么样的音效?

大家这就来一波实测。

实测方法也是非常简单,大家会截取影片中的视频片段作为输入,考验的就是它能否对视频内容深入理解,并生成没有违和感的音效。

Round 1:自然环境

大家先取一段雨天傍晚房间里的一个视频,把它“喂”给CogSound模型(注:以下原视频都是无声的),生成出来的音效是这样的:

CogSound精准地get到了“下雨”这个关键元素,从音效上来看也是毫无违和感。

再来欣赏一段由清影生成、CogSound加音效的视频片段:

Round 2:动物世界

大家再来试试CogSound能否看视频识别出动物的声音:

CogSound不仅生成出了狮子妈妈低沉的叫声,也发觉到了它们处于自然环境之下,还配上了鸟鸣的声音。

Round 3:多种乐器

接下来,大家上个难度,输入一段有多个乐器演奏的视频频段:

可以看到,从视频一开始的画面来看,萨克斯这个乐器应当是“主角”,所以在乐器混合的音效中,萨克斯的声音是最大的。

而当萨克斯手用力吹奏的时候,CogSound配的音效竟也有了音乐上的起伏,说实话,这一点确实是有点令人意外。

但要非挑个问题的话,或许镜头在转向钢琴的时候,乐器的音效上,钢琴声音变大一些会更好些。

Round 4:科幻影片

最后,大家再“喂”一个超级复杂的视频片段——《流浪地球》:

讲真,若不是知道这是CogSound生成的,很多人应该都会认为它是影片原声了吧。

由此可见,不论“喂”给CogSound模型什么类型的视频,它都可以做到对视频内容的精准理解,并且给出对应音效。

除此之外,在视频本身生成的能力上,智谱的CogVideo也有了大幅的提升。

例如生成的下面这位老爷爷,情绪和表情的变化,宛如在看一个影片片段:

还有像非常科幻的火焰老虎

而从上面两个例子中,大家也不难发现,CogVideoX现在是可以支撑多种比例视频的生成。

那么接下来的问题就是:

怎么做到的?

首先是CogVideo的升级,主要集中体现在了内容连贯性、可控性和训练效率等方面的能力提升。

其整体的模型框架如下图所示,是基于多个专家Transformer模块,通过文本编码器将输入的文本转化为潜在向量,再经由3D卷积和多层专家模块处理,生成连续的视频序列。

亚星游戏官网-yaxin222



整个过程可视为将自然语言描述转化为动态视觉内容的复杂系统。

在模型架构设计中,CogVideoX特别采用了因果3D卷积(Causal 3D Convolution),以高效捕捉时空维度上的复杂变化,使得模型能够更加精确地理解和生成富有细节的场景。

同时,该模型引入了专家自适应层归一化(AdaLN),通过动态调整不同模块的特性,从而在视觉表现上实现更自然、更具连贯性的视频生成。

为了应对视频压缩与计算效率的挑战,CogVideoX采用了3D VAE结构,通过对视频特征在空间和时间上的下采样,大幅降低了视频存储与计算开销。

亚星游戏官网-yaxin222



这意味着即便在资源有限的计算环境下,CogVideoX仍能生成高质量的视频内容,显著提升了其应用的可行性。

如果说CogVideoX负责生成可视的动态内容,那么CogSound则赋予这些画面以听觉上的生命。

CogSound是一种为无声视频自动生成音效的模型,能够基于视频内容智能合成背景音乐、对话音频及环境音效,其架构如下图所示:

亚星游戏官网-yaxin222



CogSound的核心技术依托于GLM-4V的多模态理解能力,能够精确解析视频中的语义和情感,并生成匹配的音效。

例如,在展示森林景观的视频中,CogSound能够生成鸟鸣和风吹树叶的声音;而在城市街景中,则会生成车流与人群的背景噪音。

为实现这一目标,CogSound利用了潜空间扩散模型(Latent Diffusion Model),通过将音频特征从高维空间进行压缩并再扩展,从而有效地生成复杂音效。

此外,CogSound通过块级时间对齐交叉注意力(Block-wise Temporal Alignment Cross-attention)机制,确保生成的音频在时间维度和语义上与视频内容高度一致,避免了传统音画合成中常见的错位和不协调问题。

这便是智谱CogVideoX能力提升和CogSound背后的技术秘笈了。

短视频迈入了AI时代

多模态是通往AGI的必经之路。
这是智谱在很早之前便提出的一个认知,而随着此次CogSound的发布,其多模态的矩阵可谓是再添一块拼图。

而它的多模态之路,可以追溯到2021年,具体到细节领域分别是:

文本生成(GLM)、图像生成(CogView)、视频生成(CogVideoX)、音效生成(CogSound)、音乐生成(CogMusic)、端对端语音(GLM-4-Voice)、自主代理(AutoGLM)。

若问这一步步走来,对现在的技术和行业带来了哪些改变,答案或许是——

起码在短视频制作领域,是时候可以迈入AI时代了。

首先就是更高质量、更符合物理世界规则的生成视频,在内容逻辑和视觉上基本上可以够到短视频制作的门槛。

加之CogVideoX还支撑非常多的尺寸,更符合用户在各种场景下的制作需求。

而最为关键的一点,随着CogSound把视频生成拉进“有声影片”时代,使得输出的结果不仅满足了视觉的要求,更是符合了真实物理世界中的听觉要求。

正如智谱所言:

真正的智能一定是多模态的,听觉、视觉、触觉等共同参与了人脑认知能力的形成。
据悉,CogSound即将在智谱清言上线,而且智谱还将发布音乐模型CogMusic。

加之此前已经发布的GLM-4-Voice人声模型,智谱可以说是把视频生成中的“音”这块全面hold住。

总而言之,现在做短视频,或许就成了有想法就能实现的事儿了。


来源:网易

举报本楼

本帖有 2 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2024-11-26 14:02 , Processed in 0.397072 second(s), 17 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图