字节跳动发布120亿参数视频模型Vidi2

2025-12-02 08:31
162

字节跳动这次又整了个大动作,推出了一个叫Vidi2的视频生成模型,参数规模达到了120亿。这个数字听起来就吓人的,但还得看实际效果怎么样。

从目前的情况来看,Vidi2在视频生成这块确实有两把刷子。它能根据你输入的文字描述直接生成视频,而且据说生成的画面质量和连贯性都比之前的模型有明显提升。

120亿参数意味着这个模型学习了海量的视觉数据,理论上对各种场景的理解应该会更深入。

image.png

我觉得字节做这个事情也不奇怪。他们本来就是做内容起家的,抖音、今日头条这些产品本身就需要大量的视频内容。如果能用AI来辅助甚至自动生成一些视频,这对他们的业务肯定是有帮助的。而且现在短视频这么火,谁掌握了视频生成技术,谁就可能在下一轮竞争中占得先机。

其实视频生成这个领域现在竞争也挺激烈的。OpenAI有Sora,Google有自己的视频模型,国内像阿里、腾讯也都在布局。字节这次推出Vidi2,应该也是想在这个赛道上证明自己的实力。毕竟光有流量平台还不够,底层的技术能力同样重要。

从技术角度来说,120亿参数的规模在当前的视频生成模型里算是比较主流的配置。太小的话可能效果不够好,太大的话训练成本又太高。这个参数量应该是在效果和成本之间找到了一个平衡点。

我个人比较好奇的是这个模型在实际应用中会被用到哪些场景。是给创作者提供工具,让他们更容易地制作视频内容?还是说会直接用在平台的内容生成上?或者说会开放API给第三方开发者使用?这些后续的应用方向可能比模型本身更值得关注。

视频生成技术发展到现在,除了技术本身,版权、伦理这些问题也越来越受关注。AI生成的视频如果被滥用,可能会带来一些负面影响。

希望字节在推出这个模型的同时,也能考虑到这些方面的问题,做好相应的防护措施。

Vidi2的发布算是字节在AI视频生成领域迈出的重要一步。这个120亿参数的模型能不能真正给用户带来价值,还得看后续的产品落地情况。技术是一回事,怎么用好这个技术又是另一回事。我们就等着看字节会怎么把这个模型玩出花来吧。

0
好文章,需要你的鼓励