AI制作动态动漫视频怎么做?借助工具自带功能,实操生成全步骤!

视频生成短视频创作
Author Avatar
AI百晓生
2025-10-23
阅读53

AI制作动态动漫视频怎么做?用AI制作动态动漫视频,核心是借助AI工具实现「静态动漫元素动态化」或「文本直接生成动态动漫片段」,新手不用画原画、不用调关键帧。

实操步骤

场景1:零基础速成

适合想做动漫短片段、表情包或二次创作的新手,不用复杂操作,靠工具自带功能就能搞定。

步骤1:用「剪映AI」套动漫模板(懒人首选)

1.打开剪映,点击「模板」,搜索「动漫」关键词,选择喜欢的模板(如“动漫角色跳舞”“动漫卡点”“古风动漫转场”)。

2.替换模板素材:点击模板里的“替换”按钮,上传自己的动漫图片(或用剪映“AI生成”功能,输入“日系动漫少女,双马尾,水手服”生成图片)。

3.调整细节:

替换文案:双击模板里的文字,改成自己想要的内容(如“动漫剪辑”“今日份可爱”),选“动漫字体”(如“站酷快乐体”)。

加动漫特效:剪映搜“动漫闪光”“速度线”“粒子特效”,拖到画面里,增强动漫感。

4.导出:选1080P分辨率,导出即可(适合发抖音、朋友圈)。

步骤2:用「即梦AI」文本生动态动漫(原创首选)

1.打开即梦AI,选择「视频生成」→「文本生视频」。

2.写动漫提示词(公式:角色+动作+场景+风格+运镜),示例:

提示词1(角色动态):“日系动漫少女,粉色长发,穿洛丽塔裙,在星空下转圈,裙摆飘动,星星坠落特效,风格:新海诚式光影,运镜:缓慢环绕,时长10秒”

image.png

提示词2(场景动态):“动漫风格的樱花林,花瓣随风飘落,阳光透过树枝洒下光斑,镜头缓慢推进,时长8秒,色调温暖”

3.点击生成,等待35分钟,得到动态动漫片段。

4.优化:导入剪映,加动漫BGM(剪映“音频音乐动漫”分类),加“动漫字幕”(选“彩色描边”样式)。

场景2:进阶原创

适合想做原创动漫片段、角色展示的创作者,先AI生成静态动漫图,再转动态,风格更独特。

步骤1:用「Midjourney」生成静态动漫图(定角色/场景)

1.打开Midjourney,输入动漫静态图提示词(公式:角色细节+风格+画质),示例:

角色图:anime girl,blue eyes,short black hair,wearing a cyberpunk jacket,standing in a rainy street,neon lights,detailed shading,8K ar 9:16 v 6 niji 5(niji 5是动漫专用模型,风格更准)

image.png

场景图:anime cityscape,futuristic cyberpunk,flying cars,neon signs,rainy night,detailed buildings,8K ar 16:9 v 6 niji 5

2.生成后,选一张姿态自然、有动态趋势的图(如角色抬手、风吹头发的姿势,方便后续转动态)。

步骤2:用「Runway Gen3」静态图转动态视频(核心步骤)

1.打开Runway Gen3,选择「Image to Video」(图生视频),上传上一步的静态动漫图。

2.写动态提示词(突出“动作幅度+细节动态”),示例:

角色动态:static anime girl image,cyberpunk style,slow movement:hair gently blowing in the wind,eyes blinking slowly,neon lights flickering in the background,smooth motion,24fps ar 9:16

场景动态:static cyberpunk city image,anime style,dynamic elements:flying cars moving slowly,rain falling,neon signs flashing,lens slowly zooming in ar 16:9

3.点击生成,等待5分钟左右,得到10秒动态动漫视频(免费版每月有10分钟生成额度)。

步骤3:剪映优化(加转场、音效,更流畅)

1.导入Runway生成的动态片段,若想做多片段拼接,重复步骤12生成多个片段,按顺序排列。

2.加动漫转场:剪映搜“动漫溶解”“胶片划痕”“镜头拉伸”,放在片段衔接处。

3.加音效:剪映“音效动漫”里找“脚步声”“风声”“机械声”(如赛博朋克场景加“电流声”),匹配画面动作。

场景3:专业精细控制

适合需要控制角色精准动作(如跳舞、打斗)或镜头轨迹的场景,用「Stable Video Diffusion(SVD)+ControlNet」实现。

步骤1:准备工具(本地部署/在线使用)

新手推荐在线平台:用「Liblib AI」(国内免费平台),搜索“动漫视频生成”,直接用现成工作流。

进阶推荐本地部署:下载SVD整合包(需NVIDIA显卡,显存≥8GB),安装ControlNet插件(用于控制动作)。

步骤2:用ControlNet控制角色动作

1.上传“动作参考图”(如动漫角色跳舞的关键帧图)或“动作骨骼图”(用「Posemyart」生成,免费动漫动作参考网站)。

2.启用ControlNet的「OpenPose」模式(识别动作骨骼),确保生成的角色动作与参考一致。

3.输入提示词:anime character dancing,black hair,red dress,dynamic pose,anime style,24fps,1080P,点击生成。

步骤3:调整镜头与细节

镜头控制:在提示词里加“运镜:跟拍”“镜头:俯拍”,或用ControlNet的「Depth」模式控制景深(突出角色,模糊背景)。

细节优化:用「Stable Diffusion WebUI」的“局部重绘”功能修复角色变形部分(如手部、面部)。

0
好文章,需要你的鼓励