3 个模型可选
剪辑师拿到一段 5 秒的 AI 视频,按节奏需要变成 12 秒——不用重头跑提示词重新生成。在 Martini 画布上,把原片放进视频转视频节点,下游链接 Pixverse Extend、Wan 2.6 或 Runway Aleph,把新生成的运动接到时间线后面。结果是一段获批的主镜头被延长到 15 秒广告所需的长度,或者 B-roll 插入镜头被无缝循环——而且不损失原片的画面观感。选择下方模型走完你的延长工作流。
ByteDance
Pixverse Extend 是专精一件事的工具:拿一段视频片段,无缝延续它。它不从文字生成、不动图、不编辑内容——它的唯一用途是把原始运动、风格和光线在延续部分保留下来。对一位拿到 5 秒 AI 片段、按节奏需要变成 12 秒的剪辑师,Pixverse 作为下游 V2V 节点落到画布上,无需从头重新跑提示词就把素材延长。
Alibaba
Wan 2.6 通过把通用图生视频模式接到源片段最后一帧上来延伸片段——当 Pixverse Extend 显得过头或你想对延伸有创作控制时是个性价比之选。把源送进 frame-extraction 工具节点,把最后一帧喂给 Wan 2.6 配一段续写提示词,模型会生成接在原片之后的新素材。对积分敏感且延伸能接受轻微风格漂移的大批量制作,Wan 是务实之选。
Runway
Runway Aleph 仅 V2V——它在现有素材上工作并精确保留原始相机和时机。虽然它的主要用途是风格迁移和参考引导的重渲染,Aleph 也能用于延伸:把源片段配一张续写参考图加一段方向提示词。输出沿用源的运动矢量同时遵循新参考。对一位需要把主镜头按特定观感(活动中的品牌季节性转变)延长的剪辑师,Aleph 是最可控的延伸选项。