ByteDance
Pixverse Extend 是专精一件事的工具:拿一段视频片段,无缝延续它。它不从文字生成、不动图、不编辑内容——它的唯一用途是把原始运动、风格和光线在延续部分保留下来。对一位拿到 5 秒 AI 片段、按节奏需要变成 12 秒的剪辑师,Pixverse 作为下游 V2V 节点落到画布上,无需从头重新跑提示词就把素材延长。
Pixverse Extend 只支持 V2V——它无法从文字或单张图像生成画面。在 Martini 画布上,把源片段从 Seedance 2、Sora 2、Kling 3 或 Hailuo 02 视频节点送到下游的 Pixverse Extend V2V 节点。源也可以是上传到视频参考节点的真实世界片段。
Pixverse 的延续在输入以运动中段稳定帧结束时最干净——不是在一个硬重音或未完成手势上。用 frame-extraction 工具节点拉到干净剪辑点,再把裁过的段送进 Pixverse Extend。在运动顶点结束的素材产生最平滑的延续。
Pixverse 接收源片段加一个目标增量时长。常见模式:5 秒源延伸到 12 秒 = 增量 7 秒。模型自动保留运动矢量和风格,因此基础延伸操作无需提示词。最平滑的结果是把单次延伸调用控制在 8 秒以下——需要更多时长时链两个 Pixverse Extend 节点。
如果延伸需要引入新节拍(例如源里站立的角色开始走动),Pixverse 接受一段简短运动提示词。保持极简:"角色开始向前走,同样光线。"避免激进的提示词变化——Pixverse 为连贯性而生,而非改造。重提示词会与保留步骤冲突。
需要无缝循环的 B-roll 插入镜头,把延伸生成后送进下游的循环构建节点。Pixverse 的延伸在循环上接得干净,因为延伸的首帧与源的尾帧完全相同——完美的交叉淡化素材。
在画布上把原始源 + Pixverse 延伸作为相邻片段送进序列构建器。源与延伸之间的剪辑读起来等于零——没有剪辑师会察觉到。把时间线导出到 NLE;剪辑师在序列里只看到一段更长的连续镜头。
不带提示词的纯运动保留延续。最干净的结果。
(no prompt — basic extension, 7 second target duration)
最简新节拍提示——只在延伸需要引入源中没有的动作时使用。
character begins walking forward, same lighting
强化原始运动矢量的延续提示。源运动较隐约时合适。
camera continues slow dolly forward, same scene, same light
Pixverse Extend 仅 V2V——需要输入片段,无法从文字或单张图像生成。
把输入裁剪到一个稳定的运动中段帧结束,可获得最平滑的延续。
把单次延伸调用控制在 8 秒以下;更长需求链多个 Pixverse Extend 节点。
纯运动保留时跳过提示词;只在需要引入新节拍时加一段提示。
Pixverse 延伸接成无缝循环很干净,因为延伸首帧与源尾帧完全一致。
Pixverse Extend 以源分辨率和帧率输出,把运动、风格和光线在延续部分保留下来。7 秒延伸的渲染时间 60-120 秒。它不带音频、不升级分辨率、不内部重新构图——模型的活就是延伸,不做改造。对 B-roll 循环或 15 秒广告版本前的主镜头加长,Pixverse 是最干净的工作流。如果还需要重新风格化,改走 Runway Aleph 或 Wan VACE Video Edit。
在 Martini 的无限画布上将 Pixverse Extend 与其他 AI 模型连接使用。无需 GPU,免费开始。
免费开始Alibaba
Wan 2.6 通过把通用图生视频模式接到源片段最后一帧上来延伸片段——当 Pixverse Extend 显得过头或你想对延伸有创作控制时是个性价比之选。把源送进 frame-extraction 工具节点,把最后一帧喂给 Wan 2.6 配一段续写提示词,模型会生成接在原片之后的新素材。对积分敏感且延伸能接受轻微风格漂移的大批量制作,Wan 是务实之选。
查看教程Runway
Runway Aleph 仅 V2V——它在现有素材上工作并精确保留原始相机和时机。虽然它的主要用途是风格迁移和参考引导的重渲染,Aleph 也能用于延伸:把源片段配一张续写参考图加一段方向提示词。输出沿用源的运动矢量同时遵循新参考。对一位需要把主镜头按特定观感(活动中的品牌季节性转变)延长的剪辑师,Aleph 是最可控的延伸选项。
查看教程