OpenAI
在 Martini 上一次用可导航 3D 世界锁定一个场景、捕捉匹配角度静态图、把每张作为起始帧喂入 Sora 2 做读起来像一个布景而非五个不同房间的五镜头序列。Sora 2 对 3D 空间、运动和场景连续性有深刻理解——可导航世界的捕捉静态图转化为尊重视差、遮挡和深度的一致相机运动。3D 世界是画布内参考,不是可导出的 .obj/.fbx/.glb/USD 文件;Sora 2 读取捕捉的静态图,产出共享同一空间锚点的可导出视频片段。
从 Nano Banana 2 或 FLUX.2 → World Labs / Image-to-3D-World 节点,或从文本提示词通过 Marble 3D 节点取得世界。生成约 5 分钟。输出是可在画布内导航的场景预览——环绕、平移、截图。不能从 Martini 导出为 .obj/.fbx/.glb/USD。世界是多镜头序列的脊柱;Sora 2 从它派生每个镜头。
在可导航世界里围绕你的序列规划捕捉五张匹配角度静态图:远景建立(1 号帧)、中景(2 号帧)、紧近景(3 号帧)、反打越肩(4 号帧)、远景收尾(5 号帧)。每张作为图像节点落下。捕捉得比需要的多——重跑世界会产生不同场景,所以先截图。
在画布上把五个 Sora 2 图生视频节点按故事顺序排——远景建立放最左,收尾标签放最右。把每张捕捉静态图作为起始帧接到对应的 Sora 2 节点。每个片段从静态图继承世界;只换相机运动和每镜头提示词。
Sora 2 把电影感动词直接映射到训练分布。1 号镜头(远景建立):"慢相机推进,氛围。"2 号镜头(中景):"顺时针轻柔环绕中心主体。"3 号镜头(近景):"静态相机,主体在画面内轻微移动。"4 号镜头(反打):"带视差的相机前推。"5 号镜头(收尾标签):"慢相机后拉揭示完整空间。"通用动词("靠近")让 Sora 2 瞎猜。
超过五镜头的序列用尾帧链接:把 Sora 2 N 号片段的尾帧接到 frame-extraction 工具节点,作为 N+1 号片段的起始帧喂入。结合锁定的 3D 世界参考,给空间和时间双连续性。世界锁位置;帧链跨剪辑锁运动线索。
把五个 Sora 2 输出放进 Martini 序列构建器按故事顺序。五镜头序列总时长 25-50 秒(每片段 5-10 秒)。叠音频(ElevenLabs Eleven v3 对话 + Minimax Music 氛围背景)。作为原生序列导出到 Premiere、DaVinci Resolve 或 Final Cut。锁定的 3D 世界让多镜头读起来像一个布景;NLE 导出是最终交付。
1 号镜头建立。宽构图设定空间预期;后续镜头继承这个锚点。
[Captured still: wide establishing of mid-century living room from front] + Sora 2 prompt: slow camera push forward through the room toward the fireplace, soft afternoon light from the windows on camera left, no character, atmospheric, 8 seconds, 16:9.
2 号镜头通过环绕的中景。Sora 2 的 3D 感知训练处理尊重已建立空间视差的环绕运动。
[Captured still: three-quarter left of same living room] + Sora 2 prompt: gentle orbit clockwise around the central armchair, lighting unchanged, depth of field shallow on the chair, 6 seconds, 16:9.
3 号镜头通过静态变焦的近景。静态指令阻止 Sora 2 加会破坏与宽镜头连续性的不想要视差。
[Captured still: tight close on the fireplace mantelpiece] + Sora 2 prompt: static camera, slow zoom in toward the mantelpiece, embers glow softly, no other motion, 5 seconds, 16:9.
4 号镜头带视差推轨的反打。捕捉静态图的深度结构驱动视差效果。
[Captured still: reverse over-shoulder from the fireplace looking back at the windows] + Sora 2 prompt: dolly forward with parallax revealing dust motes in afternoon light, 7 seconds, 16:9.
运行 Sora 2 之前从世界捕捉静态图。重跑世界会产生不同场景;捕捉一次,扇出到多个 Sora 2 节点。
用电影感动词(推轨、环绕、推、拉、静态、视差)——它们映射到 Sora 2 的训练分布。通用动词产生不一致结果。
多镜头序列在生成之前规划相机运动弧线:远 → 中 → 近 → 反 → 收尾是主力模式。
Sora 2 图生视频片段 5-10 秒。更长的镜头用尾帧拼接链短片段,而不是求一个不可能的长片段。
即使同一起始帧远景背景细节也可能在片段之间漂移。把动作框得让主体在前景;远景仅是暗示。
3D 世界是画布内的——Sora 2 用捕捉的静态图,不直接用可导航世界。从 Martini 导出 = NLE 就绪视频序列,不是 3D 文件。
Sora 2 每个节点返回 5-10 秒 1080p 视频片段,强 3D 空间推理尊重可导航世界捕捉静态图的深度结构。每个片段 60-120 秒生成。5 镜头多镜头序列在画布上端到端 5-10 分钟。3D 世界保留在画布内(不能导出为 .obj/.fbx/.glb/USD);Sora 2 输出是可导出的视频交付物。通过序列构建器做多镜头交付,NLE 导出做原生 Premiere/DaVinci 序列。
在 Martini 的无限画布上将 Sora 2 与其他 AI 模型连接使用。无需 GPU,免费开始。
免费开始Kling
在 Martini 上用可导航 3D 世界的捕捉静态图驱动 Kling 3.0 多镜头序列——Kling 每个视频支持 2-6 个场景带显式每场景描述,配合锁定场景背景板时是最强的单遍多镜头选择。3D 世界是画布内参考,不是可导出的 .obj/.fbx/.glb/USD 文件。Kling 把捕捉的静态图读作起始帧,渲染共享锁定场景的多镜头视频,3D Spacetime Joint Attention 跨剪辑处理视差和遮挡。
查看教程Runway
在 Martini 上把 Runway Gen4 Turbo 用作 3D 世界派生镜头的快速迭代——可导航世界的捕捉静态图喂到 Gen4 图生视频节点,不到一分钟出 5 秒或 10 秒片段。3D 世界是画布内参考,不是可导出的 .obj/.fbx/.glb/USD 文件。Gen4 Turbo 是简报下午 4 点到、序列 9 点交付时的速度选择:每片段生成比 Sora 2 或 Kling 3 完成更快,让它在主镜头投入更大渲染预算之前做快速多镜头迭代的合适工具。
查看教程