OpenAI
在 Martini 上把 Sora 2 用作图生 3D 世界流程的下游相机运动引擎——可导航世界的捕捉静态图直接喂到 Sora 2 视频节点做匹配角度的运动镜头。世界节点的输出是画布内可导航场景预览,不是可移植的 .obj、.fbx、.glb 或 USD 网格。Sora 2 把捕捉的静态图作为起始帧,产出共享同一锁定场景、用尊重源世界空间结构的电影感相机运动的视频片段。
Sora 2 是相机运动引擎,不是世界生成器。上游:放下 Nano Banana 2 或 FLUX.2 图像节点,4K 生成源场景,再接到 World Labs 或 Image-to-3D-World 节点。可导航场景预览在画布内出(约 5 分钟生成)——在转到 Sora 2 之前环绕并捕捉静态图。
在可导航预览里从四角度模式捕捉静态图:正面、三四分之一左、三四分之一右、背面/越肩。每张捕捉作为图像节点落下。这些是你的 Sora 2 起始帧——捕捉得比需要的多。重新运行世界节点会产生不同场景,所以先截图,后迭代。
Sora 2 对 3D 空间、运动和场景连续性有深刻理解——可导航世界的捕捉静态图是最干净的输入格式。把每个捕捉角度接到自己的 Sora 2 图生视频节点。视频模型从静态图继承空间结构,产出尊重视差、遮挡和深度的运动。
在 Sora 2 提示词里用电影感动词:"慢相机推进"、"顺时针轻柔环绕"、"静态相机,角色跑出画面右"、"带视差的相机前推"。Sora 2 把这些直接映射到训练分布。别用通用动词("靠近"、"转")——它们让模型瞎猜,产生镜头到镜头不一致的行为。
比一个 Sora 2 片段更长的序列,把 N 号片段的尾帧接到 frame-extraction 工具节点,再作为 N+1 号片段的起始帧喂入。结合锁定的 3D 世界参考,给空间和时间双连续性。世界锁场景;帧链锁运动线索。
把 Sora 2 输出放进 Martini 序列构建器按故事顺序。每个片段 5-10 秒。剪辑标记保留。叠音频(ElevenLabs Eleven v3 + Minimax Music)。作为原生序列导出到 Premiere、DaVinci Resolve 或 Final Cut。锁定的 3D 世界是让多镜头读起来像一个地方的关键;NLE 导出是最终交付。
通过慢推的建立镜头。捕捉静态图锁场景;Sora 2 加相机运动。
[Captured still from world: front view of empty mid-century living room] + Sora 2 prompt: slow camera push forward through the living room toward the fireplace, soft afternoon light from the windows on camera left, no character, 8 seconds, 16:9.
通过环绕的中景。同世界;新角度。环绕指令映射到 Sora 2 的 3D 感知训练。
[Captured still: three-quarter left angle of same living room] + Sora 2 prompt: gentle orbit clockwise around the center of the room, lighting unchanged, depth of field shallow on the armchair, 6 seconds, 16:9.
通过静态变焦的细节特写。静态指令告诉 Sora 2 不要加不想要的视差。
[Captured still: tight angle on the fireplace] + Sora 2 prompt: static camera, slow zoom in toward the fireplace mantelpiece, no other motion in frame, atmospheric, 5 seconds, 16:9.
带视差推轨的反打镜头。Sora 2 最强的运动类型——静态图的深度结构驱动视差效果。
[Captured still: reverse over-shoulder angle, looking back toward the windows] + Sora 2 prompt: dolly forward with parallax, soft afternoon light revealing dust motes in the air, 7 seconds, 16:9.
Sora 2 是相机运动引擎,不是世界生成器。世界来自上游 Nano Banana 2 / FLUX.2 源 + World Labs / Image-to-3D-World 节点。
运行 Sora 2 之前从世界捕捉静态图。重跑世界会产生不同场景;捕捉一次,扇出到多个 Sora 2 节点。
用电影感动词(推轨、环绕、推、拉、静态、视差)——它们映射到 Sora 2 的训练分布。通用动词产生不一致结果。
序列用尾帧链接:Sora 2 N 号片段的尾帧 = N+1 号片段的起始帧。结合锁定的世界,空间和时间连续性都保留。
Sora 2 图生视频片段 5-10 秒。更长的镜头链短片段,而不是求单个不可能的长片段。
世界节点输出是画布内的——Sora 2 用捕捉的静态图,不直接用可导航世界。从 Martini 导出 = NLE 就绪视频序列,不是 3D 文件。
Sora 2 每个节点返回 5-10 秒 1080p 视频片段,强 3D 空间推理尊重可导航世界捕捉静态图的深度结构。每个片段 60-120 秒生成。电影感相机运动(推轨、环绕、推、视差)是 Sora 2 最强领地。输出落到画布;通过序列构建器做多镜头交付,NLE 导出做原生 Premiere/DaVinci 序列。世界保留在画布内;Sora 2 输出是可导出的视频交付物。
在 Martini 的无限画布上将 Sora 2 与其他 AI 模型连接使用。无需 GPU,免费开始。
免费开始在 Martini 上用 Nano Banana 2 为图生 3D 世界流程生成规范参考图——源图越干净,得到的场景越可导航。世界节点的输出是一个可在画布内导航、可以环绕和截图的场景预览,不是可移植的 .obj、.fbx、.glb 或 USD 网格文件。概念艺术家用这个在 Nano Banana 2 上一次锁定一个场景,把锁定静态图传给 World Labs 或 Image-to-3D-World 节点,捕捉匹配角度静态图喂给下游 Sora 2 或 Kling 3 节点做共享同一世界的镜头。
查看教程Black Forest Labs
在 Martini 上用 FLUX.2 为图生 3D 世界流程生成源参考图——它的提示词忠实渲染产出干净、字面的场景构图,世界节点能干净地重建。世界节点的输出是可在画布内导航、可以环绕和截图的场景预览,不是可移植的 .obj、.fbx、.glb 或 USD 网格文件。概念艺术家在需要和 Nano Banana 2 不同的备选外观参考(不同色板、不同光线、不同风格)时用 FLUX.2——同流程、不同美感。
查看教程