OpenAI
在 Martini 上把 Sora 2 用作文本生 3D 场景流程的下游相机运动引擎——可导航 Marble 场景的捕捉静态图喂到 Sora 2 视频节点做尊重场景空间结构的电影感镜头。Sora 2 自身不生成场景;场景来自文本条件化的 Marble 3D 节点(或上游 Midjourney/FLUX.2 帧接到 Marble)。Marble 的输出是画布内可导航预览,不是可移植的 .obj、.fbx、.glb 或 USD 网格——Sora 2 把捕捉的静态图作为起始帧,产出共享同一锁定场景的运动片段。
Sora 2 需要从真实空间源来的起始帧。上游:放下配置为 Marble 的 3D 节点。纯文本:直接写场景提示词("黄昏的雾巷、霓虹招牌、湿鹅卵石")。更强重建:先在 Midjourney 或 FLUX.2 上生成概念帧再作为图像条件化接到 Marble。Marble 运行约 5 分钟;输出是可在画布内导航的预览。
在可导航 Marble 预览里从四角度模式捕捉静态图:正面、三四分之一左、三四分之一右、背面/越肩。每张捕捉作为图像节点落下。捕捉得比需要的多——重跑 Marble 会产生不同场景,所以先截图,后迭代。这些是 Sora 2 起始帧。
Sora 2 对 3D 空间、运动和场景连续性有深刻理解——Marble 场景的捕捉静态图是干净输入格式。把每个捕捉角度接到自己的 Sora 2 图生视频节点。视频模型从静态图继承空间结构,产出尊重视差、遮挡和深度的运动。
在 Sora 2 提示词里用电影感动词:"慢相机推进穿过巷子向拉面店"、"顺时针轻柔环绕中心装置"、"静态相机,前景霓虹闪烁"。Sora 2 把这些直接映射到训练分布。别用通用动词("靠近"、"转")——它们让模型瞎猜。
比一个 Sora 2 片段更长的序列,把 N 号片段的尾帧接到 frame-extraction 工具节点,再作为 N+1 号片段的起始帧喂入。结合锁定的 Marble 场景,给空间和时间双连续性。场景锁位置;帧链锁运动线索。
把 Sora 2 输出放进 Martini 序列构建器按故事顺序。每个片段 5-10 秒。叠音频(ElevenLabs Eleven v3 + Minimax Music)。作为原生序列导出到 Premiere、DaVinci Resolve 或 Final Cut。锁定的 Marble 场景让多镜头读起来像一个地方;NLE 导出是最终交付。
通过慢推的建立镜头。捕捉静态图锁场景;Sora 2 加带巷子视差的相机运动。
[Captured still from Marble: front view of foggy Tokyo alley] + Sora 2 prompt: slow camera push forward through the alley toward the ramen shop, neon signs flickering in mid-distance, rain particles in air, atmospheric, 8 seconds, 16:9.
通过环绕的中景。同场景;新角度。环绕指令映射到 Sora 2 的 3D 感知训练。
[Captured still: three-quarter angle on the ramen shop entrance] + Sora 2 prompt: gentle orbit clockwise around the lantern outside the shop, soft lantern light, no character, 6 seconds, 16:9.
通过静态变焦的细节特写。静态指令告诉 Sora 2 不要加不想要的视差。
[Captured still: tight close on the vending machine] + Sora 2 prompt: static camera, slow zoom in toward the vending machine, neon reflections shimmer on wet cobblestone in the foreground, 5 seconds, 16:9.
带视差推轨的反打镜头。Sora 2 最强的运动类型——静态图的深度结构驱动视差。
[Captured still: reverse over-shoulder, looking out of the alley] + Sora 2 prompt: dolly forward with parallax revealing depth of the alley behind, rain falls heavier in foreground, 7 seconds, 16:9.
Sora 2 是相机运动引擎,不是 3D 场景生成器。Marble(文本或图像条件化)在上游生成场景。
为最佳结果,把 Midjourney 或 FLUX.2 帧作为图像条件化接到 Marble。纯文本 Marble 运行比图像条件化弱。
迭代 Marble 之前捕捉静态图。重跑会产生不同场景;捕捉一次,扇出到多个 Sora 2 节点。
用电影感动词(推轨、环绕、推、拉、静态、视差)——它们映射到 Sora 2 的训练分布。
序列用尾帧链接:N 号片段的尾帧 = N+1 号片段的起始帧。结合锁定的 Marble 场景,空间和时间连续性都保留。
Marble 场景是画布内的——Sora 2 用捕捉的静态图,不直接用可导航场景。从 Martini 导出 = NLE 就绪视频,不是 3D 文件。
Sora 2 每个节点返回 5-10 秒 1080p 视频片段,强 3D 空间推理尊重 Marble 场景捕捉静态图的深度结构。每个片段 60-120 秒生成。电影感相机运动是 Sora 2 最强领地。Marble 场景保留在画布内(不能导出为 .obj/.fbx/.glb/USD);Sora 2 输出是可导出的视频交付物。通过序列构建器做多镜头交付,NLE 导出做原生 Premiere/DaVinci 序列。
在 Martini 的无限画布上将 Sora 2 与其他 AI 模型连接使用。无需 GPU,免费开始。
免费开始Midjourney
在 Martini 上用 Midjourney v7 生成电影感概念帧——再把那帧喂到 Marble 3D 节点从文字描述开始草绘可导航场景。Marble 的输出是可在画布内查看的场景预览,不是干净的 .obj、.fbx、.glb 或 USD 网格文件。没有概念帧的导演先用 Midjourney 出绘画感、情绪丰富的锚点("黄昏的雾巷、霓虹招牌、湿鹅卵石"),再把锁定帧接到 Marble 做空间草稿。图像条件化的 Marble 运行比纯文字更可靠地保持几何和光线——Midjourney + Marble 是画布上最干净的文生 3D 场景流水线。
查看教程Black Forest Labs
在 Martini 上用 FLUX.2 生成字面布景概念帧——再把那帧喂到 Marble 3D 节点从文字描述产出可导航场景。Marble 的输出是可在画布内查看的场景预览,不是干净的 .obj、.fbx、.glb 或 USD 网格文件。Midjourney 提供绘画感氛围,FLUX.2 是提示词忠实选择:它用字面前景/中景/背景深度结构渲染场景,这正是 Marble 图像条件化模式可靠重建几何需要的。
查看教程