LTX 相关资源收集
| 来源 | 场景 / 配置 | 权重格式 / 优化 | 显存结论 | 时间结论 |
|---|---|---|---|---|
| LTX 官方博客 | 本地运行 LTX-2.3 22B | bf16 full local inference;低显存用 GGUF / FP8 | bf16 full local 至少 32GB VRAM ;Pro mode 更适合 A100/H100 | 未给明确单次耗时 |
| HF 官方模型文件 | ltx-2.3-22b-dev.safetensors |
bf16 / 原始权重 | 文件约 46.1GB ;理论加载主模型权重约 44–46GB | 不涉及推理时间 |
| WaveSpeed ComfyUI 博客 | ComfyUI 两阶段 pipeline | FP8 或 GGUF Q4;半分辨率 Stage 1;VAE offload | 12GB 可尝试低配单图/短视频; 16GB 更顺; 24GB 更适合 PyTorch 路线 | 未给稳定统一时间 |
| Digital Applied 技术博客 | RTX 4090,1080p,10 秒,50 steps | 未完全等同官方 benchmark | RTX 4090 级别,通常需要优化/量化/offload | 约 3–4 分钟 |
| Digital Applied 技术博客 | RTX 5090,4K,10 秒 | 高分辨率推理 | 4K 推理通常需要大显存和优化 pipeline | 约 8–12 分钟 |
| Zen Van Riel 工程博客 | RTX 3080 10GB,960×544,带音频短片段 | GGUF Q4_K_S | 10GB VRAM 可跑低分辨率 | 约 2–3 分钟 |
| Zen Van Riel 工程博客 | 1080p 本地生成 | 建议 GGUF / 量化 | 建议 16GB+ 更适合舒适 1080p | 未给统一时间 |
| Unsloth HF 讨论区 | RTX 5080 16GB | GGUF Q4_K_M | 用户反馈 16GB VRAM 可顺畅运行 | 未给标准耗时 |
| 理论估算 | bf16 原始 22B 主模型 | 22B × 2 bytes | 仅主模型权重约 44GB ;完整 pipeline 峰值通常更高 | 不涉及 |
| 理论估算 | FP8 / INT8 22B | 约 1 byte/param + scale/metadata | 主模型约 22–30GB | 比 bf16 省显存,速度取决于 kernel |
| 理论估算 | GGUF Q4 | 4-bit 量化 | 主模型约 13–17GB | 速度可能受实现影响 |