LTX 相关资源收集(2026)
大约 3 分钟
LTX 相关资源收集
| 来源 | 场景 / 配置 | 权重格式 / 优化 | 显存结论 | 时间结论 |
|---|---|---|---|---|
| LTX 官方博客 | 本地运行 LTX-2.3 22B | bf16 full local inference;低显存用 GGUF / FP8 | bf16 full local 至少 32GB VRAM ;Pro mode 更适合 A100/H100 | 未给明确单次耗时 |
| HF 官方模型文件 | ltx-2.3-22b-dev.safetensors | bf16 / 原始权重 | 文件约 46.1GB ;理论加载主模型权重约 44–46GB | 不涉及推理时间 |
| WaveSpeed ComfyUI 博客 | ComfyUI 两阶段 pipeline | FP8 或 GGUF Q4;半分辨率 Stage 1;VAE offload | 12GB 可尝试低配单图/短视频; 16GB 更顺; 24GB 更适合 PyTorch 路线 | 未给稳定统一时间 |
| Digital Applied 技术博客 | RTX 4090,1080p,10 秒,50 steps | 未完全等同官方 benchmark | RTX 4090 级别,通常需要优化/量化/offload | 约 3–4 分钟 |
| Digital Applied 技术博客 | RTX 5090,4K,10 秒 | 高分辨率推理 | 4K 推理通常需要大显存和优化 pipeline | 约 8–12 分钟 |
| Zen Van Riel 工程博客 | RTX 3080 10GB,960×544,带音频短片段 | GGUF Q4_K_S | 10GB VRAM 可跑低分辨率 | 约 2–3 分钟 |
| Zen Van Riel 工程博客 | 1080p 本地生成 | 建议 GGUF / 量化 | 建议 16GB+ 更适合舒适 1080p | 未给统一时间 |
| Unsloth HF 讨论区 | RTX 5080 16GB | GGUF Q4_K_M | 用户反馈 16GB VRAM 可顺畅运行 | 未给标准耗时 |
| 理论估算 | bf16 原始 22B 主模型 | 22B × 2 bytes | 仅主模型权重约 44GB ;完整 pipeline 峰值通常更高 | 不涉及 |
| 理论估算 | FP8 / INT8 22B | 约 1 byte/param + scale/metadata | 主模型约 22–30GB | 比 bf16 省显存,速度取决于 kernel |
| 理论估算 | GGUF Q4 | 4-bit 量化 | 主模型约 13–17GB | 速度可能受实现影响 |
简化版结论表
| 你的 GPU 显存 | 推荐方式 | 能否跑 LTX-2.3 22B | 预期体验 |
|---|---|---|---|
| 80GB | bf16 原始权重 / 官方 pipeline | 可以 | 最稳,适合研究和高质量实验 |
| 48GB | bf16 或 FP8,配合 offload | 基本可以 | 比较稳,但高分辨率仍需优化 |
| 32GB | 官方推荐 bf16 full local 门槛 / FP8 更稳 | 可以 | 合理本地推理门槛 |
| 24GB | FP8 / GGUF Q4-Q5 + offload | 可以 | RTX 4090/3090 级别可用,但需要优化 |
| 16GB | GGUF Q4 + VAE/text encoder offload | 勉强可用 | 可跑,适合低/中分辨率实验 |
| 10–12GB | GGUF Q4/Q3 + 低分辨率 + 强 offload | 可尝试 | 能跑案例存在,但不适合高质量稳定推理 |
| <10GB | 极低量化 + CPU offload | 不推荐 | 很慢,容易 OOM,质量下降明显 |
关键判断
| 问题 | 答案 |
|---|---|
| 加载 bf16 22B 原始权重需要多少显存? | 主模型约 44–46GB ,完整 pipeline 更高 |
| 官方本地推理最低建议是多少? | 官方博客给出 32GB VRAM 作为 bf16 full local inference 门槛 |
| 24GB 显卡能不能跑? | 能,但通常要 FP8/GGUF + offload |
| 16GB 显卡能不能跑? | 可以尝试 GGUF Q4 ,但更像工程折中 |
| 4090 跑 1080p 10 秒大概多久? | 第三方博客参考约 3–4 分钟 |
| 10GB 显卡有没有可能跑? | 有第三方案例,但通常是 960×544 + GGUF Q4 + 强优化 |
| 最稳的研究配置? | A100/H100 80GB |
| 最现实的消费级配置? | RTX 4090 24GB + GGUF/FP8 + ComfyUI/offload |