跳至主要內容

LTX 相关资源收集(2026)

Kevin 吴嘉文大约 3 分钟知识笔记LLMAgentScaling laws

LTX 相关资源收集

来源场景 / 配置权重格式 / 优化显存结论时间结论
LTX 官方博客本地运行 LTX-2.3 22Bbf16 full local inference;低显存用 GGUF / FP8bf16 full local 至少 32GB VRAM ;Pro mode 更适合 A100/H100未给明确单次耗时
HF 官方模型文件ltx-2.3-22b-dev.safetensorsbf16 / 原始权重文件约 46.1GB ;理论加载主模型权重约 44–46GB不涉及推理时间
WaveSpeed ComfyUI 博客ComfyUI 两阶段 pipelineFP8 或 GGUF Q4;半分辨率 Stage 1;VAE offload12GB 可尝试低配单图/短视频; 16GB 更顺; 24GB 更适合 PyTorch 路线未给稳定统一时间
Digital Applied 技术博客RTX 4090,1080p,10 秒,50 steps未完全等同官方 benchmarkRTX 4090 级别,通常需要优化/量化/offload约 3–4 分钟
Digital Applied 技术博客RTX 5090,4K,10 秒高分辨率推理4K 推理通常需要大显存和优化 pipeline约 8–12 分钟
Zen Van Riel 工程博客RTX 3080 10GB,960×544,带音频短片段GGUF Q4_K_S10GB VRAM 可跑低分辨率约 2–3 分钟
Zen Van Riel 工程博客1080p 本地生成建议 GGUF / 量化建议 16GB+ 更适合舒适 1080p未给统一时间
Unsloth HF 讨论区RTX 5080 16GBGGUF Q4_K_M用户反馈 16GB VRAM 可顺畅运行未给标准耗时
理论估算bf16 原始 22B 主模型22B × 2 bytes仅主模型权重约 44GB ;完整 pipeline 峰值通常更高不涉及
理论估算FP8 / INT8 22B约 1 byte/param + scale/metadata主模型约 22–30GB比 bf16 省显存,速度取决于 kernel
理论估算GGUF Q44-bit 量化主模型约 13–17GB速度可能受实现影响

简化版结论表

你的 GPU 显存推荐方式能否跑 LTX-2.3 22B预期体验
80GBbf16 原始权重 / 官方 pipeline可以最稳,适合研究和高质量实验
48GBbf16 或 FP8,配合 offload基本可以比较稳,但高分辨率仍需优化
32GB官方推荐 bf16 full local 门槛 / FP8 更稳可以合理本地推理门槛
24GBFP8 / GGUF Q4-Q5 + offload可以RTX 4090/3090 级别可用,但需要优化
16GBGGUF Q4 + VAE/text encoder offload勉强可用可跑,适合低/中分辨率实验
10–12GBGGUF Q4/Q3 + 低分辨率 + 强 offload可尝试能跑案例存在,但不适合高质量稳定推理
<10GB极低量化 + CPU offload不推荐很慢,容易 OOM,质量下降明显

关键判断

问题答案
加载 bf16 22B 原始权重需要多少显存?主模型约 44–46GB ,完整 pipeline 更高
官方本地推理最低建议是多少?官方博客给出 32GB VRAM 作为 bf16 full local inference 门槛
24GB 显卡能不能跑?能,但通常要 FP8/GGUF + offload
16GB 显卡能不能跑?可以尝试 GGUF Q4 ,但更像工程折中
4090 跑 1080p 10 秒大概多久?第三方博客参考约 3–4 分钟
10GB 显卡有没有可能跑?有第三方案例,但通常是 960×544 + GGUF Q4 + 强优化
最稳的研究配置?A100/H100 80GB
最现实的消费级配置?RTX 4090 24GB + GGUF/FP8 + ComfyUI/offload