LFM2-24B-A2B
在 Clore.ai 部署由 Liquid AI 提供的 LFM2-24B-A2B——混合 SSM+注意力架构,总计 24B / 活跃参数 2B
一目了然
为什么选择 LFM2-24B-A2B?
GPU 建议
GPU
显存(VRAM)
性能
每日费用*
使用 vLLM 部署
安装 vLLM
单 GPU 设置
查询服务器
使用 Ollama 部署
Ollama API 用法
Docker 模板
速度基准测试
为降低显存的量化
GPTQ 量化
AWQ 量化
高级配置
内存优化设置
高吞吐量设置
SSM 架构的优点
给 Clore.ai 用户的建议
故障排查
问题
解决方案
性能比较
模型
激活参数
显存(FP16)
速度(RTX 4090)
资源
最后更新于
这有帮助吗?