V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  zhongdenny  ›  全部回复第 1 页 / 共 1 页
回复总数  2
2 天前
回复了 mingtdlb 创建的主题 Local LLM LLM 私有化部署
@mingtdlb ollama 的默认 671b ,400G 大小,好像写着是 4 比特量化版本。官方版本 163 个 4G 的文件,合计大概 700G 。
@nagisaushio 你是用 ollama 还是 llama.cpp 来运行的?
我用了 2.22bit 的版本,llama.cpp ,8 卡 4090 ,跑到 3 token/s 。
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2580 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 21ms · UTC 00:25 · PVG 08:25 · LAX 16:25 · JFK 19:25
Developed with CodeLauncher
♥ Do have faith in what you're doing.