想在本地跑大模型, macmini 怎么选?

18 天前
 dropdatabase

想在本地跑大模型,macminim4 选 24G 的还是 32G 的?求大佬指点。 怎么买优惠些?目前看好像国补挺便宜,但是抢不到。上半年 apple 有教育补贴不?

1079 次点击
所在节点    Local LLM
4 条回复
uprit
18 天前
受限于带宽,丐版 16G 够用了,跑个 7B 嗖嗖的,11B 也能跑。
再大的模型,增大内存 M4 虽然也能跑,但那个速度,就开始难以忍受,远不如独显。
fredweili
18 天前
同意楼上,m1 pro 16g 跑 8b 左右的 ollama 模型,测试玩玩够了,再大的模型简单试不出来区别
Liftman
18 天前
取决于你跑什么模型。。。粗略的来说。模型体积多大。你一般要至少比他大的显存。越大的体积。误差越大。所以需要的越大。其他:无

我 128g 跑 90b 很稳定。但是你还是要鉴别需求先。
flax5a98aa2
17 天前
在服务器上跑过 72B int8 awq 的 qwen2.5 ,感觉生成能力并不是很好(可能是被闭源 LLM 惯坏了)...在我自己 win 本上用 ollama 跑 8B 的量化模型,效果更差。感觉 32G 跑不出来什么有用的,只能玩玩,过一阵就退烧了,所以我不建议把跑大模型作为内存规格的考虑因素

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://tanronggui.xyz/t/1105239

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX