各位的 m4 设备都陆续到货了,能否跑一下 ollama/llama.cpp ,看看大模型这块的算力究竟比 m1 max m2 ultra , 提升有多少?

75 天前
 beginor

跑不太大的模型, 比如 Llama 3.1 8B

https://huggingface.co/lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF/blob/main/Meta-Llama-3.1-8B-Instruct-Q8_0.gguf

这个模型 16G 内存的丐版也能跑起来。

3153 次点击
所在节点    Local LLM
24 条回复
berchtesgaden
75 天前
234ygg
75 天前
本地跑的全是弱智模型。。做个翻译都嫌蠢
第三方 gpt api 还不够便宜?
Tubbs
75 天前
@234ygg 并不是这样的,体验一下 qwen2.5 32b 的量化模型,本地可以跑,评测水平和 gpt-4o-mini 差不多水准了,日常用起来感觉也是不错的
lrigi
75 天前
@234ygg llama3.2 弱智?你太逗了,跟不上时代了已经
slayer
75 天前
@berchtesgaden #1 这个不错,现在 mac 应该在 lm studio 下跑了转换的 mlx 模型,貌似 ollama 还不支持 mlx 格式的。
Gotchaaa
75 天前
我 M1 pro 都能跑
piero66
75 天前
8b 太蠢了
shinecurve
75 天前
原本计划买 M4 Max + 128G 跑 ollama 的,后来从 llama 70b 的能力、算力成本和实际应用场景考虑我最终放弃了,感觉还需在在等两年,我认为目前最好的选择还是 ChatGPT 。
希望对你能有些帮助。
234ygg
75 天前
我已经懒得试了,最后一次跑本地模型是几个月前 gemini27b ,远不及 gpt3.5 ,勉强能干个不涉及较多专业词汇的简单翻译,功耗在我的 4090 上高达 250W 。。但凡问点其他问题,我都不说回答的对不对了,甚至不能持续稳定保持中文回答。再早几个月的 llama3 更是一坨。
llama3.2 11b 充其量也就那点水平,合理推断也是个弱智
gpt4o 的 apt 都那么便宜了,更不要说 3.5 了,不要骗我浪费电 听显卡电感箫叫了
yinmin
75 天前
13:20 m4max 跑大模型的评测

<amp-youtube data-videoid="2jEdpCMD5E8" layout="responsive" width="480" height="270"></amp-youtube>
beginor
75 天前
@berchtesgaden
@yinmin

M4 确实好强! 看完之后瞬间感觉手上的 M1 Max 64G 一点儿都不香了,AC 还没过期 😂
dilidilid
75 天前
真的没啥意思,我一直不能理解本地跑大模型推断的意义所在
tanranran
75 天前
spike0100
74 天前
inter 问个问题 10 秒回答完,m4pro 只要一秒。
spike0100
74 天前
问题是:推荐一种基于标记的存活预测模型。答案在 200 字左右。
mike163
74 天前
用 mlx 是不是比 ollama 性能更好?
mkyos
73 天前
除非你能花几万块买英伟达的显卡,否则就别琢磨本地大模型了,还是使用商业模型吧。随着发展,商业模型肯定会各种第三方定制应用的软件或服务,以及,价格大大降低。
volvo007
73 天前
看来离手里的 A100 还是有不小的差距,即使换 M4 ,在我这里还是做一个终端用比较合适了
beginor
73 天前
@mike163 性能上应该不会有太大的差距,llama.cpp/ollama 胜在支持更多的系统和加速器,目前对多模态模型支持比较弱,mlx M 芯片专用, 多模态 (借助 mlx-vlm ) 支持稍微好一些 。

不过两者都不能用上 M 芯片的 NPU 加速。
beginor
73 天前
@volvo007 有 A100 振金内存加持, 肯定不用考虑苹果了。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://tanronggui.xyz/t/1087869

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX