ollama 如何手动下载模型?

3 天前
 mrleft
走代理是很快, 但我流量 hold 不住,直连下载会降速变很慢,有办法用下载工具手动下载吗?
1257 次点击
所在节点    Local LLM
13 条回复
liu731
3 天前
smartruid
3 天前
ollama 下载直连能跑满我千兆宽带
bv
3 天前
@smartruid 我移动千兆宽带,一开始十几兆每秒,约莫一分钟后就会在 2M/s 浮动
smartruid
3 天前
@bv 那可能是移动线路不好,我是联通的宽带
mrleft
3 天前
@liu731 我只是想加速 ollama.com 的 如何获得 import 的文件
@smartruid 我电信的 关闭代理,也是开始 10m 左右,然后一路降速到几百 k
yelog
3 天前
之前写了一篇关于离线安装及离线加载模型的 https://yelog.org/2024/10/10/install-ollama-offline/, 可以参考一下
Picmen
3 天前
降速了 CTRL+C 后重新 ollama pull 就满速了,进度是续上的,当然我只这么下过两次,不一定有效:)
Newbee24
3 天前
@mrleft 移动表示也这样
weiwoxinyou
3 天前
故意让它超时,然后会暴露出一个 url ,手动下载 url 的文件就是满速的了
ooh
3 天前
@mrleft 怎么我和你是反的,我是走代理开始十几兆每秒,但是真的就几秒后面就开始鬼打墙,下不完一个 100M 的文件,反复在那里 0-80M-0-80M-0-80M....我直接连手机移动网络比较快。
ziyeziye
3 天前
自己手动去下载模型,然后在模型同目录写一个 ModelFile 文件,文件内容如下:
reeco
3 天前
直接 huggingface 下载模型,llama.cpp 跑一下,一样的
ziyeziye
3 天前
自己手动去下载模型(如 testModel.gguf),然后在模型同目录写一个 ModelFile 文件,
文件内容如下:
FROM ./testModel.gguf

然后终端执行 ollama create testModel -f ModelFile

最后 ollama run testModel 或者用第三方 chatbox 都行

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://tanronggui.xyz/t/1110221

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX