![]() |
2
smartruid 3 天前
ollama 下载直连能跑满我千兆宽带
|
5
mrleft OP |
![]() |
6
yelog 3 天前 ![]() 之前写了一篇关于离线安装及离线加载模型的 https://yelog.org/2024/10/10/install-ollama-offline/, 可以参考一下
|
7
Picmen 3 天前
降速了 CTRL+C 后重新 ollama pull 就满速了,进度是续上的,当然我只这么下过两次,不一定有效:)
|
9
weiwoxinyou 3 天前 via Android
故意让它超时,然后会暴露出一个 url ,手动下载 url 的文件就是满速的了
|
![]() |
10
ooh 3 天前
@mrleft 怎么我和你是反的,我是走代理开始十几兆每秒,但是真的就几秒后面就开始鬼打墙,下不完一个 100M 的文件,反复在那里 0-80M-0-80M-0-80M....我直接连手机移动网络比较快。
|
11
ziyeziye 3 天前
自己手动去下载模型,然后在模型同目录写一个 ModelFile 文件,文件内容如下:
|
![]() |
12
reeco 3 天前
直接 huggingface 下载模型,llama.cpp 跑一下,一样的
|
13
ziyeziye 3 天前
自己手动去下载模型(如 testModel.gguf),然后在模型同目录写一个 ModelFile 文件,
文件内容如下: FROM ./testModel.gguf 然后终端执行 ollama create testModel -f ModelFile 最后 ollama run testModel 或者用第三方 chatbox 都行 |