V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
mrleft
V2EX  ›  Local LLM

ollama 如何手动下载模型?

  •  
  •   mrleft · 3 天前 · 1247 次点击
    走代理是很快, 但我流量 hold 不住,直连下载会降速变很慢,有办法用下载工具手动下载吗?
    13 条回复    2025-02-10 11:34:54 +08:00
    smartruid
        2
    smartruid  
       3 天前
    ollama 下载直连能跑满我千兆宽带
    bv
        3
    bv  
       3 天前
    @smartruid 我移动千兆宽带,一开始十几兆每秒,约莫一分钟后就会在 2M/s 浮动
    smartruid
        4
    smartruid  
       3 天前
    @bv 那可能是移动线路不好,我是联通的宽带
    mrleft
        5
    mrleft  
    OP
       3 天前
    @liu731 我只是想加速 ollama.com 的 如何获得 import 的文件
    @smartruid 我电信的 关闭代理,也是开始 10m 左右,然后一路降速到几百 k
    yelog
        6
    yelog  
       3 天前   ❤️ 1
    之前写了一篇关于离线安装及离线加载模型的 https://yelog.org/2024/10/10/install-ollama-offline/, 可以参考一下
    Picmen
        7
    Picmen  
       3 天前
    降速了 CTRL+C 后重新 ollama pull 就满速了,进度是续上的,当然我只这么下过两次,不一定有效:)
    Newbee24
        8
    Newbee24  
       3 天前
    @mrleft 移动表示也这样
    weiwoxinyou
        9
    weiwoxinyou  
       3 天前 via Android
    故意让它超时,然后会暴露出一个 url ,手动下载 url 的文件就是满速的了
    ooh
        10
    ooh  
       3 天前
    @mrleft 怎么我和你是反的,我是走代理开始十几兆每秒,但是真的就几秒后面就开始鬼打墙,下不完一个 100M 的文件,反复在那里 0-80M-0-80M-0-80M....我直接连手机移动网络比较快。
    ziyeziye
        11
    ziyeziye  
       3 天前
    自己手动去下载模型,然后在模型同目录写一个 ModelFile 文件,文件内容如下:
    reeco
        12
    reeco  
       3 天前
    直接 huggingface 下载模型,llama.cpp 跑一下,一样的
    ziyeziye
        13
    ziyeziye  
       3 天前
    自己手动去下载模型(如 testModel.gguf),然后在模型同目录写一个 ModelFile 文件,
    文件内容如下:
    FROM ./testModel.gguf

    然后终端执行 ollama create testModel -f ModelFile

    最后 ollama run testModel 或者用第三方 chatbox 都行
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5555 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 09:13 · PVG 17:13 · LAX 01:13 · JFK 04:13
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.