V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
raw0xff
V2EX  ›  Local LLM

想让本地运行的大语言模型可联网该怎么做?

  •  
  •   raw0xff · 5 天前 · 706 次点击

    还是搞不清楚所谓的"模型"是什么东西,哪位神仙可以讲清楚.

    本地装了 ollama 和 chatbox, 使用 chatbox app 访问本地 ollama 可以使用,但是无法联网. chatbox app 提示说 ollama API 不支持联网,其他的非本地的 API 支持.

    ollama,chatbox 是使用模型的工具,llama3:xb deepseekr1:xb 是不同的模型,我理解的对吧?chatbox 对话框有联网设置,怎样让本地模型可以联网呢?

    3 条回复    2025-02-07 16:54:36 +08:00
    fengshils
        1
    fengshils  
       5 天前
    使用谷歌浏览器插件 page Assist
    raw0xff
        2
    raw0xff  
    OP
       5 天前
    @fengshils 感谢, page assist 好像只支持本地模型不支持 API.
    ccxuy
        3
    ccxuy  
       5 天前
    @raw0xff 刚看了下能支持啊,不过试了下没啥用,只是打通了几个部件,问答效果差,也不能操作网页
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   4334 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 28ms · UTC 04:07 · PVG 12:07 · LAX 20:07 · JFK 23:07
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.