想让本地运行的大语言模型可联网该怎么做?

6 天前
 raw0xff

还是搞不清楚所谓的"模型"是什么东西,哪位神仙可以讲清楚.

本地装了 ollama 和 chatbox, 使用 chatbox app 访问本地 ollama 可以使用,但是无法联网. chatbox app 提示说 ollama API 不支持联网,其他的非本地的 API 支持.

ollama,chatbox 是使用模型的工具,llama3:xb deepseekr1:xb 是不同的模型,我理解的对吧?chatbox 对话框有联网设置,怎样让本地模型可以联网呢?

715 次点击
所在节点    Local LLM
3 条回复
fengshils
6 天前
使用谷歌浏览器插件 page Assist
raw0xff
6 天前
@fengshils 感谢, page assist 好像只支持本地模型不支持 API.
ccxuy
5 天前
@raw0xff 刚看了下能支持啊,不过试了下没啥用,只是打通了几个部件,问答效果差,也不能操作网页

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://tanronggui.xyz/t/1109613

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX