一觉醒来, HackerNews 上前三了

31 天前
 zwpaper

项目地址: https://github.com/TabbyML/tabby

主要是用 Rust 做企业级编程助手,欢迎大家围观,更欢迎各种意见和建议

13786 次点击
所在节点    分享创造
94 条回复
jonsmith
31 天前
star 了,等有显卡了试试
Liftman
31 天前
挺好的,适合我们自建。我之前还在烦呢。因为 cursor 跑 ollama 比较麻烦,每个人都配置一下也挺烦,而且 cursor 也不是每个人都首选。 这个就不错。
TimPeake
31 天前
按教程 docker 部署完毕, http://localhost:8080 或者指定其他端口,无法打开 ,什么情况
zwpaper
31 天前
@xdeng @Echoleung @jonsmith 本地有显卡是最好的,可以本地跑模型,尤其对于企业来说,数据还很重要的。

没有显卡的情况下,Tabby 也支持使用远端的模型 API ,针对不同的厂商,我们也都有对应的文档,可以参考一下,例如最近很火的 Deepseek V3 和 Deepseek Coder 都可以通过 Deepseek 的 API 运行: https://tabby.tabbyml.com/docs/references/models-http-api/deepseek/
zwpaper
31 天前
@TimPeake 得看一下具体的日志和报错,之前碰到过的 docker 绑了 IPv6 ,还碰到过 localhost 解析异常,或者 GPU 异常,之类的问题

或者各位有条件的话,可以加一下我们的 Slack ,我们可以更好的当好客服工作,哈哈

https://links.tabbyml.com/join-slack-landing
a174871
31 天前
如果可以先用 Gemini 体验一下就好了,刚刚看了下文档似乎没提到 Gemini
zwpaper
31 天前
@a174871 因为 Gemini 只有 Chat 模型,所以关注度不算高,不过好像也确实可以把 Chat 模型给他加上,毕竟也是个 LLM 大哥
Rrrrrr
31 天前
如果在本地跑,还得用你们的 api 吗?有些公司不让上网的,所以就用不了?
a132811
31 天前
允许将整个本地项目代码加入上下文吗?或者指定本地的几个目录的代码作为上下文
TimPeake
31 天前
@zwpaper #45 可能我电脑性能不太行,200 秒左右启动成功, 刷新可以打开了。安装了 cuda toolkit, 试了下 tab 补全的时候 3050 显卡瞬间飙升到 70%+使用率
Alias2023
31 天前
能本地部署了,这个怎么还需要订阅
JZen
31 天前
牛逼,先点 Star ,等会部署玩玩
ZSeptember
31 天前
很早就看到了,没想到是国内厂商,支持。
zwpaper
31 天前
@TimPeake #50 LLM 基本都是这样,不同模型对显卡的利用率也不一样
zwpaper
31 天前
@Rrrrrr "我们的 API" 就是指的本地运行的这个 Server API ,公司不让上网指的应该是不让上互联网吧,公司内网部署 Tabby ,然后内部都访问这个 API 就行
zwpaper
31 天前
@a132811 是的,允许添加 GitHub/GitLab 等仓库,会自动去拉取,或者本地的 Git 仓库也都是可以的
zwpaper
31 天前
@Alias2023 个人本地部署基本没有限制,有一些企业功能是限制了需要订阅才可以的,这也是我们的商业模式
zwpaper
30 天前
@ZSeptember 哈哈,互联网时代,主要还是看产品
Rrrrrr
30 天前
@zwpaper #55 有没有推荐什么配置,能跑得比较好?
jlak
30 天前
这种是不是很吃 token

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://tanronggui.xyz/t/1104616

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX