一觉醒来, HackerNews 上前三了

31 天前
 zwpaper

项目地址: https://github.com/TabbyML/tabby

主要是用 Rust 做企业级编程助手,欢迎大家围观,更欢迎各种意见和建议

13775 次点击
所在节点    分享创造
94 条回复
1016
31 天前
我之前在 vs code 里面使用过 tabby ,我也不知道啥原因感觉不太“聪明”的样子。后来我就没用了。

现在才知道要配置一些东西才好用....
nagisaushio
31 天前
@cloudzhou 什么 tnt
SilenceLL
31 天前
同感,看成终端软件了,以为终端里面加了 ai 。
FcukYouTony
31 天前
能部署到 NAS 么
yh7gdiaYW
31 天前
@zwpaper 但 google 的搜索结果官网是"Tabby - Opensource, self-hosted AI coding assistant",Github 的仓库也是"tabby",如 23 楼所说真的很容易以为是 tabby 加了 ai
hujnnn
31 天前
之前就 Star 了, 好奇的是付费用户多么? 🐶头保命🤣
QlanQ
31 天前
以前就试过,感觉本地部署还是很占资源的,Mac 用不起
RicardoY
31 天前
@yh7gdiaYW +1 ,这个名字楼主团队是否可以考虑换一下
liuliuliuliu
31 天前
有没有和其他助手的对比?
xfn
31 天前
感觉 continue 比较像,和 continue 相比有什么优势么?
crackidz
31 天前
之前看到了,确实挺不错的
FightPig
31 天前
之前才看过,没想到作者居然在 v2
zwpaper
31 天前
@yh7gdiaYW #25 Tabby 这个名字现在积累了一定的产品力了,肯定不会轻易考虑换,而且和终端的 Tabby 毕竟也不是一个赛道的
zwpaper
31 天前
@FcukYouTony 肯定是可以的,但是 NAS 的话,一般得用远端的 API 了,或者 NAS 本身能力比较强大也是可以的,毕竟还是依赖 LLM 的能力
zwpaper
31 天前
@QlanQ 资源大头还是在 LLM 上,Server 本身占用的资源不算多,所以说实话,目前 Mac 上我主要也是开发场景在用,生产场景还是依赖远端的 LLM
zwpaper
31 天前
@liuliuliuliu @xfn 我们目前没有对比的文章,但是从个人体验上说,Tabby 会获取更多的上下文,包括编辑器里能获取的,还有 Server Side 保存的,在 Chat 或者补全的时候都会有更高的命中率
devdes
30 天前
@zwpaper 今天第一个 star 。 果然是能力越大,头像越黑😉
lynan
30 天前
@devdes 奇怪的关注点增加了😂
xdeng
30 天前
要英伟达的显卡?
Echoleung
30 天前
本地无显卡,怎么使用现有模型 api 作为远端服务呢?有教程吗,windows 的?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://tanronggui.xyz/t/1104616

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX