去中心化的大模型 LLM 服务

2024-01-05 07:51:26 +08:00
 askfermi

ChatBot 的 demo: https://chat.xzyao.dev/

最近重写了一个业余项目 - 在一个 p2p 的网络上跑 LLM ,目前实现比较简单:通过 p2p 把 request forward 到对应的节点的 port 上,目前兼容了 OpenAI 的 API ,理论上应该可以和大部分 OpenAI 的应用兼容。现在跑了两个模型,可以在 chatbot 的界面里看到。

长期目标有两个:

GitHub: https://github.com/autoai-org/OpenComputeFramework

另外感谢开源的 UI 实现: https://github.com/anse-app/anse

5485 次点击
所在节点    分享创造
28 条回复
ChatGemini
2024-01-06 22:20:25 +08:00
看不懂 也来支持一下
sworld233
2024-01-07 11:59:56 +08:00
我觉得是一个不错的想法,要是能解决上面说的正确性、调度、激励等问题,说不定会很有用
lyang
2024-01-08 08:50:32 +08:00
不太懂去中心化 正确性是否可以多收集几个返回,一致就正确
GeekGao
2024-01-08 12:40:08 +08:00
目前只实现了基本的通信部分吗? 没体现出 workload 是如何分配、硬件需求和资源池监控之类的事情。
askfermi
2024-01-08 17:08:41 +08:00
@GeekGao 是的 目前 workload 会随机在支持同一模型的节点里随机分配,监控和其他的目前没实现,估计需要下一个大版本
askfermi
2024-01-08 17:09:48 +08:00
@lyang 我也想过这个方案,会有两个问题:1. 会有一些资源浪费 2. 由于 llm 生成本身有一些随机性,会导致没办法期待完全一样的结果。
peterchen26
2024-01-10 11:40:07 +08:00
@akaHenry 直接开发代币 哈哈哈
coinbase
354 天前
可以发币,我来梭哈 0.1eth

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://tanronggui.xyz/t/1005990

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX