去中心化的大模型 LLM 服务

324 天前
 askfermi

ChatBot 的 demo: https://chat.xzyao.dev/

最近重写了一个业余项目 - 在一个 p2p 的网络上跑 LLM ,目前实现比较简单:通过 p2p 把 request forward 到对应的节点的 port 上,目前兼容了 OpenAI 的 API ,理论上应该可以和大部分 OpenAI 的应用兼容。现在跑了两个模型,可以在 chatbot 的界面里看到。

长期目标有两个:

GitHub: https://github.com/autoai-org/OpenComputeFramework

另外感谢开源的 UI 实现: https://github.com/anse-app/anse

5366 次点击
所在节点    分享创造
28 条回复
ChatGemini
323 天前
看不懂 也来支持一下
sworld233
322 天前
我觉得是一个不错的想法,要是能解决上面说的正确性、调度、激励等问题,说不定会很有用
lyang
321 天前
不太懂去中心化 正确性是否可以多收集几个返回,一致就正确
GeekGao
321 天前
目前只实现了基本的通信部分吗? 没体现出 workload 是如何分配、硬件需求和资源池监控之类的事情。
askfermi
321 天前
@GeekGao 是的 目前 workload 会随机在支持同一模型的节点里随机分配,监控和其他的目前没实现,估计需要下一个大版本
askfermi
321 天前
@lyang 我也想过这个方案,会有两个问题:1. 会有一些资源浪费 2. 由于 llm 生成本身有一些随机性,会导致没办法期待完全一样的结果。
peterchen26
319 天前
@akaHenry 直接开发代币 哈哈哈
coinbase
274 天前
可以发币,我来梭哈 0.1eth

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1005990

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX