LLM 大模型与区块链?

2023-03-21 12:43:03 +08:00
 odysa

刚刚发现了一个可以像 BitTorrent 一样 P2P 运行的 LLM https://petals.ml/

在想象一种可能性,GPU 通过运行算法模型获得币,用户支付币使用 LLM 。 不过一个问题是,怎么证明 GPU 的工作量是有效的?

2034 次点击
所在节点    奇思妙想
7 条回复
lithiumii
2023-03-21 13:52:52 +08:00
把计算分布在多台用户机器上,这些计算要么用来解决真实的问题(叠蛋白质或者跑大语言模型),要么用来验证其他用户的计算(区块链)。你看,这是两个任务,不是必然要绑定在一起的,甚至会互相冲突(占资源)。

区块链解决互相不认识的扔之间的信任问题,拿来跑加密货币分布式记账,可以。但是对于跑程序来说,如果我不信任你,我从一开始就不会运行你的程序;如果我信任你,我很大可能也愿意信任你提供的基于传统数据库的中心化积分记账方式( BOINC 的积分榜都多少年了,petals 也说他们未来的积分系统不会基于区块链)。
zooo
2023-03-21 13:58:15 +08:00
看样子是像将大模型分布式运行在不同的节点

证明 GPU 的工作量,提供一个思路

冗余计算,比如相同计算都随机分配至少 5 个节点计算,取计算结果相同的节点的结果作为正确结果

这样就不会存在某个节点作弊,随机返回数据了,但是却也造成了计算浪费...

但是这算是一种比较有效的利用计算资源的方式,而不是挖矿纯无效浪费资源
zooo
2023-03-21 14:00:15 +08:00
此外,可能存在一种情况就是热点数据问题,相同的输入数据被多次请求计算,可以用存储换空间。
zooo
2023-03-21 14:04:11 +08:00
他这个项目现在好像和区块链没什么关系吧,单纯共享计算资源来运行大语言模型吧?
line
2023-03-21 14:23:58 +08:00
并行计算有方案吗?
kaddusabagei38
2023-03-22 10:11:25 +08:00
本来想进来就开喷又把什么技术扯上什么诈骗技术的...不过看了一下这个方向好像还不错
guajian
2023-03-23 09:06:47 +08:00
零知识证明、可信执行环境

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/925807

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX