我用 3.5 天的时间和 Claude 3.5 联手开发了一个 Mac App,利用本地运行的 Llama 3.1 提供实时的 AI 反应。在 M 系列芯片的 Mac 上可用。免费,完全本地,飞快。

49 天前
 unstop

朋友们好,好久不见。

前几天 Llama 3.1 发布,我体验之后感到——

时代的变化突然降临了,现在每个人都有几乎免费而且无限量的机器智能。

问题在于缺少应用。

我要做一个大量使用本地 AI 的应用!

整个开发过程和 Claude 3.5 合作完成,3.5 天之后,Snapbox 横空出事:

下载链接:

https://snapbox.app

Snapbox 最基本的用法是在任意 App 中选中一段内容,按 Alt + Space 快捷键启动 Snapbox ,立即获得来自本地 AI 的回应。

修改会自动触发重新请求,因此叫 Live Reaction.

更高级的用法是可以利用预设的 Prompt ,选中内容之后直接套入特定的 Prompt ,可以实现翻译、查词、找 bug 、改写等各种业务。

一切都在本地完成,完全免费,速度飞快。

推荐 Llama 3.1 8B 和 Gemma 2 2B 这两个模型,16G 内存选前者,8G 选后者。

4835 次点击
所在节点    分享创造
47 条回复
BearD01001
49 天前
好强的执行力,已下载体验
arongpm
49 天前
已下载,需要和你学习执行力
wangshushu
49 天前
楼主太强了,能否加我微信一下? R29vZ2xlTWljcm9zb2Z0
BearD01001
49 天前
不知道是不是我使用方法有问题,更改快捷键后好像不会生效,快捷键无法唤起应用主窗口
unstop
49 天前
@wangshushu 微信不太用,可以 X 私信联系我:dm.new/qqs
CSGO
49 天前
🐂🐸!
CSGO
49 天前
15.0 Beta 版是不是用不了啊。
unstop
49 天前
@BearD01001 确认是一个 bug , 已经在 v1.9.10 中修复。推荐更新一下。
unstop
49 天前
@CSGO 能用,我就在用 15.0 Beta
djyde
49 天前
8.2MB, electron 用户流下了羡慕的泪水
djyde
49 天前
我用的 16G m1 air, 跑 llama 3.1 还是挺吃资源,会从本来 5G free 变成 1G. 速度大概是一秒两三个字。

这也是为什么我一直想用本地模型但最终还是会回到中心化模型。不知道大家一般用什么配置能流畅使用 llama3.1 这个级别的模型。
unstop
49 天前
@djyde 推荐试试 Gemma 2 2B ,我在 M3 Air 8G 上使用速度很快。
richangfoo
48 天前
横空出事? 出什么事了?
unstop
48 天前
@richangfoo 故意留的错别字,目前只有你☝️一个人发现
djyde
48 天前
@unstop 确实快,但是幻觉也严重。看来要发掘一些适合小模型的使用场景
yb2313
48 天前
@djyde #10 快使用 tauri, 还能做移动端
djyde
48 天前
@yb2313 风评太差了
Chad0000
48 天前
苹果的模型性能需求不是只有你那个 8B 的六分之一么,有没有人试试效果
yb2313
48 天前
@djyde #17 ??诶, 完全没有听说过, 网上搜了一下也没有搜出来这个风评太差了,给个地址我看看
kaxiu
48 天前
的确飞快!

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1062087

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX