写了一篇关于 AI 工具实用指南的博文,希望指导

66 天前
 sss123

https://watersfree.github.io/posts/2024/07/11/AI-Tools.html 主要介绍当前国内好用的 AI ,国外的 AI 大模型以及其他比较垂直的大模型,但因为纯属个人一己之见,难免有所局限,希望能得到大家反馈,继续改进。

1315 次点击
所在节点    分享发现
15 条回复
darksword21
66 天前
其实我更想要个能在本地跑的小模型,帮我做做翻译和根据 diff 生成 commit message 之类的简单任务
sss123
66 天前
@darksword21 本地模型太吃 GPU ,最起码 40 系才体验好点
wyman222
66 天前
我更关心一些 AI 在图生代码的效果,现在的活和代码一点都不想自己写,然后 copilot 虽然可以辅助,但是还得自己先敲一些代码,然后根据你的代码推断。效率太低
luchenwei9266
66 天前
@sss123 可以用 CPU
sss123
66 天前
@wyman222 claude 目前有这个趋势,当然真要实现那离大部分人失业不远了,一些看起来简单的操作,其实具有极强的通用性。想想看如果 AI 能做,公司还有必要招人吗?
sss123
66 天前
@luchenwei9266 CPU 和 GPU 基本不在一个层次竞争的
cherryas
66 天前
主观性太大。
sss123
66 天前
@cherryas 个人经验自然具有主观性,当然如果你有更多实践细节不同看法欢迎提出来,求同存异
luchenwei9266
66 天前
@sss123 #6 我只是针对本地跑的小模型而已。从大的层面来说,肯定不能比。
cherryas
66 天前
@sss123 百度你不喜欢,阿里你看不上,所以只能得出字节最强的结论喽
sss123
66 天前
@cherryas ?开头那张图难道不能支撑我的结论吗?分数摆在那里,而且如果你没用过,你也不用回复我,那没有意义
RockShake
66 天前
@darksword21 LM Studio 可以的
5wunian
65 天前
@sss123
LM Studio 是英伟达发布的采用 Ada Lovelace 架构的新一代显卡系列,但不同型号的显卡内存有所不同。例如:

GeForce RTX 4070 Ti 配备 12GB GDDR6X 显存
GeForce RTX 4080 配备 16GB GDDR6X 显存
GeForce RTX 4090 配备 24GB GDDR6X 显存
不同的应用场景可能合适不同的显卡型号。具体需要视您的需求而定.
看样子,MBP 至少要 2w 起的 m3max 可以带的动
leoc586088
64 天前
挂在 Github 上的 blog 竟然还备案了……doge
sss123
63 天前
@leoc586088 仿的不是真的备案,是原来的卜蒜子计数器坏了,刚好有这个萌国 ICP 备案网站,我就填进去了,图一乐

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1056730

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX