V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  BernieDu  ›  全部回复第 2 页 / 共 21 页
回复总数  414
1  2  3  4  5  6  7  8  9  10 ... 21  
哪有百分之 25 。而且推的很多东西都有争议,nmn 就不说了,nad+ 补充效果甚至不如几块钱烟酸 ,苏糖酸镁,朱萧木说改善认知,但其实只有小鼠实验。并且这东西原材料都是国内产的,拼多多就有苏糖酸镁粉,nmn 粉,按斤卖,不知道你这百分之 25 是跟谁对比得出的
161 天前
回复了 Koma 创建的主题 Apple 请教下 Dell U2725QE 接 Mac 不出 HDR 选项是啥情况
颜色描述文件别用显示器自带的。试试那个叫 apple 随航还是啥的配置,我用默认的也发灰
@Felldeadbird 2.5 pro 降智了,没最开始好用,cursor 也官方说了这个问题。
177 天前
回复了 mokecc 创建的主题 程序员 Cursor 和 GitHub Copilot Pro 怎么选?
前两天 copilot 大升级,v1.100 ,智能程度有了很大的提升,感觉跟 cursor 不相上下了,但是速度仍然很慢,但考虑 10 美元无限量还是值得一试的,另外 6 月 4 号 copilot 要涨价
还好,我 nas 用的垃圾机械硬盘,读取速度可能也就 140 MB/s ,千兆( 125 MB/s )带宽差不多够用了,你家终端要是都能支持万兆都是固态硬盘那就上呗,有钱还是没钱的问题
189 天前
回复了 juzi214032 创建的主题 Docker 有没有让 docker 容器休眠的方法
portainer 的 stack ( compose ) 关闭的时候会销毁对应的容器,你看看
对于我写 swiftUI 来说,trae 和 copilot 各有千秋。 trae 可能会调用其他模型来节约 token ,经常出现低级错误,比如 @Environment(\.dismiss)总是写成 @Environment(.dismiss),花括号经常多写一个。 但是感觉 agent 使用的上下文长。copilot 则是感觉 agent 不够智能,每次获取的上下文都很短,主要集中在 1-2 个文件上,速度慢,但是不会用假模型糊弄你。cursor 就是这两家优点的结合体,windsurf 涨价后就没用过了,一开始 10 美元不限量,之后 60 美元不限量,现在好像 60 美元也要限量了,copilot 5 月 4 号也涨价开始限量了
App Store 上 chatgpt 和 claude 都是最低支持 iOS 17 ,你估计是以前下载的一直没升级,还使用的老旧版本吧
用过 whisky 吗,不过最近好像说不维护了,说怕影响 CrossOver 赚钱
204 天前
回复了 BernieDu 创建的主题 问与答 Trae 把我 48g Mac 干死机这件事
@ccde8259 emmm. 有点 6 ,不过 trae 的迭代速度真的很快
209 天前
回复了 tangmanger 创建的主题 程序员 你们平时会重构自己代码吗?
AI 工具跟我家自动猫砂盆一样,以前自己铲屎很懒,看不下去了才铲。现在工具铲,我只负责倒屎。
214 天前
回复了 sickoo 创建的主题 生活 问问大家用的什么铁锅?要换锅
一直不用普通铁锅,因为放洗碗机会生锈,但是之前买过一个铸铁锅,外面有珐琅的那种,怎么用洗碗机洗都不会生锈,是因为内部有什么涂层吗,有懂的佬吗。
大脑用进废退。程序员的语言中枢得到训练的程度大概率是不如销售行业的。反正我是退化了,而且我负责写字的大脑中枢也退化了,得了”电脑失写症“。但感觉我的逻辑能力变强了。
231 天前
回复了 886106 创建的主题 Apple Studio M4max 128G 是否合适跑大模型
@swmjjy 感谢数据,被 ds 的回答误导了。。
231 天前
回复了 886106 创建的主题 Apple Studio M4max 128G 是否合适跑大模型
@ShadowPower 14B 5bit 的小模型大概需要 9g 显存,你这用不着交火吧。我自己没试过 pcie 显卡交火跑模型,但是 ds 查的模型并行(场景是模型过大,需拆分到多个 GPU) 前向传播时需频繁传递中间张量(如层间输出)。PCIe 带宽 7.88GB/s 会限制大张量传输。成为推理瓶颈。让我用 nvlink 。(应该不会封号吧)
231 天前
回复了 886106 创建的主题 Apple Studio M4max 128G 是否合适跑大模型
@ShadowPower 如果推理不要求带宽那都用内存推理了。。
232 天前
回复了 886106 创建的主题 Apple Studio M4max 128G 是否合适跑大模型
@tap91624 2 条 nvlink 通道没办法实现 8 卡交火吧,而且 nvlink1 的带宽也不过 100 GB/s
232 天前
回复了 886106 创建的主题 Apple Studio M4max 128G 是否合适跑大模型
@mumbler 8 块 2080ti 魔改 22g 交火带宽是多少,没记错的话 2080ti 不支持 nvlink 。PCIe 3.0 每卡双向带宽 7.88 GB/s 。是 m4 ultra 内存带宽的 100 分之一。你确定能流畅跑 70B fp16 ? 每秒输出多少 token ?
小模型肯定是新出的 qwq32 最好,不过 ollama 默认 q4 需要 20g 显存,你可以等等看有没有人量化 q2 的
1  2  3  4  5  6  7  8  9  10 ... 21  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1419 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 36ms · UTC 16:46 · PVG 00:46 · LAX 08:46 · JFK 11:46
♥ Do have faith in what you're doing.