lithiumii 最近的时间轴更新
lithiumii

lithiumii

V2EX 第 365877 号会员,加入于 2018-11-26 17:23:48 +08:00
今日活跃度排名 4212
lithiumii 最近回复了
open-webui 可以吧,拿来测过多个 ollama 本地模型,但是它支持 api
不能说没关系,毕竟很多资料都是英文的,找个沾边的硕士读呗
cron 写每分钟运行,命令先判断当前时间是否整除然后再运行,bash 的各种离谱写法应该可以实现
nuc8 我用两年就要清灰了,能用 4 年不错了
sata 上限 500m ,4 张 raid0 才到 usb3.2 的速度吧
6 天前
回复了 libasten 创建的主题 问与答 有人家长期尝试那种美式简餐生活吗?
汉堡披萨在家做也不省事啊
10 天前
回复了 mogutouer 创建的主题 Apple AI 开发时代, APPLE MAC 落后了
@YooboH 有句讲句 Windows 服务器挺多的,市场占有率可能有 20%,不过带 gpu 的 ai 服务器就不知道了
10 天前
回复了 mogutouer 创建的主题 Apple AI 开发时代, APPLE MAC 落后了
@lithiumii 软件上 mlx 当然不比 CUDA ,但是比一比莫名其妙的 rocm 不知方便到哪里去了
10 天前
回复了 mogutouer 创建的主题 Apple AI 开发时代, APPLE MAC 落后了
你要是说云端的 AI 训练和推理,那苹果妥妥落后了。但首先苹果就不做云服务的硬件,其次除了英伟达所有人都落后。

你说 AI 开发,你要不要看看 OpenAI 纪录片里大家都用的啥电脑?正经训练谁跑本地啊。

再说个人玩票性质的本地 AI 开发,如果你的需求是把大模型在本地跑起来,苹果那金贵的统一内存不仅很有性价比,而且很现实。24G 以上的 N 卡没有便宜的,24G 及以下的卡做多卡平台的体积、功耗、噪音也不是人人都能接受的。软件上
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2688 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 14ms · UTC 14:42 · PVG 22:42 · LAX 07:42 · JFK 10:42
Developed with CodeLauncher
♥ Do have faith in what you're doing.