V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  beginor  ›  全部回复第 9 页 / 共 120 页
回复总数  2389
1 ... 5  6  7  8  9  10  11  12  13  14 ... 120  
364 天前
回复了 jdjingdian 创建的主题 Apple Intel mac 目前是否还有用武之地?欢迎建议
64G 内存, 净身装 Ubuntu/Windows ,再战 8 年都不是问题。
364 天前
回复了 Ayanokouji 创建的主题 程序员 JDK 23 发布了
有没有 jdk6 继续苟活的?
364 天前
回复了 twinsant 创建的主题 Python 中年高龄开始学习 Deep Learning
那些动不动就说自己高龄的,现在刚退休的都说自己是低龄老人,怎么比呀?
2024-09-16 21:52:43 +08:00
回复了 1039460820 创建的主题 MacBook Pro 要等 m4 mbp 吗
@1039460820 便携显示器有 15 寸 oled ,但是只有 60Hz , 没高刷。15 寸 oled 便携平就那几款, 可以选择的不多。
2024-09-16 16:26:53 +08:00
回复了 HeyCaptainJack 创建的主题 程序员 有地图大佬吗,帮忙想一下方案?
@HeyCaptainJack 可以在中间加一个 AI 翻译,一键翻译成客户需要的语言
2024-09-13 10:30:55 +08:00
回复了 ABCDiSDR 创建的主题 小米 千万不要买小米,再便宜也别买
红米 K40S ,刚出就买了,一直用,没啥毛病,运气好。
2024-09-12 22:39:28 +08:00
回复了 HeyCaptainJack 创建的主题 程序员 有地图大佬吗,帮忙想一下方案?
国内为啥不直接用高德呢?

mapbox 的优势是矢量地图, 如果自己没有空间基础数据就没啥优势了。

另外听说有个叫 bigmap 的软件(需付费), 可以下载高德的地图数据,再自己处理成空间数据给 mapbox 用,比较折腾。
2024-09-08 22:54:05 +08:00
回复了 toury 创建的主题 MacBook 请问下 intel macbook 装 Linux 怎么样
@aisk 24 目前不太稳定,22 比较稳,当然你愿意折腾也行。
2024-09-08 11:17:16 +08:00
回复了 toury 创建的主题 MacBook 请问下 intel macbook 装 Linux 怎么样
不舍得出二手的话可以试试装 Ubuntu 22.04 ,开箱可用,效果还可以。

不过 18 款 MBP 应该是 7 代双核 CPU , 性能一般, 建议考虑出二手或者送人。
2024-09-06 07:59:32 +08:00
回复了 wangyzj 创建的主题 前端开发 2024 年前端框架怎么选?
建议试试 angular ,谁用谁知道,不要总是局限于 vue ,更不要把 vue 和中国宝宝挂钩
@Feedmo continue 代码提示用 starcoder2-3b 即可, 问答应 llama3.1-8b , 其实代码提示不需要太大的模型, 主要看显卡
用 continue + 本地大模型吧,也挺舒服的。
2024-08-18 10:35:19 +08:00
回复了 Ynna 创建的主题 macOS 旧电脑新用
以前的苹果很开放, 性价比也不错。

手上有台 2011 年末的 iMac , 装了 4 条 8G 内存, 换了 SATA 的固态盘, 现在还在用。

上一台笔记本是 2015 年的 13 寸 MBP (16+256) , 当是能上 16G 内存的笔记本只有索尼和三星, 都要 2W+, 而苹果只要 1W 出头, 屏幕还是 2560x1600 算是性价比无敌了。
2024-08-15 09:09:41 +08:00
回复了 xvnehc 创建的主题 NAS 搬新家,给 NAS 放在了电视柜里打了孔,求推荐散热建议
散热不是问题,但是感觉这电视柜承重堪忧,电视机+下面一大堆电器,过段时间肯定会下驼变形 🫠 建议下面在加两个木条做物理支撑
@skyqiao 关注一下 llama.cpp 的这个议题 https://github.com/ggerganov/llama.cpp/issues/8913
@skyqiao Intel 的 Mac 应该没什么好的加速办法, 只能用 CPU 。 除非你装 Linux 或者 Windows , 还可以折腾下 vulkan 加速, 会比 CPU 快一些, 但是效果肯定不如 CUDA/ROCm/M1 。
@skyqiao 那怎么啦, 手上还有台双 CPU+96G 内存的服务器,没显卡加速的情况下, 也跑不过 M1Max 😂
ollama 底层也是调用 llama.cpp ,默认应该是没有显卡加速的, 打开 Activities 的 GPU 历史和 CPU 历史窗口看一下就知道了。

如果从源代码编译 llama.cpp 的话,可以自己看文档调参数看能不能启用 vulkan 或者 sycl 啥的。

CUDA 和 ROCm 都不支持 Mac ,所以肯定没有专用的硬件加速。
@skyqiao Intel 的应该是没有显卡加速的,llama.cpp 对 Mac 的优化仅限于 M 芯片系列,Intel 版本还是线上吧
1 ... 5  6  7  8  9  10  11  12  13  14 ... 120  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1081 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 22:58 · PVG 06:58 · LAX 15:58 · JFK 18:58
Developed with CodeLauncher
♥ Do have faith in what you're doing.