V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
41
相关节点
 显示 36 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 162 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  
whyorwhynot 支持不同显存显卡的推理加速框架
whyorwhynot  •  363 天前  •  最后回复来自 whyorwhynot
4
Tuatara 现在买 3090TI 玩 AI 靠谱吗
Tuatara  •  2024-05-24 05:35:42 +08:00  •  最后回复来自 glouhao
91
wxd21020 配置小主机跑大模型
wxd21020  •  364 天前  •  最后回复来自 hootigger
83
jjyyryxdxhpyy 大佬们,求助本地部署大模型
jjyyryxdxhpyy  •  167 天前  •  最后回复来自 skykk1op
39
CoffeeLeak 折腾 Llama3 跑在 NAS...结果确实一言难尽
CoffeeLeak  •  2024-05-04 13:51:26 +08:00  •  最后回复来自 lchynn
6
t41372 llama 3 发布了,我感觉挺猛的...
t41372  •  308 天前  •  最后回复来自 kangfenmao
12
xmtpw ollama run 报错请教大佬
xmtpw  •  280 天前  •  最后回复来自 finalsatan
4
smalltong02 对 Llama-3-8B 模型在指令跟随方面的测试。
smalltong02  •  2024-04-30 16:40:16 +08:00  •  最后回复来自 qinfengge
16
superliwei electron 有没有办法集成开源 AI 模型?
superliwei  •  2024-04-29 15:08:48 +08:00  •  最后回复来自 jones2000
19
zsxzy 目前最快的模型, 微软 Phi-3
zsxzy  •  2024-04-26 23:25:39 +08:00  •  最后回复来自 xudong
2
kite16x 有啥好的开源分类工具或者模型供学习?
kite16x  •  2024-04-26 09:28:46 +08:00  •  最后回复来自 kite16x
4
sunfly 想离线运行下大模型玩玩,现在还能搞到 4090 么?
sunfly  •  2024-04-10 20:09:49 +08:00  •  最后回复来自 doruison
29
JohnChang 假设有一批客户对话记录,怎么能用 AI 训练出来客服机器人?
JohnChang  •  2024-04-06 21:53:29 +08:00  •  最后回复来自 mmdsun
8
gtese 离线大模型有支持文档翻译的吗
gtese  •  2024-04-03 13:36:46 +08:00  •  最后回复来自 MapleEve
9
1  2  3  4  5  6  7  8  9  
第 121 到 140 / 共 162 个主题
159 人收藏了这个节点
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5603 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 26ms · UTC 02:42 · PVG 10:42 · LAX 19:42 · JFK 22:42
Developed with CodeLauncher
♥ Do have faith in what you're doing.