V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
41
相关节点
 显示 36 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 162 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  
7747139suy 求佬推荐一个本地可部署的音频转文字模型
7747139suy  •  144 天前  •  最后回复来自 hellojay
7
leeum API deepseek-code 模型升级到 V3 了吗
leeum  •  145 天前  •  最后回复来自 meinjoy
3
reaCodes gemini-exp-1206 vs gemini-2.0-flash-thinking-exp-1219
reaCodes  •  150 天前  •  最后回复来自 mumbler
3
frankyzf 有同时支持 openai 和本地模型的客户端吗?
frankyzf  •  140 天前  •  最后回复来自 wangshushu
4
skykk1op 基于内部知识库管理,创建问答机器人
skykk1op  •  162 天前  •  最后回复来自 Barhe
1
leoSup 离网 Centos 服务器部署 Qwen-2.5-Coder
leoSup  •  164 天前  •  最后回复来自 dcdlove
6
Livid Llama 3.3 70B
Livid  •  163 天前  •  最后回复来自 beginor
21
Leon6868 Qwen2.5 72B 是最好的本地代码补全模型
Leon6868  •  166 天前  •  最后回复来自 pakro888
15
mdb 关于运行 Lightrag 官方示例报错的问题
mdb  •  169 天前  •  最后回复来自 Xs0ul
1
fid 8x4090 离线部署 Qwen2.5 求助
fid  •  170 天前  •  最后回复来自 fid
40
ttut 本地模型如何优化"大"文件?
ttut  •  181 天前  •  最后回复来自 zachariahss
1
1  2  3  4  5  6  7  8  9  
第 81 到 100 / 共 162 个主题
158 人收藏了这个节点
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2685 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 24ms · UTC 14:03 · PVG 22:03 · LAX 07:03 · JFK 10:03
Developed with CodeLauncher
♥ Do have faith in what you're doing.