本地部署 qwq 32b 回答很笨是什么原因

10 天前
8675bc86  8675bc86

昇腾 300i DUO 服务器部署的,显存占用快 160G ,回答问题还挺快的,占用率在 70%+,但是不太会写代码,跟网页版差别巨大。

1249 次点击
所在节点   OpenAI  OpenAI
8 条回复
shelken
shelken
10 天前
量化的版本了吧
YsHaNg
YsHaNg
10 天前
AndrewHenry
AndrewHenry
10 天前
量化版本吗?调调温度什么的
8675bc86
8675bc86
10 天前
@AndrewHenry @shelken @YsHaNg
modelscope download --model Qwen/QwQ-32B
用的是这个,温度和其他设置好像没多大的作用。

又试了一下这个:modelscope download --model deepseek-ai/DeepSeek-R1-Distill-Qwen-32B

比上面的那个好一点,也是啰里八嗦,很蠢。
YsHaNg
YsHaNg
9 天前
@8675bc86 unsloth 的建议是给 ollama 的 不知道你的模型加载器是什么
8675bc86
8675bc86
8 天前
@YsHaNg 我用的华为那一套 mindie 。
8675bc86
8675bc86
8 天前
@YsHaNg 前端用的 openwebui ,在界面配置的温度等配置。
YsHaNg
YsHaNg
8 天前
@8675bc86 那这建议可能不太适用 你得找华为的人

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1119721

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX