本地模型如何优化"大"文件?

9 小时 43 分钟前
 ttut
本地装了个 ollama + openwebui,下了好几个模型( llama3.2-vision:11b 、deepseek-coder-v2:16b 、llama3.1:8b 等)。
测试丢给他一个 5000 多行的 css 文件,让他优化后给我全部代码,然后就给我各种扯皮,只给我一部分代码(无法在此回答中全部展示优化后的代码)。
是模型问题?还是本地硬件( N 卡 3090 )不行?怎么解决这种情况?
我试过在线的 chatgpt 、deepseek 、阿里通义等都不能搞长文的
287 次点击
所在节点    机器学习
1 条回复
zachariahss
9 小时 35 分钟前
遇到过,貌似是说参数调优不行,prompt 约束不够,开源的本质上是基础模型,没有商业化的微调和加持是比不了人家商业化模型的.至于 ali 的话,有一个 qwen-long 的模型你试试呢?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1092026

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX