推荐各位利用 ollama 在自有电脑上跑大模型,使用非常方便

302 天前
 keepRun

ollama 用法跟 docker 很类似,指定 run 哪个模型就会自动去下载使用。

我用我的 1650 笔记本允许 mistral ,跑起来速度还行。

模型列表: https://ollama.com/library

方法: 建议采用 wsl2 运行 ollama ,安装 cuda 后即可利用显卡跑 ollama ,否则会利用 cpu 跑大模型。

wsl2 安装 cuda 直接用我这个链接即可: https://developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=WSL-Ubuntu&target_version=2.0&target_type=deb_local

7850 次点击
所在节点    Local LLM
24 条回复
skywalkerfc
301 天前
确实很方便,用公司的 m2 很快,在家用自己的 18 款 intel 就风扇直响
Rrrrrr
301 天前
@kaichen #18 好的,谢谢
freedom1613
277 天前
本地跑个小模型,用用沉浸式翻译、Openai-Translator 很不错,感谢推荐
kangfenmao
161 天前
给你推荐一个支持 Ollama 的本地客户端,可以自动加载 Ollama 下载的模型 https://github.com/kangfenmao/cherry-studio

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1019170

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX