请教一下 Hugging Face 上的模型怎么下载下来使用

84 天前
 MakHoCheung
如题,比如如何把 LLama 3.2 内嵌到一个 Java 应用让 Java 调用呢? 我看上面都是作为一个 Python 库给 Python 调用
1233 次点击
所在节点    问与答
8 条回复
dejavuwind
84 天前
Java 应该没啥库能直接调用模型吧,虽然理论上可以做到,但即便有应该也是很小众的,可以尝试找找
为啥不考虑把 python 调用模型封装成服务然后给 java 调用呢
主流的 AI 相关的库很多都是 python 写的
并且模型文件本身并不能被直接运行 需要通过 python 或者一些 AI 相关的库加载然后调用
murmur
84 天前
不会用就别折腾,下一个 xinferrence 这样的服务器,可以下载模型,提供服务,甚至还支持切换国内镜像
murmur
84 天前
模型服务器可以把接口抽象成 http 调用,贼好使,还自带问答调试界面,干嘛自己折腾模型啊
idblife
84 天前
ollama
CHEN1016
84 天前
我也想下载,我看 ios 上有个软件可以导入模型,想试试 qwen2.5 和 llama3.2 上的端侧小模型,就是不知道怎么下载
clf
84 天前
我们都是直接用 vllm 之类的跑大模型,然后通过 api 调用的。Java 不适合做这类事情。你可以把大模型+运行它的东西看作是一个服务。Java 当作客户端就行。

Java 推荐 langchain4J ,有封装各个大模型的 api 接口格式。
ahjiangwu
84 天前
你的标题和描述的内容实际上是两个问题

1 、如果单存是想从 huggingface 下载模型可以参考:
https://huggingface.co/docs/hub/models-downloading
当然,魔搭上也可以下载: https://www.modelscope.cn/docs/%E6%A8%A1%E5%9E%8B%E7%9A%84%E4%B8%8B%E8%BD%BD
(#5 可以参考)

2 、如果是想用 java 调用模型,可以用 vllm 部署,vllm server 提供了 api 的调用方式,java 直接调用就可以了
也可以用 xinferrence ,部署起来会更方便一些
MakHoCheung
83 天前
@CHEN1016 我就是看到那个 app 才发问的,最后我研究了一下,Hugging Face 的模型转 CoreML 模型

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1076776

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX