接入 Xinference 部署的本地模型
Xorbits inference 是一个强大且通用的分布式推理框架,旨在为大型语言模型、语音识别模型和多模态模型提供服务,甚至可以在笔记本电脑上使用。它支持多种与GGML兼容的模型,如 chatglm, baichuan, whisper, vicuna, orca 等。 Dify 支持以本地部署的方式接入 Xinference 部署的大型语言模型推理和 embedding 能力。
部署 Xinference
开始部署
部署 Xinference 有两种方式,分别为 本地部署 和 分布式部署 ,以下以本地部署为例。
-
首先通过 PyPI 安装 Xinference:
-
本地部署方式启动 Xinference:
Xinference 默认会在本地启动一个 worker,端点为:
http://127.0.0.1:9997
,端口默认为9997
。 默认只可本机访问,可配置-H 0.0.0.0
,非本地客户端可任意访问。 如需进一步修改 host 或 port,可查看 xinference 的帮助信息:xinference-local --help
。使用 Dify Docker 部署方式的需要注意网络配置,确保 Dify 容器可以访问到 Xinference 的端点,Dify 容器内部无法访问到 localhost,需要使用宿主机 IP 地址。
-
创建并部署模型
进入
http://127.0.0.1:9997
选择需要部署的模型和规格进行部署,如下图所示:由于不同模型在不同硬件平台兼容性不同,请查看 Xinference 内置模型 确定创建的模型是否支持当前硬件平台。
-
获取模型 UID
从上图所在页面获取对应模型的 ID,如:
2c886330-8849-11ee-9518-43b0b8f40bea
-
模型部署完毕,在 Dify 中使用接入模型
在
设置 > 模型供应商 > Xinference
中填入:-
模型名称:
vicuna-v1.3
-
服务器 URL:
http://<Machine_IP>:9997
替换成您的机器 IP 地址 -
模型 UID:
2c886330-8849-11ee-9518-43b0b8f40bea
"保存" 后即可在应用中使用该模型。
-
Dify 同时支持将
Xinference embed 模型
作为 Embedding 模型使用,只需在配置框中选择
Embeddings
类型即可。
如需获取 Xinference 更多信息,请参考: Xorbits Inference
最后更新于