将 NVIDIA NIM 与 Langflow 集成
在安装了 适用于 Linux 的 Windows 子系统 2 (WSL2) 的 RTX Windows 系统上,将 Langflow 连接到 NVIDIA NIM。
NVIDIA NIM (NVIDIA 推理微服务) 提供容器用于自托管 GPU 加速的推理微服务。在此示例中,您将在安装了 WSL2 的 RTX Windows 系统上,将 Langflow 中的模型组件连接到已部署的 mistral-nemo-12b-instruct
NIM。
有关 NVIDIA NIM 的更多信息,请参阅 NVIDIA 文档。
前提条件
- 已安装 NVIDIA NIM WSL2
- 根据模型说明部署 NIM 容器。不同模型的前提条件各不相同。例如,要部署
mistral-nemo-12b-instruct
NIM,请按照您的 模型部署概述 中关于 RTX AI PC (Beta) 上的 Windows 的说明进行操作。 - Windows 11 版本 23H2 或更高
- 至少 12 GB 内存
在流程中使用 NVIDIA NIM
要将您部署的 NIM 连接到 Langflow,请将 NVIDIA 模型组件添加到流程中。