跳到主要内容

Langflow 中的模型组件

模型组件使用大型语言模型生成文本。

有关参数的更多信息,请参阅特定组件的文档。

在流程中使用模型组件

模型组件接收输入和提示以生成文本,生成的文本被发送到输出组件。

模型输出也可以发送到 语言模型 端口,然后发送到 解析数据 组件,在此可以将输出解析为结构化的 数据 对象。

此示例在聊天机器人流程中使用了 OpenAI 模型。有关更多信息,请参阅基本提示流程

AI/ML API

此组件使用 AIML API 创建 ChatOpenAI 模型实例。

有关更多信息,请参阅 AIML 文档

参数

输入

名称类型描述
max_tokens整型要生成的最大 token 数量。设为 0 表示无限制 token。范围:0-128000。
model_kwargs字典模型的附加关键字参数。
model_name字符串要使用的 AIML 模型名称。选项在 AIML_CHAT_MODELS 中预定义。
aiml_api_base字符串AIML API 的基本 URL。默认为 https://api.aimlapi.com
api_key秘密字符串要用于模型的 AIML API 密钥。
temperature浮点型控制输出中的随机性。默认值:0.1
seed整型控制作业的可复现性。

输出

名称类型描述
model语言模型配置了指定参数的 ChatOpenAI 实例。

Amazon Bedrock

此组件使用 Amazon Bedrock LLM 生成文本。

有关更多信息,请参阅 Amazon Bedrock 文档

参数

输入

名称类型描述
model_id字符串要使用的 Amazon Bedrock 模型 ID。选项包括各种模型。
aws_access_key秘密字符串用于身份验证的 AWS 访问密钥。
aws_secret_key秘密字符串用于身份验证的 AWS 秘密密钥。
credentials_profile_name字符串要使用的 AWS 凭据配置文件名称(高级)。
region_name字符串AWS 区域名称。默认值:us-east-1
model_kwargs字典模型的附加关键字参数(高级)。
endpoint_url字符串Bedrock 服务的自定义端点 URL(高级)。

输出

名称类型描述
model语言模型配置了指定参数的 ChatBedrock 实例。

Anthropic

此组件允许使用 Anthropic Chat 和语言模型生成文本。

有关更多信息,请参阅 Anthropic 文档

参数

输入

名称类型描述
max_tokens整型要生成的最大 token 数量。设为 0 表示无限制 token。默认值:4096
model字符串要使用的 Anthropic 模型名称。选项包括各种 Claude 3 模型。
anthropic_api_key秘密字符串用于身份验证的您的 Anthropic API 密钥。
temperature浮点型控制输出中的随机性。默认值:0.1
anthropic_api_url字符串Anthropic API 的端点。如果未指定,则默认为 https://api.anthropic.com(高级)。
prefill字符串预填充文本以引导模型的响应(高级)。

输出

名称类型描述
model语言模型配置了指定参数的 ChatAnthropic 实例。

Azure OpenAI

此组件使用 Azure OpenAI LLM 生成文本。

有关更多信息,请参阅 Azure OpenAI 文档

参数

输入

名称类型描述
模型名称字符串指定用于文本生成的 Azure OpenAI 模型名称。
Azure 端点字符串您的 Azure 端点,包括资源。
部署名称字符串指定部署的名称。
API 版本字符串指定要使用的 Azure OpenAI API 版本。
API 密钥秘密字符串您的 Azure OpenAI API 密钥。
Temperature浮点型指定采样温度。默认为 0.7
最大 tokens整型指定要生成的最大 tokens 数量。默认为 1000
输入值字符串指定用于文本生成的输入文本。
流式传输布尔型指定是否从模型流式传输响应。默认为 False

输出

名称类型描述
model语言模型配置了指定参数的 AzureOpenAI 实例。

Cohere

此组件使用 Cohere 的语言模型生成文本。

有关更多信息,请参阅 Cohere 文档

参数

输入

名称类型描述
Cohere API 密钥秘密字符串您的 Cohere API 密钥。
最大 tokens整型指定要生成的最大 tokens 数量。默认为 256
Temperature浮点型指定采样温度。默认为 0.75
输入值字符串指定用于文本生成的输入文本。

输出

名称类型描述
model语言模型配置了指定参数的 Cohere 模型实例。

DeepSeek

此组件使用 DeepSeek 的语言模型生成文本。

有关更多信息,请参阅 DeepSeek 文档

参数

输入

名称类型描述
max_tokens整型要生成的最大 token 数量。设为 0 表示无限制。范围:0-128000
model_kwargs字典模型的附加关键字参数。
json_mode布尔型如果为 True,则无论是否传递模式,都输出 JSON。
model_name字符串要使用的 DeepSeek 模型。默认值:deepseek-chat
api_base字符串API 请求的基本 URL。默认值:https://api.deepseek.com
api_key秘密字符串用于身份验证的您的 DeepSeek API 密钥。
temperature浮点型控制响应中的随机性。范围:[0.0, 2.0]。默认值:1.0
seed整型用于随机数生成的初始化数字。使用相同的 seed 整型可获得更可复现的结果,使用不同的 seed 数字可获得更随机的结果。

输出

名称类型描述
model语言模型配置了指定参数的 ChatOpenAI 实例。

Google 生成式 AI

此组件使用 Google 的生成式 AI 模型生成文本。

有关更多信息,请参阅 Google 生成式 AI 文档

参数

输入

名称类型描述
Google API 密钥秘密字符串用于 Google 生成式 AI 的您的 Google API 密钥。
模型字符串要使用的模型名称,例如 "gemini-pro"
最大输出 tokens整型要生成的最大 tokens 数量。
Temperature浮点型使用此温度运行推理。
Top K整型考虑 Top K 最可能的 token 集合。
Top P浮点型采样时要考虑的 token 的最大累积概率。
N整型为每个提示生成的聊天完成数量。

输出

名称类型描述
model语言模型配置了指定参数的 ChatGoogleGenerativeAI 实例。

Groq

此组件使用 Groq 的语言模型生成文本。

  1. 要在流程中使用此组件,请在流程中将其作为模型连接,例如基本提示流程,或者如果您使用代理组件,则选择它作为模型提供商

Groq component in a basic prompting flow

  1. Groq API 密钥字段中,粘贴您的 Groq API 密钥。Groq 模型组件会自动检索最新模型列表。要刷新模型列表,请单击.
  2. 模型字段中,选择要用于 LLM 的模型。此示例使用llama-3.1-8b-instant,这是 Groq 推荐用于实时会话界面的模型。
  3. 提示组件中,输入

_10
您是一位乐于助人的助手,用来源支持您的说法。

  1. 单击游乐场并向您的 Groq LLM 提问。响应将包含来源列表。

有关更多信息,请参阅 Groq 文档

参数

输入

名称类型描述
groq_api_key秘密字符串Groq API 的 API 密钥。
groq_api_base字符串API 请求的基本 URL 路径。默认值:https://api.groq.com
max_tokens整型要生成的最大 tokens 数量。
temperature浮点型控制输出中的随机性。范围:[0.0, 1.0]。默认值:0.1
n整型为每个提示生成的聊天完成数量。
model_name字符串要使用的 Groq 模型名称。选项从 Groq API 动态获取。
tool_mode_enabled布尔型如果启用,组件仅显示与工具配合使用的模型。

输出

名称类型描述
model语言模型配置了指定参数的 ChatGroq 实例。

Hugging Face API

此组件向 Hugging Face API 发送请求,使用模型 ID 字段中指定的模型生成文本。

Hugging Face API 是 Hugging Face 上托管的模型的托管推理 API,需要Hugging Face API token进行身份验证。

在基于基本提示流程的此示例中,Hugging Face API 模型组件替换了 OpenAI 模型。通过选择不同的托管模型,您可以看到不同模型返回的不同结果。

  1. 创建一个基本提示流程

  2. OpenAI 模型组件替换为 Hugging Face API 模型组件。

  3. Hugging Face API组件中,将您的 Hugging Face API token 添加到API Token字段。

  4. 打开游乐场,向模型提问,并查看其响应。

  5. 尝试不同的模型,看看它们的表现有何不同。

有关更多信息,请参阅 Hugging Face 文档

参数

输入

名称类型描述
model_id字符串来自 Hugging Face Hub 的模型 ID。例如,“gpt2”、“facebook/bart-large”。
huggingfacehub_api_token秘密字符串用于身份验证的您的 Hugging Face API token。
temperature浮点型控制输出中的随机性。范围:[0.0, 1.0]。默认值:0.7。
max_new_tokens整型要生成的最大 token 数量。默认值:512。
top_p浮点型核采样参数。范围:[0.0, 1.0]。默认值:0.95。
top_k整型Top-k 采样参数。默认值:50。
model_kwargs字典要传递给模型的附加关键字参数。

输出

名称类型描述
model语言模型配置了指定参数的 HuggingFaceHub 实例。

IBM watsonx.ai

此组件使用 IBM watsonx.ai 基础模型生成文本。

要使用 IBM watsonx.ai 模型组件,请在流程中将模型组件替换为 IBM watsonx.ai 组件。

一个示例流程如下所示

IBM watsonx model component in a basic prompting flow

API 端点项目 IDAPI 密钥模型名称的值可在您的 IBM watsonx.ai 部署中找到。有关更多信息,请参阅Langchain 文档

参数

输入

名称类型描述
url字符串watsonx API 的基本 URL。
project_id字符串您的 watsonx 项目 ID。
api_key秘密字符串您的 IBM watsonx API 密钥。
model_name字符串要使用的 watsonx 模型名称。选项从 API 动态获取。
max_tokens整型要生成的最大 token 数量。默认值:1000
stop_sequence字符串生成应该停止的序列。
temperature浮点型控制输出中的随机性。默认值:0.1
top_p浮点型控制核采样,将模型限制在概率低于 top_p 值的 token。范围:默认值:0.9
frequency_penalty浮点型控制频率惩罚。正值降低重复 token 的概率,负值增加概率。范围:默认值:0.5
presence_penalty浮点型控制存在惩罚。正值增加引入新主题的可能性。默认值:0.3
seed整型模型的随机种子。默认值:8
logprobs布尔型是否返回输出 token 的对数概率。默认值:True
top_logprobs整型在每个位置返回的最可能的 token 数量。默认值:3
logit_bias字符串用于偏置或抑制 token ID 的 JSON 字符串。

输出

名称类型描述
model语言模型配置了指定参数的 ChatWatsonx 实例。

语言模型

此组件使用 OpenAI 或 Anthropic 语言模型生成文本。

将此组件用作 LLM 模型的直接替代品,以在不同的模型提供商和模型之间切换。

您无需在想尝试不同的提供商时更换模型组件(例如在 OpenAI 和 Anthropic 组件之间切换),只需在此单个组件中更改提供商下拉列表即可。这使得在保持流程其余部分不变的同时,更容易实验和比较不同的模型。

有关更多信息,请参阅 OpenAI 文档Anthropic 文档

参数

输入

名称类型描述
provider字符串要使用的模型提供商。选项:“OpenAI”、“Anthropic”。默认值:“OpenAI”。
model_name字符串要使用的模型名称。选项取决于所选的提供商。
api_key秘密字符串用于与所选提供商进行身份验证的 API 密钥。
input_value字符串要发送到模型的输入文本。
system_message字符串有助于设置助手行为的系统消息(高级)。
stream布尔型是否流式传输响应。默认值:False(高级)。
temperature浮点型控制响应中的随机性。范围:[0.0, 1.0]。默认值:0.1(高级)。

输出

名称类型描述
model语言模型配置了指定参数的 ChatOpenAI 或 ChatAnthropic 实例。

LMStudio

此组件使用 LM Studio 的本地语言模型生成文本。

有关更多信息,请参阅 LM Studio 文档

参数

输入

名称类型描述
base_url字符串LM Studio 正在运行的 URL。默认值:"http://localhost:1234"
max_tokens整型在响应中要生成的最大 tokens 数量。默认值:512
temperature浮点型控制输出中的随机性。范围:[0.0, 2.0]。默认值:0.7
top_p浮点型通过核采样控制多样性。范围:[0.0, 1.0]。默认值:1.0
stop列表[字符串]遇到时停止生成的字符串列表。
stream布尔型是否流式传输响应。默认值:False
presence_penalty浮点型惩罚重复 token。范围:[-2.0, 2.0]。默认值:0.0
frequency_penalty浮点型惩罚频繁 token。范围:[-2.0, 2.0]。默认值:0.0

输出

名称类型描述
model语言模型配置了指定参数的 LMStudio 实例。

Maritalk

此组件使用 Maritalk LLM 生成文本。

有关更多信息,请参阅 Maritalk 文档

参数

输入

名称类型描述
max_tokens整型要生成的最大 token 数量。设为 0 表示无限制 token。默认值:512
model_name字符串要使用的 Maritalk 模型名称。选项:sabia-2-smallsabia-2-medium。默认值:sabia-2-small
api_key秘密字符串用于身份验证的 Maritalk API 密钥。
temperature浮点型控制输出中的随机性。范围:[0.0, 1.0]。默认值:0.5
endpoint_url字符串Maritalk API 端点。默认值:https://api.maritalk.com

输出

名称类型描述
model语言模型配置了指定参数的 ChatMaritalk 实例。

Mistral

此组件使用 MistralAI LLM 生成文本。

有关更多信息,请参阅 Mistral AI 文档

参数

输入

名称类型描述
max_tokens整型要生成的最大 token 数量。设为 0 表示无限制 token(高级)。
model_name字符串要使用的 Mistral AI 模型名称。选项包括 open-mixtral-8x7bopen-mixtral-8x22bmistral-small-latestmistral-medium-latestmistral-large-latestcodestral-latest。默认值:codestral-latest
mistral_api_base字符串Mistral API 的基本 URL。默认为 https://api.mistral.ai/v1(高级)。
api_key秘密字符串用于身份验证的 Mistral API 密钥。
temperature浮点型控制输出中的随机性。默认值:0.5。
max_retries整型API 调用的最大重试次数。默认值:5(高级)。
timeout整型API 调用的超时时间(秒)。默认值:60(高级)。
max_concurrent_requests整型最大并发 API 请求数量。默认值:3(高级)。
top_p浮点型核采样参数。默认值:1(高级)。
random_seed整型随机数生成的种子。默认值:1(高级)。
safe_mode布尔型启用内容生成的安全模式(高级)。

输出

名称类型描述
model语言模型配置了指定参数的 ChatMistralAI 实例。

Novita AI

此组件使用 Novita AI 的语言模型生成文本。

有关更多信息,请参阅 Novita AI 文档

参数

输入

名称类型描述
api_key秘密字符串您的 Novita AI API 密钥。
model字符串要使用的 Novita AI 模型 ID。
max_tokens整型要生成的最大 token 数量。设为 0 表示无限制 token。
temperature浮点型控制输出中的随机性。范围:[0.0, 1.0]。默认值:0.7。
top_p浮点型控制核采样。范围:[0.0, 1.0]。默认值:1.0。
frequency_penalty浮点型控制频率惩罚。范围:[0.0, 2.0]。默认值:0.0。
presence_penalty浮点型控制存在惩罚。范围:[0.0, 2.0]。默认值:0.0。

输出

名称类型描述
model语言模型配置了指定参数的 Novita AI 模型实例。

NVIDIA

此组件使用 NVIDIA LLM 生成文本。

有关更多信息,请参阅 NVIDIA AI 文档

参数

输入

名称类型描述
max_tokens整型要生成的最大 token 数量。设为 0 表示无限制 token(高级)。
model_name字符串要使用的 NVIDIA 模型名称。默认值:mistralai/mixtral-8x7b-instruct-v0.1
base_url字符串NVIDIA API 的基本 URL。默认值:https://integrate.api.nvidia.com/v1
nvidia_api_key秘密字符串用于身份验证的 NVIDIA API 密钥。
temperature浮点型控制输出中的随机性。默认值:0.1
seed整型seed 控制作业的可复现性(高级)。默认值:1

输出

名称类型描述
model语言模型配置了指定参数的 ChatNVIDIA 实例。

Ollama

此组件使用 Ollama 的语言模型生成文本。

要在流程中使用此组件,请将 Langflow 连接到您本地运行的 Ollama 服务器并选择一个模型。

  1. 在 Ollama 组件中,在基本 URL 字段中,输入本地运行的 Ollama 服务器地址。此值在 Ollama 中设置为 OLLAMA_HOST 环境变量。默认基本 URL 是 http://127.0.0.1:11434
  2. 要刷新服务器的模型列表,请单击.
  3. 模型名称字段中,选择一个模型。此示例使用 llama3.2:latest
  4. Ollama 模型组件连接到流程。例如,此流程将运行 Llama 3.2 模型的本地 Ollama 服务器连接为 代理 组件的自定义模型。

Ollama model as Agent custom model

有关更多信息,请参阅 Ollama 文档

参数

输入

名称类型描述
基本 URL字符串Ollama API 的端点。
模型名称字符串要使用的模型名称。
Temperature浮点型控制模型响应的创造力。

输出

名称类型描述
model语言模型配置了指定参数的 Ollama 模型实例。

OpenAI

此组件使用 OpenAI 的语言模型生成文本。

有关更多信息,请参阅 OpenAI 文档

参数

输入

名称类型描述
api_key秘密字符串您的 OpenAI API 密钥。
model字符串要使用的 OpenAI 模型名称。选项包括“gpt-3.5-turbo”和“gpt-4”。
max_tokens整型要生成的最大 token 数量。设为 0 表示无限制 token。
temperature浮点型控制输出中的随机性。范围:[0.0, 1.0]。默认值:0.7。
top_p浮点型控制核采样。范围:[0.0, 1.0]。默认值:1.0。
frequency_penalty浮点型控制频率惩罚。范围:[0.0, 2.0]。默认值:0.0。
presence_penalty浮点型控制存在惩罚。范围:[0.0, 2.0]。默认值:0.0。

输出

名称类型描述
model语言模型配置了指定参数的 OpenAI 模型实例。

OpenRouter

此组件使用 OpenRouter 的统一 API 为来自不同提供商的多个 AI 模型生成文本。

有关更多信息,请参阅 OpenRouter 文档

参数

输入

名称类型描述
api_key秘密字符串用于身份验证的您的 OpenRouter API 密钥。
site_url字符串用于 OpenRouter 排名站点的您的站点 URL(高级)。
app_name字符串用于 OpenRouter 排名站点的您的应用程序名称(高级)。
provider字符串要使用的 AI 模型提供商。
model_name字符串用于聊天完成的具体模型。
temperature浮点型控制输出中的随机性。范围:[0.0, 2.0]。默认值:0.7。
max_tokens整型要生成的最大 token 数量(高级)。

输出

名称类型描述
model语言模型配置了指定参数的 ChatOpenAI 实例。

Perplexity

此组件使用 Perplexity 的语言模型生成文本。

有关更多信息,请参阅 Perplexity 文档

参数

输入

名称类型描述
model_name字符串要使用的 Perplexity 模型名称。选项包括各种 Llama 3.1 模型。
max_output_tokens整型要生成的最大 tokens 数量。
api_key秘密字符串用于身份验证的 Perplexity API 密钥。
temperature浮点型控制输出中的随机性。默认值:0.75。
top_p浮点型采样时要考虑的 token 的最大累积概率(高级)。
n整型为每个提示生成的聊天完成数量(高级)。
top_k整型Top-k 采样要考虑的顶部 token 数量。必须为正数(高级)。

输出

名称类型描述
model语言模型配置了指定参数的 ChatPerplexity 实例。

千帆

此组件使用千帆的语言模型生成文本。

有关更多信息,请参阅 千帆文档

SambaNova

此组件使用 SambaNova LLM 生成文本。

有关更多信息,请参阅 Sambanova Cloud 文档

参数

输入

名称类型描述
sambanova_url字符串API 请求的基本 URL 路径。默认值:https://api.sambanova.ai/v1/chat/completions
sambanova_api_key秘密字符串您的 SambaNova API 密钥。
model_name字符串要使用的 Sambanova 模型名称。选项包括各种 Llama 模型。
max_tokens整型要生成的最大 token 数量。设为 0 表示无限制 token。
temperature浮点型控制输出中的随机性。范围:[0.0, 1.0]。默认值:0.07。

输出

名称类型描述
model语言模型配置了指定参数的 SambaNova 模型实例。

VertexAI

此组件使用 Vertex AI LLM 生成文本。

有关更多信息,请参阅 Google Vertex AI 文档

参数

输入

名称类型描述
credentials文件JSON 凭据文件。留空则回退到环境变量。文件类型:JSON。
model_name字符串要使用的 Vertex AI 模型名称。默认值:“gemini-1.5-pro”。
project字符串项目 ID(高级)。
location字符串Vertex AI API 的位置。默认值:“us-central1”(高级)。
max_output_tokens整型要生成的最大 token 数量(高级)。
max_retries整型API 调用的最大重试次数。默认值:1(高级)。
temperature浮点型控制输出中的随机性。默认值:0.0。
top_k整型用于 top-k 过滤的最高概率词汇 token 数量(高级)。
top_p浮点型核采样时要保留的参数最高概率词汇 token 的累积概率。默认值:0.95(高级)。
verbose布尔型是否打印详细输出。默认值:False(高级)。

输出

名称类型描述
model语言模型配置了指定参数的 ChatVertexAI 实例。

xAI

此组件使用 Grok 等 xAI 模型生成文本。

有关更多信息,请参阅 xAI 文档

参数

输入

名称类型描述
max_tokens整型要生成的最大 token 数量。设为 0 表示无限制。范围:0-128000
model_kwargs字典模型的附加关键字参数。
json_mode布尔型如果为 True,则无论是否传递模式,都输出 JSON。
model_name字符串要使用的 xAI 模型。默认值:grok-2-latest
base_url字符串API 请求的基本 URL。默认值:https://api.x.ai/v1
api_key秘密字符串用于身份验证的您的 xAI API 密钥。
temperature浮点型控制输出中的随机性。范围:[0.0, 2.0]。默认值:0.1
seed整型控制作业的可复现性。

输出

名称类型描述
model语言模型配置了指定参数的 ChatOpenAI 实例。
Search