大模型(LLM)
最新更新:2025-04-07
大模型(LLM)
大模型节点可以调用大型语言模型(LLM),根据输入参数和提示词生成回复,通常用于执行文本生成任务,例如文案制作、文本总结、文章扩写等。
大模型节点依赖大语言模型的语言理解和生成能力,可以处理复杂的自然语言处理任务,你可以根据业务场景的需求选择不同的模型,并配置提示词来定义模型的人设和回复风格。为了更精准地控制模型生成的结果,你还可以在大模型节点中设置模型的参数,从而影响模型回复的文本长度、内容的多样性等。
节点配置
大模型(LLM):选择当前节点需要调用的大模型。
温度:该值决定了大模型生成的多样性,值越高则发散性越强。
最大响应长度:设定大模型的最大输出长度,计算单位为 Token。
系统提示词:定义本次调用的大模型的身份信息,一般可以包含角色、任务、技能、流程、限制、背景等描述,用于指导模型的行为和回答风格,帮助大模型了解其调用任务所需使用的具体身份和执行流程等。
用户提示词:用户输入的具体问题或请求,指引模型生成相关的回应。
记忆:若当前工作流被嵌入于智能体内使用,则智能体内的对话记录(即记忆)可以被作为大模型调用的上下文的一部分。
工具:本次大模型调用需要使用的工具。同时支持自定义工具和开放工具。
数据表:本次大模型调用需要查询的数据表。支持联表查询。
节点输出
JSON:自定义要输出的 JSON 结构的键值对。LLM 将按照定义的 JSON 结构输出。
LLM Response:直接输出 LLM 生成的内容。