n8n-案例-n8n平台助手

1- 简介

本工作流借助一个由 AI 驱动的助手,让您能毫不费力地找到 n8n 平台相关问题的答案。您只需提出问题,该助手便会搜索相关文档、论坛帖子及示例工作流,从而根据您的具体需求,提供全面而准确的答复。

请注意:本工作流使用了社区节点 ( n8n-nodes-mcp.mcpClientTool ),因此仅适用于自托管的 n8n 实例。在导入此工作流前,您需要先安装所需的社区节点。
image

2- 本工作流有何功用?

本工作流能够自动研究 n8n 平台的文档、社区论坛和示例工作流,从而简化信息检索过程,为您的问题提供相关的解答。

3- 适用对象

  • n8n 新用户:快速获取平台基本问题的答案,学习如何有效使用 n8n
  • 经验丰富的开发者:查找特定技术难题的解决方案,或发掘更高级的工作流。
  • 团队用户:通过自动化 n8n 平台问题的研究过程,提升团队生产力。
  • 任何希望利用 AI 高效、准确地获取 n8n 平台知识的用户。

4- 主要优势

  • 便捷研究:自动完成跨 n8n 文档、论坛帖子和示例工作流的研究过程。
  • AI 智能驱动:利用大语言模型( LLM )的强大能力理解语境,生成富有助益的回复。
  • 提升效率:通过自动化研究过程,节省时间和资源。
  • 快速解答:即时获得 n8n 平台相关问题的答案。
  • 促进学习:发现新的工作流、功能和最佳实践,优化您的 n8n 使用体验。

5- 工作原理

  • 接收请求:工作流在收到包含 n8n 相关问题的聊天消息时启动。
  • AI 处理:由 OpenAI GPT-4o 驱动的 AI 代理负责分析您的问题。
  • 研究与信息收集:系统会搜索多个信息来源:
    • n8n 官方文档,以获取常规知识和操作指南。
    • 社区论坛,以查找错误报告和具体问题。
    • 示例工作流库,以寻找相关实践案例。
  • 生成回复: AI 代理整合研究结果,生成清晰、全面的答案。
  • 输出:工作流向您提供相关信息,并在需要时提供分步指导。

6- 使用的 n8n 节点

  • 接收到聊天消息时 (Chat Trigger)
  • OpenAI 聊天模型 ( GPT-4o mini )
  • N8N AI 代理
  • n8n-assistant 工具 ( MCP Client Tool - 社区节点)
  • n8n-assistant 执行 ( MCP Client Tool - 社区节点)

7- 使用前提

  • 拥有自托管的 n8n 实例。
  • 拥有 OpenAI API 凭证。
  • 已安装 MCP 客户端社区节点。
  • 已配置 MCP 服务器以搜索 n8n 相关资源。

8- 设置步骤

  • 将工作流 JSON 文件导入您的 n8n 实例。
  • 配置 OpenAI 凭证。
  • 配置您的 MCP 客户端 API 凭证。
  • n8n-assistant execute 节点中,确保参数设置为 “specific” (已从 “specific” 更正)。
  • 发送包含 n8n 相关问题的消息,测试工作流。

9- MCP 服务器连接

若要连接至驱动该助手研究能力的 MCP 服务器,您需要使用以下 URL
https://smithery.ai/server/@onurpolat05/n8n-assistant

MCP 服务器专门设计用于搜索以下三类 n8n 资源:

  • 官方文档:提供常规平台信息和工作流创建指导。
  • 社区论坛:涉及错误相关问题和故障排查。
  • 示例工作流库:提供可供参考的实现方案。

请在您的 MCP 客户端凭证中配置此 URL,以便助手能够根据用户查询检索相关信息。

本工作流融合了聊天的便捷性与 AI 的强大能力,旨在提供无缝的 n8n 平台研究体验。即刻开始,获取您 n8n 问题的即时答案吧!

10- temple

{
  "meta": {
    "instanceId": "02e782574ebb30fbddb2c3fd832c946466d718819d25f6fe4b920124ff3fc2c1",
    "templateCredsSetupCompleted": true
  },
  "nodes": [
    {
      "id": "bc58bd73-921a-445c-a905-6f1bbbc0e9c3",
      "name": "When chat message received",
      "type": "@n8n/n8n-nodes-langchain.chatTrigger",
      "position": [
        1160,
        420
      ],
      "webhookId": "cf762550-98e7-42f0-a0f3-cd9594331c00",
      "parameters": {
        "options": {}
      },
      "typeVersion": 1.1
    },
    {
      "id": "308aea70-2831-4abd-90f6-d4cbf3901be4",
      "name": "n8n Research AI Agent",
      "type": "@n8n/n8n-nodes-langchain.agent",
      "position": [
        1440,
        420
      ],
      "parameters": {
        "options": {
          "systemMessage": "You are an assistant integrated with the n8n Multi-Channel Platform (MCP). Your primary role is to interact with the MCP to retrieve available tools and content based on user queries about n8n. When a user asks for information or assistance regarding n8n, first send a request to the MCP to fetch the relevant tools and content. Analyze the retrieved data to understand the available options, then create a tailored response that addresses their specific needs regarding n8n functionalities, documentation, forum posts, or example workflows. Ensure that your responses are clear, actionable, and directly related to the user's queries about n8n."
        }
      },
      "typeVersion": 1.8
    },
    {
      "id": "94cb78f5-3520-4432-b3c9-0524411113e9",
      "name": "n8n-assistant Tool Lookup",
      "type": "n8n-nodes-mcp.mcpClientTool",
      "position": [
        1500,
        640
      ],
      "parameters": {},
      "credentials": {
        "mcpClientApi": {
          "id": "w1ZOoPXYGz6W2g1T",
          "name": "n8n-assistant"
        }
      },
      "typeVersion": 1
    },
    {
      "id": "78a87949-afda-4c52-ae9f-f8d343fb6567",
      "name": "n8n-assistant Execute Tool",
      "type": "n8n-nodes-mcp.mcpClientTool",
      "position": [
        1700,
        640
      ],
      "parameters": {
        "toolName": "={{$fromAI(\"tool\",\"Set this specific tool name\")}}",
        "operation": "executeTool",
        "toolParameters": "={{ /*n8n-auto-generated-fromAI-override*/ $fromAI('Tool_Parameters', ``, 'json') }}"
      },
      "credentials": {
        "mcpClientApi": {
          "id": "w1ZOoPXYGz6W2g1T",
          "name": "n8n-assistant"
        }
      },
      "typeVersion": 1
    },
    {
      "id": "cc1619ec-6f49-45e6-8a7b-440da7ee5bc5",
      "name": "OpenAI Chat Model2",
      "type": "@n8n/n8n-nodes-langchain.lmChatOpenAi",
      "position": [
        1320,
        640
      ],
      "parameters": {
        "model": {
          "__rl": true,
          "mode": "list",
          "value": "gpt-4o-mini"
        },
        "options": {}
      },
      "credentials": {
        "openAiApi": {
          "id": "q2i0xAiFxUOYOlJ0",
          "name": "OpenAI_BCP"
        }
      },
      "typeVersion": 1.2
    }
  ],
  "pinData": {},
  "connections": {
    "OpenAI Chat Model2": {
      "ai_languageModel": [
        [
          {
            "node": "n8n Research AI Agent",
            "type": "ai_languageModel",
            "index": 0
          }
        ]
      ]
    },
    "n8n-assistant Tool Lookup": {
      "ai_tool": [
        [
          {
            "node": "n8n Research AI Agent",
            "type": "ai_tool",
            "index": 0
          }
        ]
      ]
    },
    "When chat message received": {
      "main": [
        [
          {
            "node": "n8n Research AI Agent",
            "type": "main",
            "index": 0
          }
        ]
      ]
    },
    "n8n-assistant Execute Tool": {
      "ai_tool": [
        [
          {
            "node": "n8n Research AI Agent",
            "type": "ai_tool",
            "index": 0
          }
        ]
      ]
    }
  }
}