N8N 工作流导航
首页
搜索
🇨🇳 中文
菜单
首页
搜索
🇨🇳 中文
Chat with local LLMs using n8n and Ollama
2025/7/8
5 个节点
简单
下载
分享
manual
simple
langchain
sticky note
分类:
Manual Triggered
Simple Workflow
集成服务:
LangChain
Sticky Note
总结
总结
适用人群
开发者
:希望集成本地大型语言模型(LLM)以增强应用功能。
-
数据科学家
:需要通过自定义模型进行数据分析和自然语言处理。
-
产品经理
:希望利用AI提高用户交互体验。
-
技术爱好者
:对本地AI模型和自动化工作流有兴趣的人。
解决的问题
解决了与本地大型语言模型的交互复杂性,提供了一个简化的聊天界面。
- 让用户能够直接通过 n8n 与 Ollama 进行通信,避免了手动输入和多步骤操作的麻烦。
- 提高了工作效率,使用户能够快速获取 AI 生成的响应。
工作流程
接收聊天消息
:当用户在聊天界面发送消息时,触发工作流。
-
发送到 Ollama
:将用户输入发送到本地的 Ollama 服务器,进行处理。
-
获取响应
:从 Ollama 接收 AI 生成的响应,并将其返回到聊天界面。
-
展示结果
:用户可以在聊天界面中查看到 AI 的回答,完成互动。
自定义指南
Ollama 地址
:根据需要修改 Ollama 的地址,确保其与本地设置一致。
-
节点配置
:可以根据具体需求调整各个节点的参数,以优化性能和响应时间。
-
扩展功能
:可以在工作流中添加更多节点,以实现更复杂的功能,如数据存储或其他 API 集成。