用于🔐🦙🤖 Private & Local Ollama自托管LLM路由器,通过自动化工作流程,智能分析用户输入,动态选择最合适的本地大型语言模型(LLM),确保最佳性能。解决了在多个LLM之间手动选择模型的挑战,提供隐私保护,支持文本、代码和视觉任务,提升用户体验。
此工作流特别适合那些在本地运行 Ollama 的用户,希望在不同的专业模型之间进行智能路由。