一站式本地AI神器🔥,轻松部署你的智能工作流!
License
Apache-2.0
Stars
3k
Forks
1.2k

摘要
local-ai-packaged 是一款开源的一站式本地 AI 解决方案,结合了 n8n、Ollama、Supabase 等多种工具,便于快速部署 AI 工作流。适用于开发者、企业用户以及对数据隐私有要求的场景。
内容
你是否厌倦了复杂的本地AI部署流程?今天给大家介绍一个超实用的开源项目——**local-ai-packaged**。它把多个热门工具整合在一起,让你在本地快速搭建起一个功能齐全的AI开发环境。
这个项目由开发者 Coleam00 创建,并基于 n8n 提供的 Local AI Starter Kit 进行了扩展和优化。它包含了以下核心组件:
✅ **n8n**:低代码平台,支持 400+ 种集成,非常适合构建 AI 工作流。
✅ **Ollama**:跨平台的 LLM 平台,可以安装并运行最新的本地模型。
✅ **Supabase**:开源数据库服务,用于数据存储、身份验证等。
✅ **Open WebUI**:像 ChatGPT 的界面,与你的本地模型进行交互。
✅ **Qdrant**:高性能向量数据库,适合 RAG 应用。
✅ **Neo4j**:知识图谱引擎,助力 GraphRAG 和 LightRAG 等技术。
✅ **SearXNG**:隐私保护的搜索引擎,聚合229个来源的结果。
✅ **Caddy**:自动 HTTPS/TLS 支持,方便自定义域名。
✅ **Langfuse**:LLM 工程平台,提供可观测性。
该项目通过 Docker Compose 快速启动,用户只需准备好 Python、Git、Docker 等基础软件即可。特别适合那些希望将 AI 模型部署在本地以保障数据隐私的企业或个人开发者。
如果你是 Mac 用户,不用担心 GPU 不可用的问题,可以选择 CPU 或连接外部 Ollama 实例。Nvidia 和 AMD 显卡用户则可以通过指定配置文件来启用 GPU 加速。
该项目还提供了详细的配置指南和一些实用脚本,帮助你更轻松地管理所有服务。整体来看,它的设计非常人性化,而且社区也在持续改进中。
虽然目前没有太多关于它的讨论,但随着本地化 AI 部署的需求增加,相信它会越来越受到关注。不妨亲自试一试,或许能发现更多惊喜!
更多详情可查看官方仓库:https://github.com/coleam00/local-ai-packaged