llm-answer-engine 概述
LLM 问答引擎:构建你自己的 AI 驱动的问答系统
这个开源项目 llm-answer-engine
提供了代码和指令,用于构建一个受 Perplexity 启发的、复杂的 AI 问答引擎。它利用了诸如 Groq、Mistral AI 的 Mixtral、Langchain.JS、Brave Search、Serper API 和 OpenAI 等尖端技术,为用户查询提供全面的答案,包括来源、图片、视频和后续问题。
什么是 llm-answer-engine?
llm-answer-engine
是一个起点,适用于对自然语言处理和搜索技术感兴趣的开发者。它允许你创建一个系统,通过以下方式高效地回答问题:
- 从各种来源检索相关信息。
- 生成简洁且信息丰富的答案。
- 提供支持性证据和相关媒体。
- 建议后续问题,以指导进一步探索。
llm-answer-engine 如何工作?
该引擎利用多种技术的组合来处理用户查询并生成相关的响应:
- 查询理解: 使用 Groq 和 Mixtral 等技术来处理和理解用户的问题。
- 信息检索:
- Brave Search: 使用注重隐私的搜索引擎来查找相关内容和图片。
- Serper API: 用于根据用户查询获取相关的视频和图片结果。
- Cheerio: 用于 HTML 解析,允许从网页中提取内容。
- 文本处理:
- Langchain.JS: 一个专注于文本操作(如文本分割和嵌入)的 JavaScript 库。
- OpenAI Embeddings: 用于创建文本块的向量表示。
- 可选组件:
- Ollama: 用于流式推理和嵌入。
- Upstash Redis Rate Limiting: 用于为应用程序设置速率限制。
- Upstash Semantic Cache: 用于缓存数据,以加快响应速度。
主要特性和技术:
- Next.js: 一个用于构建服务器端渲染和静态 Web 应用程序的 React 框架,为用户界面提供强大的基础。
- Tailwind CSS: 一个实用至上的 CSS 框架,用于快速构建自定义用户界面,实现高效的样式设计和定制。
- Vercel AI SDK: 一个用于构建 AI 驱动的流式文本和聊天 UI 的库,通过实时反馈增强用户体验。
- Function Calling Support (Beta): 通过集成地图和位置(Serper Locations API)、购物(Serper Shopping API)、TradingView 股票数据和 Spotify 来扩展功能。
- Ollama Support(部分支持): 提供与 Ollama 的兼容性,用于流式传输文本响应和嵌入,从而允许本地模型执行。
如何使用 llm-answer-engine?
要开始使用 llm-answer-engine
,请按照以下步骤操作:
- 准备工作:
- 从 OpenAI、Groq、Brave Search 和 Serper 获取 API 密钥。
- 确保已安装 Node.js 和 npm(或 bun)。
- (可选)安装 Docker 和 Docker Compose 以进行容器化部署。
- 安装:
git clone https://github.com/developersdigest/llm-answer-engine.git cd llm-answer-engine
- 配置:
- Docker: 编辑
docker-compose.yml
文件并添加你的 API 密钥。 - Non-Docker: 在你的项目根目录中创建一个
.env
文件并添加你的 API 密钥。
- Docker: 编辑
- 运行服务器:
- Docker:
docker compose up -d
- Non-Docker:
npm install # or bun install npm run dev # or bun run dev
- Docker:
服务器将监听指定的端口。
为什么选择 llm-answer-engine?
- 受 Perplexity 启发: 提供与领先的 AI 问答引擎相似的用户体验。
- 利用强大的技术: 结合了 NLP、搜索和 Web 开发中的最佳技术。
- 开源且可定制: 允许你根据你的特定需求调整引擎。
- Function Calling Support: 通过集成地图和位置、购物、TradingView 股票数据和 Spotify 来扩展功能。
llm-answer-engine 适合谁?
这个项目非常适合:
- 对自然语言处理和搜索技术感兴趣的开发者。
- 探索问答系统的研究人员。
- 任何想要构建自己的 AI 驱动的知识库的人。
路线图:
该项目路线图包括令人兴奋的功能,例如:
- 文档上传 + RAG,用于文档搜索/检索。
- 一个设置组件,允许用户从 UI 中选择模型、嵌入模型和其他参数。
- 在使用 Ollama 时添加对后续问题的支持
贡献:
欢迎贡献!Fork 仓库,进行更改,然后提交 pull request。
本项目根据 MIT 许可证获得许可。
构建你自己的 AI 驱动的问答引擎,并使用 llm-answer-engine
探索自然语言处理的可能性!
"llm-answer-engine"的最佳替代工具

AI Actions 通过强大的 AI 集成如 GPT-4o、Claude 和 DALL·E 增强苹果的 Shortcuts 应用,使用您自己的 API 密钥实现 iOS 和 macOS 上的安全、可自定义自动化。

Nebius AI Studio Inference Service 提供托管开源模型,实现比专有 API 更快、更便宜、更准确的推理结果。无需 MLOps,即可无缝扩展,适用于 RAG 和生产工作负载。

YouTube-to-Chatbot是一个开源Python笔记本,使用OpenAI、LangChain和Pinecone在整个YouTube频道上训练AI聊天机器人。适合创作者从视频内容构建引人入胜的对话代理。

发现Pal Chat,这是iOS的轻量级却强大的AI聊天客户端。访问GPT-4o、Claude 3.5等模型,完全隐私保护——不收集任何数据。在iPhone或iPad上生成图像、编辑提示,并享受无缝AI交互。

smolagents 是一个简约的 Python 库,用于创建通过代码推理和行动的 AI 代理。它支持模型无关的 LLM、安全沙箱以及与 Hugging Face Hub 的无缝集成,实现高效的基于代码的代理工作流。

EnergeticAI 是针对 serverless 功能优化的 TensorFlow.js,提供快速冷启动、小模块尺寸和预训练模型,使 Node.js 应用程序中的 AI 访问速度提高高达 67 倍。

探索 GPT for Sheets、Docs、Forms 和 Slides – 与 ChatGPT、Claude、Gemini 无缝集成,用于 Google Workspace 中的写作、SEO、翻译和自动化。

AiAssistWorks 是 Google Sheets、Slides 和 Docs 的 AI 插件,利用 GPT、Claude 和 Gemini 等 100 多种模型自动化内容生成、公式、幻灯片和数据任务。提供永久免费计划,使用自己的 API 密钥。



Albus AI是一个云工作区,可构建AI知识库,简化文档,并提供无幻觉AI引擎,用于精确参考和语义映射。 自动整理您的文件,跨多种格式进行搜索,并获取带引用的答案。


Ragie 是一款完全托管的 RAG 即服务,为开发人员提供简单的 API 和应用程序连接器,通过快速准确的检索实现最先进的生成式 AI 应用程序。

PalyPDF:一款AI驱动的PDF管理工具,可让您与PDF聊天、总结长文档并执行语义搜索。是您文档的ChatGPT和Dropbox替代方案。
