llm-answer-engine
Übersicht von llm-answer-engine
LLM Antwort-Engine: Bauen Sie Ihr eigenes KI-gestütztes Frage-Antwort-System
Dieses Open-Source-Projekt, llm-answer-engine
, stellt den Code und die Anweisungen bereit, um eine hochentwickelte KI-Antwort-Engine zu bauen, die von Perplexity inspiriert ist. Es nutzt modernste Technologien wie Groq, Mistral AI's Mixtral, Langchain.JS, Brave Search, Serper API und OpenAI, um umfassende Antworten auf Benutzeranfragen zu liefern, komplett mit Quellen, Bildern, Videos und Folgefragen.
Was ist llm-answer-engine?
llm-answer-engine
ist ein Ausgangspunkt für Entwickler, die sich für Natural Language Processing und Suchtechnologien interessieren. Es ermöglicht Ihnen, ein System zu erstellen, das Fragen effizient beantwortet durch:
- Abrufen relevanter Informationen aus verschiedenen Quellen.
- Generieren prägnanter und informativer Antworten.
- Bereitstellen von unterstützenden Beweisen und zugehörigen Medien.
- Vorschlagen von Folgefragen, um die weitere Erkundung zu leiten.
Wie funktioniert llm-answer-engine?
Die Engine verwendet eine Kombination von Technologien, um Benutzeranfragen zu verarbeiten und relevante Antworten zu generieren:
- Abfrageverständnis: Technologien wie Groq und Mixtral werden verwendet, um die Frage des Benutzers zu verarbeiten und zu verstehen.
- Informationsbeschaffung:
- Brave Search: Eine datenschutzorientierte Suchmaschine wird verwendet, um relevante Inhalte und Bilder zu finden.
- Serper API: Wird verwendet, um relevante Video- und Bildergebnisse basierend auf der Benutzerabfrage abzurufen.
- Cheerio: Wird für das HTML-Parsing verwendet, wodurch das Extrahieren von Inhalten von Webseiten ermöglicht wird.
- Textverarbeitung:
- Langchain.JS: Eine JavaScript-Bibliothek, die sich auf Textoperationen wie Textaufteilung und Embeddings konzentriert.
- OpenAI Embeddings: Werden verwendet, um Vektordarstellungen von Textblöcken zu erstellen.
- Optionale Komponenten:
- Ollama: Wird für Streaming-Inferenz und Embeddings verwendet.
- Upstash Redis Rate Limiting: Wird verwendet, um die Ratenbegrenzung für die Anwendung einzurichten.
- Upstash Semantic Cache: Wird verwendet, um Daten für schnellere Antwortzeiten zu cachen.
Hauptmerkmale und Technologien:
- Next.js: Ein React-Framework zum Erstellen von serverseitig gerenderten und statischen Webanwendungen, das eine robuste Grundlage für die Benutzeroberfläche bietet.
- Tailwind CSS: Ein Utility-First-CSS-Framework zum schnellen Erstellen benutzerdefinierter Benutzeroberflächen, das eine effiziente Gestaltung und Anpassung ermöglicht.
- Vercel AI SDK: Eine Bibliothek zum Erstellen von KI-gestützten Streaming-Text- und Chat-UIs, die die Benutzererfahrung mit Echtzeit-Feedback verbessert.
- Function Calling Support (Beta): Erweitert die Funktionalität mit Integrationen für Karten & Standorte (Serper Locations API), Shopping (Serper Shopping API), TradingView-Aktiendaten und Spotify.
- Ollama Support (teilweise unterstützt): Bietet Kompatibilität mit Ollama für das Streamen von Textantworten und Embeddings, was die lokale Modellausführung ermöglicht.
Wie verwende ich llm-answer-engine?
Um mit llm-answer-engine
zu beginnen, folgen Sie diesen Schritten:
- Voraussetzungen:
- API-Schlüssel von OpenAI, Groq, Brave Search und Serper beziehen.
- Stellen Sie sicher, dass Node.js und npm (oder bun) installiert sind.
- (Optional) Installieren Sie Docker und Docker Compose für die containerisierte Bereitstellung.
- Installation:
git clone https://github.com/developersdigest/llm-answer-engine.git cd llm-answer-engine
- Konfiguration:
- Docker: Bearbeiten Sie die Datei
docker-compose.yml
und fügen Sie Ihre API-Schlüssel hinzu. - Non-Docker: Erstellen Sie eine
.env
-Datei im Stammverzeichnis Ihres Projekts und fügen Sie Ihre API-Schlüssel hinzu.
- Docker: Bearbeiten Sie die Datei
- Server starten:
- Docker:
docker compose up -d
- Non-Docker:
npm install # or bun install npm run dev # or bun run dev
- Docker:
Der Server wird am angegebenen PortListening sein.
Warum llm-answer-engine wählen?
- Inspiriert von Perplexity: Bietet eine ähnliche Benutzererfahrung wie eine führende KI-Antwort-Engine.
- Nutzt leistungsstarke Technologien: Kombiniert das Beste aus NLP, Suche und Webentwicklung.
- Open-Source und anpassbar: Ermöglicht es Ihnen, die Engine an Ihre spezifischen Bedürfnisse anzupassen.
- Function Calling Support: Erweitert die Funktionalität mit Integrationen für Karten & Standorte, Shopping, TradingView-Aktiendaten und Spotify.
Für wen ist llm-answer-engine?
Dieses Projekt ist ideal für:
- Entwickler, die sich für Natural Language Processing und Suchtechnologien interessieren.
- Forscher, die Frage-Antwort-Systeme untersuchen.
- Jeder, der seine eigene KI-gestützte Wissensdatenbank aufbauen möchte.
Roadmap:
Die Projekt-Roadmap umfasst spannende Funktionen wie:
- Dokumenten-Upload + RAG für die Dokumentensuche/-abruf.
- Eine Einstellungs-Komponente, mit der Benutzer das Modell, das Embeddings-Modell und andere Parameter über die Benutzeroberfläche auswählen können.
- Hinzufügen von Unterstützung für Folgefragen bei Verwendung von Ollama
Mitwirken:
Beiträge sind willkommen! Forken Sie das Repository, nehmen Sie Ihre Änderungen vor und senden Sie einen Pull Request.
Dieses Projekt ist unter der MIT-Lizenz lizenziert.
Bauen Sie Ihre eigene KI-gestützte Antwort-Engine und erkunden Sie die Möglichkeiten der natürlichen Sprachverarbeitung mit llm-answer-engine
!
Beste Alternativwerkzeuge zu "llm-answer-engine"

AiAssistWorks ist ein AI-Add-on für Google Sheets, Slides und Docs, das über 100 Modelle wie GPT, Claude und Gemini nutzt, um Inhaltsgenerierung, Formeln, Folien und Datentasks zu automatisieren. Kostenloser Plan für immer mit eigenem API-Schlüssel.

Der Nebius AI Studio Inference Service bietet gehostete Open-Source-Modelle für schnellere, günstigere und genauere Ergebnisse als proprietäre APIs. Skalieren Sie nahtlos ohne MLOps, ideal für RAG und Produktionsworkloads.

Entdecken Sie GPT für Sheets, Docs, Forms & Slides – nahtlose KI-Integration mit ChatGPT, Claude, Gemini für Schreiben, SEO, Übersetzung und Automatisierung in Google Workspace.

AI Actions verbessert die Shortcuts-App von Apple durch leistungsstarke KI-Integrationen wie GPT-4o, Claude und DALL·E, mit Ihren eigenen API-Schlüsseln für sichere, anpassbare Automatisierung auf iOS und macOS.

EnergeticAI ist TensorFlow.js optimiert für Serverless-Funktionen und bietet schnellen Kaltstart, kleine Modulgröße und vortrainierte Modelle, wodurch KI in Node.js-Apps bis zu 67x schneller zugänglich wird.

YouTube-to-Chatbot ist ein Open-Source-Python-Notebook, das AI-Chatbots auf gesamten YouTube-Kanälen mit OpenAI, LangChain und Pinecone trainiert. Ideal für Creator, um ansprechende konversationelle Agenten aus Videoinhalten zu erstellen.

Entdecken Sie Pal Chat, den leichten, aber leistungsstarken AI-Chat-Client für iOS. Greifen Sie auf GPT-4o, Claude 3.5 und mehr Modelle zu – mit vollständiger Privatsphäre: Keine Daten werden gesammelt. Generieren Sie Bilder, bearbeiten Sie Prompts und genießen Sie nahtlose AI-Interaktionen auf iPhone oder iPad.

Smolagents ist eine minimalistische Python-Bibliothek zum Erstellen von KI-Agenten, die durch Code reasoning und handeln. Sie unterstützt LLM-agnostische Modelle, sichere Sandboxes und nahtlose Hugging Face Hub-Integration für effiziente, codebasierte Agent-Workflows.

Entdecken Sie die innovative Chat with Your PDF-Funktion von CloudPDF, die die Art und Weise, wie Sie mit Dokumenten interagieren, verändert. Erfahren Sie mehr über ihre Vorteile, einzigartigen Funktionen und technischen Aspekte und erleben Sie sie selbst mit unserem interaktiven Beispiel. Steigern Sie heute Ihre Produktivität und Dokumenten-Navigation!

OpenUI ist ein Open-Source-Tool, das es Ihnen ermöglicht, UI-Komponenten in natürlicher Sprache zu beschreiben und sie live mit LLMs zu rendern. Konvertieren Sie Beschreibungen in HTML, React oder Svelte für schnelles Prototyping.

GENSCRIPT AI verwandelt Medien- und Unterhaltungsideen mit KI in erfolgreiche Drehbücher. Generieren Sie exklusive, plagiatfreie Inhalte. Von Branchenexperten vertraut.

Wordmetrics ist eine KI-gestützte SEO-Schreibplattform, die Content-Marketer bei der Optimierung von Inhalten für bessere Suchrankings durch semantische Analyse und Echtzeit-Anleitung unterstützt.

HireNorm ist eine KI-gestützte intelligente Einstellungsplattform, die einen einheitlichen Jobportal-Builder, eine Programmierinterview-Plattform und ein Bewerberverfolgungssystem bietet, um die Personalbeschaffung zu optimieren.

MaxNotes ist ein KI-gestützter Sprachnotizen-Organizer, der Ihre Audio-Notizen mühelos transkribiert, zusammenfasst und kategorisiert. Verwandeln Sie Sprache in wertvolle Einblicke.

Prompto ist eine Open-Source-Web-App, die die LLM-Interaktion über LangChain.js vereinfacht. Zu den Funktionen gehören mehrere LLMs, Temperaturregelung, Chat, Notebook, Vorlagen, Arena und Diskussionsmodi.