llm-answer-engine
Vue d'ensemble de llm-answer-engine
Moteur de réponse LLM : construisez votre propre système de questions-réponses alimenté par l'IA
Ce projet open source, llm-answer-engine
, fournit le code et les instructions pour construire un moteur de réponse d'IA sophistiqué inspiré de Perplexity. Il exploite des technologies de pointe telles que Groq, Mixtral de Mistral AI, Langchain.JS, Brave Search, Serper API et OpenAI pour fournir des réponses complètes aux requêtes des utilisateurs, avec des sources, des images, des vidéos et des questions de suivi.
Qu'est-ce que llm-answer-engine ?
llm-answer-engine
est un point de départ pour les développeurs intéressés par l'exploration du traitement du langage naturel et des technologies de recherche. Il vous permet de créer un système qui répond efficacement aux questions en :
- Récupérant des informations pertinentes provenant de diverses sources.
- Générant des réponses concises et informatives.
- Fournissant des preuves à l'appui et des médias connexes.
- Suggérant des questions de suivi pour guider l'exploration plus approfondie.
Comment fonctionne llm-answer-engine ?
Le moteur utilise une combinaison de technologies pour traiter les requêtes des utilisateurs et générer des réponses pertinentes :
- Compréhension des requêtes: Des technologies telles que Groq et Mixtral sont utilisées pour traiter et comprendre la question de l'utilisateur.
- Récupération d'informations:
- Brave Search: Un moteur de recherche axé sur la confidentialité est utilisé pour trouver du contenu et des images pertinents.
- Serper API: Utilisée pour récupérer des résultats vidéo et image pertinents en fonction de la requête de l'utilisateur.
- Cheerio: Utilisée pour l'analyse HTML, permettant l'extraction de contenu à partir de pages web.
- Traitement du texte:
- Langchain.JS: Une bibliothèque JavaScript axée sur les opérations de texte, telles que la division de texte et les intégrations.
- OpenAI Embeddings: Utilisée pour créer des représentations vectorielles de morceaux de texte.
- Composants optionnels:
- Ollama: Utilisée pour l'inférence et les intégrations en streaming.
- Upstash Redis Rate Limiting: Utilisée pour configurer la limitation de débit pour l'application.
- Upstash Semantic Cache: Utilisée pour la mise en cache des données afin d'accélérer les temps de réponse.
Principales caractéristiques et technologies:
- Next.js: Un framework React pour la création d'applications web statiques et rendues côté serveur, fournissant une base solide pour l'interface utilisateur.
- Tailwind CSS: Un framework CSS utilitaire pour la création rapide d'interfaces utilisateur personnalisées, permettant un style et une personnalisation efficaces.
- Vercel AI SDK: Une bibliothèque pour la création d'interfaces utilisateur de texte et de chat en streaming alimentées par l'IA, améliorant l'expérience utilisateur avec un retour d'information en temps réel.
- Prise en charge des appels de fonction (Beta): Étend les fonctionnalités avec des intégrations pour les cartes et les lieux (Serper Locations API), le shopping (Serper Shopping API), les données boursières de TradingView et Spotify.
- Prise en charge d'Ollama (partiellement prise en charge): Offre une compatibilité avec Ollama pour le streaming de réponses textuelles et d'intégrations, permettant l'exécution de modèles locaux.
Comment utiliser llm-answer-engine ?
Pour commencer avec llm-answer-engine
, suivez ces étapes :
- Prérequis:
- Obtenez les clés API d'OpenAI, Groq, Brave Search et Serper.
- Assurez-vous que Node.js et npm (ou bun) sont installés.
- (Facultatif) Installez Docker et Docker Compose pour le déploiement en conteneur.
- Installation:
git clone https://github.com/developersdigest/llm-answer-engine.git
cd llm-answer-engine
3. **Configuration**: * **Docker**: Modifiez le fichier `docker-compose.yml` et ajoutez vos clés API. * **Non-Docker**: Créez un fichier `.env` à la racine de votre projet et ajoutez vos clés API. 4. **Exécutez le serveur**: * **Docker**:
bash
docker compose up -d
* **Non-Docker**:
bash
npm install # or bun install
npm run dev # or bun run dev
```
Le serveur sera à l'écoute sur le port spécifié.
Pourquoi choisir llm-answer-engine ?
- Inspiré par Perplexity: Offre une expérience utilisateur similaire à celle d'un moteur de réponse d'IA de premier plan.
- Exploite des technologies puissantes: Combine le meilleur des technologies NLP, de recherche et de développement web.
- Open source et personnalisable: Vous permet d'adapter le moteur à vos besoins spécifiques.
- Prise en charge des appels de fonction: Étend les fonctionnalités avec des intégrations pour les cartes et les lieux, le shopping, les données boursières de TradingView et Spotify.
À qui s'adresse llm-answer-engine ?
Ce projet est idéal pour :
- Les développeurs intéressés par le traitement du langage naturel et les technologies de recherche.
- Les chercheurs qui explorent les systèmes de questions-réponses.
- Toute personne souhaitant construire sa propre base de connaissances alimentée par l'IA.
Feuille de route:
La feuille de route du projet comprend des fonctionnalités intéressantes telles que :
- Téléchargement de documents + RAG pour la recherche/récupération de documents.
- Un composant de paramètres pour permettre aux utilisateurs de sélectionner le modèle, le modèle d'intégrations et d'autres paramètres à partir de l'interface utilisateur.
- Ajout de la prise en charge des questions de suivi lors de l'utilisation d'Ollama
Contribution:
Les contributions sont les bienvenues ! Fourchez le dépôt, effectuez vos modifications et soumettez une demande de tirage.
Ce projet est sous licence MIT.
Construisez votre propre moteur de réponse alimenté par l'IA et explorez les possibilités du traitement du langage naturel avec llm-answer-engine
!
Meilleurs outils alternatifs à "llm-answer-engine"

Smolagents est une bibliothèque Python minimaliste pour créer des agents IA qui raisonnent et agissent via du code. Elle prend en charge les modèles LLM agnostiques, les sandboxes sécurisées et une intégration fluide avec Hugging Face Hub pour des flux de travail d'agents basés sur le code efficaces.

YouTube-to-Chatbot est un notebook Python open-source qui entraîne des chatbots IA sur des chaînes YouTube entières en utilisant OpenAI, LangChain et Pinecone. Idéal pour les créateurs qui construisent des agents conversationnels engageants à partir de contenu vidéo.

Nuanced renforce les outils de codage IA comme Cursor et Claude Code avec une analyse statique et des graphes d'appels TypeScript précis, réduisant les dépenses de tokens de 33 % et augmentant le succès des builds pour une génération de code efficace et précise.

EnergeticAI est TensorFlow.js optimisé pour les fonctions serverless, offrant un démarrage à froid rapide, une petite taille de module et des modèles pré-entraînés, rendant l'IA accessible dans les applications Node.js jusqu'à 67 fois plus rapidement.

Découvrez GPT pour Sheets, Docs, Forms et Slides : intégration fluide d'IA avec ChatGPT, Claude, Gemini pour l'écriture, SEO, traduction et automatisation dans Google Workspace.

Le service d'inférence Nebius AI Studio propose des modèles open source hébergés pour des résultats plus rapides, moins chers et plus précis que les API propriétaires. Évoluez sans MLOps, idéal pour RAG et les charges de production.

AiAssistWorks est un module complémentaire IA pour Google Sheets, Slides et Docs, exploitant plus de 100 modèles comme GPT, Claude et Gemini pour automatiser la génération de contenu, formules, diapositives et tâches de données. Plan gratuit à vie avec votre propre clé API.

Circleback est un outil alimenté par l'IA pour générer des notes de réunion méticuleuses, des éléments d'action et des automatisations. Il s'intègre à Zoom, Google Meet, Teams et plus, compatible avec les réunions virtuelles et en personne avec une transcription précise dans plus de 100 langues.

AI Actions améliore l'app Shortcuts d'Apple avec des intégrations IA puissantes comme GPT-4o, Claude et DALL·E, en utilisant vos propres clés API pour une automatisation sécurisée et personnalisable sur iOS et macOS.

Découvrez Pal Chat, le client de chat IA léger mais puissant pour iOS. Accédez à GPT-4o, Claude 3.5 et plus de modèles avec une confidentialité totale : aucune donnée collectée. Générez des images, éditez des prompts et profitez d'interactions IA fluides sur iPhone ou iPad.

Substrate est la plateforme ultime pour l'IA composée, offrant des SDK puissants avec des modèles optimisés, un stockage vectoriel, un interpréteur de code et un contrôle agentique. Construisez des flux de travail IA multi-étapes efficaces plus rapidement que jamais : abandonnez LangChain pour un développement simplifié.

Smartbot est un assistant IA 100% personnalisable conçu pour augmenter votre productivité. Accédez aux meilleurs modèles d'IA, utilisez une bibliothèque d'invites et visualisez le code généré.

GenSearch révolutionne la recherche grâce à l'IA générative, permettant aux utilisateurs de créer des moteurs de recherche personnalisés basés sur l'IA avec des expériences personnalisées et des intégrations transparentes.

Macaify déverrouille ChatGPT sur votre Mac, permettant des capacités d'IA dans n'importe quelle application avec un simple raccourci. Augmentez la productivité avec le traitement de texte, la génération de code et l'automatisation.

one.email utilise l'IA pour organiser votre boîte de réception, vous faisant gagner des heures grâce à une catégorisation intelligente et une recherche puissante. Connectez tous vos comptes de messagerie et profitez d'une messagerie claire.