Construire un moteur de réponses IA avec Next.js, Groq & Llama-3

llm-answer-engine

3.5 | 61 | 0
Type:
Projets Open Source
Dernière mise à jour:
2025/10/07
Description:
Construisez un moteur de réponses IA inspiré de Perplexity en utilisant Next.js, Groq, Llama-3 et Langchain. Obtenez des sources, des réponses, des images et des questions de suivi efficacement.
Partager:
Moteur de réponses IA
recherche sémantique
langchain
mixtral
groq

Vue d'ensemble de llm-answer-engine

Moteur de réponse LLM : construisez votre propre système de questions-réponses alimenté par l'IA

Ce projet open source, llm-answer-engine, fournit le code et les instructions pour construire un moteur de réponse d'IA sophistiqué inspiré de Perplexity. Il exploite des technologies de pointe telles que Groq, Mixtral de Mistral AI, Langchain.JS, Brave Search, Serper API et OpenAI pour fournir des réponses complètes aux requêtes des utilisateurs, avec des sources, des images, des vidéos et des questions de suivi.

Qu'est-ce que llm-answer-engine ?

llm-answer-engine est un point de départ pour les développeurs intéressés par l'exploration du traitement du langage naturel et des technologies de recherche. Il vous permet de créer un système qui répond efficacement aux questions en :

  • Récupérant des informations pertinentes provenant de diverses sources.
  • Générant des réponses concises et informatives.
  • Fournissant des preuves à l'appui et des médias connexes.
  • Suggérant des questions de suivi pour guider l'exploration plus approfondie.

Comment fonctionne llm-answer-engine ?

Le moteur utilise une combinaison de technologies pour traiter les requêtes des utilisateurs et générer des réponses pertinentes :

  1. Compréhension des requêtes: Des technologies telles que Groq et Mixtral sont utilisées pour traiter et comprendre la question de l'utilisateur.
  2. Récupération d'informations:
    • Brave Search: Un moteur de recherche axé sur la confidentialité est utilisé pour trouver du contenu et des images pertinents.
    • Serper API: Utilisée pour récupérer des résultats vidéo et image pertinents en fonction de la requête de l'utilisateur.
    • Cheerio: Utilisée pour l'analyse HTML, permettant l'extraction de contenu à partir de pages web.
  3. Traitement du texte:
    • Langchain.JS: Une bibliothèque JavaScript axée sur les opérations de texte, telles que la division de texte et les intégrations.
    • OpenAI Embeddings: Utilisée pour créer des représentations vectorielles de morceaux de texte.
  4. Composants optionnels:
    • Ollama: Utilisée pour l'inférence et les intégrations en streaming.
    • Upstash Redis Rate Limiting: Utilisée pour configurer la limitation de débit pour l'application.
    • Upstash Semantic Cache: Utilisée pour la mise en cache des données afin d'accélérer les temps de réponse.

Principales caractéristiques et technologies:

  • Next.js: Un framework React pour la création d'applications web statiques et rendues côté serveur, fournissant une base solide pour l'interface utilisateur.
  • Tailwind CSS: Un framework CSS utilitaire pour la création rapide d'interfaces utilisateur personnalisées, permettant un style et une personnalisation efficaces.
  • Vercel AI SDK: Une bibliothèque pour la création d'interfaces utilisateur de texte et de chat en streaming alimentées par l'IA, améliorant l'expérience utilisateur avec un retour d'information en temps réel.
  • Prise en charge des appels de fonction (Beta): Étend les fonctionnalités avec des intégrations pour les cartes et les lieux (Serper Locations API), le shopping (Serper Shopping API), les données boursières de TradingView et Spotify.
  • Prise en charge d'Ollama (partiellement prise en charge): Offre une compatibilité avec Ollama pour le streaming de réponses textuelles et d'intégrations, permettant l'exécution de modèles locaux.

Comment utiliser llm-answer-engine ?

Pour commencer avec llm-answer-engine, suivez ces étapes :

  1. Prérequis:
    • Obtenez les clés API d'OpenAI, Groq, Brave Search et Serper.
    • Assurez-vous que Node.js et npm (ou bun) sont installés.
    • (Facultatif) Installez Docker et Docker Compose pour le déploiement en conteneur.
  2. Installation:

git clone https://github.com/developersdigest/llm-answer-engine.git cd llm-answer-engine 3. **Configuration**: * **Docker**: Modifiez le fichier `docker-compose.yml` et ajoutez vos clés API. * **Non-Docker**: Créez un fichier `.env` à la racine de votre projet et ajoutez vos clés API. 4. **Exécutez le serveur**: * **Docker**:bash docker compose up -d * **Non-Docker**:bash npm install # or bun install npm run dev # or bun run dev ```

Le serveur sera à l'écoute sur le port spécifié.

Pourquoi choisir llm-answer-engine ?

  • Inspiré par Perplexity: Offre une expérience utilisateur similaire à celle d'un moteur de réponse d'IA de premier plan.
  • Exploite des technologies puissantes: Combine le meilleur des technologies NLP, de recherche et de développement web.
  • Open source et personnalisable: Vous permet d'adapter le moteur à vos besoins spécifiques.
  • Prise en charge des appels de fonction: Étend les fonctionnalités avec des intégrations pour les cartes et les lieux, le shopping, les données boursières de TradingView et Spotify.

À qui s'adresse llm-answer-engine ?

Ce projet est idéal pour :

  • Les développeurs intéressés par le traitement du langage naturel et les technologies de recherche.
  • Les chercheurs qui explorent les systèmes de questions-réponses.
  • Toute personne souhaitant construire sa propre base de connaissances alimentée par l'IA.

Feuille de route:

La feuille de route du projet comprend des fonctionnalités intéressantes telles que :

  • Téléchargement de documents + RAG pour la recherche/récupération de documents.
  • Un composant de paramètres pour permettre aux utilisateurs de sélectionner le modèle, le modèle d'intégrations et d'autres paramètres à partir de l'interface utilisateur.
  • Ajout de la prise en charge des questions de suivi lors de l'utilisation d'Ollama

Contribution:

Les contributions sont les bienvenues ! Fourchez le dépôt, effectuez vos modifications et soumettez une demande de tirage.

Ce projet est sous licence MIT.

Construisez votre propre moteur de réponse alimenté par l'IA et explorez les possibilités du traitement du langage naturel avec llm-answer-engine !

Meilleurs outils alternatifs à "llm-answer-engine"

smolagents
Image non disponible
88 0

Smolagents est une bibliothèque Python minimaliste pour créer des agents IA qui raisonnent et agissent via du code. Elle prend en charge les modèles LLM agnostiques, les sandboxes sécurisées et une intégration fluide avec Hugging Face Hub pour des flux de travail d'agents basés sur le code efficaces.

agents de code
intégration LLM
YouTube-to-Chatbot
Image non disponible
105 0

YouTube-to-Chatbot est un notebook Python open-source qui entraîne des chatbots IA sur des chaînes YouTube entières en utilisant OpenAI, LangChain et Pinecone. Idéal pour les créateurs qui construisent des agents conversationnels engageants à partir de contenu vidéo.

intégration YouTube
Nuanced
Image non disponible
87 0

Nuanced renforce les outils de codage IA comme Cursor et Claude Code avec une analyse statique et des graphes d'appels TypeScript précis, réduisant les dépenses de tokens de 33 % et augmentant le succès des builds pour une génération de code efficace et précise.

graphes d'appels
analyse statique
EnergeticAI
Image non disponible
253 0

EnergeticAI est TensorFlow.js optimisé pour les fonctions serverless, offrant un démarrage à froid rapide, une petite taille de module et des modèles pré-entraînés, rendant l'IA accessible dans les applications Node.js jusqu'à 67 fois plus rapidement.

IA sans serveur
node.js
GPT for Sheets™ Docs™ Forms™ Slides™
Image non disponible
160 0

Découvrez GPT pour Sheets, Docs, Forms et Slides : intégration fluide d'IA avec ChatGPT, Claude, Gemini pour l'écriture, SEO, traduction et automatisation dans Google Workspace.

Intégration Google Sheets
Nebius AI Studio Inference Service
Image non disponible
88 0

Le service d'inférence Nebius AI Studio propose des modèles open source hébergés pour des résultats plus rapides, moins chers et plus précis que les API propriétaires. Évoluez sans MLOps, idéal pour RAG et les charges de production.

inférence IA
LLMs open source
AiAssistWorks
Image non disponible
77 0

AiAssistWorks est un module complémentaire IA pour Google Sheets, Slides et Docs, exploitant plus de 100 modèles comme GPT, Claude et Gemini pour automatiser la génération de contenu, formules, diapositives et tâches de données. Plan gratuit à vie avec votre propre clé API.

automatisation de feuilles de calcul
Circleback
Image non disponible
94 0

Circleback est un outil alimenté par l'IA pour générer des notes de réunion méticuleuses, des éléments d'action et des automatisations. Il s'intègre à Zoom, Google Meet, Teams et plus, compatible avec les réunions virtuelles et en personne avec une transcription précise dans plus de 100 langues.

notes de réunion
éléments d'action
AI Actions
Image non disponible
102 0

AI Actions améliore l'app Shortcuts d'Apple avec des intégrations IA puissantes comme GPT-4o, Claude et DALL·E, en utilisant vos propres clés API pour une automatisation sécurisée et personnalisable sur iOS et macOS.

intégration Shortcuts
actions API IA
Pal Chat
Image non disponible
96 0

Découvrez Pal Chat, le client de chat IA léger mais puissant pour iOS. Accédez à GPT-4o, Claude 3.5 et plus de modèles avec une confidentialité totale : aucune donnée collectée. Générez des images, éditez des prompts et profitez d'interactions IA fluides sur iPhone ou iPad.

chat IA multi-modèle
Substrate
Image non disponible
68 0

Substrate est la plateforme ultime pour l'IA composée, offrant des SDK puissants avec des modèles optimisés, un stockage vectoriel, un interpréteur de code et un contrôle agentique. Construisez des flux de travail IA multi-étapes efficaces plus rapidement que jamais : abandonnez LangChain pour un développement simplifié.

IA agentique
IA composée
Smartbot
Image non disponible
233 0

Smartbot est un assistant IA 100% personnalisable conçu pour augmenter votre productivité. Accédez aux meilleurs modèles d'IA, utilisez une bibliothèque d'invites et visualisez le code généré.

Productivité de l'IA
GenSearch
Image non disponible
35 0

GenSearch révolutionne la recherche grâce à l'IA générative, permettant aux utilisateurs de créer des moteurs de recherche personnalisés basés sur l'IA avec des expériences personnalisées et des intégrations transparentes.

Recherche IA
recherche sémantique
Macaify
Image non disponible
293 0

Macaify déverrouille ChatGPT sur votre Mac, permettant des capacités d'IA dans n'importe quelle application avec un simple raccourci. Augmentez la productivité avec le traitement de texte, la génération de code et l'automatisation.

Automatisation de l'IA
one.email
Image non disponible
165 0

one.email utilise l'IA pour organiser votre boîte de réception, vous faisant gagner des heures grâce à une catégorisation intelligente et une recherche puissante. Connectez tous vos comptes de messagerie et profitez d'une messagerie claire.

organisation des e-mails