Construye un motor de respuestas de IA con Next.js, Groq & Llama-3

llm-answer-engine

3.5 | 54 | 0
Tipo:
Proyectos de Código Abierto
Última actualización:
2025/10/07
Descripción:
Construye un motor de respuestas de IA inspirado en Perplexity utilizando Next.js, Groq, Llama-3 y Langchain. Obtén fuentes, respuestas, imágenes y preguntas de seguimiento de manera eficiente.
Compartir:
Motor de respuestas de IA
búsqueda semántica
langchain
mixtral
groq

Descripción general de llm-answer-engine

Motor de respuestas LLM: construye tu propio sistema de preguntas y respuestas impulsado por AI

Este proyecto de código abierto, llm-answer-engine, proporciona el código y las instrucciones para construir un sofisticado motor de respuestas AI inspirado en Perplexity. Aprovecha tecnologías de vanguardia como Groq, Mixtral de Mistral AI, Langchain.JS, Brave Search, Serper API y OpenAI para ofrecer respuestas completas a las consultas de los usuarios, con fuentes, imágenes, vídeos y preguntas de seguimiento.

¿Qué es llm-answer-engine?

llm-answer-engine es un punto de partida para los desarrolladores interesados en explorar el procesamiento del lenguaje natural y las tecnologías de búsqueda. Te permite crear un sistema que responda eficientemente a las preguntas mediante:

  • Recuperar información relevante de diversas fuentes.
  • Generar respuestas concisas e informativas.
  • Proporcionar evidencia de apoyo y medios relacionados.
  • Sugerir preguntas de seguimiento para guiar la exploración posterior.

¿Cómo funciona llm-answer-engine?

El motor utiliza una combinación de tecnologías para procesar las consultas de los usuarios y generar respuestas relevantes:

  1. Comprensión de consultas: Tecnologías como Groq y Mixtral se utilizan para procesar y comprender la pregunta del usuario.
  2. Recuperación de información:
    • Brave Search: Se utiliza un motor de búsqueda centrado en la privacidad para encontrar contenido e imágenes relevantes.
    • Serper API: Se utiliza para obtener resultados de vídeo e imagen relevantes basados en la consulta del usuario.
    • Cheerio: Se utiliza para el análisis HTML, lo que permite la extracción de contenido de páginas web.
  3. Procesamiento de texto:
    • Langchain.JS: Una biblioteca de JavaScript centrada en operaciones de texto, como la división de texto y las incrustaciones.
    • OpenAI Embeddings: Se utiliza para crear representaciones vectoriales de fragmentos de texto.
  4. Componentes opcionales:
    • Ollama: Se utiliza para la inferencia y las incrustaciones de transmisión.
    • Upstash Redis Rate Limiting: Se utiliza para configurar la limitación de velocidad para la aplicación.
    • Upstash Semantic Cache: Se utiliza para almacenar en caché los datos para obtener tiempos de respuesta más rápidos.

Características y tecnologías clave:

  • Next.js: Un marco de React para la creación de aplicaciones web estáticas y renderizadas en el servidor, que proporciona una base sólida para la interfaz de usuario.
  • Tailwind CSS: Un marco CSS de utilidad primero para la creación rápida de interfaces de usuario personalizadas, lo que permite una personalización y un estilo eficientes.
  • Vercel AI SDK: Una biblioteca para la creación de texto de transmisión y interfaces de usuario de chat impulsadas por AI, que mejora la experiencia del usuario con comentarios en tiempo real.
  • Soporte de llamada de función (Beta): Amplía la funcionalidad con integraciones para Mapas y ubicaciones (Serper Locations API), Compras (Serper Shopping API), Datos bursátiles de TradingView y Spotify.
  • Soporte de Ollama (parcialmente compatible): Ofrece compatibilidad con Ollama para la transmisión de respuestas de texto e incrustaciones, lo que permite la ejecución de modelos locales.

¿Cómo utilizar llm-answer-engine?

Para empezar a utilizar llm-answer-engine, sigue estos pasos:

  1. Requisitos previos:
    • Obtén las claves API de OpenAI, Groq, Brave Search y Serper.
    • Asegúrate de que Node.js y npm (o bun) estén instalados.
    • (Opcional) Instala Docker y Docker Compose para la implementación en contenedores.
  2. Instalación:

git clone https://github.com/developersdigest/llm-answer-engine.git cd llm-answer-engine 3. **Configuración**: * **Docker**: Edita el archivo `docker-compose.yml` y añade tus claves API. * **No Docker**: Crea un archivo `.env` en la raíz de tu proyecto y añade tus claves API. 4. **Ejecuta el servidor**: * **Docker**:bash docker compose up -d * **No Docker**:bash npm install # or bun install npm run dev # or bun run dev ```

El servidor estará escuchando en el puerto especificado.

¿Por qué elegir llm-answer-engine?

  • Inspirado en Perplexity: Proporciona una experiencia de usuario similar a la de un motor de respuestas AI líder.
  • Aprovecha tecnologías potentes: Combina lo mejor de lo mejor en PNL, búsqueda y desarrollo web.
  • De código abierto y personalizable: Te permite adaptar el motor a tus necesidades específicas.
  • Soporte de llamada de función: Amplía la funcionalidad con integraciones para Mapas y ubicaciones, Compras, Datos bursátiles de TradingView y Spotify.

¿Para quién es llm-answer-engine?

Este proyecto es ideal para:

  • Desarrolladores interesados en el procesamiento del lenguaje natural y las tecnologías de búsqueda.
  • Investigadores que exploran sistemas de preguntas y respuestas.
  • Cualquiera que quiera construir su propia base de conocimiento impulsada por AI.

Hoja de ruta:

La hoja de ruta del proyecto incluye características interesantes como:

  • Carga de documentos + RAG para la búsqueda/recuperación de documentos.
  • Un componente de configuración para permitir a los usuarios seleccionar el modelo, el modelo de incrustaciones y otros parámetros desde la interfaz de usuario.
  • Añadir soporte para preguntas de seguimiento al usar Ollama

Contribución:

¡Las contribuciones son bienvenidas! Bifurca el repositorio, realiza tus cambios y envía una solicitud de extracción.

Este proyecto está licenciado bajo la Licencia MIT.

Construye tu propio motor de respuestas impulsado por AI y explora las posibilidades del procesamiento del lenguaje natural con llm-answer-engine!

Mejores herramientas alternativas a "llm-answer-engine"

GPT for Sheets™ Docs™ Forms™ Slides™
Imagen no disponible
160 0

Descubre GPT para Sheets, Docs, Forms y Slides: integración fluida de IA con ChatGPT, Claude, Gemini para escritura, SEO, traducción y automatización en Google Workspace.

Integración Google Sheets
AI Actions
Imagen no disponible
102 0

AI Actions mejora la app Shortcuts de Apple con integraciones de IA potentes como GPT-4o, Claude y DALL·E, usando tus propias claves API para automatización segura y personalizable en iOS y macOS.

integración Shortcuts
acciones API IA
EnergeticAI
Imagen no disponible
253 0

EnergeticAI es TensorFlow.js optimizado para funciones sin servidor, que ofrece un inicio en frío rápido, un tamaño de módulo pequeño y modelos preentrenados, lo que hace que la IA sea accesible en aplicaciones Node.js hasta 67 veces más rápido.

IA sin servidor
node.js
YouTube-to-Chatbot
Imagen no disponible
105 0

YouTube-to-Chatbot es un cuaderno de Python de código abierto que entrena chatbots de IA en canales completos de YouTube usando OpenAI, LangChain y Pinecone. Ideal para creadores que construyen agentes conversacionales atractivos a partir de contenido de video.

integración de YouTube
Nebius AI Studio Inference Service
Imagen no disponible
88 0

El servicio de inferencia de Nebius AI Studio ofrece modelos de código abierto alojados para resultados más rápidos, baratos y precisos que las APIs propietarias. Escala sin problemas sin MLOps, ideal para RAG y cargas de trabajo de producción.

inferencia de IA
Circleback
Imagen no disponible
94 0

Circleback es una herramienta impulsada por IA para generar notas de reuniones meticulosas, elementos de acción y automatizaciones. Se integra con Zoom, Google Meet, Teams y más, compatible con reuniones virtuales e in-person con transcripción precisa en más de 100 idiomas.

notas de reuniones
Pal Chat
Imagen no disponible
96 0

Descubre Pal Chat, el cliente de chat AI ligero pero potente para iOS. Accede a GPT-4o, Claude 3.5 y más modelos con privacidad total: no se recopila datos. Genera imágenes, edita prompts y disfruta interacciones AI fluidas en iPhone o iPad.

chat AI multi-modelo
AiAssistWorks
Imagen no disponible
77 0

AiAssistWorks es un complemento de IA para Google Sheets, Slides y Docs, que utiliza más de 100 modelos como GPT, Claude y Gemini para automatizar la generación de contenido, fórmulas, diapositivas y tareas de datos. Plan gratuito para siempre con tu propia clave API.

automatización de hojas de cálculo
smolagents
Imagen no disponible
88 0

Smolagents es una biblioteca Python minimalista para crear agentes IA que razonan y actúan a través de código. Soporta modelos LLM agnósticos, sandboxes seguros e integración con Hugging Face Hub para flujos de trabajo de agentes basados en código eficientes.

agentes de código
integración LLM
EvalMy.AI
Imagen no disponible
211 0

EvalMy.AI automatiza la verificación de respuestas de IA y la evaluación RAG, optimizando las pruebas LLM. Garantiza precisión, configurabilidad y escalabilidad con una API fácil de usar.

RAG
LLM
validación de IA
Ask an AI Lawyer
Imagen no disponible
66 0

Ask an AI Lawyer ofrece información legal impulsada por IA de forma gratuita. Envía tu pregunta en línea y recibe respuestas completas en menos de 5 minutos. Ideal para consultas generales sobre temas como leyes de tráfico, divorcio y más – consulta siempre a profesionales para asesoramiento.

respuesta a preguntas legales
Semantic Scholar
Imagen no disponible
176 0

Semantic Scholar es una herramienta de investigación gratuita impulsada por IA que ayuda a los académicos a descubrir literatura científica relevante al comprender la semántica de los artículos de investigación.

Investigación de IA
TemplateAI
Imagen no disponible
225 0

TemplateAI es una plantilla AI de NextJS con autenticación Supabase, pagos Stripe, integración OpenAI/Claude y componentes AI listos para producción. Cree aplicaciones AI full-stack rápidamente sin boilerplate.

NextJS
plantilla AI
JotSense
Imagen no disponible
443 0

JotSense es un agente de toma de notas con IA que extrae y organiza automáticamente el conocimiento de videos, reuniones, artículos y correos electrónicos, ayudándole a concentrarse en pensar, aprender y actuar.

Toma de notas con IA
ContractPower
Imagen no disponible
200 0

ContractPower utiliza la IA para agilizar la revisión de contratos y regulaciones de energía renovable, garantizando el cumplimiento y ahorrando tiempo. Ideal para fusiones y adquisiciones, legal y gestión de activos.

energía renovable