Text Generation Web UI
Vue d'ensemble de Text Generation Web UI
Interface Web de Génération de Texte : L'Interface Web Ultime pour l'IA Locale
Qu'est-ce que l'Interface Web de Génération de Texte ?
L'Interface Web de Génération de Texte, également connue sous le nom de oobabooga/text-generation-webui
, est une interface web Gradio conviviale et riche en fonctionnalités, conçue pour interagir avec les Grands Modèles de Langue (LLM) localement. Elle fournit un ensemble complet d'outils et de fonctionnalités pour exploiter la puissance de la génération de texte par IA sur votre propre machine, garantissant la confidentialité et le contrôle.
Comment fonctionne l'Interface Web de Génération de Texte ?
Cette interface web sert de pont entre vous et divers backends de génération de texte locaux. Elle prend en charge plusieurs backends tels que llama.cpp
, Transformers
, ExLlamaV3
, ExLlamaV2
et TensorRT-LLM
. L'interface utilisateur vous permet de :
- Sélectionner votre backend préféré: Choisissez le backend qui convient le mieux à votre matériel et aux exigences de votre modèle.
- Charger et gérer des modèles: Chargez facilement différents LLM et basculez entre eux sans redémarrer l'application.
- Configurer les paramètres de génération: Affinez le processus de génération de texte avec divers paramètres d'échantillonnage et options de génération.
- Interagir avec le modèle: Utilisez l'interface de chat intuitive ou l'onglet de bloc-notes à format libre pour interagir avec le modèle.
Pourquoi choisir l'Interface Web de Génération de Texte ?
- Confidentialité: Tout le traitement est effectué localement, garantissant que vos données restent privées.
- Fonctionnalité hors ligne: Aucune connexion Internet n'est requise, vous permettant d'utiliser l'outil à tout moment, n'importe où.
- Polyvalence: Prend en charge plusieurs backends et types de modèles, offrant flexibilité et personnalisation.
- Extensibilité: Offre une prise en charge des extensions pour l'ajout de nouvelles fonctionnalités.
- Facilité d'utilisation: Interface conviviale avec des thèmes sombres et clairs, la coloration syntaxique et le rendu LaTeX.
Principales Caractéristiques :
- Prise en Charge de Plusieurs Backends: S'intègre parfaitement avec
llama.cpp
,Transformers
,ExLlamaV3
,ExLlamaV2
etTensorRT-LLM
. - Configuration Facile: Offre des versions portables pour Windows/Linux/macOS, ne nécessitant aucune configuration, et un programme d'installation en un clic pour un environnement autonome.
- Hors Ligne et Privé: Fonctionne à 100 % hors ligne, sans télémétrie, ressources externes ou demandes de mise à jour à distance.
- Pièces Jointes: Permet de télécharger des fichiers texte, des documents PDF et des fichiers .docx pour discuter de leur contenu avec l'IA.
- Vision (Modèles Multimodaux): Prend en charge la fixation d'images aux messages pour la compréhension visuelle (tutoriel).
- Recherche Web: Peut éventuellement effectuer des recherches sur Internet avec des requêtes générées par LLM pour ajouter du contexte aux conversations.
- Interface Utilisateur Esthétique: Présente une interface utilisateur propre et attrayante avec des thèmes sombres et clairs.
- Coloration Syntaxique et Rendu LaTeX: Fournit une coloration syntaxique pour les blocs de code et un rendu LaTeX pour les expressions mathématiques.
- Modes Instruction et Chat: Comprend un mode d'instruction pour le suivi des instructions et des modes de chat pour interagir avec des personnages personnalisés.
- Formatage Automatique des Prompts: Utilise des modèles Jinja2 pour le formatage automatique des prompts.
- Édition des Messages et Ramification des Conversations: Permet de modifier les messages, de naviguer entre les versions et de ramifier les conversations.
- Paramètres d'Échantillonnage Multiples: Offre un contrôle sophistiqué sur la génération de texte avec divers paramètres d'échantillonnage et options de génération.
- Changement de Modèle: Permet de basculer entre différents modèles dans l'interface utilisateur sans redémarrer.
- Couches GPU Automatiques: Configure automatiquement les couches GPU pour les modèles GGUF sur les GPU NVIDIA.
- Génération de Texte Libre: Fournit un onglet Bloc-notes pour la génération de texte libre sans limitations de tours de chat.
- API Compatible OpenAI: Inclut une API compatible OpenAI avec des points de terminaison Chat et Complétions, y compris la prise en charge de l'appel d'outils.
- Prise en Charge des Extensions: Prend en charge de nombreuses extensions intégrées et contribuées par les utilisateurs.
Comment Installer l'Interface Web de Génération de Texte :
- **Versions Portables (Recommandé pour un Démarrage Rapide) 😗* * Téléchargez la version portable depuis la page des versions.
- Dézippez le fichier téléchargé.
- Exécutez l'exécutable.
- **Installation Portable Manuelle avec venv 😗* ```bash git clone https://github.com/oobabooga/text-generation-webui cd text-generation-webui python -m venv venv
On Windows:
venv\Scripts\activate
On macOS/Linux:
source venv/bin/activate
pip install -r requirements/portable/requirements.txt --upgrade
python server.py --portable --api --auto-launch
deactivate
```
3. **Programme d'Installation en un Clic (Pour les utilisateurs avancés) 😗* * Clonez le dépôt ou téléchargez le code source.
* Exécutez le script de démarrage pour votre système d'exploitation (start_windows.bat, start_linux.sh ou start_macos.sh).
* Sélectionnez votre fournisseur de GPU lorsque vous y êtes invité.
* Après l'installation, ouvrez http://127.0.0.1:7860
dans votre navigateur.
Téléchargement de Modèles :
Les modèles doivent être placés dans le dossier text-generation-webui/user_data/models
. Les modèles GGUF doivent être placés directement dans ce dossier, tandis que les autres types de modèles doivent être placés dans un sous-dossier.
Exemple :
text-generation-webui
└── user_data
└── models
└── llama-2-13b-chat.Q4_K_M.gguf
text-generation-webui
└── user_data
└── models
└── lmsys_vicuna-33b-v1.3
├── config.json
├── generation_config.json
├── pytorch_model-00001-of-00007.bin
...
Vous pouvez également utiliser l'interface utilisateur pour télécharger automatiquement des modèles depuis Hugging Face ou utiliser l'outil en ligne de commande :
python download-model.py organization/model
Exécutez python download-model.py --help
pour voir toutes les options.
À Qui s'Adresse l'Interface Web de Génération de Texte ?
L'Interface Web de Génération de Texte est idéale pour :
- Les chercheurs et développeurs travaillant avec des LLM.
- Les passionnés d'IA qui souhaitent expérimenter la génération de texte.
- Les utilisateurs qui privilégient la confidentialité et souhaitent exécuter des LLM localement.
Ressources Utiles :
L'Interface Web de Génération de Texte fournit une plateforme puissante et polyvalente pour explorer les capacités de la génération de texte par IA locale. Sa facilité d'utilisation, ses nombreuses fonctionnalités et son engagement en faveur de la confidentialité en font un excellent choix pour toute personne intéressée à travailler avec les Grands Modèles de Langue à ses propres conditions.
Meilleurs outils alternatifs à "Text Generation Web UI"

Cove est un espace de travail visuel alimenté par l'IA conçu pour la pensée collaborative. Explorez des idées, planifiez des projets et travaillez avec l'IA à l'aide d'applications personnalisées et d'éditions en temps réel.

AI Runner est un moteur d'inférence d'IA hors ligne pour l'art, les conversations vocales en temps réel, les chatbots alimentés par LLM et les flux de travail automatisés. Exécutez la génération d'images, le chat vocal et plus encore localement !

ConsoleX AI est un Agentic AI Studio conçu pour les créateurs de contenu. Rationalisez votre recherche, composition, publication et analyse grâce à son interface de chat simplifiée et à de puissants outils d'IA.

KoboldCpp : Exécutez facilement des modèles GGUF pour la génération de texte et d'images IA avec une interface utilisateur KoboldAI. Fichier unique, installation zéro. Prend en charge CPU/GPU, STT, TTS et Stable Diffusion.

Magic Loops est une plateforme sans code qui combine LLMs et code pour créer des applications natives IA professionnelles en quelques minutes. Automatisez les tâches, créez des outils personnalisés et explorez les applications communautaires sans compétences en codage.

Transformez votre flux de travail avec BrainSoup ! Créez des agents IA personnalisés pour gérer les tâches et automatiser les processus via un langage naturel. Améliorez l'IA avec vos données tout en priorisant la confidentialité et la sécurité.

Discutez avec l'IA en utilisant vos clés API. Payez uniquement ce que vous utilisez. Prend en charge GPT-4, Gemini, Claude et autres LLMs. La meilleure interface de chat frontend LLM pour tous les modèles d'IA.

L'Écrivain de Blog AI de Bloggr.AI vous aide à générer rapidement des articles de blog optimisés SEO et sans plagiat—gratuit avec voix de marque, plans et intégration de liens.

Découvrez Stable Diffusion, un générateur d'images AI open-source pour créer des images réalistes à partir de prompts textuels. Accédez via Stablediffusionai.ai ou installation locale pour l'art, le design et les projets créatifs avec une personnalisation élevée.

Chat2DB est un client SQL basé sur l'IA qui transforme le langage naturel en requêtes SQL. Prend en charge MySQL, Redis, MongoDB et améliore la gestion de bases de données avec les fonctionnalités Text2SQL et BI.

Zed est un éditeur de code haute performance construit en Rust, conçu pour la collaboration avec les humains et l'IA. Les fonctionnalités incluent l'édition agentique basée sur l'IA, la prise en charge native de Git et le développement à distance.

AI Superior est une société de services d'IA basée en Allemagne, spécialisée dans le développement d'applications basées sur l'IA et le conseil. Ils offrent des solutions d'IA personnalisées, une formation et de la R&D pour améliorer la compétitivité des entreprises.

MusicGen AI est un outil gratuit de génération de musique par IA de Meta, utilisant un seul modèle de langage pour créer de la musique de haute qualité à partir d'invites textuelles ou de mélodies. Découvrez ses fonctionnalités et son interface Web.

TypingMind est une interface utilisateur de chat IA qui prend en charge GPT-4, Gemini, Claude et autres LLM. Utilisez vos clés API et ne payez que ce que vous utilisez. Meilleure interface utilisateur frontend LLM de chat pour tous les modèles d'IA.