Modèles d'IA locaux avec Ollama
Pourquoi des modèles d'IA locaux?
L'exécution locale de modèles d'IA sur votre ordinateur offre plusieurs avantages importants:
| Aspect | Modèles locaux | API Cloud |
|---|---|---|
| Confidentialité | Vos données restent sur votre ordinateur | Les données sont envoyées aux serveurs cloud |
| Coût | Gratuit après installation | Paiement par appel API |
| Vitesse | Pas de latence Internet | Dépend de la connexion |
| Hors ligne | Fonctionne sans Internet | Nécessite une connexion Internet |
| Contrôle | Contrôle complet de vos données | Les données sont traitées par des tiers |
Pourquoi Ollama?
Ollama est la plateforme leader pour exécuter localement des modèles d'IA open-source. Caractéristiques principales:
- ✅ Installation et configuration faciles
- ✅ Des milliers de modèles disponibles
- ✅ Léger et rapide
- ✅ Multiplateforme (Windows, macOS, Linux)
- ✅ Gestion simple des modèles
- ✅ API compatible OpenAI
Installation
1. Télécharger et installer Ollama
Visitez ollama.ai et téléchargez l'installeur pour votre système d'exploitation.
2. Vérifier l'installation
Après l'installation, vérifiez qu'Ollama fonctionne:
ollama --version
Sous Windows, redémarrez votre terminal après l'installation.
3. Récupérer un modèle
Téléchargez un modèle (exemple avec qwen2.5):
ollama pull qwen2.5:7b
Cela téléchargera le modèle. Selon votre vitesse Internet, cela peut prendre quelques minutes.
Installation de modèles
Démarrage rapide
Pour le meilleur équilibre entre qualité et performance, nous recommandons:
ollama pull qwen3-vl:4b
Modèle recommandé: qwen3-vl:4b
Ce modèle est recommandé car il:
- ✅ Ne nécessite que 4GB de RAM
- ✅ Inclut des capacités de vision (pour voir les images)
- ✅ Offre un bon équilibre entre vitesse et qualité
- ✅ Fonctionne bien sur la plupart du matériel
- ✅ Est entièrement ouvert et libre d'utilisation
Installer d'autres modèles
Vous pouvez installer des modèles supplémentaires:
# Autres modèles populaires
ollama pull llama2:7b # Excellent modèle polyvalent
ollama pull mistral:7b # Rapide et capable
ollama pull neural-chat:7b # Excellent pour les conversations
Recommandations matérielles
Ollama fonctionne sur divers matériels. Voici ce dont vous avez besoin pour différents modèles:
| Taille du modèle | RAM nécessaire | Carte graphique | Performance |
|---|---|---|---|
| 3-4B | 4GB minimum | Non nécessaire | Rapide (5-10 tokens/sec) |
| 7B | 8GB recommandé | Optionnel (plus rapide) | Bon (2-5 tokens/sec) |
| 13B+ | 16GB+ recommandé | GPU fortement recommandé | Plus lent sans GPU |
Accélération GPU: Si vous disposez d'un GPU NVIDIA, Ollama l'utilisera automatiquement pour une inférence plus rapide.
Configuration dans l'application de bureau
Après l'installation d'Ollama et des modèles:
- Ouvrez l'application de bureau AI-School
- Allez à Paramètres → Modèles locaux
- Vérifiez qu'Ollama est détecté
- Sélectionnez votre modèle dans la liste déroulante
- Vous êtes prêt à utiliser l'IA locale!
Modèles disponibles
Modèles populaires disponibles via Ollama:
Modèles de vision (peuvent voir les images)
- qwen3-vl:4b (recommandé) - Modèle de vision rapide
- llama2-vision:13b - Modèle de vision plus puissant
- minicpm-v:latest - Modèle de vision compact
Modèles de texte
- qwen2.5:7b - Excellent pour toutes les tâches
- llama2:7b - Classique, bien testé
- mistral:7b - Rapide et efficace
- neural-chat:7b - Orientation conversationnelle
- openchat:7b - Bon modèle polyvalent
Modèles spécialisés
- codegemma:7b - Pour les tâches de programmation
- sqlcoder:7b - Requêtes de base de données SQL
- dolphin-mixtral:8x7b - Modèle de mélange puissant
Commencez avec qwen3-vl:4b et explorez d'autres modèles selon vos besoins!