Aller au contenu principal

Modèles d'IA locaux avec Ollama

Pourquoi des modèles d'IA locaux?

L'exécution locale de modèles d'IA sur votre ordinateur offre plusieurs avantages importants:

AspectModèles locauxAPI Cloud
ConfidentialitéVos données restent sur votre ordinateurLes données sont envoyées aux serveurs cloud
CoûtGratuit après installationPaiement par appel API
VitessePas de latence InternetDépend de la connexion
Hors ligneFonctionne sans InternetNécessite une connexion Internet
ContrôleContrôle complet de vos donnéesLes données sont traitées par des tiers

Pourquoi Ollama?

Ollama est la plateforme leader pour exécuter localement des modèles d'IA open-source. Caractéristiques principales:

  • ✅ Installation et configuration faciles
  • ✅ Des milliers de modèles disponibles
  • ✅ Léger et rapide
  • ✅ Multiplateforme (Windows, macOS, Linux)
  • ✅ Gestion simple des modèles
  • ✅ API compatible OpenAI

Installation

1. Télécharger et installer Ollama

Visitez ollama.ai et téléchargez l'installeur pour votre système d'exploitation.

2. Vérifier l'installation

Après l'installation, vérifiez qu'Ollama fonctionne:

ollama --version

Sous Windows, redémarrez votre terminal après l'installation.

3. Récupérer un modèle

Téléchargez un modèle (exemple avec qwen2.5):

ollama pull qwen2.5:7b

Cela téléchargera le modèle. Selon votre vitesse Internet, cela peut prendre quelques minutes.

Installation de modèles

Démarrage rapide

Pour le meilleur équilibre entre qualité et performance, nous recommandons:

ollama pull qwen3-vl:4b

Modèle recommandé: qwen3-vl:4b

Ce modèle est recommandé car il:

  • ✅ Ne nécessite que 4GB de RAM
  • ✅ Inclut des capacités de vision (pour voir les images)
  • ✅ Offre un bon équilibre entre vitesse et qualité
  • ✅ Fonctionne bien sur la plupart du matériel
  • ✅ Est entièrement ouvert et libre d'utilisation

Installer d'autres modèles

Vous pouvez installer des modèles supplémentaires:

# Autres modèles populaires
ollama pull llama2:7b # Excellent modèle polyvalent
ollama pull mistral:7b # Rapide et capable
ollama pull neural-chat:7b # Excellent pour les conversations

Recommandations matérielles

Ollama fonctionne sur divers matériels. Voici ce dont vous avez besoin pour différents modèles:

Taille du modèleRAM nécessaireCarte graphiquePerformance
3-4B4GB minimumNon nécessaireRapide (5-10 tokens/sec)
7B8GB recommandéOptionnel (plus rapide)Bon (2-5 tokens/sec)
13B+16GB+ recommandéGPU fortement recommandéPlus lent sans GPU

Accélération GPU: Si vous disposez d'un GPU NVIDIA, Ollama l'utilisera automatiquement pour une inférence plus rapide.

Configuration dans l'application de bureau

Après l'installation d'Ollama et des modèles:

  1. Ouvrez l'application de bureau AI-School
  2. Allez à ParamètresModèles locaux
  3. Vérifiez qu'Ollama est détecté
  4. Sélectionnez votre modèle dans la liste déroulante
  5. Vous êtes prêt à utiliser l'IA locale!

Modèles disponibles

Modèles populaires disponibles via Ollama:

Modèles de vision (peuvent voir les images)

  • qwen3-vl:4b (recommandé) - Modèle de vision rapide
  • llama2-vision:13b - Modèle de vision plus puissant
  • minicpm-v:latest - Modèle de vision compact

Modèles de texte

  • qwen2.5:7b - Excellent pour toutes les tâches
  • llama2:7b - Classique, bien testé
  • mistral:7b - Rapide et efficace
  • neural-chat:7b - Orientation conversationnelle
  • openchat:7b - Bon modèle polyvalent

Modèles spécialisés

  • codegemma:7b - Pour les tâches de programmation
  • sqlcoder:7b - Requêtes de base de données SQL
  • dolphin-mixtral:8x7b - Modèle de mélange puissant

Commencez avec qwen3-vl:4b et explorez d'autres modèles selon vos besoins!