Ga naar hoofdinhoud

Chatten met lokale AI modellen

Waarom lokale AI-modellen?

Lokaal werken met AI-modellen biedt belangrijke voordelen:

  • Inherent veilig - Je data blijft op je eigen computer en wordt nooit naar externe servers gestuurd
  • Geen extra kosten - Lokale modellen hebben geen API-kosten per gebruik
  • Privacy gegarandeerd - Ideaal voor gevoelige documenten en informatie

Waarom Ollama?

Ollama is een tool waarmee je eenvoudig AI-modellen lokaal kunt draaien. Het wordt op iedere computer afzonderlijk geïnstalleerd, waardoor er geen beperkingen zijn wat betreft het aantal gebruikers - geen gedeelde server nodig.

Ollama installeren

  1. Ga naar de Ollama download pagina
  2. Download de versie voor jouw besturingssysteem (Windows, macOS of Linux)
  3. Installeer Ollama door de installer te volgen
  4. Na installatie draait Ollama automatisch op de achtergrond

Een taalmodel installeren

Na het installeren van Ollama moet je minimaal één taalmodel downloaden:

  1. Open de Ollama interface (via het systeemvak icoon of terminal)
  2. Download een taalmodel naar keuze

Aanbevolen model

Kies bij voorkeur een model dat tool en vision capabilities heeft:

  • Tool capabilities - Het model kan gebruikmaken van alle tools die beschikbaar zijn in de applicatie, zoals internet zoeken en afbeeldingen genereren
  • Vision capabilities - Het model kan afbeeldingen analyseren en beschrijven
Aanbevolen model

qwen3-vl:4b biedt een goede balans tussen snelheid en tool/vision mogelijkheden. Installeer dit model via de terminal:

ollama pull qwen3-vl:4b

Model kiezen op basis van hardware

De prestaties van een model zijn sterk afhankelijk van de hardware van je computer:

HardwareAanbeveling
Beperkt (8GB RAM, geen GPU)Kies kleinere modellen (1-4B parameters)
Gemiddeld (16GB RAM, basis GPU)Modellen tot 7B parameters
Krachtig (32GB+ RAM, moderne GPU)Grotere modellen mogelijk (13B+)
Snelheid vs. kwaliteit

Een kleiner model presteert over het algemeen beter qua snelheid, maar kan minder nauwkeurige antwoorden geven. Experimenteer om de beste balans voor jouw situatie te vinden.

Configuratie in de desktop applicatie

Zodra Ollama draait met een geïnstalleerd model, detecteert de desktop applicatie dit automatisch. Je kunt dan in de chat het lokale model selecteren als alternatief voor de cloud-modellen.

Beschikbare modellen met tool/vision support

Bekijk de volledige lijst op ollama.com/library. Filter op modellen met:

  • Tools tag voor tool capabilities
  • Vision tag voor afbeeldingsherkenning

Populaire opties:

  • qwen3-vl:4b - Compact, snel, tool + vision
  • llama3.2-vision - Vision capabilities
  • mistral - Snelle algemene taken