Chatten met lokale AI modellen
Waarom lokale AI-modellen?
Lokaal werken met AI-modellen biedt belangrijke voordelen:
- Inherent veilig - Je data blijft op je eigen computer en wordt nooit naar externe servers gestuurd
- Geen extra kosten - Lokale modellen hebben geen API-kosten per gebruik
- Privacy gegarandeerd - Ideaal voor gevoelige documenten en informatie
Waarom Ollama?
Ollama is een tool waarmee je eenvoudig AI-modellen lokaal kunt draaien. Het wordt op iedere computer afzonderlijk geïnstalleerd, waardoor er geen beperkingen zijn wat betreft het aantal gebruikers - geen gedeelde server nodig.
Ollama installeren
- Ga naar de Ollama download pagina
- Download de versie voor jouw besturingssysteem (Windows, macOS of Linux)
- Installeer Ollama door de installer te volgen
- Na installatie draait Ollama automatisch op de achtergrond
Een taalmodel installeren
Na het installeren van Ollama moet je minimaal één taalmodel downloaden:
- Open de Ollama interface (via het systeemvak icoon of terminal)
- Download een taalmodel naar keuze
Aanbevolen model
Kies bij voorkeur een model dat tool en vision capabilities heeft:
- Tool capabilities - Het model kan gebruikmaken van alle tools die beschikbaar zijn in de applicatie, zoals internet zoeken en afbeeldingen genereren
- Vision capabilities - Het model kan afbeeldingen analyseren en beschrijven
qwen3-vl:4b biedt een goede balans tussen snelheid en tool/vision mogelijkheden. Installeer dit model via de terminal:
ollama pull qwen3-vl:4b
Model kiezen op basis van hardware
De prestaties van een model zijn sterk afhankelijk van de hardware van je computer:
| Hardware | Aanbeveling |
|---|---|
| Beperkt (8GB RAM, geen GPU) | Kies kleinere modellen (1-4B parameters) |
| Gemiddeld (16GB RAM, basis GPU) | Modellen tot 7B parameters |
| Krachtig (32GB+ RAM, moderne GPU) | Grotere modellen mogelijk (13B+) |
Een kleiner model presteert over het algemeen beter qua snelheid, maar kan minder nauwkeurige antwoorden geven. Experimenteer om de beste balans voor jouw situatie te vinden.
Configuratie in de desktop applicatie
Zodra Ollama draait met een geïnstalleerd model, detecteert de desktop applicatie dit automatisch. Je kunt dan in de chat het lokale model selecteren als alternatief voor de cloud-modellen.
Beschikbare modellen met tool/vision support
Bekijk de volledige lijst op ollama.com/library. Filter op modellen met:
Toolstag voor tool capabilitiesVisiontag voor afbeeldingsherkenning
Populaire opties:
qwen3-vl:4b- Compact, snel, tool + visionllama3.2-vision- Vision capabilitiesmistral- Snelle algemene taken