AI Begrip: Waarom medewerkers moeten snappen hoe AI werkt
Zonder basiskennis van AI maken medewerkers vermijdbare fouten. Leer over hallucinaties, de VAK-check en wanneer je AI wel en niet kunt vertrouwen.
De hyperintelligente stagiair
Stel je voor: je krijgt een nieuwe stagiair. Briljant, snel, en met een encyclopedisch geheugen. Maar deze stagiair heeft een eigenaardigheid: hij verzint soms dingen. Niet uit kwade wil, maar omdat hij patronen herkent en daar conclusies aan verbindt die er niet zijn.
Dat is precies hoe AI-tools als Microsoft Copilot, ChatGPT en Claude werken. Ze zijn razend snel en indrukwekkend capabel. Maar ze hebben geen begrip van wat ze schrijven. Ze “weten” niet of iets klopt.
Voor HR- en L&D-professionals is dit het vertrekpunt van elke AI-training. Want zonder dit inzicht ontstaan twee problemen: medewerkers die AI blindelings vertrouwen, of medewerkers die na één slechte ervaring afhaken. Beide kosten je organisatie geld.
Dit artikel legt uit wat je team moet begrijpen over AI, en hoe je dat begrip meetbaar maakt.
Hoe AI antwoorden genereert
Voorspellen, niet denken
Een taalmodel zoals GPT-4 of Copilot werkt als een geavanceerde voorspellingsmachine. Het is getraind op miljarden teksten en leert patronen herkennen. Woord voor woord genereert het een antwoord door steeds het meest waarschijnlijke volgende woord te kiezen.
Vraag je: “De hoofdstad van Frankrijk is…” Dan voorspelt het model “Parijs” met 99% zekerheid. Niet omdat het weet dat Parijs de hoofdstad is, maar omdat in de trainingsdata “Frankrijk” en “Parijs” vrijwel altijd samen voorkomen.
Geen begrip, geen geheugen
Dit heeft drie consequenties die je team moet kennen:
- AI begrijpt niet wat het schrijft. Het herkent patronen, maar heeft geen concept van waarheid of betekenis.
- Elk antwoord is nieuw gegenereerd. Zelfs dezelfde vraag kan een ander antwoord opleveren, want AI is non-deterministisch.
- AI kent je organisatie niet. Het is getraind op algemene tekst van het internet, niet op jouw interne processen, klanten of bedrijfscultuur.
Voor medewerkers betekent dit: AI is een krachtig hulpmiddel, geen betrouwbare informatiebron. Het verschil is cruciaal.
Hallucinaties: het grootste risico
AI-hallucinaties zijn antwoorden die overtuigend klinken maar feitelijk onjuist zijn. De beste modellen hallucineren in circa 2% van de antwoorden. Dat klinkt weinig, tot je beseft dat je team dagelijks tientallen AI-interacties heeft.
De 4 types hallucinaties
1. Feitelijke onjuistheden
AI presenteert statistieken, datums of gebeurtenissen die niet kloppen. Een medewerker vraagt om marktcijfers en krijgt overtuigende percentages die nergens op gebaseerd zijn.
Voorbeeld: “De Nederlandse AI-markt groeide in 2025 met 34,7%.” Dit klinkt precies genoeg om te geloven, maar het cijfer is verzonnen.
2. Verzonnen details
Namen, producten of technische specificaties die niet bestaan maar aannemelijk klinken.
Voorbeeld: een medewerker vraagt Copilot om een referentie en krijgt “volgens het onderzoek van Van der Berg & Willemsen (2024, Universiteit Utrecht)”. De onderzoekers en publicatie bestaan niet.
3. Logische fouten
Rekenfouten of tegenstrijdige redeneringen die de conclusie onbetrouwbaar maken.
Voorbeeld: een financieel overzicht waar de deelbedragen niet optellen tot het totaal, maar de conclusie “binnen budget” luidt.
4. Fictieve bronnen
Niet-bestaande onderzoeken, artikelen of experts die als referentie worden opgevoerd.
Voorbeeld: “Bron: McKinsey Digital Workplace Report 2025, pagina 47”. Het rapport bestaat niet in die vorm.
Waarom hallucinaties gevaarlijk zijn in organisaties
In een kantooromgeving worden AI-gegenereerde teksten vaak direct doorgestuurd, in presentaties verwerkt of als basis voor beslissingen gebruikt. Als niemand controleert, verspreiden hallucinaties zich als feiten door de organisatie.
[STAT: percentage medewerkers dat AI-output niet controleert]
De VAK-check: drie vragen voor elke AI-output
Om hallucinaties te vangen voordat ze schade aanrichten, trainen wij medewerkers in de VAK-check. Drie vragen die je stelt voordat je AI-output gebruikt:
V: Verifieerbaar
Kan ik deze informatie controleren via een betrouwbare bron?
Controleer feiten, cijfers en namen. Als AI een statistiek noemt, zoek de originele bron. Als AI een naam noemt, check of die persoon bestaat en of de context klopt.
Vuistregel: hoe specifieker het detail (een exact percentage, een datum, een naam), hoe groter de kans op een hallucinatie.
A: Accuraat
Kloppen de berekeningen en is de redenering logisch?
Check of getallen optellen, of conclusies volgen uit de premissen, en of er geen tegenstrijdigheden in het antwoord zitten. AI is verrassend slecht in rekenen en logisch redeneren.
K: Kloppend
Komt dit overeen met wat ik als professional weet?
Dit is de belangrijkste check. Jij bent de vakexpert, niet de AI. Als iets “niet lekker voelt” of afwijkt van wat je uit ervaring weet, vertrouw dan je eigen expertise.
De VAK-check in de praktijk:
| Situatie | V | A | K | Actie |
|---|---|---|---|---|
| Copilot vat een vergadering samen | ✓ Check namen aanwezigen | ✓ Check genoemde deadlines | ✓ Was ik erbij? Klopt dit? | Controleer en verstuur |
| AI schrijft een klantenmail | Geen feiten om te checken | ✓ Klopt de toon? | ✓ Past dit bij de relatie? | Review toon en inhoud |
| AI genereert marktcijfers | ✗ Bron opzoeken! | ✓ Tellen de delen op? | ✓ Realistisch? | Verifieer of vervang |
Wanneer kun je AI vertrouwen? Het stoplichtmodel
Niet elke AI-taak vereist dezelfde mate van controle. Het stoplichtmodel helpt medewerkers inschatten hoeveel verificatie nodig is:
Groen: laag risico
Taken waarbij fouten weinig impact hebben en makkelijk te corrigeren zijn.
- Brainstormen en ideeën genereren
- Eerste concepten schrijven die je zelf bewerkt
- Tekst samenvatten die je al kent
- Interne communicatie zonder feitelijke claims
Controleniveau: snel scannen, toon en stijl checken.
Geel: gemiddeld risico
Taken waarbij fouten merkbaar zijn maar geen grote schade veroorzaken.
- E-mails naar klanten of partners
- Presentaties voor intern gebruik
- Vergadernotities en actiepunten
- Documenten die door anderen worden gelezen
Controleniveau: VAK-check toepassen, namen en feiten verifiëren.
Rood: hoog risico
Taken waarbij fouten serieuze consequenties hebben.
- Juridische documenten of adviezen
- Financiële rapporten met cijfers
- Externe publicaties namens de organisatie
- Beslissingen op basis van AI-gegenereerde data
- Alles met privacy-gevoelige informatie
Controleniveau: volledige verificatie, laten reviewen door tweede persoon, bronnen checken.
Voor managers: als je team het stoplichtmodel consequent toepast, voorkom je de twee meest voorkomende AI-incidenten: het doorsturen van foutieve informatie en het delen van vertrouwelijke data met AI-tools.
EU AI Act: wat je organisatie moet weten
Sinds 2025 stelt de EU AI Act eisen aan hoe organisaties AI inzetten. Voor de meeste kantooromgevingen is de directe impact beperkt: tools als Copilot vallen in de categorie “beperkt risico”. Maar er zijn verplichtingen waar je organisatie rekening mee moet houden:
- Transparantie: medewerkers en klanten moeten weten wanneer ze met AI-gegenereerde content te maken hebben.
- Menselijk toezicht: bij belangrijke beslissingen mag AI adviseren, maar een mens neemt de eindbeslissing.
- Data en privacy: de AI Act versterkt bestaande AVG-verplichtingen rond het gebruik van persoonsgegevens.
AI-begrip bij medewerkers is een eerste stap richting compliance. Wie begrijpt wat AI wel en niet kan, maakt betere keuzes over wanneer en hoe het wordt ingezet.
[STAT: percentage organisaties dat AI-beleid heeft]
Observeerbaar gedrag per niveau
Als HR- of L&D-professional wil je niet alleen weten of medewerkers AI begrijpen, maar ook hoe goed. Onderstaande tabel beschrijft concreet observeerbaar gedrag per niveau:
| Starter | Basis | Vaardig | |
|---|---|---|---|
| Vertrouwen & verificatie | Weet dat AI fouten maakt, controleert incidenteel | Past de VAK-check toe op belangrijke output | Voorspelt waar AI moeite zal hebben, ontwerpt verificatieprocessen voor het team |
| Taakselectie | Gebruikt AI voor eenvoudige, laag-risico taken | Schat bewust in welke taken geschikt zijn (stoplichtmodel) | Bepaalt AI-strategie per projecttype, adviseert collega’s |
| Uitleg & overdracht | Kan vertellen dat AI “soms fouten maakt” | Kan aan collega’s uitleggen waarom AI soms foute informatie geeft | Geeft trainingen of workshops over AI-begrip aan teamleden |
| Risicobewustzijn | Deelt geen gevoelige data met publieke AI-tools | Kent het verschil tussen bedrijfs-AI en publieke tools, volgt richtlijnen | Draagt bij aan het AI-beleid van de organisatie |
Hoe je dit meet:
- Starter: intake-assessment of eerste zelfscan
- Basis: na de AI Skills Basistraining (portfolio-opdracht: VAK-check op eigen werkvoorbeeld)
- Vaardig: na de AI Workflow Training en certificering
Volgende stap: van begrip naar actie
AI begrijpen is de fundering. Maar begrip alleen levert nog geen betere output op. De volgende stap is leren om AI effectief aan te sturen, met gestructureerde instructies die consistent bruikbare resultaten opleveren.
Lees verder: Effectief Prompten: Van vage opdracht naar bruikbaar resultaat
Of ga terug naar het overzicht: De 3 AI-vaardigheden die je organisatie nodig heeft