AI Vaardigheden 2 februari 2026 7 min

AI Begrip: Waarom medewerkers moeten snappen hoe AI werkt

Zonder basiskennis van AI maken medewerkers vermijdbare fouten. Leer over hallucinaties, de VAK-check en wanneer je AI wel en niet kunt vertrouwen.

AI Begrip: Waarom medewerkers moeten snappen hoe AI werkt

De hyperintelligente stagiair

Stel je voor: je krijgt een nieuwe stagiair. Briljant, snel, en met een encyclopedisch geheugen. Maar deze stagiair heeft een eigenaardigheid: hij verzint soms dingen. Niet uit kwade wil, maar omdat hij patronen herkent en daar conclusies aan verbindt die er niet zijn.

Dat is precies hoe AI-tools als Microsoft Copilot, ChatGPT en Claude werken. Ze zijn razend snel en indrukwekkend capabel. Maar ze hebben geen begrip van wat ze schrijven. Ze “weten” niet of iets klopt.

Voor HR- en L&D-professionals is dit het vertrekpunt van elke AI-training. Want zonder dit inzicht ontstaan twee problemen: medewerkers die AI blindelings vertrouwen, of medewerkers die na één slechte ervaring afhaken. Beide kosten je organisatie geld.

Dit artikel legt uit wat je team moet begrijpen over AI, en hoe je dat begrip meetbaar maakt.

Hoe AI antwoorden genereert

Voorspellen, niet denken

Een taalmodel zoals GPT-4 of Copilot werkt als een geavanceerde voorspellingsmachine. Het is getraind op miljarden teksten en leert patronen herkennen. Woord voor woord genereert het een antwoord door steeds het meest waarschijnlijke volgende woord te kiezen.

Vraag je: “De hoofdstad van Frankrijk is…” Dan voorspelt het model “Parijs” met 99% zekerheid. Niet omdat het weet dat Parijs de hoofdstad is, maar omdat in de trainingsdata “Frankrijk” en “Parijs” vrijwel altijd samen voorkomen.

Geen begrip, geen geheugen

Dit heeft drie consequenties die je team moet kennen:

  1. AI begrijpt niet wat het schrijft. Het herkent patronen, maar heeft geen concept van waarheid of betekenis.
  2. Elk antwoord is nieuw gegenereerd. Zelfs dezelfde vraag kan een ander antwoord opleveren, want AI is non-deterministisch.
  3. AI kent je organisatie niet. Het is getraind op algemene tekst van het internet, niet op jouw interne processen, klanten of bedrijfscultuur.

Voor medewerkers betekent dit: AI is een krachtig hulpmiddel, geen betrouwbare informatiebron. Het verschil is cruciaal.

Hallucinaties: het grootste risico

AI-hallucinaties zijn antwoorden die overtuigend klinken maar feitelijk onjuist zijn. De beste modellen hallucineren in circa 2% van de antwoorden. Dat klinkt weinig, tot je beseft dat je team dagelijks tientallen AI-interacties heeft.

De 4 types hallucinaties

1. Feitelijke onjuistheden

AI presenteert statistieken, datums of gebeurtenissen die niet kloppen. Een medewerker vraagt om marktcijfers en krijgt overtuigende percentages die nergens op gebaseerd zijn.

Voorbeeld: “De Nederlandse AI-markt groeide in 2025 met 34,7%.” Dit klinkt precies genoeg om te geloven, maar het cijfer is verzonnen.

2. Verzonnen details

Namen, producten of technische specificaties die niet bestaan maar aannemelijk klinken.

Voorbeeld: een medewerker vraagt Copilot om een referentie en krijgt “volgens het onderzoek van Van der Berg & Willemsen (2024, Universiteit Utrecht)”. De onderzoekers en publicatie bestaan niet.

3. Logische fouten

Rekenfouten of tegenstrijdige redeneringen die de conclusie onbetrouwbaar maken.

Voorbeeld: een financieel overzicht waar de deelbedragen niet optellen tot het totaal, maar de conclusie “binnen budget” luidt.

4. Fictieve bronnen

Niet-bestaande onderzoeken, artikelen of experts die als referentie worden opgevoerd.

Voorbeeld: “Bron: McKinsey Digital Workplace Report 2025, pagina 47”. Het rapport bestaat niet in die vorm.

Waarom hallucinaties gevaarlijk zijn in organisaties

In een kantooromgeving worden AI-gegenereerde teksten vaak direct doorgestuurd, in presentaties verwerkt of als basis voor beslissingen gebruikt. Als niemand controleert, verspreiden hallucinaties zich als feiten door de organisatie.

[STAT: percentage medewerkers dat AI-output niet controleert]

De VAK-check: drie vragen voor elke AI-output

Om hallucinaties te vangen voordat ze schade aanrichten, trainen wij medewerkers in de VAK-check. Drie vragen die je stelt voordat je AI-output gebruikt:

V: Verifieerbaar

Kan ik deze informatie controleren via een betrouwbare bron?

Controleer feiten, cijfers en namen. Als AI een statistiek noemt, zoek de originele bron. Als AI een naam noemt, check of die persoon bestaat en of de context klopt.

Vuistregel: hoe specifieker het detail (een exact percentage, een datum, een naam), hoe groter de kans op een hallucinatie.

A: Accuraat

Kloppen de berekeningen en is de redenering logisch?

Check of getallen optellen, of conclusies volgen uit de premissen, en of er geen tegenstrijdigheden in het antwoord zitten. AI is verrassend slecht in rekenen en logisch redeneren.

K: Kloppend

Komt dit overeen met wat ik als professional weet?

Dit is de belangrijkste check. Jij bent de vakexpert, niet de AI. Als iets “niet lekker voelt” of afwijkt van wat je uit ervaring weet, vertrouw dan je eigen expertise.

De VAK-check in de praktijk:

SituatieVAKActie
Copilot vat een vergadering samen✓ Check namen aanwezigen✓ Check genoemde deadlines✓ Was ik erbij? Klopt dit?Controleer en verstuur
AI schrijft een klantenmailGeen feiten om te checken✓ Klopt de toon?✓ Past dit bij de relatie?Review toon en inhoud
AI genereert marktcijfers✗ Bron opzoeken!✓ Tellen de delen op?✓ Realistisch?Verifieer of vervang

Wanneer kun je AI vertrouwen? Het stoplichtmodel

Niet elke AI-taak vereist dezelfde mate van controle. Het stoplichtmodel helpt medewerkers inschatten hoeveel verificatie nodig is:

Groen: laag risico

Taken waarbij fouten weinig impact hebben en makkelijk te corrigeren zijn.

  • Brainstormen en ideeën genereren
  • Eerste concepten schrijven die je zelf bewerkt
  • Tekst samenvatten die je al kent
  • Interne communicatie zonder feitelijke claims

Controleniveau: snel scannen, toon en stijl checken.

Geel: gemiddeld risico

Taken waarbij fouten merkbaar zijn maar geen grote schade veroorzaken.

  • E-mails naar klanten of partners
  • Presentaties voor intern gebruik
  • Vergadernotities en actiepunten
  • Documenten die door anderen worden gelezen

Controleniveau: VAK-check toepassen, namen en feiten verifiëren.

Rood: hoog risico

Taken waarbij fouten serieuze consequenties hebben.

  • Juridische documenten of adviezen
  • Financiële rapporten met cijfers
  • Externe publicaties namens de organisatie
  • Beslissingen op basis van AI-gegenereerde data
  • Alles met privacy-gevoelige informatie

Controleniveau: volledige verificatie, laten reviewen door tweede persoon, bronnen checken.

Voor managers: als je team het stoplichtmodel consequent toepast, voorkom je de twee meest voorkomende AI-incidenten: het doorsturen van foutieve informatie en het delen van vertrouwelijke data met AI-tools.

EU AI Act: wat je organisatie moet weten

Sinds 2025 stelt de EU AI Act eisen aan hoe organisaties AI inzetten. Voor de meeste kantooromgevingen is de directe impact beperkt: tools als Copilot vallen in de categorie “beperkt risico”. Maar er zijn verplichtingen waar je organisatie rekening mee moet houden:

  • Transparantie: medewerkers en klanten moeten weten wanneer ze met AI-gegenereerde content te maken hebben.
  • Menselijk toezicht: bij belangrijke beslissingen mag AI adviseren, maar een mens neemt de eindbeslissing.
  • Data en privacy: de AI Act versterkt bestaande AVG-verplichtingen rond het gebruik van persoonsgegevens.

AI-begrip bij medewerkers is een eerste stap richting compliance. Wie begrijpt wat AI wel en niet kan, maakt betere keuzes over wanneer en hoe het wordt ingezet.

[STAT: percentage organisaties dat AI-beleid heeft]

Observeerbaar gedrag per niveau

Als HR- of L&D-professional wil je niet alleen weten of medewerkers AI begrijpen, maar ook hoe goed. Onderstaande tabel beschrijft concreet observeerbaar gedrag per niveau:

StarterBasisVaardig
Vertrouwen & verificatieWeet dat AI fouten maakt, controleert incidenteelPast de VAK-check toe op belangrijke outputVoorspelt waar AI moeite zal hebben, ontwerpt verificatieprocessen voor het team
TaakselectieGebruikt AI voor eenvoudige, laag-risico takenSchat bewust in welke taken geschikt zijn (stoplichtmodel)Bepaalt AI-strategie per projecttype, adviseert collega’s
Uitleg & overdrachtKan vertellen dat AI “soms fouten maakt”Kan aan collega’s uitleggen waarom AI soms foute informatie geeftGeeft trainingen of workshops over AI-begrip aan teamleden
RisicobewustzijnDeelt geen gevoelige data met publieke AI-toolsKent het verschil tussen bedrijfs-AI en publieke tools, volgt richtlijnenDraagt bij aan het AI-beleid van de organisatie

Hoe je dit meet:

Volgende stap: van begrip naar actie

AI begrijpen is de fundering. Maar begrip alleen levert nog geen betere output op. De volgende stap is leren om AI effectief aan te sturen, met gestructureerde instructies die consistent bruikbare resultaten opleveren.

Lees verder: Effectief Prompten: Van vage opdracht naar bruikbaar resultaat

Of ga terug naar het overzicht: De 3 AI-vaardigheden die je organisatie nodig heeft

AI begriphallucinatiesAI risico'sAI vaardighedenHR
Casimir Morreau
Geschreven door

Casimir Morreau

Co-founder & Lead Trainer

18+ jaar ervaring, o.a. Professor HvA Branding & Digital Strategy. 2.500+ deelnemers AI-trainingen.

LinkedIn