Vijf AI-blunders waardoor mensen in de problemen kwamen
In dit artikel:
Kunstmatige intelligentie levert vaak bruikbare informatie, maar hallucineert ook geregeld — en die fouten steken mensen zuur. Vijf recente voorbeelden laten zien hoe onjuiste AI-output uiteenlopende schade kan veroorzaken.
1) Universiteit Gent, september 2025 — rector Petra De Sutter citeerde in haar inaugurele rede een beroemde uitspraak die aan Einstein wordt toegeschreven en een bron die niet bestaat. Beide citaten bleken door AI gefabriceerd. De blunder bracht publieke schaamte teweeg, temeer omdat De Sutter tijdens haar campagne had gewaarschuwd tegen blind vertrouwen op AI.
2) Zwolle, april 2025 — bij een huwelijksvoltrekking gebruikte een tijdelijke ambtenaar een door ChatGPT samengestelde toespraak. Die ontbrak aan twee wettelijk verplichte formuleringen, waardoor de rechter het huwelijk nietig verklaarde. Het feest verliep ongestoord, maar het paar moest later alsnog juridisch herstellen wat misging.
3) Hoek van Holland — in een merknaamgeschil citeerde een advocaat zogenaamd vergelijkbare jurisprudentie die niet bestond; die precedenten kwamen uit een chatbot. De rechter ontdekte de verzinsels en het restaurant moest zijn naam aanpassen. De zaak toont het risico als juristen niet-fit-checked AI-bronnen gebruiken.
4) Birmingham, eind 2024 — de politie verbood supporters van Maccabi Tel Aviv voor een wedstrijd tegen Aston Villa en baseerde dat deels op een vermeend incident bij een wedstrijd tegen West Ham in 2023 die nooit plaatsvond. Geëxplodeerde media-aandacht en politieke kritiek volgden; de affaire leidde tot vertrek van de politiechef en bracht aan het licht dat misbruik of onzorgvuldige inzet van AI-bewijslast zware gevolgen kan hebben.
5) Australië, juli 2025 — een door Deloitte opgesteld overheidsrapport bevatte gefingeerde citaten en verwijzingen; een onderzoeker ontdekte een niet-bestaand boek als bron. Deloitte betaalde een deel van de opdrachtprijs terug. Hier ging belastinggeld verloren en kwam een groot adviesbureau in diskrediet.
Gemeenschappelijke les: AI kan bruikbare hulp bieden, maar blijft onbetrouwbaar zonder kritische toetsing. Als mensen AI-uitvoer zonder controle overnemen — in academische toespraken, rechtszaken, officiële besluiten of dure consultancyrapporten — kan dat leiden tot reputatieschade, juridische problemen en financieel verlies. Strengere verificatie, verantwoordelijkheid van professionals en heldere richtlijnen voor AI-gebruik zijn cruciaal om zulke missers te voorkomen.