Is jouw privé-informatie te vinden op ChatGPT?
In dit artikel:
ChatGPT en andere generatieve AI-tools zijn alledaags geworden: mensen gebruiken ze voor notulen, rapporten, werkmailtjes en zelfs om persoonlijke en mentale problemen te bespreken. Dat roept vragen op over privacy en veiligheid. Mariëlle Stoelinga, hoogleraar risicomanagement voor hightechsystemen (Universiteit Twente en Radboud Universiteit), legt uit waarom het lastig is precies te weten wat er met je ingevoerde gegevens gebeurt.
Stoelinga vergelijkt large language models met het menselijk brein: je kunt niet precies aanwijzen waar een herinnering ligt opgeslagen, en vergelijkbaar is onduidelijk hoe en waar een model individuele invoer vastlegt. Hoewel veel inhoud in een soort samenvatting terugkomt, kunnen specifieke zoektermen of details nog steeds in de diepten van het model aanwezig zijn — alleen niet door gebruikers te vinden. Doordat bedrijven vaak niet transparant zijn over hun datagebruik, blijft het onduidelijk hoe kwetsbaar die gegevens zijn bij bijvoorbeeld een lek of hack.
Praktische aanbevelingen van Stoelinga zijn onder meer om geen gevoelige informatie te delen (vooral geen medische gegevens) en zorgvuldig met andermans data om te gaan. Kijk of een dienst een opt-out biedt zodat privéconversaties niet gebruikt worden voor modeltraining. Verder kan het helpen geen account aan te maken om koppeling van gegevens te bemoeilijken, maar dat gaat ten koste van functionaliteit.
Ze raadt ook aan om niet blind op AI te vertrouwen: behoud basiskennis zodat je antwoorden kunt controleren en hallucinaties (verzonnen feiten) herkent. Tot slot wijst ze erop dat volledig anoniem blijven moeilijk is—bedrijven buiten AI, zoals supermarkten, verzamelen ook data—dus volledig off‑grid gaan is vrijwel onmogelijk.
Kernboodschap: gebruik generatieve AI bewust, beperk wat je deelt, en wees je scherp van de privacyrisico’s en de technische ondoorzichtigheid van hoe modellen informatie bewaren en gebruiken. In Europese context bestaan wettelijke privacyrechten (zoals inzage en verwijdering), maar hun toepasbaarheid op LLMs kan complex zijn.