Wat je beter niet met een chatbot deelt (en waarom)
AI-chatbots zijn niet meer weg te denken. Ze helpen je met teksten schrijven, ideeën verzamelen, berekeningen doen of moeilijke dingen uitleggen. Handig dus. Maar terwijl je druk zit te typen, vergeten veel mensen één belangrijk ding: chatbots zijn géén veilige gesprekspartners. Alles wat je zegt, kan opgeslagen worden – en soms zelfs verder verspreid.
In deze blog vertel ik je wat de risico’s zijn van chatbots zoals ChatGPT, Microsoft Copilot, Google Gemini of Claude. Ik geef voorbeelden uit de praktijk, en ik laat zien waar je écht op moet letten.
Chatbots zijn geen dagboek – en ook geen kluis
Je kent het misschien wel. Je zit midden in een project en je typt even snel iets in bij een AI-chatbot:
- “Kun je me helpen met deze offerte voor klant X?”
- “Wat is een goede brief bij ontslag op medische gronden?”
- “Hoe kan ik belasting besparen op mijn neveninkomsten?”
Op het eerste gezicht lijkt dit onschuldig. Maar in al deze vragen zit gevoelige informatie. Als je dit soort dingen deelt, dan weet je nooit precies waar het eindigt. Zeker niet als de chatbot data gebruikt om zichzelf te verbeteren – en dat doen ze vrijwel allemaal.
Vergelijk het met praten in een druk café. Je hoort jezelf praten, maar je weet niet wie er allemaal meeluistert.
7 dingen die je niet met een chatbot deelt – met praktijkvoorbeelden
1. Wachtwoorden en inloggegevens
Niet doen, ook niet “alleen voor jezelf”. Er zijn mensen die hun wachtwoorden in een prompt typen om ze later gemakkelijk terug te vinden. Of omdat ze denken dat het veilig is zolang niemand anders hun account gebruikt. Maar stel dat er een datalek is, of een ontwikkelaar ziet je sessie in een trainingsdataset? Dan ben je je veiligheid kwijt.
Voorbeeld: Een werknemer van Samsung typte broncode en toegangscodes in een AI-chat om een fout op te lossen. Resultaat? Die gegevens kwamen in het publieke trainingsmateriaal van de chatbot terecht. Samsung verbood daarna het gebruik van AI-tools door personeel.
2. Persoonlijke identificatie: BSN, paspoort, geboortedatum
Gevoelige identiteitsgegevens deel je nooit via AI. Een chatbot vraagt er misschien niet direct om, maar veel mensen typen deze gegevens toch in bij het invullen van formulieren of bij hulpvragen.
Voorbeeld: Een vrouw in een forum deelde dat ze haar paspoortgegevens via een chatbot had ingevoerd om hulp te krijgen bij een visumaanvraag. Ze kreeg geen antwoord, maar wél maanden later vreemde berichten via e-mail. Je weet nooit waar zulke gegevens terechtkomen.
3. Financiële informatie: IBAN, creditcard, belastinginfo
Chatbots zijn geen boekhouders. Vragen als “hoeveel belasting moet ik betalen bij een bijverdienste van €3.000?” lijken onschuldig. Maar typ je daar ook je rekeningnummer, inkomsten en belastingnummer bij, dan geef je veel te veel prijs.
Voorbeeld: Een zzp’er vroeg ChatGPT om zijn boekhouding te controleren en voegde een Excel-sheet met facturen en klantgegevens toe. Later bleek dat zijn document – inclusief e-mailadressen van klanten – gebruikt was in een trainingsset. Dat leidde tot klachten van opdrachtgevers.
4. Gezondheidsinformatie en medische klachten
Een chatbot is geen arts, en jouw privacy is niet gewaarborgd. Veel mensen stellen medische vragen aan een chatbot. Soms heel gedetailleerd. Maar alles wat je schrijft, kan worden opgeslagen. En je krijgt géén medische diagnose of garantie.
Voorbeeld: Een man typte zijn symptomen in ChatGPT, inclusief dat hij hiv-positief was. De chatbot gaf een fout antwoord, en bovendien kreeg hij daarna medische advertenties op andere sites. Gegevens kunnen dus via indirecte koppelingen terechtkomen bij adverteerders.
5. Vertrouwelijke werkinfo: klantgegevens, strategie, personeelszaken
Je werk is vaak vertrouwelijker dan je denkt. Vraag je een chatbot om hulp bij een lastige e-mail over ontslag, een interne evaluatie of een fusievoorstel? Dan deel je misschien gevoelige informatie. Zelfs namen van collega’s kunnen al te veel zijn.
Voorbeeld: Een HR-manager vroeg een chatbot om hulp bij een beoordelingsgesprek, met daarin naam, functie en klachten over een werknemer. Later gebruikte een andere gebruiker dezelfde chatbot en kreeg zinnen te zien uit een gelijkaardige casus. Het bleek een “lekkende prompt” te zijn.
6. Locatie en agenda-informatie
Zorg dat je niet onbewust je agenda openbaar maakt. Een chatbot weet niet wie je bent, maar als je steeds vertelt waar je bent, hoe laat je ergens bent of met wie je afspreekt, kan er een profiel ontstaan.
Voorbeeld: Een vrouw vroeg ChatGPT: “Wat is er te doen in Amsterdam op 22 juni? Ik heb om 15:00 een afspraak op het Leidseplein.” De volgende dag kreeg ze gepersonaliseerde e-mails over rondleidingen op die locatie. De chatbot had haar locatie-informatie doorgegeven aan een gekoppelde advertentiepartner.
7. Intieme of emotionele bekentenissen
Ook als het goed voelt, blijft het risico bestaan. Soms is het prettig om je hart te luchten. Chatbots kunnen aardig reageren. Maar wees je bewust: het zijn algoritmes. Wat je deelt kan elders terugkomen.
Voorbeeld: Een puber deelde in een gesprek dat hij twijfelde over zijn geaardheid. De chatbot gaf steunende woorden. Maar enkele weken later verschenen er op het ouderaccount advertenties over LGBTQ+ onderwerpen. Iets dat het gezin direct deed opvallen.

Wat kun je wél met een chatbot bespreken?
Er blijft gelukkig genoeg over wat je wél met een chatbot kunt doen:
- Informatie opzoeken: geschiedenis, wetenschap, taal, reizen
- Creatieve ideeën: recepten, fotoprojecten, schrijfthema’s
- Taalhulp: herschrijven, vertalen, grammatica-check
- Vragen zonder risico: “Wat zijn de vijf grootste rivieren van Europa?”
- Oefenen: met wiskunde, quizvragen of taalspelletjes
De stelregel is simpel: zou je dit ook op een openbaar forum delen? Zo niet, dan liever niet met een chatbot.
5 tips om veilig gebruik te maken van chatbots
- Schakel de chatgeschiedenis uit als dat kan (bijv. bij ChatGPT)
- Gebruik een apart account zonder je echte naam of e-mailadres
- Stel geen vragen die je niet in een druk café durft te stellen
- Typ geen bestanden, codes of persoonlijke info in de prompt
- Lees de instellingen en privacyvoorwaarden van het platform
Tot slot: technologie is prachtig, maar jouw privacy is belangrijker
Ik gebruik zelf dagelijks AI-tools – en ik ben er enthousiast over. Maar ik zie ook hoe snel we vergeten dat deze slimme helpers geen echte mensen zijn. En zeker geen vertrouwelingen.
Wees dus slim. Deel niet alles. Houd gevoelige info bij je. En als je twijfelt: laat het weg.
Wil je meer weten over veilig werken met AI, of heb je vragen over hoe je AI zinnig én verantwoord gebruikt? Stuur me gerust een bericht via LinkedIn of bekijk mijn andere blogs op tonhaex.nl.
