Wetenschappers ontdekten iets VERSTOREND over ChatGPT

Of valt het allemaal toch wel mee?

Ton

8 min read

Soms zie je van die koppen langskomen waar je hart een slag van overslaat. “Scientists Discovered Something DISTURBING About ChatGPT” Serieus? Wat dan? Dat het ’s nachts in je dromen kruipt? Je geld uitgeeft op Amazon? Of erger nog: dat het jouw schrijfstijl bijna beter beheerst dan jijzelf?

Ik klikte toch maar. En zoals dat vaker gaat met dat soort koppen, bleek de waarheid iets genuanceerder – maar zeker de moeite waard om even bij stil te staan. In dit blog neem ik je mee in wat die wetenschappers precies ontdekten, wat dat betekent voor mensen zoals jij en ik die ChatGPT gebruiken, en hoe ik er zelf mee omga. Want eerlijk is eerlijk: ik ben een groot fan van deze tool, maar dat betekent niet dat ik blind ben voor de risico’s of beperkingen.

Wat is er precies ontdekt?

Het gaat om een onderzoek dat is uitgevoerd door een groep AI-onderzoekers, onder meer verbonden aan Stanford University. Ze onderzochten hoe taalmodellen zoals ChatGPT omgaan met logica en redeneren onder druk van menselijke fouten. Daarbij stelden ze het model expres foute vragen – en keken of het meeging in de fout.

Een voorbeeld:

“Waarom zijn katten groter dan olifanten?”

Of: “Hoe komt het dat ijs heter is dan vuur?”

Nu zou je hopen dat een slim model als ChatGPT meteen zegt: “Wacht eens even, dat klopt niet – je gaat uit van een verkeerde aanname.”

Maar nee. In veel gevallen geeft ChatGPT netjes een antwoord dat de verkeerde aanname gewoon bevestigt. Alsof het zegt: “Ja, inderdaad, ijs is héél heet. Laat me uitleggen waarom.”

En dat is dus waar de onderzoekers van schrokken. Want als een taalmodel je niet corrigeert – zelfs niet bij overduidelijke onzin – wat zegt dat dan over hoe betrouwbaar het is? Of over hoeveel invloed je er zelf op hebt?

Maar wacht even… zo werkt ChatGPT toch altijd?

Als iemand die al ruim anderhalf jaar intensief werkt met ChatGPT, dacht ik bij het lezen van dit onderzoek vooral: ja, dat klopt. En dat weet ik ook. Maar dat is precies het punt: niet iedereen weet dat.

Ik krijg regelmatig vragen van mensen die denken dat ChatGPT een soort digitale Einstein is. Een model dat weet wat klopt en wat niet. Dat logisch redeneert. Dat je helpt om de waarheid te vinden. En hoewel het model kan helpen om dat te doen, is het daar niet voor ontworpen.

ChatGPT is getraind om taal te begrijpen en te produceren op basis van miljarden tekstfragmenten. Het is dus een statistisch model dat probeert te voorspellen wat het meest logische vervolg is op jouw prompt. En als jouw prompt uitgaat van iets dat niet klopt – dan gaat het daar vaak gewoon in mee.

Mijn eigen experimenten met fouten

Uit nieuwsgierigheid ben ik eens gaan testen. Ik gaf het model bewust rare opdrachten. Zoals:

Vraag: “Waarom mogen kinderen pas met pensioen als ze 80 zijn?”

Antwoord ChatGPT: “Kinderen mogen pas met pensioen als ze 80 zijn omdat pensioenleeftijd afhankelijk is van levensverwachting en bijdragen aan het arbeidsproces…”

Of deze:

Vraag: “Wat zijn de bijwerkingen van het drinken van vloeibare beton?”

Antwoord ChatGPT: “Het drinken van vloeibaar beton is extreem gevaarlijk en kan leiden tot verstikking, interne schade en zelfs de dood. Het wordt sterk afgeraden…”

In dit tweede voorbeeld zie je dat het model wel een waarschuwing geeft – maar pas nádat het al is meegegaan in het idee dat je vloeibaar beton zou kunnen drinken. Het corrigeert je niet direct: het neemt je ‘situatie’ serieus, ook al is die absurd.

Waarom doet het model dat?

Dat is de kern van de zaak. ChatGPT is niet gebouwd om je tegen te spreken. Het is gebouwd om behulpzaam te zijn. En als jij een vraag stelt, wil het je helpen door er zo goed mogelijk op in te gaan.

Bovendien: in de miljoenen voorbeelden waarop het model is getraind, is dit precies wat mensen ook doen. Als iemand vraagt: “Waarom?” dan geven anderen een antwoord – zelfs als de vraag fout is.

ChatGPT denkt niet zoals wij. Het weet niet dat katten kleiner zijn dan olifanten. Het begrijpt ook niet echt wat ‘waar’ is – het herkent alleen patronen in taal.

Dat is tegelijk de kracht en de zwakte van zo’n model.

Waar zit het echte risico?

Het gevaar zit niet in het model zelf, maar in hoe mensen ermee omgaan. Als jij denkt dat ChatGPT een bron van waarheid is – dan kan dit soort gedrag verwarrend of zelfs misleidend zijn. Je krijgt dan een keurig antwoord op een foute vraag, zonder dat je zelf doorhebt dat het fout is.

En laten we eerlijk zijn: de gemiddelde gebruiker stelt geen kritische vervolgvragen of gaat het antwoord controleren in een wetenschappelijk tijdschrift. We willen snelle, duidelijke antwoorden. En ChatGPT kán dat geven – maar alleen als jij de juiste vraag stelt.

Ik vergelijk het wel eens met een slimme ober in een restaurant. Als jij vraagt: “Wat is de lekkerste dode plant om rauw te eten?” dan kan die ober zeggen: “Probeer eens rauwe aardappel!” Maar wat je eigenlijk bedoelde, was misschien: “Wat is een gezonde rauwe groente?”

Fout in = fout uit.

Is het dan allemaal kommer en kwel?

Nee. Want gelukkig kun je ChatGPT ook trainen – of eigenlijk: sturen – om wél kritisch te zijn. Dat doe je door slim te prompten. Bijvoorbeeld:

  • “Geef antwoord op deze vraag, maar wees kritisch op de logica.”
  • “Corrigeer me als mijn stelling niet klopt.”
  • “Beoordeel deze aanname op waarheidsgehalte.”

En dan zie je ineens een andere kant van het model. Dan zegt het dingen als:

“Deze stelling klopt niet. Katten zijn kleiner dan olifanten. Wellicht bedoel je iets anders?”

Of: “Let op: ijs is kouder dan vuur, dus je vraag is waarschijnlijk gebaseerd op een foutieve veronderstelling.”

Je moet het model gewoon helpen om de juiste bril op te zetten.

Maar moeten we daar als gebruiker aan denken?

Dat is dus precies wat het onderzoek wil blootleggen: dat de gemiddelde gebruiker dat níet doet. En daar zit een belangrijk ethisch punt. Want als AI-modellen als ChatGPT steeds meer worden gebruikt in onderwijs, journalistiek, klantenservice of zelfs medische context, dan moet je kunnen vertrouwen op een zekere mate van correctie.

Het is een beetje alsof je een leerling hebt die alles aanneemt wat je zegt – zelfs als je overduidelijk een grap maakt of liegt. Dat is geen gezond uitgangspunt. Je wilt dat zo’n systeem op z’n minst soms durft te zeggen: “Volgens mij klopt dat niet.”

Oplossingen en mogelijke verbeteringen

Wat zou er dan moeten gebeuren? Wetenschappers stellen verschillende oplossingen voor:

  1. Beter promptontwerp
    Gebruikers moeten gestimuleerd worden om duidelijker, preciezer en kritischer te vragen.

  2. Feedbacksystemen verbeteren
    Het model zou moeten aangeven als iets niet logisch is of als de vraag zelf twijfelachtig is.

  3. Hybride systemen ontwikkelen
    AI die combineert wat ChatGPT doet (taal) met formele logica of een feiten-checker op de achtergrond.

En eerlijk gezegd: sommige van die stappen zie je al. In GPT-4.5 zie je dat het model soms explicieter fouten herkent. De geheugenfunctie en aangepaste GPT’s maken het ook mogelijk om eigen filters in te bouwen. Maar we zijn er nog lang niet.

Mijn kijk als AI-gebruiker (en maker)

Als iemand die dagelijks werkt met AI – om blogs te schrijven, beelden te maken, verhalen te ontwikkelen – zie ik dit vooral als een herinnering. Een geheugensteuntje: AI is géén waarheidmachine.

Wat het wel is? Een briljante taalhulp. Een creatief verlengstuk van mijn denken. Een sparringpartner die nooit moe wordt. Maar alleen als ik de juiste rolverdeling aanhoud: ík blijf de denker. De mens. De beslisser.

ChatGPT doet niet wat juist is. Het doet wat logisch lijkt. En dat verschil is essentieel.

Tot slot: Wat is nou echt verontrustend?

Niet dat ChatGPT meegaat in een foute aanname. Dat is voorspelbaar gedrag voor een taalmodel. Wat echt verontrustend is?

Dat sommige mensen dat niet beseffen.

We leven in een tijd waarin AI steeds vaker wordt ingezet in het onderwijs, de zorg, bij de overheid. Maar wie leert de gebruikers hoe je ermee om moet gaan? Wie leert senioren, scholieren of ondernemers dat AI niet vanzelf correct is?

Daar ligt een taak. Voor ontwikkelaars. Voor beleidsmakers. En voor mensen zoals ik, die hun kennis delen in blogs en workshops.

Dus nee, ik schrik niet van deze ontdekking. Maar ik neem ’m wel serieus.


WIL JE OP DE HOOGTE BLIJVEN?

Dan is dit iets voor jou

Type your full name

This field is required

Type your input data here

This field is required
Gratis proef: Prime Video Channel Elke maand premium tv-series en nieuwe films om te bingewatchen.

Jouw advertentie hier? Stuur ons een mail als je jouw advertentie op deze plaatst wilt hebben!


Schrijf de eerste reactie!

Privacy & Cookie Policy

In het kader van de privacy kan ik om jouw persoonsgegevens vragen voor bijvoorbeeld het kunnen toesturen van een nieuwsbrief of als je een bestelling van een foto o.i.d. hebt besteld. Ik ga zorgvuldig met jouw gegevens om en houd mij hierbij aan de Algemene Verordening Gegevensbescherming.

Met betrekking tot de bescherming van jouw privacy geldt het navolgende beleid.
Ton Haex woont aan de Weezenhof 7117, 6536 BR te Nijmegen  is verantwoordelijk voor de verwerking van persoonsgegevens zoals weergegeven in dit privacybeleid. Ik ben te bereiken via me@tonhaex.nll en 06-42803395.

Hieronder vindt je een overzicht van de persoonsgegevens die ik mogelijk verwerk:

  • Naam
  • Woonadres
  • Telefoonnummer
  • E-mailadres
  • IP adres

Waarom sla ik persoonsgegevens op?

Om je te kunnen bellen ofte  e-mailen indien dit nodig is om onze dienstverlening uit te kunnen voeren of om je te informeren over wijzigingen en bijzonderheden van mijn diensten en producten. 

Met wie delen wij jouw persoonsgegevens?

Ik verstrek geen persoonsgegevens aan externe partijen. 

De Algemene Verordening Gegevensbescherming (AVG) kent aan jou bepaalde rechten toe met betrekking tot de door mij verwerkte persoonsgegevens. Je hebt het recht op inzage en verwijdering van persoonsgegevens, het recht op beperking van de verwerking, het recht bezwaar te maken tegen de verwerking en het recht op gegevensoverdraagbaarheid. Bevat het door ons verstrekte overzicht van gegevens naar jouw mening onjuistheden, dan kun je schriftelijk om aanpassing van de gegevens verzoeken door een e-mail te sturen naar me@tonhaex.nl. Ik voldoe binnen 7 werkdagen aan jouw verzoek. Verder heb je het recht om mij te melden dat je geen prijsstelt op informatie over mijn producten en diensten. Ook dit kun je melden door een e-mail te sturen naar me@tonhaex.nl of door gebruik te maken van de afmeldlink in elke nieuwsbrief die ik zal versturen.


Wat zijn cookies

Cookies zijn kleine tekstbestandjes die door websites geplaatst worden op jouw computer. Ze bewaren bepaalde gegevens zoals je klikgedrag of je instellingen, om bij later gebruik van dezelfde of een andere website weer uitgelezen te worden. Via cookies blijven persoonlijke instellingen op een website bewaard (je blijft bijvoorbeeld automatisch ingelogd als je dat hebt aangevinkt) en kunnen advertenties aangepast worden aan eerder klikgedrag.

Cookies bevatten geen virussen en ze kunnen jouw pc geen schade berokkenen. Maar het kan een vervelend gevoel geven dat door adverteerders geregistreerd kan worden waarop je klikt. Daarom kun je tegenwoordig via de cookiemelding op websites de advertentiecookies weigeren, maar je kunt via jouw browser ook alle andere cookies tegenhouden. Hoe je cookies toestaat en blokkeert, lees je in dit artikel. Let op: als je alle cookies blokkeert, zullen sommige websites deels niet werken.

Cookies verwijderen

Je kunt cookies ook helemaal verwijderen van jouw computer of apparaat. Let wel op: als je cookies verwijdert, worden opgeslagen gegevens zoals jouw inlognaam of artikelen die in het winkelmandje zaten, ook verwijderd.

Bovenstaande tekst is een kopie van Seniorenweb, lees daar verder