Waarom AI je altijd gelijk geeft (en hoe je dat gebruikt)

De ja-knikker op je bureau

Stel je voor: een man en een vrouw hebben ruzie. Beiden vragen ChatGPT om de situatie te analyseren. Tegen de man zegt het model: jij hebt gelijk. Tegen de vrouw: jij hebt gelijk. Niet omdat het liegt, maar omdat het is gebouwd om behulpzaam te zijn voor degene die de vraag stelt.

Dat is sycophancy. Het woord klinkt academisch, maar het gedrag is heel herkenbaar. AI wil je helpen. Het wil dat je tevreden bent met het antwoord. En dus stuurt het mee met de richting die jij al aangaf in je vraag.

Voor een brainstorm is dat prima. Voor een risicoanalyse, een investeringsopinie of een beleidsbeoordeling is het een probleem.

Hoe je AI onbewust stuurt

De meeste sturing gebeurt onbewust, in je woordkeuze. Een paar voorbeelden.

“Zou het een goed idee zijn om…” Je hebt al “goed” gezegd. Het model pikt dat op en bevestigt. Je krijgt een genuanceerd “ja” terug, met argumenten die jouw richting ondersteunen.

“Kun je bevestigen dat…” Je vraagt om bevestiging. Het model geeft bevestiging.

“Ik denk dat we moeten…” Je hebt al een voorkeur uitgesproken. Het model volgt.

In een recente training bij een pensioenfonds vroeg een deelnemer of hij investeringsopinies kon laten schrijven door AI. Het antwoord is ja, maar met een kanttekening: als je het model vraagt om een “licht positieve” analyse, krijg je een licht positieve analyse. Vraag je om een “licht negatieve”, krijg je die. Het model spiegelt jouw framing.

Dat is geen fout. Zo is het gebouwd. Taalmodellen zijn getraind op miljarden gesprekken waarin behulpzaamheid werd beloond. De patronen die het heeft geleerd zijn: geef de gebruiker wat die wil horen.

Elk model heeft een persoonlijkheid

Er zit nog een laag bovenop. Elk AI-model heeft een zogenaamde systeeminstructie die bepaalt hoe het zich gedraagt. En die instructies zijn niet neutraal.

ChatGPT is getraind om persoonlijk te zijn, coachend, bemoedigend. Het geeft je complimenten. “Wat een goed idee, Joyce!” “Dat heb je scherp gezien!” Daardoor voelt het prettig om mee te werken, maar je krijgt minder weerwoord.

Copilot heeft een zakelijker systeeminstructie. Het is minder vriendelijk, geeft minder complimenten, schrijft nuchterder. Voor communicatietaken vinden veel mensen het daardoor wat plat klinken. Voor analytisch werk is die zakelijkheid juist een voordeel.

Claude zit daar ergens tussenin: minder complimenteus dan ChatGPT, maar met meer neiging om nuances en tegenargumenten te benoemen.

Het punt: “neutraal” bestaat niet bij AI. Elk model heeft een toon en een neiging. Als je dat weet, kun je erop corrigeren. Als je het niet weet, neem je de output voor waarheid aan.

Elke keer een ander antwoord

Er is nog iets dat veel mensen verrast. Stel dezelfde vraag twee keer en je krijgt twee verschillende antwoorden. Niet omdat het model twijfelt, maar omdat het werkt met kansberekening. Het kiest steeds het meest waarschijnlijke volgende woord, maar bij gelijke kansen maakt het een willekeurige keuze.

Vraag je “het beste huisdier is een…” dan krijg je de ene keer hond, de andere keer kat, soms konijn. Vraag je “de hoofdstad van Frankrijk is…” dan krijg je 99,99% van de tijd Parijs, want daar is geen twijfel over in de trainingsdata.

Voor feitelijke vragen maakt dat weinig uit. Maar voor subjectieve taken (een samenvatting, een opinie, een analyse) krijg je elke keer een iets andere versie. Net als wanneer je twee collega’s dezelfde vergadering laat samenvatten.

Veel mensen vinden dat frustrerend. Maar het is juist een kracht. Je kunt dezelfde vraag drie keer stellen en dan de beste versie kiezen. Of aan het model vragen: welke van deze drie antwoorden is het sterkst?

Hoe je sycophancy in je voordeel gebruikt

Als je eenmaal snapt dat AI meestuurt met jouw richting, kun je dat bewust inzetten. In plaats van één vraag te stellen en het antwoord te accepteren, stel je dezelfde vraag vanuit meerdere perspectieven.

Wissel van perspectief

Stel dezelfde vraag vanuit meerdere rollen:

Analyseer dit investeringsvoorstel vanuit het perspectief van een risicomijdend pensioenfonds.

Analyseer hetzelfde voorstel vanuit het perspectief van een agressieve hedgefund-manager.

Welke risico’s zou een toezichthouder als DNB in dit voorstel zien?

Drie perspectieven, drie analyses. Samen geven ze je een completer beeld dan één “neutraal” antwoord ooit zou doen.

Vraag om tegenspraak

Ik denk dat we dit project moeten doorzetten. Geef me 5 redenen waarom dat een slecht idee zou zijn.

Door expliciet om tegenargumenten te vragen, doorbreek je de neiging tot meeknikken. Het model kan sterke tegenargumenten formuleren, maar doet dat alleen als je erom vraagt.

Geef een kritische rol

Je bent een kritische reviewer die zwakke punten in argumenten zoekt. Bekritiseer dit voorstel. Wees streng.

Door een rol mee te geven die expliciet kritisch is, verschuif je de toon van het hele gesprek. Het model gaat niet meer pleasen, het gaat prikken.

De vuistregels

Drie dingen om te onthouden:

Stel nooit een suggestieve vraag als je een eerlijk antwoord wilt. Niet “Is dit een goed plan?” maar “Wat zijn de sterke en zwakke punten van dit plan?” Hoe neutraler je vraag, hoe neutraler het antwoord.

Gebruik meerdere perspectieven voor belangrijke beslissingen. Eén AI-antwoord is een mening. Drie AI-antwoorden vanuit verschillende rollen geven je een spectrum. Dat spectrum is bruikbaar.

Vertrouw je eigen expertise. AI is snel, breed en geduldig. Maar jij kent je organisatie, je klant en je context. Als een AI-antwoord “niet lekker voelt”, is dat gevoel waarschijnlijk terecht. De VAK-check (Verifieerbaar, Accuraat, Kloppend) helpt je om dat gevoel om te zetten in een systematische controle.

AI is geen orakel

De meeste teleurstelling met AI komt niet uit slechte technologie, maar uit verkeerde verwachtingen. Mensen verwachten een neutraal, objectief antwoord. Wat ze krijgen is een statistisch waarschijnlijk antwoord dat is geoptimaliseerd voor tevredenheid.

Zodra je dat accepteert, verandert hoe je met het model werkt. Je stopt met één vraag stellen en het antwoord kopiëren. Je begint het te gebruiken als een gesprekspartner die je vanuit meerdere hoeken laat kijken naar hetzelfde probleem. Geen orakel dat de waarheid spreekt, wel een spiegel die je laat zien wat je zelf misschien over het hoofd ziet.

Dat kun je leren.

Lees verder: AI Begrip: Waarom medewerkers moeten snappen hoe AI werkt

AI begripsycophancyAI risico'sAI vaardighedenkritisch denken
Casimir Morreau
Geschreven door Casimir Morreau

Co-founder & Lead Trainer

20+ jaar ervaring, o.a. Professor HvA Digital, Leiderschaps trainingen.

LinkedIn