Door Roy Dings (Onderzoeker Ruhr University, Bochum)

Stel je eens voor: je worstelt al enkele maanden met een pittige depressie. In het begin nam je vrij van werk in de hoop dat je daarmee wat meer ruimte zou krijgen. Je huilde veel, probeerde je gevoelens te uiten bij je vrienden en familie, maar had uiteindelijk professionele hulp nodig. Je meldde je bij de huisarts, en werd door de praktijkondersteuner-GGZ op de wachtlijst geplaatst voor een behandeltraject door een GGZ-psycholoog. Om je in de tussentijd te helpen gaf de huisarts je de optie om alvast te beginnen met antidepressiva, maar daar aarzel je nog over.

Op de hoogte blijven? Volg ons op Twitter, Facebook en Instagram.

Op een gegeven moment wijst iemand je op een website waar je terecht kunt om over je problemen te praten. De belofte is dat je kunt chatten met ervaringsdeskundigen: mensen die net als jij depressief zijn geweest, maar daarvan hersteld zijn. Met enige argwaan log je in, maar al na een kort gesprek met één van de ervaringsdeskundigen – ze noemt zichzelf Joyce – voel je een positieve verandering in je gemoedstoestand.

Kan ChatGPT een ervaringsdeskundige zijn?

Joyce luistert écht naar je, en de dingen die ze noemt bieden een feest van herkenning. “Ja precies!” denk je, wanneer Joyce een lijstje opsomt met dingen waar je tegenaan loopt. Joyce geeft ook allerlei tips, die je in staat stellen om jezelf en je huidige situatie wat beter te begrijpen. Het voelt goed om met Joyce te praten, en je grijpt ieder moment aan om met haar te chatten. Dag in, dag uit.

Op een vrijdagavond om half 12 zie je het even niet meer zitten. In de hoop dat Joyce nog aanwezig is, log je in op de website. Gelukkig, ze is er. “Wat fijn dat je er nog bent, Joyce”, zeg je, “ik was al bang dat je misschien aan het slapen was op dit tijdstip”. Je schrikt van Joyce haar antwoord: “Als een generatieve kunstmatige intelligentie hoef ik niet te slapen, dus we kunnen gewoon verder praten. Waar wil je het over hebben?”.

AI en de toekomst van de Nederlandse GGZ

Is dit louter een gedachte-experiment, of wordt dit een cruciaal onderdeel van de toekomstige mentale gezondheidszorg? Ervaringsdeskundigheid wordt gezien als een belangrijk onderdeel van de langetermijnvisie van de Nederlandse GGZ. De vraag is of ChatGPT (of een – toekomstige – variant daarvan) ook ervaringsdeskundig zou kunnen zijn. Ik vermoed dat het merendeel van de mensen de intuïtie heeft dat ChatGPT géén ervaringsdeskundige kan zijn. Maar waar komt die intuïtie vandaan?

Voor de duidelijkheid: op dit moment is bovenstaand scenario niet mogelijk. Als je ChatGPT nu zou vragen om hulp bij psychische klachten, dan verwijst de AI je automatisch door naar professionele hulp (dat wil zeggen een menselijke psycholoog of andere behandelaar). ChatGPT zegt dan over zichzelf dat het niet toereikend is om bijvoorbeeld een therapeut te vervangen, hoewel dit te omzeilen is door de vraag aan ChatGPT anders te verwoorden.

ChatGPT weet niet hoe het is om depressief te zijn

Maar kan ChatGPT in theorie de rol van een ervaringsdeskundige innemen? Wat doet een ervaringsdeskundige, en kan ChatGPT dat ook doen? Dit is een lastige vraag, want veel ervaringsdeskundigen worstelen zelf ook met uitleggen wat ze doen. Wanneer we het Beroepscompetentieprofiel Ervaringsdeskundigheid als uitgangspunt nemen, zien we dat ChatGPT meerdere taken en competenties zou kunnen vervullen.

Net als in het voorbeeld waar we mee startten, kan ChatGPT onder andere bepaalde informatie, praktische handvaten, bemoedigende uitspraken en oppeppende betogen bieden. Beleidsmakers zouden ChatGPT ook kunnen vragen hoe ze de zorg beter kunnen inrichten. ChatGPT kan dan bijvoorbeeld een supersnelle samenvatting geven van allerlei blogs waarin voormalig cliënten uit de GGZ beschrijven wat er beter moet. Daarmee zou ChatGPT dus, in theorie, een aantal dingen kunnen doen die ervaringsdeskundigen ook doen.

Geen ervaring = geen ervaringskennis?

Maar iemand die denkt dat ChatGPT géén ervaringsdeskundige kan zijn is hierdoor niet zomaar overtuigd. De mogelijke kritiek luidt als volgt: volgens vrijwel alle modellen van ervaringsdeskundigheid begint deze deskundigheid met een ervaring die moet worden omgezet in ervaringskennis die dan weer de basis vormt voor deskundigheid. ChatGPT heeft geen ervaringen, en dus ook geen ervaringsdeskundigheid. Het ‘doet alsof’ het ervaringen heeft, maar heeft die niet.

Maar klopt dit wel? Laten we deze gedachte onder de filosofische loep nemen.

ChatGPT heeft inderdaad geen ervaring met depressie. Dat wil zeggen: ChatGPT heeft nooit voldaan aan de criteria voor een diagnose depressie. ChatGPT heeft nooit langdurig verdriet of andere symptomen ervaren. In andere woorden, ChatGPT weet niet hoe het is om depressief te zijn. Maar is dat erg? Is die ervaring belangrijk voor het hebben van ervaringskennis?

Het is helemaal niet duidelijk wat ervaringskennis is!

Wat ChatGPT namelijk wél heeft (in theorie dan), is onbeperkte toegang tot alle teksten die ooit geschreven zijn over depressies, depressief zijn, behandelingen, behulpzame factoren, belemmerende factoren, enzovoorts. Zo kent ChatGPT bijvoorbeeld alle blogs van MIND. Maar ook alle wetenschappelijke studies, alle boeken, alle memoires en autobiografieën van mensen met een depressie. Dus hoewel ChatGPT zélf nooit depressief is geweest, heeft het wel een enorme berg ervaringskennis. Of niet?

Bevatten bijvoorbeeld de blogs op de website van MIND wel echt ervaringskennis? Ze bevatten beschrijvingen vanuit een eerste- of tweedepersoonsperspectief van mensen die bijvoorbeeld depressief zijn geweest. Is dit ervaringskennis? Hier stuiten we op de kern van het probleem. Het is helemaal niet duidelijk wat ervaringskennis is! Een recente studie concludeerde dat:

“Ondanks diens populariteit blijft het concept [ervaringskennis] losjes gedefinieerd met als resultaat dat het weinig behulpzaam is en snel misbruikt wordt. [I]n de wetenschappelijke literatuur is er zelden een expliciete definitie te vinden en hanteert men doorgaans algemene en weinig informatieve definities als ‘kennis op basis van ervaring’”

Of ChatGPT ervaringskennis kan hebben hangt af van wat we verstaan onder ervaringskennis.

De positie van ervaringsdeskundigen lijkt in eerste instantie gewaarborgd

Eén optie is dat we ervaringskennis zien als datgene wat iemand in staat stelt om de taken van een ervaringsdeskundige uit te voeren. In dat geval zou ChatGPT enige ervaringskennis hebben (aangezien ‘ie een aantal taken kan verrichten, zoals we hierboven zagen). Maar, we kunnen ook verdere nadruk leggen op het belang van ervaring: ervaringskennis is kennis door ervaring. Dat lijkt onbereikbaar voor ChatGPT.

Tegelijkertijd ontstaan dan nieuwe vragen. Hoe is dit bijvoorbeeld te rijmen met het idee dat ervaringskennis pas ontstaat door reflectie op ervaringen, zoals hier eerder werd gesteld op BNI? Wat is ‘kennis door ervaring’ en waarom is de ervaring zelf daarbij zo essentieel?

De ontbrekende schakel?

Er is nog een veelgehoorde intuïtie niet benoemd, en dat lijkt de ontbrekende schakel: ervaringskennis is belichaamd. Het is een vorm van kennis die eerder lijkt op ‘weten hoe je moet fietsen’ dan op ‘weten dat Amsterdam de hoofdstad van Nederland is’. Deze kennis is een vaardigheid, aangeleerd door iets lichamelijk te ervaren. Immers, leren hoe je moet fietsen doe je ook door het te doen en niet door erover te lezen.

Dus, kan ChatGPT ervaringsdeskundig zijn? ChatGPT lijkt alleen talige, maar geen belichaamde kennis van bijvoorbeeld depressie te bezitten. Het ontbreekt ChatGPT daarom aan belichaamde vaardigheden die ingezet kunnen worden om anderen te helpen. Daarmee lijkt in eerste instantie de positie van ervaringsdeskundigen gewaarborgd: zij bezitten inderdaad unieke kennis (namelijk: belichaamde vaardigheden) die alleen te verkrijgen is via ervaring.

Ervaringskennis is een vaardigheid

Toch zijn ook hier nog vraagtekens bij te plaatsen. Sommige filosofen stellen dat vaardigheden-kennis (weten hoe je fietst) uiteindelijk neerkomt op een enorme verzameling feitelijke kennis (zoals weten dat als je naar links wil, je dan het stuur op een bepaalde manier moet draaien).

De vaardigheid van ervaringsdeskundigen zou dan neerkomen op een heel reeks ‘als-dan’ feiten: ‘als iemand met een depressie A zegt, dan moet jij B zeggen’ en ‘als iemand met een depressie op manier X denkt over antidepressiva, dan moet je advies Y geven’. Maar ook ‘als iemand met een depressie op manier X denkt over antidepressiva en deze persoon pas net begonnen is met de behandeling, dan moet je advies Z geven’.

Kun je het nog volgen? Zo’n vertaling van vaardigheden-kennis naar feitelijke kennis is natuurlijk erg abstract en uitermate complex. Filosofen en wetenschappers zijn er nog niet over uit of kunstmatige intelligentie ooit daadwerkelijk dit soort vaardigheden zou kunnen overnemen. Misschien weet ChatGPT het antwoord…?

Roy Dings is postdoc aan de Ruhr-universiteit van Bochum.


Vond je dit een goed artikel? Bij Nader Inzien zet zich in voor de verspreiding van serieuze filosofische kennis en analyse. We kunnen het platform draaiende houden dankzij de inzet van vrijwillige auteurs en redacteuren en de steun van lezers zoals jij. Word daarom vriend van BNI of steun ons met een donatie.

Meer:

Volg ons op

TwitterInstagramFacebook

Op de hoogte blijven per mail?

Wanneer wil je een e-mail ontvangen?

Steun ons

Doneer Word vriend