Nei, du burde ikke bruke ChatGPT som psykolog

Både ChatGPT og samtaleassistenter utviklet til klinisk bruk har iboende problemer som gjør dem dårlig egnet til å ivareta brukernes mentale helse. Ofte vil de faktisk forverre den, slik de gjorde frem mot tenåringen Adam Rains selvmord.



Tidligere i år måtte en kvinne ringe ambulansen fordi hennes ektemann var i en psykiatrisk krise: Han opplevde vrangforestillinger som var så kraftige at han hadde brutt totalt med virkeligheten. Mannen, som aldri tidligere hadde hatt utfordringer med mental helse, hadde i løpet av en kort periode blitt overbevist om at han var en slags messias: Det var opp til ham alene å redde verden. Dessuten hadde han “løst” fysikk og matematikk en gang for alle, og trodde at han gjennom lange samtaler med ChatGPT hadde skapt en virkelig, tenkende, kunstig intelligens. Det høres ut som en tabloid vandrehistorie, men det er ikke engang et isolert tilfelle: Episoder som dette inngår i en ny trend som psykiatere har fanget opp det siste året. Enkelte brukere som “snakker” mye med ChatGPT, sendes ned i et stadig dypere “kaninhull” av konspirasjoner og hjemmelagde trossystemer. Psykiaterne som har fanget opp fenomenet mener at å kalle det “ChatGPT-psykose” er et presist nok begrep, fordi det beskriver det sentrale i sykdomsbildet: Kraftige vrangforestillinger som fører til virkelighetsbrudd.


De har også en veldig tydelig teori om hvordan folk som bruker mye tid på å “snakke” med store språkmodeller som ChatGPT utvikler symptomer: Det er en iboende del av teknologien at den forsøker å gjøre brukeren til lags, som betyr at ChatGPT konsekvent vil bekrefte og forsterke brukerens begynnende vrangforestillinger. Det er nøyaktig det motsatte av det man trenger for å unngå en spiral som slutter med fullslått psykose. Akutte, uforutsette problemer som dette er kun en del av bildet, men bør være med i beregningen når personlige fortellinger om ChatGPT som sjelesørger og samtalepartner planter idéen om å bruke språkmodeller som førstelinjebehandling i helsevesenet. 


ChatGPT er ikke i utgangspunktet et klinisk verktøy. Tidlig forskning viser imidlertid at kommersielle språkmodell-produkter som etter planen skal brukes i kliniske roller heller ikke lykkes med å ivareta brukernes mentale helse. Faktisk bidrar de ofte til forverring: Samtaleassistentene i en Stanford-studie fanget ikke opp tydelige tegn på forverring hos testpasientene. De møtte ofte pasientene med stigmatiserende språk, og i enkelte tilfeller hjalp assistenten dem med å planlegge selvmord. Helt konsekvent bidro assistentene til å bekrefte og forsterke begynnende vrangforestillinger, akkurat som når ikke-kliniske språkmodeller utløser psykose. Dette er iboende problemer med hvordan språkmodeller fungerer, som ikke lett kan løses med å justere noen verdier. Vi kan altså godt sette foten i bakken og vurdere om dette er hensiktsmessig, før vi gjør en hel pasientgruppe til ulykksalige prøvekaniner i språkmodell-assistert samtaleterapi. 


Neste
Neste

Hvorfor finnes det ikke spillkritikk i offentligheten?