– Mhm, sympatiserer terapeuten Ellie.

– Hvor lett er det for deg å få en god natts søvn? spør hun videre, tydelig interessert, uten at hun legger føringer for hva hun tenker om det du sier eller måten du sier det.

Ellie en del av en ny studie som gjennomføres ved University of Southern California. Hun er en veltrent samtalepartner som nikker, smiler og gestikulerer medfølende når hun lytter til en sensitiv beretning.

Men Ellie er ikke en ekte person.

En amerikansk soldat intervjues av den virtuelle terapeuten «Ellie». (Foto: USC Institute for Creative Technologies via Frontiers in Robotics and AI)

I denne bloggen har vi tidligere skrevet om «lommepsykologen» Woebot … en kunstig intelligens som er programmert til å bruke kognitiv adferdsterapi når du kontakter den via Facebook Messenger.

«Lommepsykologen» Woebot er en kunstig intelligens du kan chatte med om mindre problemer og plager.

«Ellie» er i så måte en slags slektning av Woebot, men en du skal ha muligheten til å treffe i levende live – i den grad det er mulig å treffe 3D-avataren til en kunstig intelligens.

– Folk er veldig åpne for å føle en tilknytning til ting som ikke er mennesker, mener Gale Lucas, psykolog og hovedforfatter av en ny studie som er publisert i det digitale tidsskriftet Frontiers in Robotics and AI.

Wired skriver at studien er gjort for Darpa, det amerikanske forsvarets etat for avanserte forskningsprosjekter, for å forbedre oppfølgingen av soldater når de kommer hjem fra utenlandstjeneste. I dag må alle som har tjenestegjort i utlandet gjennomføre en ikke-anonym skriftlig undersøkelse.

Du kan vel kanskje se for deg hvor åpen og ærlig du selv vil være i en slik «Ja»-eller-«Nei»-undersøkelse?

Innledende tester var positive: Flere hundre sivile ble kalt inn til samtale med Ellie – halvparten ble fortalt at de skulle intervjues anonymt av en virtuell terapeut, mens resten ble ledet til å tro at Ellie var menneskestyrt.

De som trodde de snakket med en kunstig intelligens hadde mye lettere for å åpne seg, kunne forskerne slå fast.

Ikke bare er Ellie trent til å bruke anerkjennende ord og «kroppslige» signaler – systemet plukker også opp pasientens kroppsspråk og nyansene i stemmen dens.

Men hva så med soldatene?

Forskerne kalte inn soldater som nylig var kommet hjem fra Afghanistan, og denne gangen var Ellies kliniske spørsmål spisset mot symptomer for posttraumatisk stresslidelse, skriver Wired.

– Kan du fortelle meg om vonde drømmer om det du har opplevd, eller tilfeller da tanker eller minner fylte hodet ditt mot din vilje? spør Ellie. 

Soldatene viste langt flere PTSD-symptomer i samtalene med Ellie, enn de gjorde i de offisielle skriftlige undersøkelsene. Heller ikke en anonymisert versjon av militærets avslutningsundersøkelse oppnådde den samme åpenheten som den soldatene viste overfor den kunstige intelligensen.

– Å få folk til å innrømme at de har symptomer er et viktig steg i å hjelpe dem å innse at de er i risikosonen, mener Lucas.

I en slik kartleggingsfase kan et slikt system kan være svært nyttig. Målet er nemlig ikke at det skal erstatte menneskelige terapeuter, men snarere avlaste dem for innledende intervjuer som tar opp tiden de kunne brukt til behandling av pasienter.

Og denne teknologien vil nok være til god hjelp også utenfor rammene til det amerikanske forsvaret.

Blant annet var psykisk helse var psykisk helse på arbeidsplassen årets tema for Verdensdagen for psykisk helse. Ifølge Verdens helseorganisasjon lider over 300 millioner mennesker av depresjon, og det er beregnet at depresjon og angst årlig koster verdenssamfunnet 1000 milliarder dollar.

Også resultatene i årets Ungdata-undersøkelse viser at omfanget av psykiske helseplager fortsetter å øke blant norske skoleelever, uavhengig av kjønn.

Teknologi som Ellie er med andre ord ikke bare relevant, den kan også hjelpe oss med store mennskelige utfordringer i fremtiden.

Kilder: Wired, Frontiers in Robotics and AI, ScienceDirect, FN-sambandet, WHO, Høgskolen i Oslo og Akershus, Wikipedia