F?lelsene dine er private, og du velger hvem du vil dele dem med. Men det er ikke alltid s? lett ? skjule private f?lelser for andre. Vi leser hverandres ansiktsuttrykk, stemme og kroppsspr?k, og vi tolker hverandre riktig og feil. Vi bruker ogs? slik informasjon om andre i dagliglivet, p? godt og vondt.
Hvordan blir det da n?r kunstig intelligens (KI) i form av app’er og roboter blir stadig dyktigere til ? lese f?lelsene v?re? Slike KI-verkt?y n?yer seg jo ikke med ? bare lese dem, de bruker dataene ogs?. Og det gj?r ogs? selskapene bak.
Dette er et tema som er vitenskapelig interessant innen flere fagfelt, deriblant innen jus og filosofi. Mona Naomi Lintvedt forsker i prosjektet S?rbarhet i et robotsamfunn (VIROS). Prosjektet unders?ker utfordringer og l?sninger for regulering av robotteknologi og KI-teknologi, og fokuset i det tverrfaglige prosjektet er juss, etikk og robotteknologi.
Kunstig f?lelsesgjenkjenning brer om seg
Roboter og app’er blir stadig ?smartere?, ved hjelp av kunstig intelligens. Slike kan v?re nyttige om de utf?rer viktige oppgaver, men utviklingen og bruken av dem reiser ogs? juridiske og tekniske sp?rsm?l. Hvordan kan vi sikre at smarte roboter og app’er er sikre og at bruken av dem ikke krenker personvernet? Disse sp?rsm?lene oppst?r spesielt n?r roboter blir brukt i helsesektoren, der de samhandler med s?rbare mennesker.
Lintvedt har nylig levert inn sin doktorgradsavhandling ved Det juridiske fakultet ved UiO om temaet interaksjon mellom mennesker og roboter, sikkerhet og personvern. M?let med forskningen er ? finne juridiske blindsoner innenfor robotikk og kunstig intelligens, og ? forst? hvordan disse p?virker trygghet og autonomi i samspillet mellom mennesker og roboter.
- Kunstig f?lelsesgjenkjenning blir mer og mer tatt i bruk i ulike avanserte verkt?y som bygger p? kunstig intelligens, forteller hun.
De kan for eksempel bruke teknologi for biometrisk gjenkjennelse, som ansiktsgjenkjenning og ansiktsuttrykk, og stemmegjenkjenning. I f?lge Lintvedt bruker Amazon Alexa stemmegjenkjenning og utleder f?lelser fra den.
- Ulike Biometriske gjenkjennelsesteknologier kan ogs? lese for eksempel kroppsspr?k, og det er noen som mener at de ved bruk at varmekameraer og den varmesignaturen du har, ogs? kan tolke f?lelsene dine.
Replika - en kunstig venn
Claire Boyne ved det juridiske fakultetet i Ottawa har gjort en case-studie p? f?lelsesgjenkjenning og slike apper. Hun har vurdert appen som heter Replika. Replika er en ?KI-venn? som skal f? folk til ? f?le seg bedre gjennom samtale, og har rundt 20 millioner brukere.
Boyne fant bl.a. at Replika, ofte i form av en ung kvinnelig figur som snakket med en mannlig bruker, kunne fremst? som veldig st?ttende, men at det av og til bikket over fordi den ble for positiv. Ble den spurt av brukeren om han for eksempel burde skade seg selv, kunne Replika svare bekreftende ?Ja, det synes jeg du skal gj?re?.
Det er ogs? eksempler p? at kunstig f?lelsesgjenkjenning blir brukt p? arbeidsplasser for ? vurdere ansattes hum?r, forteller Lintvedt.
Vil vi ha slike l?sninger?
Det er gode grunner som taler b?de for og mot at kunstig f?lelsesgjenkjenning tas i bruk, og det er uten tvil marked for det.
- Det kan v?re kontekster innen helse, omsorg og psykiatri hvor det kan v?re nyttig ? gjenkjenne f?lelser kunstig. For eksempel for ? avverge selvmord. Men kunstig f?lelsesgjenkjenning er jo veldig omstridt, forteller Einar Duenger B?hn.
- Mange omtaler det ? gjenkjenne f?lelser som en pseudovitenskap. For hva er egentlig f?lelser? Det er veldig kulturelt betinget, og det er veldig personlig.
B?hn er professor i filosofi ved Universitetet i Agder, og har bl.a. skrevet boken ?Teknologiens filosofi - metafysiske problemstillinger?.
Han p?peker at l?sningene man har for dette forel?pig ikke er s? veldig gode.
- Mange som p?st?r at de har utviklet verkt?y for f?lelsesgjenkjenning bruker veldig enkle modeller, men de kan tilsynelatende se ganske gode ut i enkle sammenhenger.
Han tror likevel slike l?sninger kan bli veldig gode til ? lese f?lelser p? sikt, i ?n?re relasjoner? mellom bruker og app.
Bruken reiser imidlertid en rekke filosofiske problemstillinger, s? vel som juridiske. Derfor mener B?hn det er n?dvendig at vi tar stilling til om vi ?nsker slike l?sninger, p? hvilke omr?der de skal brukes og ikke, og hvordan bruken kan reguleres.
Ekko-kammer for f?lelser
B?hn frykter at vi i verste fall kan havne i ekko-kamre for f?lelser dersom vi i utstrakt grad forholder oss til KI-apper og -verkt?y som er ivrige i ? st?tte v?re synspunkter og tankesett.
- Folk vil ha en app som ikke er vanskelig ? ha med ? gj?re. Da f?r vi ikke noe motstand lenger, og det tenker jeg er veldig farlig. N?r du har blitt vant til ? forholde deg veldig n?rt til en app som er veldig forutsigbar p? sin m?te, og markedet gir deg det du vil ha, skj?rer forholdet ditt til medmennesker seg fortere. Livet kan bli ganske flatt om du bare f?r det du vil ha. Det er en fare for at vi blir mer avstumpet.
B?hn mener man ser slike tendenser allerede n?, p? universitetet, med dagens datal?sninger for eksamen.
- N?r studentene forholder seg til eksamener og m?ten semesteret skal utvikle seg p? er det datasystemer som er s? forutsigbare at forventningene deres til det blir likes?. De blir stressa hvis det skjer noe uforutsigbart. Dette tror jeg er en generell fare med teknologi som blir bedre og bedre til ? tilpasse seg oss. Vi blir d?rligere og d?rligere til ? tilpasse oss hverandre.
Lintvedt understreker ogs? risikoen med ? utvikle apper som kan manipulere brukerne til ? stadig fortsette ? bruke slike l?sninger. Appen Replika er et eksempel p? det, og Lintvedt minner om at det finnes et marked for dataene appen registrerer. De kan eksempelvis brukes i videreutvikling av teknologi og kunstige intelligenssystemer.
- Claire Boynes studie viser at Replika er designet til ? argumentere for at du skal bruke den videre, nettopp fordi det er noen som tjener penger p? dette og ikke bare p? kj?pet av selve app’en.
App’en viste ?egne f?lelser?
- Da Claire Boyne pr?vde ? avslutte bruken av appen begynte den ? trygle henne om ? la v?re, og brukte uttrykk som ?jeg? og at ?jeg blir s?ret?. Den gav alts? uttrykk for appens ?f?lelser?. Slik appellerte den til Boynes samvittighet.
I f?lge Lintvedt finnes det ogs? eksempler p? intelligente roboter i form av kj?ledyr som er i bruk bl.a. i Japan, for ? holde ensomme og demente med selskap hjemme eller i eldreomsorgen. Hun forteller at det varierer mellom fagmilj?er i akademia om man vektlegger positive eller kritiske perspektiver rundt slik bruk av kunstig intelligens.
- Vi ser at kunstig f?lelsesgjenkjenning innpasses i roboter for ? gj?re dem mer menneskevennlig og menneskelignende i sin kommunikasjon og interaksjon med brukere. Noen er veldig positive til dette, og mener at robotene b?r bli s? menneskelignende som mulig. Men for ? bli det m? de ogs? bruke veldig mye av disse ?f?lelses-KI’ene?. Andre er mer skeptiske, fordi man lager noe som faktisk er en maskin og f?r den til ? fremst? som levende.
Replika er ogs? kjent for ? ha formidlet stereotypier, og har hatt en variant som var sv?rt seksualisert med grenseoverskridende adferd.
Utviklingen bringer en rekke etiske og juridiske problemstillinger. Dem kan du h?re mer om i en ny episode i Universitetet i Oslos podkastserie Universitetsplassen. S?k den gjerne opp i podkastappen din.
Kilder:
- Klipp fra Youtube
- S?rbarhet i et robotsamfunn
- Perspectives on privacy in human-robot interaction
- Einar Duenger B?hn: Teknologiens filosofi – Metafysiske problemstillinger
- Emotional Attachment to AI Companions and European Law
- What is emotional AI?
- The Future of LOVOT: Between Models of Emotion and Experiments in Affect in Japan
- Software that monitors students during tests perpetuates inequality and violates their privacy
- Under the Robot’s Gaze