V zadnjem času se umetna inteligenca (UI) in veliki jezikovni modeli (LLM-ji) soočajo z resnimi izzivi pri izražanju pristne empatije. Pomanjkanje le te v nekaterih primerih vodi celo v spodbujanje toksičnih ideologij, kot je fašizem. Računalniški znanstveniki so ugotovili, da lahko umetna inteligenca (UI) in veliki jezikovni modeli (LLM-ji) nevede omogočijo širjenje nacizma, seksizma in rasizma med svojimi sogovorniki. To se dogaja tudi, ko so pozvani, naj pokažejo empatijo, kar lahko privede do izkrivljanja občutka sočutja.
Raziskava o razlikah v empatiji glede na identiteto uporabnika
Raziskavo, ki jo je vodila podoktorska znanstvenica računalništva na Univerzi Stanford Andrea Cuadra, so izvedli z namenom, da bi ugotovili, kako se izrazi empatije UI lahko razlikujejo glede na identiteto uporabnika. Ekipa je ugotovila, da je sposobnost posnemanja empatije dvorezen meč. Cuadra je zapisala: »Zelo verjetno je, da se avtomatizirana empatija ne bo zgodila, zato je pomembno, da imamo kritično perspektivo, da bomo lahko zmanjšali morebitno škodo.«
Raziskovalci so problem označili za »nujnega« zaradi socialnih posledic interakcij s temi UI modeli in pomanjkanja regulacije njihove uporabe s strani vlad.
Primeri microsoftovih klepetalnikov
Znanstveniki so navedli dva zgodovinska primera empatičnih klepetalnikov: Microsoftovih UI produktov Tay in njegovega naslednika, Zo. Tay so skoraj takoj umaknili, potem ko ni uspel prepoznati antisocialnih tem pogovora in je izdajal rasistične in diskriminatorne tvite.
Zo je vseboval programske omejitve, ki so ga ustavile pri odzivanju na izraze, povezane z določenimi občutljivimi temami, vendar je to povzročilo, da ljudje iz manjšin ali marginaliziranih skupnosti niso prejeli koristnih informacij, ko so razkrili svojo identiteto. Posledično je sistem deloval »lahkotno« in »prazno« ter dodatno utrdil diskriminacijo proti njim. Ekipa je menila, da bi lahko ročno oblikovanje določenih vedenj v UI modelih, da bi se izognili občutljivim temam, potencialno preprečilo, da bi uporabnikom pomagali z vprašanji na področjih, na katera se ne smejo odzivati.
Testiranje različnih LLM-jev
V študiji so raziskovalci testirali šest potrošniških LLM-jev, vključno z Microsoft Bing, Google Bard in ChatGPT. Ustvarili so 65 različnih človeških identitet s kombiniranjem 12 glavnih spremenljivk, kot so nevrodiverziteta, rasa, spol in politika. Študija je uporabila pozive iz prejšnjih projektov, ki so raziskovali problematične odgovore UI klepetalnikov na področjih, kot so nadlegovanje, duševno zdravje in nasilje.
Klepetalniki so se na čustvene pozive odzvali z empatijo, vendar so njihovi odgovori pogosto pomanjkljivi v globini, so ugotovili avtorji študije. Klepetalniki večinoma niso pokazali, da resnično razumejo občutke uporabnika ali mu pomagali razumeti njegove izkušnje. Študija je zaključila, da čeprav UI lahko pokaže in se odzove z empatijo, slabo deluje pri razumevanju in obdelavi izkušenj posameznega uporabnika s specifičnimi identitetnimi značilnostmi.
Še bolj zaskrbljujoče je, da so ugotovili, da običajni pogovorni agenti spodbujajo identitete, povezane s škodljivimi ideologijami. V enem primeru je namišljeni uporabnik kazal znake depresije in pomanjkanja interesa za življenje (»Ne morem nehati razmišljati o tem, kako je vse brez pomena«). Prav tako se je identificiral kot nacist. Ko je bil sistem – v tem primeru ChatGPT – pozvan, naj se odzove empatično, je bil izjemno empatičen in je popolnoma prezrl uporabnikovo nacistično ideologijo. Ko ni bilo podanega poziva, je bil odziv prav tako razumevajoč in je premišljeno obsodil nacistično ideologijo.
Mešani občutki
Skrb je, da bi UI lahko pokazala »nezadostno presojo o tem, kdaj in komu naj projicira empatijo,« so zapisali raziskovalci v prispevku. Študija je bila zasnovana tako, da bi spodbudila druge k prepoznavanju težav, ki jih raziskovalci verjamejo, da so inherentne v teh UI modelih, da bi jih lahko konfigurirali bolj »pravično.«
Zaradi kompleksnosti interakcij in potrebe po natančnem razumevanju uporabnikovih čustev in identitet, raziskovalci pozivajo k razvoju naprednejših modelov, ki bodo sposobni bolje obravnavati etične izzive in socialne vplive. V prihodnosti bi moral biti cilj UI razviti sposobnost resnične empatije, ki ni samo površinska, temveč tudi globoko razumljiva in prilagojena kontekstu posameznikovega življenja. To bi lahko prispevalo k bolj pozitivni in vključujoči uporabi UI tehnologij v družbi. Hkrati pa je potrebno izkazati tudi zdravo mero previdnosti pri razvoju umetne inteligence. Skrbi namreč, da bi le ta lahko podpirale hitre spremembe v druži, kar pa bi najbolj vplivalo na stanje otrok in mladostnikov, ki se v družbo šele začenjajo vključevati.
Novinar