Google je prejšnji teden suspendiral inženirja, ker je razkril zaupne podrobnosti o klepetalnici, ki jo poganja umetna inteligenca, kar je najnovejša motnja v oddelku za umetno inteligenco v podjetju. Kako je prišlo do tega in zakaj?
Klepetalni robot naj bi dosegel čutenje
Blake Lemoine, višji inženir programske opreme v Googlovi odgovorni skupini za umetno inteligenco, je dobil plačan administrativni dopust, potem ko je javno izrazil zaskrbljenost, da je klepetalni robot, znan kot LaMDA (Language Model for Dialogue Applications), dosegel čutenje. Lemoine je svojo odstavitev razkril 6. junija v objavi na platformi Medium, nato pa je o svojih pomislekih glede morebitne čuječnosti LaMDA razpravljal s časnikom The Washington Post v zgodbi. Lemoine je po navedbah časopisa poiskal tudi zunanjega svetovalca za LaMDA.
Lemoine v svoji objavi na Mediumu napisal, da je etične pomisleke raziskoval pri ljudeh zunaj Googla, da bi pridobil dovolj dokazov, da bi jih lahko prenesel na višje vodstvo. Objava na Mediumu je bila namerno nejasna glede narave njegovih pomislekov, čeprav so bili ti pozneje podrobno opisani v zgodbi časopisa The Washington Post. Lemoine je objavil vrsto intervjujev, ki jih je opravil z LaMDA.
Lemoine se ni takoj odzval na prošnjo za komentar prek omrežja LinkedIn. V objavi na Twitterju je Lemoine sporočil, da je na medenih tednih in da do 21. junija ne bo na voljo za komentarje.
For all of the people reaching out to me, I'm on my Honeymoon currently. I won't have much time for interviews until after the 21st.
— Blake Lemoine (@cajundiscordian) June 13, 2022
Google je v izjavi zavrnil Lemoineovo trditev, da se LaMDA zaveda samega sebe
»Ti sistemi posnemajo vrste izmenjav, ki jih najdemo v milijonih stavkov, in lahko rišejo o kateri koli fantastični temi,« je v izjavi povedal Googlov tiskovni predstavnik Brian Gabriel. »Če vprašate, kako je biti sladoledni dinozaver, lahko ustvarijo besedilo o taljenju in rjovenju itd.«
Ne gre za osamljeni odhod iz Googlove ekipe za umetno inteligenco
Odmevna odstavitev pomeni še eno sporno točko v Googlovi ekipi za umetno inteligenco, ki je preživela vrsto odhodov. Konec leta 2020 je ugledna raziskovalka etike umetne inteligence Timnit Gebru dejala, da jo je Google odpustil, ker je izrazila zaskrbljenost zaradi pristranskosti sistemov umetne inteligence. Okoli 2700 Googlovih uslužbencev je podpisalo odprto pismo v podporo Gebrujevi, ki je po navedbah Googla odstopila s položaja. Dva meseca pozneje je bila odpuščena Margaret Mitchell, ki je skupaj z Gebrujevo vodila skupino za etično umetno inteligenco.
Raziskovalec Alex Hanna in inženir programske opreme Dylan Baker sta nato odstopila. V začetku leta je Google odpustil Satrajita Chatterjeeja, raziskovalca umetne inteligence, ki je izpodbijal raziskovalni članek o uporabi umetne inteligence za razvoj računalniških čipov.
Čutenje umetne inteligence je pogosta tema v znanstveni fantastiki, vendar le redki raziskovalci menijo, da je tehnologija v tem trenutku dovolj napredna, da bi lahko ustvarili samozavestnega klepetalnega robota.
»Kar ti sistemi počnejo, nič več in nič manj, je, da sestavljajo zaporedja besed, vendar brez koherentnega razumevanja sveta za njimi,« je v prispevku na spletnem mestu Substack dejal znanstvenik in avtor Gary Marcus, ki se ukvarja z umetno inteligenco. Marcus ni zavrnil zamisli, da bi umetna inteligenca nekoč lahko razumela širši svet, vendar LaMDA trenutno tega ne počne.
Ekonomist in stanfordski profesor Erik Brynjolfsson je napravo LaMDA primerjal s psom, ki posluša človeški glas prek gramofona.
Foundation models are incredibly effective at stringing together statistically plausible chunks of text in response to prompts.
But to claim they are sentient is the modern equivalent of the dog who heard a voice from a gramophone and thought his master was inside. #AI #LaMDA pic.twitter.com/s8hIKEplhF
— Erik Brynjolfsson (@erikbryn) June 12, 2022
Novinar