Institut za budućnost života upozorava da bi nas umjetna inteligencija mogla sve pobiti, ali njegova ideologija neke ljude izluđuje
Lobistička skupina koju podržava Elon Musk i koja je povezana s kontroverznom ideologijom popularnom među tehnološkim milijarderima bori se da spriječi robote ubojice da unište čovječanstvo i smatra da bi tome trebao doskočiti europski Zakon o umjetnoj inteligenciji.
Institut za budućnost života (FLI) postao je vrlo utjecajan tijekom prošle godine kada je utjecao na neke od najspornijih elemenata Zakona o umjetnoj inteligenciji. Unatoč vezama koje grupa ima sa Silicijevom dolinom, veliki tehnološki divovi poput Googlea i Microsofta našli su se na gubitničkoj strani FLI-jevih argumenata.
Dolazak grupe čije je djelovanje obojeno strahom od katastrofe izazvane umjetnom inteligencijom, a ne uobičajenim brigama za zaštitu potrošača, u EU je prihvaćen poput svemirskog broda koji slijeće na Schumanov kružni tok u Bruxellesu, piše Politico. Neke brine da Institut utjelovljuje tehnološku tjeskobu zbog prijetnji male vjerojatnosti te da bi to moglo odvratiti pozornost od neposrednijih problema. Ali većina se slaže da je FLI tijekom svog vremena u Bruxellesu bio učinkovit.
Organizacija posvećena borbi s događajima koji mogu uništiti čovječanstvo
“Prilično su pragmatični i imaju pravnu i tehničku stručnost”, rekao je Kai Zenner, savjetnik za digitalnu politiku zastupnika desnog centra Axela Vossa, koji radi na Zakonu o umjetnoj inteligenciji. “Ponekad su malo previše zabrinuti zbog tehnologije, ali iznose dobre argumente.”
Pokrenut 2014. od strane MIT akademika Maxa Tegmarka i uz podršku tehnoloških velikana uključujući Muska, Jaana Tallinna iz Skypea i kripto -čuda od djeteta Vitalika Buterina, FLI je neprofitna organizacija posvećena borbi s “egzistencijalnim rizicima” odnosno, događajima koji mogu uništiti čovječanstvo. Među svoje vanjske savjetnike FLI ubraja i druge poznate osobe poput glumaca Morgana Freemana i Alana Alde te renomirane znanstvenike poput Martina (Lorda) Reesa i Nicka Bostroma.
Obračun s divljajućom umjetnom inteligencijom prioritet je FLI-ja. “Vidjeli smo avionske nesreće jer se autopilot nije mogao poništiti. Vidjeli smo juriš na američki Kapitol jer je algoritam bio utreniran da maksimizira angažman. Danas su to sigurnosni propusti umjetne inteligencije – kako ovi sustavi postaju sve moćniji, štete bi mogle postati gore,” rekao je u intervjuu Mark Brakel, FLI direktor za europsku politiku.
Ali, lobistička skupina se suočava s dva PR problema. Prvo, Musk, njegov najpoznatiji podupiratelj, u središtu je pozornosti otkako je pokrenuo masovna otpuštanja kao novi vlasnik Twittera, što je zapelo za oko regulatorima. Muskove kontroverze mogle bi obeshrabriti zakonodavce da razgovaraju s FLI-jem. Drugo, uvjerenje skupine, poznato pod nazivom ‘učinkoviti altruizam’, izaziva čuđenje: ideologija je nedavno okrivljena da stoji iza skandala oko mjenjačnice kriptovaluta FTX, koja je izazvala financijski kaos.
Kako je FLI zakoračio na pozornicu
Dolazak lobističke skupine koja se bori protiv izumiranja, neusklađene umjetne inteligencije i robota ubojica sigurno je bilo osvježenje za inače uspavanu briselsku politiku. FLI-jev ured u Bruxellesu otvoren je sredinom 2021., dok su počinjale rasprave o prijedlogu Zakona o umjetnoj inteligenciji Europske komisije. “Radije bismo da se umjetna inteligencija razvija u Europi, gdje će postojati propisi”, rekao je Brakel. “Nadamo se da ljudi crpe inspiraciju iz EU.”
Bivši diplomat rođen u Nizozemskoj, Brakel se pridružio institutu u svibnju 2021. Odabrao je raditi na politici umjetne inteligencije kao polju koje je bilo utjecajno, ali nedovoljno posluženo. Dva mjeseca kasnije pridružio mu se politički istraživač Risto Uuk. Vješt digitalni operater, Uuk je prethodno radio istraživanje umjetne inteligencije za Komisiju i Svjetski ekonomski forum. Pridružio se FLI-u zbog filozofskih afiniteta: poput Tegmarka, Uuk se priklanja načelima ‘učinkovitog altruizma’, vrijednosnog sustava koji propisuje korištenje čvrstih dokaza prilikom donošenja odluke kako bi se utvrdilo na koji način od njih može profitirati najveći broj ljudi.
Zabrana umjetne inteligencije koja može manipulirati ponašanjem ljudi
Od svojih početaka u Bruxellesu, tročlani tim instituta (uz pomoć Tegmarka i drugih, uključujući odvjetničku tvrtku Dentons) vješto je predvodio napore lobiranja o malo poznatim pitanjima umjetne inteligencije. “Sustavi umjetne inteligencije opće namjene izgrađeni su uglavnom u SAD-u i Kini, a to bi moglo naštetiti inovacijama u Europi, ako ne osigurate da se pridržavaju nekihpravila”, rekao je Brakel, dodajući da je ovaj argument odjeknuo među zastupnicima desnog centra s kojima se nedavno susreo.
Još jedan od FLI-jevih ‘konja za trku’ je zabrana umjetne inteligencije koja može manipulirati ponašanjem ljudi. Izvorni prijedlog brani manipulativnu umjetnu inteligenciju, ali to je na kraju ograničeno na “podsvjesne” tehnike — za koje Brakel misli da bi stvorile rupe u zakonu.
Ali suizvjestitelj Zakona o umjetnoj inteligenciji, zakonodavac rumunjske Renew Dragoș Tudorache, sada se zalaže da zabrana postane sveobuhvatnija. “Bili bismo puno sretniji da taj amandman prođe nego što smo sa sadašnjim tekstoma zakona”, rekao je Brakel.
(Pre)dalek pogled u budućnost
Dok je doprinos skupine o ključnim odredbama u prijedlogu zakona o umjetnoj inteligenciji bio pozdravljen, mnogi u briselskom establišmentu sumnjičavo su gledali na njegov svjetonazor.
Tegmark i drugi podupiratelji FLI-ja pridržavaju se onoga što se naziva ‘učinkovitim altruizmom’. Struktura utilitarizma koju je kodificirao filozof William MacAskill — čije je djelo Musk nazvao “bliskim podudaranjem s mojom filozofijom” — ‘učinkovitom altruizmu’ nalaže da treba poboljšati živote što većeg broja ljudi, koristeći racionalistički pristup temeljen na činjenicama. Na osnovnoj razini, to znači donirati velike dijelove svog prihoda nadležnim dobrotvornim organizacijama.
Radikalniji, dugoročniji smjer ‘učinkovitog altruizma’ zahtijeva da se nastoji minimizirati rizike koji mogu ubiti mnogo ljudi (posebno u budućnosti), a koji će u budućnosti nadmašiti postojeće. To znači da bi sprječavanje potencijalnog uspona umjetne inteligencije čije su vrijednosti u sukobu s dobrobiti čovječanstva trebalo biti na vrhu popisa briga.
Kritično stajalište o FLI-ju je da produbljuje ovu interpretaciju takozvane agende ‘učinkovitog altruizma’, one koja je navodno nezainteresirana za trenutne bolesti svijeta — poput rasizma, seksizma i gladi — i usredotočena je na znanstveno-fantastične prijetnje za one koji tek trebaju biti rođeni. Timnit Gebru, istraživač umjetne inteligencije čiji je nagli odlazak iz Googlea dospio na naslovnice 2020., kritizirao je FLI na Twitteru, izražavajući “ogromnu zabrinutost”. “Podržavaju ih milijarderi, uključujući Elona Muska — to bi već trebalo izazvati sumnju kod ljudi”, rekao je Gebru u intervjuu.
“Cijelo polje oko sigurnosti umjetne inteligencije sastoji se od toliko mnogo ‘instituta’ i kompanija u koje milijarderi šalju novac. Ali njihov koncept sigurnosti umjetne inteligencije nema nikakve veze s trenutačnim štetama prema marginaliziranim skupinama – oni žele preusmjeriti cijeli razgovor na sprječavanje apokalipse umjetne inteligencije.”
Toliko pametan da je doveo do sloma kriptovalute
Reputacija ‘učinkovitog altruizma’ pretrpjela je udarac posljednjih tjedana nakon pada FTX-a, burze u bankrotu koja je izgubila najmanje milijardu dolara u kriptovalutnoj imovini kupaca. Njegov osramoćeni izvršni direktor Sam Bankman-Fried bio je jedan od miljenika ‘učinkovitog altruizma’, govoreći u intervjuima o svom planu da zaradi milijune i da ih u dobrotvorne svrhe. Dok je FTX propadao, komentatori su tvrdili da je ideologija ‘učinkovitog altruizma’ dovela do toga da Bankman-Fried racionalizira svoju nesmotrenost.
I MacAskill i FLI donator Buterin branili su ‘učinkoviti altruizam’ na Twitteru, rekavši da su postupci Bankman-Frieda u suprotnosti s načelima te filozofije. “Automatsko degradiranje svake stvari u koju je Sam Bankman-Fried vjerovao je pogreška”, napisao je Buterin, koji je izumio Ethereum platformu i financira FLI-jevu stipendiju za istraživanje egzistencijalnog rizika umjetne inteligencije.
Brakel je rekao da su FLI i ‘učinkoviti altruizam’ dvije različite stvari i da je FLI-jevo zagovaranje bilo usmjereno na sadašnje probleme, od pristranog softvera do autonomnog oružja, npr. na razini Ujedinjenih naroda. „Provodimo li puno vremena razmišljajući o tome kako bi svijet izgledao za 400 godina? Ne”, rekao je. (Ni Brakel ni predstavnica FLI-a za EU, Claudia Prettner, sebe ne nazivaju učinkovitim altruistima.)
Jasna razlika između dosadnih sustava i znanstvene fantastike
Još jedna kritika FLI-jevih napora da spriječi zlu umjetnu inteligenciju tvrdi da oni prikrivaju tehno-utopijski nagon za razvojem dobroćudne umjetne inteligencije na ljudskoj razini. Na konferenciji 2017. savjetnici FLI-ja — uključujući Muska, Tegmarka i Skypeovog Tallinna — raspravljali su o vjerojatnosti i poželjnosti umjetne inteligencije pametnije od čovjeka. Većina panelista smatrala je da će se “superinteligencija” sigurno dogoditi; polovica ih je to smatrala poželjnim. Rezultat konferencije bio je niz (prilično umjerenih) smjernica o razvoju korisne umjetne inteligencije, koje je Brakel naveo kao jedan od temeljnih dokumenata FLI-ja.
Taj tehnooptimizam doveo je Emilea P. Torresa, dr. sc. kandidata filozofije koji je surađivao s FLI-jem, da se potpuno okrene protiv organizacije. “Čini se da nitko od njih ne razmišlja o tome da bismo možda trebali razmotriti neku vrstu moratorija”, rekao je Torres. Pokretanje takvih pitanja sa zaposlenikom FLI-a, rekao je Torres, dovelo je do neke vrste izopćenja. (Torresovi članci uklonjeni su s FLI-jeve web stranice.)
Unutar Bruxellesa, zabrinutost je da bi u budućnosti FLI mogao promijeniti smjer te usmjeriti raspravu o umjetnoj inteligenciji prema dalekosežnim scenarijima. “Kad smo razgovarali o umjetnoj inteligenciji na razini EU-a, htjeli smo povući jasnu razliku između dosadnih i konkretnih sustava umjetne inteligencije i znanstveno-fantastičnih pitanja”, rekao je Daniel Leufer, lobist nevladine organizacije za digitalna prava Access Now. “Kada su se ranije vodile rasprave EU o regulaciji umjetne inteligencije, u Bruxellesu nije bilo organizacija koje su se fokusirale na teme poput superinteligencije — dobro je da rasprava nije otišla u tom smjeru.”
Kalifornijska ideologija
Oni koji smatraju FLI plodom kalifornijskog futurizma ističu njegovo financiranje. Osim Muska, Tallinna i Tegmarka, donatori i savjetnici uključuju istraživače iz Googlea i OpenAI-ja, Open Philanthropy suosnivača Mete Dustina Moskovitza, Berkeley Existential Risk Initiative (koja je pak dobila sredstva od FTX-a) i glumca Morgana Freemana. U 2020. većina FLI-jevog globalnog financiranja (od 276.000 do 482.479 dolara) došla je od Zaklade zajednice Silicijske doline, dobrotvorne organizacije koju favoriziraju tehnološki velikani poput Marka Zuckerberga; 2021 računi još nisu objavljeni.
Brakel je zanijekao da se FLI sviđa Silicijskoj dolini, rekavši da je rad organizacije na umjetnoj inteligenciji opće namjene otežao život tehnološkim tvrtkama. Brakel je rekao da nikada nije razgovarao s Muskom. Tegmark je pak u redovnom kontaktu s članovima znanstvenog savjetodavnog odbora u kojem je i Musk, prenosi net.hr.
Po Brakelovom mišljenju, ono što FLI radi slično je ranom klimatskom aktivizmu. “Trenutno vidimo najtopliji listopad ikada. Danas brinemo o tome, ali brinemo i o utjecaju za 80 godina”, rekao je prošli mjesec. “[Danas postoje] sigurnosni kvarovi umjetne inteligencije – i kako ti sustavi postaju sve moćniji, štete bi mogle postati veće.”