DVA SU OPASNA PUTA

IMA LI IZLAZA? Zaboravite na naftu, oko ovoga će se voditi utrka za nadmoć!

Foto: Twitter/ KaterynaZarembo

Kako bi bilo dijeliti svijet s autoritarnim državama kao što je Kina ako one postanu sve zarobljenije u vlastitim nezdravim povratnim informacijama?

U političkim krugovima, rasprave o umjetnoj inteligenciji (AI) uvijek suprotstavljaju Kinu i Sjedinjene Države u utrci za tehnološku nadmoć. Ako su podaci ključni resurs, čini se da je Kini, sa svojih preko milijardu građana i slabom zaštitom od državnog nadzora, suđena pobjeda. Kai-Fu Lee, poznati informatičar, ustvrdio je da su podaci nova nafta, a Kina novi OPEC. Međutim, ako je vrhunska tehnologija ono što daje prednost, onda Sjedinjene Države, sa svojim sveučilišnim sustavom svjetske klase i talentiranom radnom snagom, još uvijek imaju priliku prijeći u vodstvo. Za obje zemlje stručnjaci pretpostavljaju da će nadmoć u umjetnoj inteligenciji prirodno dovesti do šire ekonomske i vojne nadmoći, piše Foreign Affairs.

Ali razmišljati o umjetnoj inteligenciji u smislu utrke za dominacijom znači propustiti temeljnije načine na koje umjetna inteligencija transformira globalnu politiku. Umjetna inteligencija neće toliko transformirati rivalstvo između sila koliko će transformirati same rivale. Sjedinjene Države su demokracija, dok je Kina autoritarni režim, a strojno učenje izaziva svaki politički sustav na svoj način.

Izazovi za demokracije poput Sjedinjenih Država previše su očigledni. Strojno učenje može povećati polarizaciju – reinženjering online svijeta za promicanje političke podjele. To će sigurno povećati dezinformacije u budućnosti, generirajući uvjerljive lažne vijesti velikih razmjera. Izazovi autokracijama su suptilniji, ali vjerojatno korozivniji. Kao što strojno učenje odražava i jača podjele demokracije, ono može zbuniti autokracije, stvarajući lažni dojam konsenzusa i prikrivajući temeljne društvene pukotine sve dok ne bude prekasno.

Foto: Unsplash

Rani pioniri umjetne inteligencije, uključujući politologa Herberta Simona, shvatili su da tehnologija umjetne inteligencije ima više zajedničkog s tržištima, birokracijama i političkim institucijama nego s jednostavnim inženjerskim aplikacijama. Još jedan pionir umjetne inteligencije, Norbert Wiener, opisao je AI kao “kibernetski” sustav – onaj koji može odgovoriti i prilagoditi se povratnim informacijama. Ni Simon ni Wiener nisu predvidjeli da će strojno učenje dominirati umjetnom inteligencijom, ali njegova evolucija odgovara njihovom načinu razmišljanja. Facebook i Google koriste strojno učenje kao analitički mehanizam samoispravljajućeg sustava, koji kontinuirano ažurira svoje razumijevanje podataka ovisno o tome hoće li njegova predviđanja uspjeti ili ne. Upravo je ta petlja između statističke analize i povratnih informacija iz okoline učinila strojno učenje tako nevjerojatnom silom.

Demokracija i autoritarizam kao kibernetički sustavi

Ono što se daleko manje dobro razumije jest da su demokracija i autoritarizam također kibernetički sustavi. Pod oba oblika vladavine, vlade donose politike i zatim pokušavaju shvatiti jesu li te politike uspjele ili nisu uspjele. U demokracijama birači i glasovi daju snažnu povratnu informaciju o tome je li određeni pristup stvarno učinkovit. Autoritarni sustavi povijesno su puno teže dobivali dobre povratne informacije. Prije informatičkog doba oslanjali su se ne samo na domaće obavještajne podatke nego i na peticije i tajna istraživanja mišljenja kako bi pokušali otkriti u što vjeruju njihovi građani.

Sada strojno učenje remeti tradicionalne oblike demokratskih povratnih informacija ‘glasački listići i glasovi) budući da nove tehnologije olakšavaju dezinformacije i pogoršavaju postojeće predrasude – uzimajući predrasude skrivene u podacima i samouvjereno ih pretvarajući u netočne tvrdnje. U međuvremenu, autokratima koji petljaju u mraku, strojno učenje izgleda kao odgovor na njihove molitve. Takva tehnologija može reći vladarima sviđa li se njihovim podanicima ono što rade bez gnjavaže s anketama ili političkim rizicima otvorenih rasprava i izbora. Iz tog su razloga mnogi promatrači zabrinuti da će napredak u umjetnoj inteligenciji samo ojačati ruke diktatora i dodatno im omogućiti da kontroliraju svoja društva.

Istina je kompliciranija. Pristranost je vidljiv problem za demokracije. Ali budući da je vidljiviji, građani ga mogu ublažiti drugim oblicima povratnih informacija. Kada, na primjer, rasna skupina vidi da su algoritmi za zapošljavanje pristrani protiv nje, može prosvjedovati i tražiti obeštećenje s određenim izgledima za uspjeh. Autoritarne zemlje vjerojatno su barem jednako sklone pristranosti kao i demokracije, no možda i više. Velik dio ove pristranosti vjerojatno će biti nevidljiv, posebno onima koji donose odluke na vrhu. Zbog toga je mnogo teže ispraviti problem, čak i ako vođe vide da nešto treba ispraviti.

Suprotno uvriježenom mišljenju, umjetna inteligencija može ozbiljno potkopati autokratske režime jačanjem njihovih vlastitih ideologija i fantazija na račun boljeg razumijevanja stvarnog svijeta. Demokratske zemlje mogle bi otkriti da, kada je u pitanju umjetna inteligencija, ključni izazov dvadeset prvog stoljeća nije pobjeda u bitci za tehnološku dominaciju. Umjesto toga, morat će se boriti s autoritarnim zemljama koje su se našle u žrvnju spirale zabluda koju pokreće AI.

Loše povratne informacije

Većina rasprava o umjetnoj inteligenciji ima veze sa strojnim učenjem – statističkim algoritmima koji izdvajaju odnose između podataka. Ovi algoritmi pogađaju: Postoji li pas na ovoj fotografiji? Hoće li ova šahovska strategija pobijediti u partiji u deset poteza? Koja je sljedeća riječ u poludovršenoj rečenici? Takozvana objektivna funkcija, matematičko sredstvo bodovanja ishoda, može nagraditi algoritam ako točno pogodi. Ovaj proces je način na koji radi komercijalna umjetna inteligencija. YouTube, na primjer, želi zadržati svoje korisnike angažiranima, tako da gledaju više videozapisa kako bi im se oglasi nastavili vrtjeti. Ciljna funkcija osmišljena je za maksimiziranje angažmana korisnika. Algoritam pokušava ponuditi sadržaj koji će zadržati korisnike na stranici. Ovisno o tome je li njegova pretpostavka točna ili pogrešna, algoritam ažurira svoj model onoga što će korisnik vjerojatno odgovoriti.

Sposobnost strojnog učenja da automatizira ovu povratnu petlju s malo ili nimalo ljudske intervencije preoblikovala je e-trgovinu. Možda će jednog dana omogućiti potpuno samovozeće automobile, iako se ovaj napredak pokazao kao mnogo teži problem nego što su inženjeri očekivali. Razvoj autonomnog oružja još je teži problem. Kad algoritmi naiđu na doista neočekivane informacije, često ih ne razumiju. Informacije koje čovjek može lako razumjeti, ali koje strojno učenje pogrešno klasificira – poznate kao “suparnički primjeri” – mogu loše djelovati. Na primjer, crno-bijele naljepnice postavljene na znak stop mogu spriječiti vizualni sustav samovozećeg automobila da prepozna znak. Takve ranjivosti sugeriraju očita ograničenja u korisnosti umjetne inteligencije u ratnim uvjetima.

Uranjanje u složenost strojnog učenja pomaže u razumijevanju rasprava o tehnološkoj dominaciji. To objašnjava zašto neki mislioci, poput računalnog znanstvenika Leeja, vjeruju da su podaci toliko važni. Što više podataka imate, brže možete poboljšati izvedbu svog algoritma, radeći malu promjenu za malom promjenom dok ne postignete odlučujuću prednost. Ali strojno učenje ima svoje granice. Na primjer, usprkos golemim ulaganjima tehnoloških tvrtki, algoritmi su daleko manje učinkoviti nego što se to obično misli u navođenju ljudi da kupuju jedan gotovo identičan proizvod umjesto drugog. Teško je pouzdano manipulirati plitkim preferencijama, a vjerojatno je daleko teže promijeniti duboko uvriježena mišljenja i uvjerenja ljudi.

Slična ograničenja opće umjetne inteligencije

Opća umjetna inteligencija, sustav koji bi mogao izvući lekcije iz jednog konteksta i primijeniti ih u drugom, kao što to mogu ljudi, suočava se sa sličnim ograničenjima. Netflixovi statistički modeli sklonosti i preferencija njegovih korisnika gotovo su sigurno različiti od Amazonovih, čak i kada oboje pokušavaju modelirati iste ljude koji se bore sa sličnim odlukama. Dominacija u jednom sektoru umjetne inteligencije, kao što je pružanje kratkih videa koji drže tinejdžere zaokupljenima (trijumf aplikacije TikTok), ne može se lako pretvoriti u dominaciju u drugom, kao što je stvaranje autonomnih sustava oružja na bojnom polju. Uspjeh algoritma često se oslanja na same ljudske inženjere koji mogu prevesti lekcije kroz različite aplikacije, a ne na samu tehnologiju. Za sada ti problemi ostaju neriješeni.

Pristranost se također može uvući u kod. Kada je Amazon pokušao primijeniti strojno učenje na zapošljavanje, uvježbao je algoritam na osnovi podataka iz životopisa koje su regruti ocijenili. Kao rezultat toga, sustav je reproducirao predrasude implicitne u ljudskim odlukama, diskriminirajući životopise žena. Takvi problemi mogu se samoojačati. Kao što je sociolog Ruha Benjamin istaknuo, kad bi kreatori politike koristili strojno učenje da bi odlučili kamo poslati policijske snage, tehnologija bi ih mogla navesti da dodijele više policije četvrtima s visokim stopama uhićenja. To bi se moglo događati u procesu slanja više policije u područja s rasnim skupinama prema kojima je policija pokazala pristranost te bi moglo dovesti do novih uhićenja koja bi zauzvrat ojačala algoritam u začaranom krugu.

Stara programska poslovica “smeće unutra, smeće van” ima drugačije značenje u svijetu u kojem ulazi utječu na izlaze i obrnuto. Bez odgovarajuće vanjske korekcije, algoritmi strojnog učenja mogu steći pristrananost prema smeću koje sami proizvode, generirajući petlju lošeg donošenja odluka. Donositelji politika prečesto tretiraju alate za strojno učenje kao mudre i nepristrasna proročanstva, a ne kao pogrešive instrumente koji mogu intenzivirati probleme koje navodno rješavaju.

Poziv i odgovor

Politički sustavi također su sustavi povratne sprege. U demokracijama javnost doslovno ocjenjuje i boduje lidere na izborima koji bi trebali biti slobodni i pošteni. Političke stranke daju obećanja s ciljem osvajanja i zadržavanja vlasti. Legalna oporba naglašava pogreške vlade, dok slobodni tisak izvještava o kontroverzama i nedjelima. Nositelji vlasti redovito se suočavaju s biračima i uče jesu li zaslužili ili izgubili povjerenje javnosti, u ciklusu koji se neprestano ponavlja.

Ali povratna informacija u demokratskim društvima ne funkcionira savršeno. Javnost možda nema duboko razumijevanje politike i može kazniti vlade za stvari koje su izvan njihove kontrole. Političari i njihovo osoblje možda pogrešno razumiju što javnost želi. Oporba ima poticaja da laže i pretjeruje. Natjecanje na izborima košta, a prave se odluke ponekad donose iza zatvorenih vrata. Mediji mogu biti pristrani ili im je više stalo da zabave svoje potrošače nego da ih pouče.

Svejedno, povratna informacija omogućuje učenje. Političari uče što javnost želi. Javnost saznaje što može, a što ne može očekivati. Ljudi mogu otvoreno kritizirati pogreške vlade, a da ne budu zatvoreni. Kako se pojavljuju novi problemi, nove skupine se mogu organizirati da ih objave i pokušaju uvjeriti druge da ih riješe. Sve to omogućuje političarima i vladama da se uključe u složen svijet koji se stalno mijenja.

Feedback u autokracijama

Povratne informacije funkcioniraju vrlo drugačije u autokracijama. Lideri se ne biraju kroz slobodne i poštene izbore, već kroz nemilosrdne bitke za nasljedstvo i često neprozirne sustave za unutarnje napredovanje. Čak i tamo gdje je suprotstavljanje vladi formalno legalno, ono se obeshrabruje, ponekad brutalno. Ako mediji kritiziraju vladu, riskiraju pravni postupak i nasilje. Izbori, kada se dogode, sustavno se okreću u korist vladajućih. Građani koji se protive svojim vođama ne suočavaju se samo s poteškoćama u organiziranju; riskiraju oštre kazne ako progovare, uključujući zatvor i smrt. Zbog svih ovih razloga, autoritarne vlade često nemaju dobar osjećaj za to kako svijet funkcionira ili što oni i njihovi građani žele.

Takvi se sustavi stoga suočavaju s kompromisom između kratkoročne političke stabilnosti i učinkovitog donošenja politika; želja za prvim potiče autoritarne vođe da blokiraju autsajdere u izražavanju političkih mišljenja, dok potreba za drugim zahtijeva od njih da imaju neku predodžbu o tome što se događa u svijetu i u njihovim društvima. Zbog stroge kontrole informacija, autoritarni vladari ne mogu se osloniti na građane, medije i glasove opozicije da pruže korektivne povratne informacije kao što to mogu demokratski vođe. Rezultat je da riskiraju neuspjeh politike, a što može potkopati njihov dugoročni legitimitet i sposobnost vladanja. Katastrofalna odluka ruskog predsjednika Vladimira Putina da napadne Ukrajinu, na primjer, čini se da se temeljila na netočnoj procjeni ukrajinskog morala i snage njegove vlastite vojske.

Čak i prije izuma strojnog učenja, autoritarni vladari koristili su se kvantitativnim mjerama kao grubom i nesavršenom zamjenom za povratne informacije javnosti. Uzmimo za primjer Kinu, koja je desetljećima pokušavala kombinirati decentralizirano tržišno gospodarstvo s centraliziranim političkim nadzorom nekoliko ključnih statistika, posebice BDP-a. Lokalni dužnosnici mogli bi biti unaprijeđeni ako bi njihove regije zabilježile posebno brz rast. Ali ograničena kvantificirana vizija Pekinga nije im dala dovoljno poticaja da se pozabave problemima poput korupcije, duga i zagađenja. Nije iznenađujuće da su lokalni dužnosnici često manipulirali statistikom ili provodili politiku koja je kratkoročno poticala BDP dok su dugoročne probleme ostavljali svojim nasljednicima.

Kineski odgovor na pandemiju

Svijet je primijetio ovu dinamiku tijekom početnog kineskog odgovora na pandemiju bolesti COVID-19 koja je započela u provinciji Hubei krajem 2019. Kina je izgradila internetski sustav za prijavu bolesti nakon krize SARS-a 2003., ali umjesto toga sustava, lokalne vlasti u Wuhanu, glavnom gradu Hubeija, kaznile su liječnika koji je prvi prijavio prisutnost zaraze “slične SARS-u”. Vlada Wuhana naporno je radila kako bi spriječila da informacije o izbijanju dođu do Pekinga, stalno ponavljajući da “nema novih slučajeva” sve dok se nisu završili važni lokalni politički sastanci. Liječnik Li Wenliang je i sam podlegao bolesti i umro 7. veljače, što je izazvalo žestok bijes diljem zemlje.

Peking je tada preuzeo odgovor na pandemiju, usvojivši pristup “nula COVID-a” koji je koristio prisilne mjere za suzbijanje broja slučajeva novozaraženih. Politika je kratkoročno dobro funkcionirala. No, uz ogromnu prenosivost omikron varijante, sve se više čini da je politika nulte borbe protiv COVID-a dovela samo do pirovih pobjeda, zahtijevajući masovna ograničenja koja su ljude ostavila gladnima, a gospodarstvo u rasulu. Ali, ostala je uspješna u postizanju jednog ključnog, iako grubog pokazatelja — održavanja niskog broja infekcija.

Čini se da podaci pružaju objektivne mjere koje objašnjavaju svijet i njegove probleme, bez ikakvih političkih rizika i neugodnosti izbora ili slobodnih medija. Ali ne postoji takva stvar kao što je donošenje odluka koje je lišeno politike. Zbrka demokracije i rizik od poremećenih procesa povratnih informacija očiti su svakome tko obraća pozornost na politiku SAD-a. Autokracije pate od sličnih problema, iako su oni manje uočljivi. Dužnosnici koji izmišljaju brojke ili građani koji odbijaju pretočiti svoj bijes u prosvjede širokih razmjera mogu imati ozbiljne posljedice, čineći loše odluke vjerojatnijim kratkoročno i neuspjeh režima vjerojatnijim dugoročno.

To je zamka?

Najhitnije pitanje nije hoće li Sjedinjene Države ili Kina pobijediti ili izgubiti u utrci za dominaciju umjetne inteligencije, nego način na koji će umjetna inteligencija promijeniti različite povratne veze na koje se demokracije i autokracije oslanjaju pri upravljanju društvima. Mnogi promatrači sugeriraju da će strojno učenje, kako postaje sveprisutnije, neizbježno naštetiti demokraciji i pomoći autokraciji. Prema njihovu mišljenju, algoritmi društvenih medija koji optimiziraju angažman, na primjer, mogu potkopati demokraciju narušavajući kvalitetu povratnih informacija građana. Dok ljudi klikaju video za videom, YouTubeov algoritam nudi šokantan i alarmantan sadržaj kako bi ih zadržao. Ovaj sadržaj često uključuje teorije zavjere ili ekstremne političke stavove koji mame građane u mračnu zemlju čudesa u kojoj je sve naopako.

Nasuprot tome, strojno učenje bi trebalo pomoći autokracijama omogućavanjem veće kontrole nad njihovim ljudima. Povjesničar Yuval Harari i mnoštvo drugih znanstvenika tvrde da umjetna inteligencija “favorizira tiraniju”. Prema ovom kampu, AI centralizira podatke i moć, dopuštajući vođama da manipuliraju običnim građanima, nudeći im informacije koje su takve da pritišću njihove “emocionalne gumbe”. Ovaj beskonačno ponavljajući proces povratnih informacija i odgovora trebao bi proizvesti nevidljiv i učinkovit oblik društvene kontrole. U ovom slučaju, društveni mediji omogućuju autoritarnim vladama da ispitaju puls javnosti, kao i da zarobe njezino srce.

Ali ti argumenti počivaju na nesigurnim temeljima. Iako curenje informacija unutar Facebooka sugerira da algoritmi doista mogu voditi ljude prema radikalnom sadržaju, nedavna istraživanja pokazuju da algoritmi sami po sebi ne mijenjaju ono što ljudi traže. Ljudi koji pretražuju ekstremne YouTube videozapise vjerojatno će biti usmjereni prema više toga što žele, ali ljudi koji nisu zainteresirani za opasan sadržaj vjerojatno neće slijediti preporuke algoritama. Kad bi povratne informacije u demokratskim društvima postajale sve poremećenije, strojno učenje ne bi bilo potpuno krivo; samo bi pružio ruku pomoći.

Ne postoje dobri dokazi da strojno učenje omogućuje vrste generalizirane kontrole uma koja će izdubiti demokraciju i ojačati autoritarnost. Ako algoritmi nisu vrlo učinkoviti u poticanju ljudi da kupuju stvari, vjerojatno su puno lošiji u poticanju da promijene mišljenje o stvarima koje dotiču bliske vrijednosti, poput politike. Tvrdnje da je Cambridge Analytica, britanska tvrtka za političko savjetovanje, upotrijebila neku magičnu tehniku ​​kako bi namjestila predsjedničke izbore u SAD-u 2016. u korist Donalda Trumpa, rasplinute su. Čini se da se navodni “tajni sastojak” tvrtke koji je tvrtka dala Trumpovoj kampanji sastojao od standardnih psihometrijskih tehnika ciljanja koje su ograničene koristi – korištenja anketa osobnosti za kategorizaciju ljudi.

Doista, potpuno automatizirani autoritarizam vođen podacima može se pokazati kao zamka za države poput Kine koje koncentriraju vlast u sićušnoj izoliranoj skupini donositelja odluka. Demokratske zemlje imaju mehanizme korekcije – alternativne oblike povratnih informacija građana koji mogu korigirati vlade ako skrenu s puta. Autoritarne vlade nemaju takav mehanizam. Iako bi se sveprisutni državni nadzor mogao pokazati učinkovitim u kratkom roku, postoji opasnost da će autoritarne države biti potkopane oblicima samopojačavajućih pristranosti koje omogućuje strojno učenje. Kako država široko koristi strojno učenje, ideologija vođe će oblikovati način na koji se koristi strojno učenje, ciljeve oko kojih se optimizira i kako tumači rezultate. Podaci koji se pojavljuju kroz ovaj proces vjerojatno će odražavati predrasude vođe upravo o njemu.

‘Pranje novca za pristranost’

Kako je objasnio tehnolog Maciej Ceglowski, strojno učenje je “pranje novca za pristranost”, “čist, matematički aparat koji statusu quo daje auru logičke neizbježnosti”. Što će se dogoditi, na primjer, kad države počnu koristiti strojno učenje kako bi uočile pritužbe na društvenim mrežama i uklonile ih? Čelnicima će biti teže uočiti i ispraviti političke pogreške – čak i kada pogreške štete režimu. Studija iz 2013. spekulirala je da je Kina sporija u uklanjanju pritužbi na internetu nego što bi se moglo očekivati, upravo zato što je takvo prigovaranje pružalo korisne informacije vodstvu. Ali sada kada Peking sve više naglašava društvenu harmoniju i nastoji zaštititi visoke dužnosnike, taj pristup će bit teže održati.

Kineski predsjednik Xi Jinping svjestan je ovih problema u barem nekim područjima politike. Dugo je tvrdio da je njegova kampanja protiv siromaštva — nastojanje da se ukloni osiromašenje ruralnih područja — bila značajna pobjeda koju pokreću pametne tehnologije, veliki podaci i umjetna inteligencija. No od tada je priznao nedostatke u kampanji, uključujući slučajeve u kojima su dužnosnici izgurali ljude iz njihovih ruralnih domova i smjestili ih u urbane stanove kako bi se igrali statistikama o siromaštvu. Dok su preseljeni ponovno pali u siromaštvo, Xi se zabrinuo da “ujednačeni kvantitativni ciljevi” za razine siromaštva možda neće biti pravi pristup u budućnosti. Podaci doista mogu biti nova nafta, ali mogu zagađivati, a ne povećati sposobnost vlade da vlada.

Ovaj problem ima implikacije na kineski takozvani sustav društvenog kreditiranja, skup institucija za praćenje prosocijalnog ponašanja koje zapadni komentatori opisuju kao savršeno funkcionirajući “nadzorni režim pokretan umjetnom inteligencijom koji krši ljudska prava”. Kao što su stručnjaci za informacijsku politiku poput Shazede Ahmeda i Karen Hao istaknuli, sustav je zapravo mnogo neuredniji. Kineski sustav društvenog kreditiranja zapravo više sliči američkom kreditnom sustavu, koji je reguliran zakonima kao što je Zakon o poštenom kreditnom izvješćivanju, nego savršenoj orvelovskoj distopiji.

Više strojnog učenja također može navesti autoritarne režime da udvostruče loše odluke. Ako je strojno učenje uvježbano za prepoznavanje mogućih disidenata na temelju zapisa o uhićenjima, ono će vjerojatno generirati samopojačavajuće predrasude slične onima vidljivim u demokracijama – odražavajući i potvrđujući uvjerenja administratora o nefavoriziranim društvenim skupinama i neumitno održavajući automatiziranu sumnju i reakciju. U demokracijama je moguć javni otpor, koliko god nesavršen bio. U autokratskim režimima otpor je daleko teži; bez toga su ti problemi nevidljivi onima unutar sustava, gdje službenici i algoritmi dijele iste predrasude. Umjesto dobre politike, to će dovesti do porasta patologija, društvene disfunkcionalnosti, ogorčenosti i, na kraju, nemira i nestabilnosti.

Naoružani AI

Međunarodna politika umjetne inteligencije neće stvoriti jednostavnu utrku za dominacijom. Grubo gledište da je ova tehnologija ekonomsko i vojno oružje i da su podaci ono što je krije sriva puno stvarne akcije. Zapravo, najveće političke posljedice umjetne inteligencije su na povratne mehanizme na koje se oslanjaju i demokratske i autoritarne zemlje. Neki dokazi pokazuju da AI remeti povratne informacije u demokracijama, iako ne igra ni približno tako veliku ulogu kao što mnogi sugeriraju. Nasuprot tome, što se autoritarnije vlade više oslanjaju na strojno učenje, to će se više gurati u imaginarni svijet utemeljen na njihovim vlastitim tehnologijama uvećanim pristranostima. Klasična knjiga politologa Jamesa Scotta iz 1998., Seeing Like a State, objasnila je kako su države dvadesetog stoljeća bile slijepe na posljedice vlastitih postupaka djelomično zato što su mogle vidjeti svijet samo kroz birokratske kategorije i podatke. Kao što su sociolog Marion Fourcade i drugi tvrdili, strojno učenje može predstavljati iste probleme, ali u još većoj mjeri.

Ovaj problem stvara vrlo različite međunarodne izazove za demokracije kao što su Sjedinjene Države. Rusija je, na primjer, uložila u kampanje dezinformiranja osmišljene kako bi posijale zbrku i nered među ruskom javnošću dok je primjenjivala iste alate u demokratskim zemljama. Iako su zagovornici slobode govora dugo tvrdili da je odgovor na loš govor više govora, Putin je odlučio da je najbolji odgovor na više govora više lošeg govora. Rusija je potom iskoristila otvorene sustave povratnih informacija u demokracijama kako bi ih zagadila dezinformacijama.

Jedan brzorastući problem jest da bi autokracije poput Rusije mogle upotrijebiti velike jezične modele, novi oblik umjetne inteligencije koji može proizvesti tekst ili slike kao odgovor na verbalni upit, za generiranje dezinformacija u velikom obimu. Kao što su informatičarka Timnit Gebru i njezini kolege upozorili, programi poput Open AI GPT-3 sustava mogu proizvesti očito tečan tekst koji je teško razlikovati od običnog ljudskog pisma. Bloom, novi veliki jezični model s otvorenim pristupom, upravo je objavljen svima za korištenje. Njegova licenca zahtijeva od ljudi da izbjegavaju zlostavljanje, ali će to biti vrlo teško kontrolirati.

Ovakav razvoj događaja proizvest će ozbiljne probleme povratnim informacijama u demokracijama. Trenutačni online sustavi komentiranja politike gotovo su sigurno osuđeni na propast, budući da zahtijevaju malo dokaza da bi se utvrdilo je li komentator stvarno ljudsko biće. Izvođači velikih telekomunikacijskih tvrtki već su obasuli američku Federalnu komisiju za komunikacije lažnim komentarima povezanim s ukradenim adresama e-pošte u sklopu svoje kampanje protiv zakona o neutralnosti mreže. Ipak, bilo je lako prepoznati podmetanje kada su objavljeni deseci tisuća gotovo identičnih komentara. Sada, ili u vrlo bliskoj budućnosti, bit će trivijalno jednostavno potaknuti veliki jezični model da napiše, recimo, 20.000 različitih komentara u stilu swing glasača koji osuđuju neutralnost mreže.

Dezinformacije potaknute umjetnom inteligencijom također mogu zatrovati izvor autokracija. Kako autoritarne vlade vlastitu javnu raspravu zasijavaju dezinformacijama, bit će lakše razbiti opoziciju, ali će biti teže reći u što javnost zapravo vjeruje, što će uvelike zakomplicirati proces donošenja politika. Autoritarnim će vođama biti sve teže izbjeći da se omame, što će ih navesti da vjeruju da građani toleriraju ili čak vole duboko nepopularne politike.

Podijeljene prijetnje

Kako bi bilo dijeliti svijet s autoritarnim državama kao što je Kina ako one postanu sve zarobljenije u vlastitim nezdravim povratnim informacijama? Što se događa kada ti procesi prestanu pružati kibernetičko vodstvo i umjesto toga reflektiraju vlastite strahove i uvjerenja vladara? Jedan egocentričan odgovor demokratskih konkurenata bio bi da prepuste autokrate samima sebi, gledajući na sve što slabi autoritarne vlade kao na neto dobitak.

Međutim, takva bi reakcija mogla rezultirati humanitarnom katastrofom. Mnoge trenutne pristranosti kineske države, kao što je njena politika prema Ujgurima, aktivno su zloćudne i mogle bi postati daleko gore. Prethodne posljedice pekinške sljepoće uključuju veliku glad, koja je ubila oko 30 milijuna ljudi između 1959. i 1961. i bila je ubrzana ideološki vođenom politikom i skrivena nespremnošću pokrajinskih dužnosnika da objave točne statistike. Čak bi i okorjeli cinici trebali prepoznati opasnosti vanjskopolitičkih katastrofa izazvanih umjetnom inteligencijom u Kini i drugdje. Pojačavanjem nacionalističkih predrasuda, na primjer, umjetna inteligencija bi lako mogla ojačati frakcije koje žele sudjelovati u osvajanju teritorija.

Možda bi, čak i ciničnije, kreatori politike na Zapadu mogli doći u iskušenje da iskoriste zatvorene petlje autoritarnih informacijskih sustava. Do sada su se Sjedinjene Države usredotočile na promicanje slobode interneta u autokratskim društvima. Umjesto toga, SAD bi mogao pokušati pogoršati problem autoritarnog informiranja jačanjem petlji pristranosti kojima su ti režimi skloni. To bi mogao učiniti korumpiranjem administrativnih podataka ili sijanjem autoritarnih društvenih medija dezinformacijama. Nažalost, ne postoji virtualni zid koji bi razdvajao demokratske i autokratske sustave. Ne samo da bi loši podaci i suluda uvjerenja mogli procuriti u demokratska društva iz autoritarnih, već bi strašne autoritarne odluke mogle imati nepredvidive posljedice i za demokratske zemlje. Dok vlade razmišljaju o umjetnoj inteligenciji, moraju shvatiti da živimo u međuovisnom svijetu, gdje će se problemi autoritarnih vlada vjerojatno preliti u demokracije.

Inteligentniji pristup, dakle, mogao bi ublažiti slabosti umjetne inteligencije kroz zajedničke aranžmane za međunarodno upravljanje. Trenutno se različiti dijelovi kineske države ne slažu oko odgovarajućeg odgovora na regulaciju AI. Kineska uprava za kiberprostor, njezina Akademija za informacijsku i komunikacijsku tehnologiju i njezino Ministarstvo znanosti i tehnologije, na primjer, predložili su sva načela za regulaciju umjetne inteligencije. Neki favoriziraju model odozgo prema dolje koji bi mogao ograničiti privatni sektor i omogućiti vladi odriješene ruke. Drugi, barem implicitno, prepoznaju opasnosti umjetne inteligencije i za vladu. Izrada širokih međunarodnih regulatornih načela mogla bi pomoći u širenju znanja o političkim rizicima umjetne inteligencije.

Ovaj kooperativni pristup može izgledati čudno u kontekstu rastućeg američko-kineskog rivalstva. Ali pažljivo modulirana politika mogla bi poslužiti Washingtonu i njegovim saveznicima. Jedan bi opasan put bio da Sjedinjene Države budu uvučene u utrku za dominaciju umjetne inteligencije, što bi još više proširilo konkurentske odnose. Drugi bi bio pokušaj pogoršanja problema povratne sprege autoritarizma. I jedni i drugi riskiraju katastrofu i mogući rat. Daleko je sigurnije, dakle, da sve vlade prepoznaju zajedničke rizike umjetne inteligencije i rade zajedno na njihovu smanjenju, prenosi Net.hr.

Imate zanimljivu priču, fotografiju ili video?
Pošaljite na Whatsapp, Viber, MMS 097 64 65 419 ili na mail vijesti@riportal.hr ili putem Facebooka i podijeliti ćemo ju sa tisućama naših čitatelja.
Komentari