Iz Metkovića je stigao na Harvard, jedno od najprestižnijih sveučilišta na svijetu, i lansirao se među najbolje studente.
Nikola Jurković izvrsnost je brusio na dječačkim natjecanjima iz fizike, ljeti dok su drugi odmarali, a još je kao gimnazijalac sanjao o tome kako bi mogao svijet učiniti boljim.
Danas je u San Franciscu, u svojevrsnom „trustu mozgova“ – nekoliko stotina ljudi iz cijelog svijeta koji promišljaju o pitanju od kojeg mnoge hvata jeza već na samu pomisao: kako zaštititi čovječanstvo od umjetne inteligencije ako nešto krene po zlu?
S njim je o ovom velikom pitanju razgovarala Katarina Dimitrijević Hrnjkaš / Danas.hr baš u trenutku neposredno prije nego što je tvrtka OpenAI, tvorac popularnog ChatGPT-a, objavila oglas za posao voditelja pripravnosti. Zadatak te osobe – uz plaću i do 555.000 dolara godišnje – bio bi pripremati se za najgore moguće scenarije povezane s umjetnom inteligencijom i nositi se s mogućnošću da se ona počne sama obučavati i „krene protiv nas“. U tom strahu OpenAI nije sam: Mustafa Suleyman, izvršni direktor Microsoft AI-ja, izjavio je za BBC: „Iskreno mislim da ako se u ovom trenutku ne bojite barem malo, onda ne obraćate pažnju.“
Slično razmišlja i Demis Hassabis, dobitnik Nobelove nagrade i suosnivač Google DeepMinda, koji je ovog mjeseca upozorio na rizik da umjetna inteligencija „izmakne kontroli na način koji šteti čovječanstvu“.
O tim teškim pitanjima razgovarali smo s mladim Hrvatom. Otkrio nam je kako je ušao u „klub“ ljudi koji se time bave – i zašto vjeruje da je ovo jedno od najvažnijih pitanja naše budućnosti.
Nikola, otkrijte nam nešto o sebi: kako ste dospjeli na Harvard?
Išao sam u osnovnu školu i gimnaziju u Metkoviću. Kao gimnazijalac često sam išao na natjecanja i na ljetne škole znanosti na kojima sam sreo puno ljudi koji su studirali u inozemstvu. Pomislio sam da bih i ja mogao probati. Već u gimnaziji razmišljao sam kako mogu ostvariti najbolji pozitivni utjecaj na svijet. Skoro svaki plan koji mi je pao na pamet uključio je jedan od prvih koraka: studirati na jednom od najboljih fakulteta na svijetu. Prijavljivao sam se i na fakultete u Velikoj Britaniji i na fakultete u Americi. Jedan od njih bio je Harvard.
Tamo sam diplomirao u smjeru umjetne inteligencije i društva, a potom počeo raditi kao istraživač sigurnosti i umjetne inteligencije u San Franciscu.
Na Harvardu ste dobili nagradu koju dobiju najuspješniji studenati, kakav je osjećaj?
Da, potom je uslijedio poziv u društvo Phi Beta Kappa, svojevrsno društvo uspješnih, u koje ulazi tek mali broj studenata.
Kakav je osjećaj biti u društvu najuspješnijih? Iskreno, ne znam, nisam baš razmišljao o tim stvarima. Meni je bilo najvažnije da sam diplomirao i da mogu početi raditi.
Kako ste se našli u svijetu umjetne inteligencije?
Od osnovne škole razmišljam o tome kako mogu poboljšati svijet. To mi je glavni cilj u životu.
Dio tog procesa je shvatiti koji su najvažniji problemi na svijetu i pitao sam se kako mogu pridonijeti da ih riješimo. U tom procesu sam pronašao problem sigurnosti umjetne inteligencije – to jest, problem kako ćemo oblikovati razvoj umjetne inteligencije tako da ona ima pozitivan utjecaj na budućnost čovječanstva.
To mi je sada glavni fokus u životu: pronaći načine da umjetna inteligencija nema negativan utjecaj na svijet, ili da ne prouzrokuje izumiranje čovječanstva (ili nešto još gore od toga), i da pronađemo neku budućnost u kojoj ljudi i umjetna inteligencija mogu imati nekakav suživot u kojem su oboje “sretni”.
Otvorili ste jako velika pitanja, rekla bih i filozofska. U glavi mi bruji glavno pitanje: postoji li realna opasnost da umjetna inteligencija “riješi” čovječanstvo?
Postoji. Ja bih rekao da je umjetna inteligencija najveća opasnost na globalnoj razini zato što ubrzo, možda u sljedećem desetljeću, možemo doći do razine umjetne inteligencije na kojoj je ona sposobnija od bilo kojeg čovjeka.
I ako takva superinteligencija ne bude u potpunom slaganju s našim interesima, ili bude imala nekakav konflikt s ljudima, mislim da postoji šansa u kojoj bi ona pobijedila čovječanstvo.
Opasnost je ogromna i trebamo kao civilizacija puno više uložiti u pronalaženje načina da spriječimo taj konflikt.
Jesmo li već došli do točke u kojoj umjetna inteligencija ima samosvijest? Je li trenutačno svjesna svog postojanja?
Sve ovisi o definicijama svjesnosti, ali važno je imati na umu da glavno pitanje nije je li umjetna inteligencija svjesna sama sebe. Važnije pitanje od samosvijesti jest pitanje sposobnosti umjetne inteligencije.
Meni je bitnije je li umjetna inteligencija sposobna, recimo, napraviti novo biološko oružje, ili hakirati nečiji bankovni račun, ili pronaći neku strategiju da izbjegne kontrole.
I koji su odgovori na ta pitanja?
Odgovor na većinu pitanja u vezi opasnih sposobnosti umjetne inteligencije je da umjetna inteligencija trenutačno nije sposobna učiniti stvari koje su potrebne da bi ona zauzela svijet ili izbjegla našoj kontroli. Ali postaje sve sposobnija i ako se ekstrapoliraju trendovi njezine sposobnosti, jako je realistično da će unutar pet ili deset godina biti dovoljno sposobna da izbjegne ljudsku kontrolu.
Razgovarajući s vašim kolegama, oni kažu da se ne boje umjetne inteligencije, nego ljudi s lošim namjerama. Bojite li se vi takvih ljudi?
Da, i to je problem. Postoji opasnost i od ljudi s lošim namjerama koji koriste umjetnu inteligenciju, i od same umjetne inteligencije koja bi mogla imati svoje ciljeve odvojene od ljudskih ciljeva. Trebamo riješiti oba problema da bismo preživjeli kao vrsta. Jedan od najvećih izvora opasnosti je mogućnost da umjetna inteligencija pomogne stvarati nova oružja za masovna uništenja.
Približite nam: može li umjetna inteligencija u nekom trenutku „odlučiti“ i krenuti prema izradi biološkog oružja? Ili – može li pokrenuti fizički svijet u kojem se to oružje počinje stvarati samo od sebe?
Puno ljudi radi na sigurnosti umjetne inteligencije i na tome kako spriječiti da umjetna inteligencija stvori nova biološka oružja. Biološka oružja poput nekakvih supervirusa ili superbakterija – jedinstvena su po tome što bi potencijalno mogla ubiti svakog čovjeka na svijetu. Čak i nuklearni rat vjerojatno ne bi ubio svakog čovjeka – preživjelo bi barem nekoliko milijuna ljudi. Ali ako netko stvori jako sposobno biološko oružje, mogao bi ubiti doslovno svakoga.
Dakle, veća je opasnost biološkog oružja od nuklearnog?
Da, to je veća opasnost za ljudsko izumiranje.
Mogu li se napraviti osigurači koji bi spriječili da se to događa i radi li se na tome?
Da, postoji znanstveno polje sigurnosti umjetne inteligencije. Postoji nas nekoliko stotina istraživača koji radimo na raznim načinima kako osigurati umjetnu inteligenciju.
Nekoliko je pristupa. Recimo, jedan pristup je Mehanistička interpretabilnost, koja se temelji na tome da pronalazimo načine razumjeti unutarnje mehanizme umjetne inteligencije – zašto radi odluke koje radi.
Danas nemamo to razumijevanje: ona je kao crna kutija, ogromna masa brojeva gdje mi dajemo ulazne podatke, ona daje izlazne podatke, i nemamo pojma što se događa između. To je jedan pristup.
Postoje i drugi pristupi – jedan od najvećih pristupa danas je AI control, odnosno kontrola umjetne inteligencije. Tu pristup nije pronaći načine kako da umjetna inteligencija nema ciljeve protiv ljudskih, nego pretpostaviti da će imati ciljeve protiv ljudskih i pronaći načine da je nadgledamo i da je, čak i kad pokuša izbjeći kontrole, uhvatimo u procesu. Ima puno projekata kojima je cilj pronaći načine nadgledati umjetnu inteligenciju, da ne može izbjeći nadgledanje i takve stvari. Znanstveno polje je još jako mlado, tek nas je nekoliko stotina.
Odakle su ti ljudi?
Više od polovine su iz Velike Britanije i SAD-a.
Ima li itko iz Hrvatske osim vas?
Ima nas nekoliko – tu su Daniel Paleka, Lovre Pešut, Jelena Luketina… Više je nas.
Cijeli intervju s Nikolom Jurkovićem pročitajte na portalu Danas.hr.
Izvor i foto: Danas.hr
