Nemoguće je kontrolisati superinteligentnu VI

O ideji da će veštačka inteligencija pokoriti ljudsku rasu priča se već decenijama, a 2021. godine naučnici su dali svoj sud o tome da li ćemo moći da kontrolišemo superinteligentne kompjutere. Koji je bio njihov odgovor? Skoro sigurno nećemo moći.

Kvaka je u tome što bi kontrolisanje superinteligencije koju ljudski mozak nije ni blizu da shvati zahtevalo simulaciju te superinteligencije koju možemo da analiziramo (i kontrolišemo). Ali ako nismo u stanju da je shvatimo, nemoguće je napraviti takvu simulaciju.

Pravila kao što su „ne povređuj ljude“ ne mogu biti postavljena ako ne razumemo kakve sve scenarije AI može da izmisli, kažu autori tog istraživanja. Onog trenutka kada kompjuterski sistemi počunu da rade na nivou iznad razumevanja naših programera, mi više nećemo biti u stanju da postavljamo ograničenja.

Superinteligencija predstavlja fundamentalno drugačiji problem od onih koji se uglavnom izučavaju pod okriljem „robotske etike“.

To je zato što je superinteligencija višeslojna, i time potencijalno sposobna da posegne za različitim resursima kako bi ostvarila svoje ciljeve koji su ljudima potencijalno nerazumljivi i koje samim tim ne mogu nikako da kontrolišu.

Deo rezona kojim se vodio tim istraživača dolazi iz problema zaustavljanja koji je izneo Alan Turing 1936. godine. Ovaj problem fokusira se na spoznaju da li kompjuterski program može ili ne može da dođe do zaključka i odgovora (i tako se zaustavlja), ili nastavlja da se zauvek vrti u petlji pokušavajući da nađe odgovor.

Turing je dokazao uz pomoć matematike da iako možemo to da znamo za neke određene programe, logički je nemoguće naći način koji će nam omogućiti da to znamo za svaki potencijalni program koji može biti napisan. To nas vraća na veštačku inteligenciju, koja bi u superinteligentnom stadijumu mogla da ima svaki mogući kompjuterski program u svojoj memoriji istovremeno.

Svaki program napisan da spreči veštačku inteligenciju da naškodi ljudima ili uništi svet, na primer, može doći do zaključka (i zaustaviti se) ili ne mora – za nas je matematički nemoguće da budemo apsolutno sigurni u bilo koji od ta dva ishoda, što znači da se superinteligencija ne može obuzdati.

Alternativa podučavanju veštačke inteligencije da razume etiku i da ne uništi svet – nešto što ne ni za jedan algoritam ne možete biti apsolutno sigurni da će uraditi – je da se ograniče sposobnosti superinteligencije, kažu istraživači. Ona bi mogla da bude odsečena od delova interneta ili od određenih mreža, na primer.

Istraživanje je odbacilo ovu ideju, takođe, tvrdeći da bi to ograničilo domet veštačke inteligencije; a argument je da ako je nećemo koristiti za rešavanje problema koji su van domašaja ljudske inteligencije, zašto bismo je uopšte stvarali?

Ako nastavimo da razvijamo veštačku inteligenciju, vrlo je moguće da nećemo ni znati kada superinteligencija izvan naše kontrole zaživi, jer u tome se ogleda njena neshvatljivost. To znači da moramo da počnemo da postavljamo ozbiljna pitanja vezano za pravac u kom se krećemo.

Napišite komentar:

Unesite svoj komentar!
Unesite svoje ime ovde