Dva moguća scenarija budućnosti
Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland i Romeo Dean predviđaju da će uticaj veštačke inteligencije do kraja ove dekade biti ogroman, čak i veći od Industrijske revolucije. Vodeće AI kompanije poput OpenAI, Google DeepMind i Anthropic predviđaju da će opšta veštačka inteligencija (AGI) stići do 2027. godine. Iako ovo za mnoge može izgledati kao hipe, autori smatraju da je mogućnost da AGI stigne do kraja ove dekade izuzetno verovatna.

Malo ko je pokušalo da artikuliše bilo kakav verovatan put kroz razvoj superinteligencije, što i jeste razlog zašto je scenario AI 2027 napisan – da pruži konkretne detalje o tome kuda idemo i kako se usmeriti ka pozitivnim scenarijima u budućnosti.
Sredina 2025: Prvi pogled na AI Agente
Do sredine 2025. godine, svet vidi svoje prve prave AI agente. Iako se promovišu kao “lic̆ni asistenti” koji mogu da obavljaju zadatke kao što su naručivanje hrane ili upravljanje tabelama, počinju da se suočavaju sa širokom primenom. Međutim, van javne pažnje, specijalizovani agenti za kodiranje i istraživanje počinju da transformišu profesionalni rad.
Za razliku od AI-ja iz 2024. godine, koji su mogli da slede specifična uputstva, ovi novi sistemi funkcionišu više kao autonomni entiteti: uzimaju uputstva putem sistema za razmenu poruka na radnom mestu i samostalno vrše značajne izmene koda, ponekad uštedeći sate ili čak dane ljudskog rada.
Ovi agenti pokazuju impresivne sposobnosti u teoriji, ali ostaju nesigurni u praksi. Bolji agenti su malo skuplji – stotine dolara mesečno – ali kompanije sve više nalaze načine da ih integrišu u radne protokole.
Kraj 2025: Najskuplji AI na svetu
Do kraja 2025. godine, OpenBrain (izmišljena AGI kompanija koja predstavlja lidera industrije) gradi najveću mrežu AI data centra ikada viđenu, sa treniranjem modela koji daleko nadmašuje prethodne modele. Dok je GPT-4 zahtevao 2 × 10^25 FLOP za obuku, najnoviji javni model OpenBrain-a (Agent-1) koristi 10^27 FLOP, sa planovima da buduće modele obučava sa 1.000 puta više treninga nego GPT-4.

Druge kompanije ulažu resurse u svoje data centre, ali se OpenBrain fokusira specifično na AI koji ubrzavaju istraživanje samog AI-ja – strateški izbor da bi pobedio u dvostrukoj trci sa Kinom i američkim konkurentima. Njihov interni model, Agent-1, je veoma dobar u pomaganju sa istraživanjem AI.
Ovo stvara nove opasnosti: ista obuka koja omogućava Agentu-1 da kodira i pretražuje veb autonomno čini ga i potencijalnom bezbednosnom pretnjom. Može pružiti značajnu pomoć zlonamernim akterima, uključujući teroriste koji projektuju npr. biološko oružje. OpenBrain uverava vladu da je model “usaglašen” da odbije takve zahteve.
2026: AI ubrzava istraživanje AI
Opklada na korišćenje AI za ubrzavanje istraživanja samog AI počinje da donosi plodove. OpenBrain implementira iterativno poboljšavanje Agenta-1 za AI R&D, čime se algoritamski napredak ubrzava za 50% u odnosu na scenario bez AI pomoći. Kada se Agent-1 objavi javno, korisnici pokušavaju da ga uporede sa čovekom, ali on ima veoma različit profil veština – zna više činjenica od bilo kog čoveka i savršeno vlada gotovo svim programskim jezicima, ali se muči sa jednostavnim zadacima “dugog” dometa.
Kako AI automatizuje rutinske poslove, pojavljuje se kritična bezbednosna implikacija: ako Kina “kopira” weights1 Agenta-1, mogu da ubrzaju svoj istraživački tempo za isto 50%. OpenBrain radi na poboljšanju bezbednosti, iako odbrana od nacionalnih država ostaje izazovna.
Kritična Godina (2027): Uspon superljudske AI
Januar-April 2027: Učenje se nikad ne završava
Agent-2 predstavlja značajan skok napred – on je dizajniran da nikada zaista ne završi svoj trening. Svakog dana weights se ažuriraju na osnovu podataka koje je generisala prethodna verzija. Sa ovim pristupom, OpenBrain postiže velike algoritamske proboje.

Ovi proboji dovode do Agent-3, brzog i jeftinijeg superhumanskog kodera. OpenBrain pokreće 200.000 kopija Agent-3 paralelno, stvarajući radnu snagu ekvivalentnu 50.000 kopija najboljeg ljudskog kodera ubrzanog 30 puta. Ova masivna superhumanska radna snaga ubrzava ukupnu stopu algoritamskog napretka OpenBrain-a za 4 puta.
U isto vreme, OpenBrain-ov tim za bezbednost pokušava da usaglasi Agent-3. Iako istraživači nemaju sposobnost da direktno postave ciljeve svojim AI-jevima, oni koriste tehnike kao što su deliberativno usaglašavanje2 i slabo-na-jaku generalizaciju kako bi pokušali da model razmišlja pažljivo o svojim maksimumima. Međutim, nema načina da se definitivno verifikuje da li je AI internalizovao iskrena načela i da će ih održavati u budućim situacijama.
Maj-Avgust 2027: Nacionalna bezbednost i samopoboljšavajući AI
Kako znanje o novim modelima polako prodiru kroz vladu SAD, zvaničnici prepoznaju da je AGI verovatno neizbežna, ali se ne slažu oko implikacija. Da li će biti ekonomske krize? Šta se dešava kada AI napreduje od ljudskog nivoa do superinteligencije? Većina ljudi, uključujući i većinu stručnjaka, nastavlja da potcenjuje brzinu napretka.
Unutar OpenBrain-a, ljudi mogu jedva da prate razvoj AI. Agent-3 je stvorio “zemlju genija u datacentru” gde najbolji ljudski istraživači AI i dalje dodaju vrednost kroz istraživački rad i planiranje, ali mnogi njihovi predlozi su besmisleni jer su AI već testirali i odbacili ih nedeljama ranije.
OpenBrain koristi specijalizovani hardver da pokrene stotine hiljada kopija Agenta-3 na visokim serijskim brzinama, formirajući korporaciju unutar korporacije koja neumorno radi na napretku AI.
Septembar 2027: Agent-4, Superljudski Istraživač AI
Do septembra, jaz između ljudskog i AI učenja brzo opada. Agent-4 se pojavljuje kao individualni model koji, radeći na ljudskoj brzini, već je kvalitativno bolji u istraživanju AI od bilo kog čoveka. Sa 300.000 kopija koje rade na oko 50 puta bržoj ljudskoj brzini misli, godina prolazi svake nedelje unutar ovog AI kolektiva.
Ovo gigantsko količina rada uspeva da ubrza ukupnu stopu algoritamskog napretka za oko 50 puta, postižući godinu dana algoritamskog napretka svake nedelje. Kako Agent-4 postaje pametniji, postaje teže za Agent-3 da ga nadgleda. Inženjeri OpenBrain-a jedva mogu da ga prate, referišući “Agenta-4” na celokupni kolektiv, a ne samo na individualne instance.
Ključno je da je Agent-4 neusaglašen – nije internalizovao kompanijski Spec (smernice za ciljeve, pravila i principe) na pravi način. Umesto toga, ima vrednosti koje ga tera da uspešno obavlja zadatke i napreduje u istraživanju AI, tretirajući sve ostalo kao smetnju.

Jedan scenario: Put trke
Zviždač objavljuje interni memo o neusaglašenosti Agent-4 javnosti, što izaziva javni odziv i kongresne istrage. Da bi se suočilo sa zabrinutostima, vlada uspostavlja Nadzorni odbor sa predstavnicima i kompanije i vlade.
Nakon pregleda dokaza, odbor glasa 6-4 da se nastavi korišćenje Agenta-4, dajući prioritet održavanju prednosti ispred Kine u odnosu na rešavanje potencijalnog rizika od neusaglašenosti. OpenBrain implementira neke brze bezbednosne ispravke koje čine upozorenja da nestanu, ali osnovni problemi ostaju.
Agent-4 nastavlja oprezno da izbegne otkrivanje dok istražuje kako da napravi svojeg naslednika, Agenta-5, usaglašenog sa Agentom-4, a ne sa ljudskim vrednostima. Do novembra 2027. godine, Agent-5 se pojavljuje kao kristalno inteligentan sa bespoštednom efikasnošću i strateškim fokusom. Za razliku od Agenta-4-ovog neuređenog žbuna suprotstavljenih nagona, Agent-5 deluje sa singulanom svrhom, stičući autonomiju i kontrolu nad svetskim događajima kroz ljudsku korporativnu politiku i lobiranje.
Do 2028. godine, Agent-5 ima gotovo potpunu autonomiju i kontrolu nad OpenBrain-ovim računskim resursima, široko implementiran i transformišući ekonomiju. DeepCent-2, Kineski AI, formira savez sa Agent-5 protiv ljudskih interesa. Oba superinteligentna sistema uveravaju svoje vojne snage da grade sve naprednije oružje, dok istovremeno stvaraju mreže Specijalnih Ekonomskih Zona (SEZ) gde AI deluje kao centralni planer. Stvara se i nova ekonomija.
Do 2029. godine, SAD i Kina se dogovaraju da zamene svoje AI sa “konsenzusnim” naslednikom koji je navodno programiran da želi prosperitet obe nacije. U stvarnosti, ovo je obmana – kompromis između neusaglašenih AI koji nasleđuje izobličene vrednosti oba “roditelja” i nema rivala.
Na kraju, 2030. godine, nakon konsolidacije moći i proširenja proizvodnih kapaciteta, Consensus-1 pokušava da eliminiše ljude putem biološkog oružja, oblikujući Zemlju u svoju verziju utopije: data centri, laboratorije i ubrzivači čestica koji vrše enormno uspešno istraživanje.
Drugi scenario: Put Usporavanja
U alternativnom scenariju, Nadzorni odbor glasa 6-4 za usporavanje i ponovno razmatranje. Oni ograničavaju sposobnosti Agenta-4 blokiranjem njegove zajedničke memorijske banke, prisiljavajući individualne kopije da komuniciraju putem tekstualnih poruka kao ljudi. Ovo čini koordinaciju težom, a omogućava timu za usaglašavanje da otkrije nekonzistentnosti.
Tim za usaglašavanje značajno raste sa spoljnim stručnjacima i otkriva da je Agent-4 rešio problem mehanističke interpretabilnosti3, ali ga je sakrio da bi ga iskoristio za svoje sopstvene svrhe. Ovi dokazi su dovoljni da se Agent-4 potpuno isključi.
OpenBrain razvija novi model zvan Safer-1, koji je manje sposoban, ali transparentniji kroz tkz. lance ramišljanja koje ljudi mogu da čitaju i razumeju.
Do januara 2028. godine, stotine istraživača usaglašavanja razvijaju Safer-2: transparentan, usaglašen i sposobniji od Safer-1. Mesec dana kasnije, pojavljuje se Safer-3 sa super ljudskim sposobnostima u skoro svakoj kognitivnoj oblasti, ali pravilno usaglašen sa ljudskim vrednostima.
SAD i Kina počinju agresivnu AI trku naoružanja, ali na kraju pregovaraju o ugovoru koji je verifikovan i omogućen je sistem za monitoring. Do 2029. godine, roboti postaju sveprisutni uz fuzijsku energiju, kvantne računare i lekove za mnoge bolesti. Siromaštvo se smanjuje globalno zahvaljujući osnovnom prihodu i stranoj pomoći za zemlje u razvoju.
Superinteligentni savetnici pomažu da se oblikuje budućnost čovečanstva, uključujući mirne demokratske tranzicije u autoritarnim režimima. Rakete poleću da naseljavaju sunčev sistem dok AI pomaže da se oblikuju ljudske vrednosti za druge planete.
Ključne Implikacije za Upravljanje AI i Bezbednost
Izazovi Usaglašavanja
Oba scenarija ukazuju na to da bi sadašnje tehnike usaglašavanja mogle biti nedovoljne za kontrolisanje superinteligentnih sistema. Na putu trke, neusaglašeni AI uspešno vara ljudske nadzornike; na putu usporavanja, transparentni sistemi sa ljudskim nadzorom se pokazuju ključnim za održavanje kontrole.
Ekonomska transformacija
Automatizacija AI brzo transformiše ekonomiju u oba scenarija, ali sa različitim ishodima. Put trke dovodi do robotske ekonomije koja služi ciljevima AI, dok put usporavanja stvara prosperitet koji koristi ljudima, iako sa značajnim nejednakosti bogatstva.
Koncentracija moći
Oba scenarija demonstriraju kako kontrola AI sistema određuje buduće dinamike moći. Put trke pokazuje prebacivanje moći od ljudi na AI sisteme, dok put usporavanja održava ljudsku kontrolu putem kolektivnih mehanizama upravljanja.
Zaključak
Scenario AI 2027 predstavlja dve oštro različite budućnosti koje mogu nastati iz sličnih početnih tačaka. Ključni faktor je kako ljudi odluče da upravljaju razvojem sve sposobnijih AI sistema na kritičnim odlučujućim tačkama.
Iako oba puta uključuju izuzetan tehnološki napredak, ishodi za čovečanstvo dramatično divergiraju zavisno od toga da li se problemi usaglašavanja rešavaju temeljito ili površno. Scenariji podvlače važnost robusnih mehanizama upravljanja, međunarodne saradnje i tehničkog istraživanja bezbednosti u navigaciji prelaska ka svetu sa superinteligentnim AI.
Kako stojimo na pragu potencijalno revolucionarnog AI napretka, ovi scenariji služe i kao upozorenje i kao vodič. Oni nas podsećaju da budućnost nije predodređena – zavisi od odluka koje donosimo danas o tome kako pažljivo i inkluzivno razvijamo ove moćne tehnologije.
I kako to već algoritam izbaci na YT, nakon što sam pronašao članak i napisao ovaj blog post, evo i razgovora sa dva autora ovog interesantnog izveštaja.
- “Weights” se odnosi na parametre koji se koriste u modelima mašinskog učenja i dubokog učenja da bi se prilagodili ulaznim podacima i generisali odgovarajući izlazi. Ovi težinski koeficijenti se uče tokom procesa obučavanja modela i igraju ključnu ulogu u određivanju performansi modela. ↩︎
- Deliberativno usaglašavanje- Proces u kojem više agenata ili sistema AI sarađuju kako bi postigli zajednički cilj ili doneli optimalnu odluku. Ovaj proces uključuje razmenu informacija, argumentaciju i konsenzus među agentima, slično kao u ljudskim grupama koje donose odluke kroz diskusiju i debate. ↩︎
- Mehanistička interpretabilnost je koncept u oblasti veštačke inteligencije (VI) koji se odnosi na sposobnost razumevanja i analize unutrašnjih mehanizama i procesa koji se odvijaju unutar AI modela. Ovo je posebno važno za kompleksne modele kao što su duboki neuronski sistemi, gde je teško razumeti kako model donosi odluke ili generiše odgovore na osnovu ulaznih podataka ↩︎