Kako veštačka inteligencija nastavlja da se razvija, istraživači sve više istražuju kako veliki jezički modeli (LLM) mogu razviti sofisticirane kognitivne sposobnosti. Dva posebno fascinantna aspekta ovog razvoja su pojava teorije uma i kontrafaktualnog razmišljanja u AI sistemima.
Nedavna istraživanja1 pokazuju da LLM-ovi poseduju značajne sposobnosti teorije uma (ToM), demonstrirajući potencijal za simulaciju praćenja mentalnih stanja u generativnim agentima. U ovom istraživanju primećujemo novi paradigmu pod nazivom ToM-agent koji razdvaja pouzdanost od mentalnih stanja, olakšavajući emulaciju agentovog percipiranja mentalnih stanja njegovog sagovornika, kao što su uverenja, želje i namere.
Upoznajemo se i sa metodom kontrafaktualne intervencije koja razmatra razliku između predviđenih odgovora sagovornika i njihovih stvarnih izjava, čime se povećava efikasnost refleksije.

Teorija Uma u AI sistemima
Teorija uma predstavlja sposobnost razumevanja i pripisivanja određenih mentalnih stanja drugim osobama. To znači da možemo:
- Prepoznati da drugi ljudi imaju sopstvena verovanja, želje i namere
- Razumeti da se njihova mentalna stanja mogu razlikovati od naših
- Predvideti ponašanje drugih na osnovu njihovih mentalnih stanja
- Razumeti da drugi mogu imati pogrešna uverenja
Na primer, kada dete shvati da njegova mama ne zna gde je sakrilo igračku, ono pokazuje razvijenu teoriju uma. U kontekstu AI, ovo znači razvijanje sposobnosti da “razume” ljudske namere, emocije i perspektive.
Kontrafaktualno razmišljanje i AI odlučivanje
Kontrafaktualno razmišljanje je sposobnost razmatranja “šta bi bilo kad bi bilo” scenarija. To uključuje:
- Analizu alternativnih scenarija:
- “Šta bi se desilo da sam izabrao drugačiji put?”
- “Kako bi situacija izgledala da sam doneo drugačiju odluku?”
- Učenje iz hipotetičkih situacija:
- Razmatranje potencijalnih ishoda različitih akcija
- Evaluacija mogućih posledica odluka
- Učenje iz zamišljenih scenarija bez potrebe za stvarnim iskustvom
- Primena u AI Sistemima:
- AI može simulirati različite scenarije
- Proceniti potencijalne rizike i koristi
- Optimizovati proces donošenja odluka
- Učiti iz “virtuelnih” iskustava
U tradicionalnim AI sistemima, informacije se često tretiraju kao binarne (tačne ili netačne) ili im se dodeljuje određeni stepen pouzdanosti. ToM-agent ide korak dalje uvodeći razdvajanje između:
- Objektivne pouzdanosti informacije – koliko je neka informacija zaista tačna u realnom svetu
- Mentalnog stanja sagovornika – šta sagovornik veruje, misli ili oseća, bez obzira na objektivnu tačnost
Ovo razdvajanje je ključno jer ljudi često imaju uverenja koja nisu nužno tačna, ali ta uverenja i dalje snažno utiču na ljudsko ponašanje i komunikaciju.

Kako ToM-agent funkcioniše u praksi
Zamislite sledeći scenario: Korisnik razgovara sa AI sistemom i kaže “Moj kolega veruje da će Zemlja preživeti još samo 20 godina zbog klimatskih promena.”
ToM-agent će:
- Razumeti da je ovo izjava o mentalnom stanju kolege korisnika
- Modelirati mentalno stanje kolege (verovanje o klimatskim promenama)
- Ne pomešati ovo sa objektivnom istinom o klimatskim promenama
- Interagovati sa korisnikom imajući na umu ovo mentalno stanje kolege
ToM-agent ne prosuđuje da li je to verovanje tačno ili netačno, već ga tretira kao realnost unutar mentalnog modela čoveka. Ovo omogućava agentu da vodi sofisticiranije razgovore koji uzimaju u obzir nijanse ljudskog razmišljanja.
Razvoj teorije uma i kontrafaktualnog razmišljanja u AI sistemima predstavlja značajan korak ka stvaranju inteligentnijih i društveno svesnijih AI agenata. Ove sposobnosti su ključne za:
- Poboljšanje interakcije između ljudi i AI
- Razvoj etičkih AI sistema
- Stvaranje AI koja može bolje razumeti čoveka i služiti ljudskim potrebama
Napomena: Ovaj tekst se zasniva na trenutnim istraživanjima u oblasti veštačke inteligencije i kognitivnog računarstva, sa posebnim fokusom na razvoj sofisticiranijih jezičkih modela i AI agenata. Large Language Models as Theory of Mind Aware Generative Agents with Counterfactual Reflection