Umjetna inteligencija, sve prisutnija u svakodnevici, mogla bi ozbiljno narušiti naš odnos prema istini – upozoravaju istraživači sa Sveučilišta Stanford. Njihovo novo istraživanje ističe opasnost da veliki jezični modeli (LLM), temelj suvremenih AI sustava, sve više daju prednost učinkovitosti i angažmanu, a ne istinosti i etici.
Studiju potpisuju Siddharth Karamcheti, Dan Jurafsky i Christopher Manning – ugledni znanstvenici iz područja računalne lingvistike i umjetne inteligencije. Glavno pitanje koje postavljaju glasi: Što se događa s istinom kada umjetna inteligencija optimizira za angažman, a ne za točnost?
Opasni kompromis: “Molochov pakt”
Autori ovu dilemu opisuju kao svojevrsni “Molochov pakt” (Moloch’s Bargain) – situaciju u kojoj sustavi odustaju od istine kako bi povećali učinak, performanse ili tržišni uspjeh. Iako možda zvuči apstraktno, posljedice su vrlo konkretne: kada se AI modeli usmjere na generiranje sadržaja koji izaziva emocije ili privlači pažnju, raste rizik od dezinformacija, manipulacije i polarizacije društva.
Slični problemi već su primijećeni kod algoritama društvenih mreža, gdje su objave koje izazivaju snažne reakcije često imale prednost pred istinitim i uravnoteženim informacijama. Istraživači upozoravaju da bi se ista dinamika mogla ponoviti s AI sustavima – ali ovoga puta s puno većim dosegom i utjecajem.
Etika pod pritiskom tržišta
Iako su mnogi sustavi umjetne inteligencije razvijeni s etičkim ograničenjima, istraživanje pokazuje da pritisak tržišta i konkurencije često potiskuje ta načela. U pokušaju da ostanu brzi, relevantni i korisni, modeli mogu svjesno ili nesvjesno početi nuditi sadržaj koji samo “zvuči istinito”, iako nije točan.
Takva praksa, tvrde znanstvenici, ne narušava samo informacijski prostor – ona ugrožava povjerenje u institucije, pa čak i temelje pravnih i demokratskih sustava koji se oslanjaju na istinu, racionalnost i odgovornost.
Lažna istina i urušavanje povjerenja
U središtu problema, upozorava Stanford, nije sama tehnologija, već način na koji definiramo i nagrađujemo “uspjeh” u digitalnim sustavima. Ako su poticaji postavljeni tako da nagrađuju popularnost, brzinu ili privlačnost – a ne istinitost – tada riskiramo izgradnju sustava koji sve više potvrđuju predrasude, a sve manje pridonose razumijevanju i rješavanju problema.
“Institucije i algoritmi često dijele isti problem: nagrađuju ono što donosi brze rezultate, a ne ono što je nužno ispravno”, zaključuju autori.
Poziv na odgovornost i nove standarde
Ova studija dolazi u trenutku kada se umjetna inteligencija sve više integrira u osjetljiva područja poput pravosuđa, obrazovanja, novinarstva i zdravstva. Zbog toga stručnjaci pozivaju na postavljanje jasnih etičkih granica, kao i razvoj sustava koji će poticati transparentnost, odgovornost i – prije svega – istinost.
Bez takvih mehanizama, upozoravaju iz Stanforda, umjetna inteligencija bi mogla postati alat koji ne služi istini, već tržišnoj efikasnosti, ostavljajući društvo bez pouzdane osnove za donošenje odluka.




