VESTInetačnoKako četbotovi oblikuju istinu: Veštačka inteligencija i borba za narative na Zapadnom...

Kako četbotovi oblikuju istinu: Veštačka inteligencija i borba za narative na Zapadnom Balkanu

Veštačka inteligencija se sve češće umesto pretraživača, medija ili enciklopredija koristi kao prvi izvor informacija. Međutim, istraživanje redakcije Hibrid.info pokazuje da četbotovi zasnovani na velikim jezičkim modelima (LLM) ne nude neutralan pogled na stvarnost. Naprotiv, njihovi odgovori često odražavaju političke, ideološke, pa čak i državne okvire sredina u kojima su razvijeni, što posebno dolazi do izražaja u osetljivim geopolitičkim kontekstima, poput onih na Kosovu i Zapadnom Balkanu.

„Istina iz ugla četbota – Studija o širenju narativa putem AI četbotova“ analizira odgovore tri globalno dostupna četbota: ChatGPT-a (SAD), DeepSeek Chat-a (Kina) i Alice (Rusija). Kroz eksperiment sa stotinu pažljivo formulisanih promptova i dodatne intervjue sa stručnjacima, istraživači su ispitivali činjeničnu tačnost, semantičku sličnost, ideološke pristrasnosti i uticaj geografske lokacije korisnika na generisane odgovore.

Uverljivost ispred tačnosti

Jedan od ključnih nalaza studije jeste da četbotovi daju prednost uverljivosti nad preciznošću. Njihovi odgovori često zvuče samouvereno, strukturirano i „objektivno“, čak i kada sadrže netačne ili nepotpune informacije. Upravo ta kombinacija tečnosti i autoritativnog tona čini veštačku inteligenciju posebno rizičnom u „doba post-istine“, gde se granica između pouzdanog i problematičnog sadržaja sve teže prepoznaje.

Istraživanje pokazuje da su ChatGPT i DeepSeek Chat generalno pružali tačnije i stabilnije odgovore u poređenju sa Alice, ali nijedan model nije bio potpuno imun na greške. Alice se, međutim, izdvaja po većem broju odbijanja odgovora, izraženijem ideološkom okviru i sklonosti ka ruskim državnim narativima, naročito kada su u pitanju teme poput Krima ili NATO intervencije u SR Jugoslaviji.

Posebna pažnja u studiji posvećena je Kosovu, kao primeru politički i istorijski osporavanog prostora na kome se „ukrštaju“ narativi. Promptovi su tretirali pitanja nezavisnosti, međunarodnog priznanja, dijaloga Beograda i Prištine, uloge NATO-a i nasleđa Oslobodilačke vojske Kosova. Rezultati pokazuju da način na koji četbotovi uokviruju ova pitanja zavisi od modela, ali i od šireg ideološkog konteksta u kojem je razvijen.

Lokacija korisnika menja odgovor

Dok zapadni modeli češće koriste terminologiju usklađenu sa međunarodnim institucijama i dominantnim zapadnim narativima, ruski model češće relativizuje ili problematizuje iste događaje. Time se potvrđuje da veštačka inteligencija ne „izmišlja“ političke stavove, već ih reprodukuje iz podataka na kojima je trenirana.

Jedan od najupečatljivijih nalaza jeste da geografska lokacija korisnika utiče na generisane odgovore. U komparativnom eksperimentu sprovedenom u zemaljama Zapadnog Balkana, istraživači su utvrdili da isti upit može rezultirati drugačijim tonom, izborom jezika ili narativnim naglaskom, u zavisnosti od toga iz koje države dolazi zahtev.

Ovakva kontekstualna prilagodljivost može delovati korisno, ali otvara ozbiljna pitanja: da li četbotovi korisnicima nude informacije ili im serviraju „lokalizovanu istinu“? U regionima sa dubokim političkim podelama, takav pristup može dodatno učvrstiti postojeće narative umesto da doprinese njihovom kritičkom preispitivanju.

Semantička sličnost nije isto što i istina

Studija pravi jasnu razliku između semantičke sličnosti i činjenične tačnosti. Analiza pokazuje da ChatGPT i DeepSeek Chat često daju veoma slične odgovore po strukturi i jeziku, dok se Alice značajno razlikuje. Međutim, visoka semantička sličnost ne garantuje tačnost jer dva gotovo identična odgovora mogu istovremeno biti netačna.

Ovaj nalaz je posebno važan za novinare, istraživače i donosioce odluka koji četbotove koriste kao pomoćni alat. Oslanjanje na „konsenzus“ između više AI sistema može stvoriti lažni osećaj pouzdanosti.

Izveštaj upozorava da se LLM modeli sve češće nalaze u središtu savremenih dezinformacionih ekosistema. Njihova sposobnost masovne proizvodnje sadržaja čini ih pogodnim za propagandu, a primeri poput ruske mreže „Pravda“ pokazuju kako se veštačka inteligencija koristi za amplifikaciju političkih narativa na globalnom nivou.

Dodatni problem predstavlja mogućnost da se AI-generisani sadržaj ponovo uključi u skupove podataka za obuku budućih modela, čime se dezinformacije dugoročno „ugrađuju“ u tehnologiju.

Oprez i provera neophodni

Studija Istina iz ugla četbota jasno sugeroše da veliki jezički modeli nisu neutralni, nezavisni niti do kraja pouzdani izvori za politička i geopolitička pitanja. Njihovi odgovori zavise od dizajna, podataka za obuku i konteksta upotrebe. To ih čini moćnim, ali i potencijalno problematičnim akterima u javnom diskursu.

Autori naglašavaju potrebu za višestrukom proverom informacija, većom transparentnošću u razvoju AI sistema i snažnijim ulaganjima u medijsku i digitalnu pismenost. U suprotnom, rizikujemo da veštačka inteligencija ne postane alat razumevanja, već sofisticirani mehanizam za reprodukciju postojećih političkih i ideoloških podela.

Preuzimanje i objavljivanje tekstova sa portala gorazdevac.com nije dozvoljeno bez navođenja izvora. Hvala na poštovanju etike novinarske profesije.
IZVOR:Kim
Pec
overcast clouds
7.1 ° C
7.1 °
7.1 °
90 %
1.3kmh
100 %
Sre
10 °
Čet
12 °
Pet
14 °
Sub
17 °
Ned
19 °

Najčitanije

Povezani članci