Kada kamera laže forenzički dokazi o AI manipulacijama javnih ličnosti

U savremenom informacionom prostoru, sadržaji koji prikazuju prolaze kroz sve sofisticiranije oblike digitalne manipulacije, pri čemu se u javnosti pojavljuju video i foto materijali sa visokim stepenom vizuelne uvjerljivosti, ali sa jasnim forenzičkim indikatorima neautentičnosti. Stručna analiza ovih materijala zahtijeva kombinaciju tehnika iz oblasti digitalne forenzike, obrade signala (signal processing), računalnog vida (computer vision) i OSINT verifikacije.

Kod video sadržaja dominantan obrazac manipulacije temelji se na deepfake arhitekturama, posebno modelima za face reenactment i facial identity mapping. U takvim videima lice Netanyahua je generisano ili rekonstruisano putem neuronskih mreža koje koriste referentne datasetove njegovih javnih nastupa. Međutim, analiza frame-by-frame (npr. putem FFmpeg ekstrakcije i Amped Authenticate) pokazuje tipične temporal inconsistencies, odnosno varijacije između uzastopnih frameova koje nisu karakteristične za prirodni video signal. Konkretno, dolazi do tzv. flickering artefakata u području kontura lica i kose, što ukazuje na nestabilnost generativnog modela u vremenskoj domeni.

Jedan od najpouzdanijih indikatora manipulacije jeste neusklađenost između audio i vizuelne komponente (audio-visual desynchronization). Iako savremeni modeli koriste napredne lip-sync algoritme, analiza pokazuje da fonetske jedinice (fonemi) ne korespondiraju precizno sa pokretima usana, naročito kod složenijih fonetskih struktura. Ovaj problem je posebno izražen u segmentima gdje govor uključuje brze promjene intonacije ili konsonantske skupove. Dodatno, facial landmark tracking otkriva neprirodne transformacije u području obraza i vilice, gdje se generisani pokreti ne uklapaju u biomehaničke obrasce ljudskog lica.

Audio komponenta u velikom broju analiziranih videa nosi karakteristike sintetičkog govora generisanog putem neural text-to-speech (TTS) sistema. Spektralna analiza (npr. u iZotope RX ili Praat) pokazuje prisustvo uniformnih harmonijskih struktura i odsustvo prirodnog prosodic variation. Također, nedostaje tzv. micro-pausing i respiratorni šum (breath noise), koji su standardni u realnim audio snimcima. Ovi elementi jasno ukazuju na korištenje modela kao što su Tacotron/WaveNet ili slični moderni TTS sistemi.

Kod fotografija, dominantan izvor manipulacije su difuzioni modeli (diffusion models) poput Stable Diffusion ili Midjourney. Analiza ovih slika pokazuje niz karakterističnih anomalija. Prvo, uočava se tzv. anatomical distortion, posebno u području ruku, gdje broj ili oblik prstiju odstupa od realnih proporcija. Drugo, prisutna je lighting inconsistency, gdje globalna iluminacija scene ne odgovara lokalnom osvjetljenju na licu subjekta. Refleksije u očima (specular highlights) često nisu usklađene sa izvorima svjetlosti u okruženju, što je pouzdan indikator sintetičke generacije.

Dodatno, analiza tekstura kože otkriva tzv. over-smoothing effect, gdje je površina kože previše homogena i lišena prirodnih nepravilnosti (pore, bore, mikro-kontrasti). Pozadinski elementi često sadrže semantic inconsistencies, odnosno objekte koji nemaju logičku strukturu ili su djelimično deformisani. Tekstualni elementi u slici (natpisi, oznake) često su nečitljivi ili generisani sa greškama, što je poznato ograničenje generativnih modela.

Posebnu kategoriju čine kompozitni sadržaji (hybrid media), gdje se autentični video ili fotografija kombinuju sa AI generisanim segmentima. U takvim slučajevima dolazi do resolution mismatcha između različitih dijelova slike, kao i do razlika u color space parametrima (npr. različiti gamma ili white balance). Analiza kompresije (npr. kroz JPEG artefakte ili video bitrate analizu) može pokazati višestruke faze rekodiranja, što ukazuje na intervenciju u originalni materijal.

OSINT dimenzija analize dodatno potvrđuje sumnju na manipulaciju. Većina spornih materijala nije potvrđena kroz kredibilne izvore kao što su , ili , niti postoji višestruka verifikacija iz nezavisnih izvora (multi-source verification). Distribucija ovih sadržaja često slijedi obrazac koordiniranih kampanja, gdje se isti materijal simultano pojavljuje na više platformi putem niskokredibilnih naloga.

Zaključno, detaljna tehnička analiza javno dostupnih video i foto materijala koji prikazuju Netanyahua ukazuje na prisustvo naprednih AI manipulacija zasnovanih na deep learning modelima. Ključni indikatori uključuju temporalne i prostorne anomalije u videu, sintetičke karakteristike audio signala, vizuelne artefakte u slikama te odsustvo kredibilne verifikacije. Kombinacija ovih faktora omogućava visoko pouzdanu procjenu da značajan dio takvih sadržaja nije autentičan, već rezultat sofisticiranih generativnih i manipulativnih tehnika koje se koriste u savremenom digitalnom i informacionom ratovanju.

Leave a Reply

Your email address will not be published. Required fields are marked *