Scarica l'App NewsRoom.
Non perderti le ULTIME notizie e le ALLERTA METEO in tempo reale.

Scarica GRATIS

Russia, Nevicata storica in Kamchatka: il Tg1 cade nella trappola dei video fake AI

Una nevicata storica, immagini virali e l’intelligenza artificiale: quando anche l’informazione più solida comincia a scricchiolare sotto il peso del dubbio.

La nevicata in Kamchatka è stata reale, intensa, tragica: una tempesta che ha lasciato dietro di sé accumuli superiori ai tre metri, bloccato città intere, isolato quartieri, chiuso scuole e provocato almeno due vittime nella regione di Petropavlovsk-Kamchatsky. Una delle più violente degli ultimi trent’anni, causata da una serie di cicloni provenienti dal mare di Ochotsk. Una notizia vera, concreta, verificabile. Ma le immagini che l’hanno accompagnata, almeno quelle diffuse dal TG1 in un recente video sui social, sembrano raccontare un’altra storia.

Il filmato in questione, una raccolta di brevi clip che dovrebbe documentare la straordinarietà dell’evento, contiene con tutta probabilità sequenze non autentiche, generate da modelli di intelligenza artificiale come Sora, Veo o Kling. Alcuni dettagli lasciano pochi dubbi: slittini che si muovono da soli, accumuli di neve che superano in altezza interi edifici, scene che paiono uscite più da un rendering che da un telefono. Tutti elementi che non trovano riscontro nei dati meteorologici reali, né nelle testimonianze visive provenienti da fonti locali.

Il vero problema, tuttavia, non è tanto l’errore del TG1, che potrebbe aver selezionato contenuti virali senza una verifica accurata. La questione più grave è la reazione del pubblico. I commenti sotto al video parlano chiaro: moltissime persone non sono più in grado di distinguere tra ciò che è reale e ciò che è generato. Alcuni spettatori si interrogano sull’autenticità delle immagini, altri accettano la finzione come realtà, mentre c’è chi approfitta dell’ambiguità per rilanciare teorie negazioniste sul cambiamento climatico o complotti mediatici.

Siamo entrati in una nuova era informativa, dove l'”AI slop” – il rumore di fondo generato dall’intelligenza artificiale – inquina la narrazione dei fatti con una quantità crescente di contenuti ambigui, plausibili ma falsi. È un inquinamento visivo e cognitivo, che confonde anche i professionisti, e che alimenta un ciclo pericoloso: più contenuti generati vengono condivisi, più diventano “normali”; più sembrano normali, più vengono creduti.

In un contesto come quello della Kamchatka, isolato, remoto, poco familiare al pubblico occidentale e spesso rappresentato con immagini di bassa qualità, distinguere il vero dal finto diventa ancora più complesso. Quando le fonti ufficiali adottano senza filtro clip virali provenienti da account “da engagement” – profili che pubblicano contenuti sensazionalistici per ottenere visibilità – si contribuisce a rafforzare la nebbia dell’incertezza. Un paradosso moderno: l’unica certezza diventa il dubbio stesso.

Nulla indica che questo scenario sia destinato a migliorare nel breve termine. Al contrario, l’affinamento rapido dei modelli di generazione video promette una nuova ondata di contenuti verosimili, capaci di insinuarsi anche nei canali dell’informazione istituzionale. Le redazioni, di fronte a questa nuova sfida, dovranno rivedere processi, strumenti e responsabilità. L’alternativa è una realtà dove perfino una nevicata diventa questione di fede. Per restare sempre aggiornato scarica GRATIS la nostra App!