Le difficoltà a riconoscere se un video è reale o creato con Veo 3 di Google

Di il 15 Luglio, 2025
pramod-tiwari-Ksa9HRshb54-unsplash_free_video_social_AI_filmato_creator_influencer
Disponibile anche tramite abbonamento al meno costoso AI Pro, il programma è ora in grado di generare filmati con audio nativo a partire da una foto. Ma troppi contenuti falsi creano problemi sui social
Foto di copertina: Pramod Tiwari, Unsplash.

Per gli utenti italiani di Instagram è ormai improbabile scrollare il proprio feed ed evitare di imbattersi in video in cui qualcuno dei protagonisti termina uno scambio di battute esclamando “skibidi boppy“.

In quei casi, capire che si tratta di un video creato con l’intelligenza artificiale del programma Veo 3 di Google è semplice. Oltre alle famose parole senza senso, si assiste molto spesso a qualche scena surreale: c’è chi fa qualche acrobazia, inizia a correre, si getta a terra o si tuffa in acqua.

Tuttavia, non è sempre così semplice capire quando un filmato è stato realizzato con l’IA a pagamento di Google.

È però fondamentale poter distinguere tra finzione e reale, soprattutto dopo i recenti aggiornamenti introdotti da Mountain View.

Il motore di ricerca ha infatti incluso la versione Veo 3 Fast nel pacchetto Google AI Pro, molto più economico (€ 21,99 al mese in Italia) rispetto all’abbonamento Google AI Ultra (€ 274,99 al mese) – l’unico che, fino a poche settimane fa, dava accesso al potente strumento di creazione video.

Lanciato a maggio, Veo 3 sta rilasciando anche un nuovo servizio che permette agli utenti di generare dei filmati a partire da una foto.

Il prodotto della tecnologia DeepMind, evidenzia Italian Tech, non si limita a un video, ma si potrà chiedere a Gemini di aggiungere anche una traccia audio nativa che comprende dialoghi e suoni ambientali di sottofondo. È proprio questa la novità rispetto ai competitor.

Troppo simile

Uno dei potenziali problemi con filmati così verosimili sta nel fatto che i social media sui quali vengono pubblicati non riescono sempre a distinguerli da contenuti reali.

Lo ha notato il Wall Street Journal, che imputa la difficoltà delle piattaforme all’inadeguatezza dei mezzi adottati dopo il diffuso passo indietro delle big tech dalle partnership con le organizzazioni di fact-checking indipendente.

Gli strumenti per l’etichettatura dei contenuti generati dall’IA – introdotti nel 2022 a seguito della diffusione di ChatGpt – e le politiche di controllo volontario degli utenti, come le community notes, sono insufficienti a contenere i prodotti di Veo 3.

Di conseguenza, nascono problemi da diversi fronti.

Da un lato, alcuni content creator hanno visto i propri post bollati come realizzati dall’IA anche quando questi erano girati e montati da un essere umano.

Per chi lavora sui social, errori simili sono dannosi, poiché, come ha detto al Wall Street Journal l’influencer di TikTok Nikolai Savic, “ormai la gente pensa che utilizzo soltanto l’IA e questo sta rovinando la mia reputazione”.

Dall’altro, gli utenti potrebbero essere scocciati verso i prodotti generati dall’IA e diventare più scettici nei confronti dei contenuti pubblicati sui social, pubblicitari e non.

E chissà che alcuni iscritti e pubblicitari possano finire per lasciare le piattaforme.

Meta – che già applica in maniera automatica un’etichetta ai contenuti creati con la propria IA – ha dichiarato che continuerà a perfezionare il proprio meccanismo per il riconoscimento di immagini e video frutto dell’intelligenza artificiale, “in collaborazione con esperti, inserzionisti, stakeholder politici e partner del settore”.

TikTok nel 2023 si è dotata di strumenti per la rilevazione di filmati sviluppati con l’intelligenza artificiale e ha messo a disposizione dei creator un pulsante per segnalare in maniera automatica l’utilizzo di IA esterne.

A monte

La questione, però, potrebbe essere risolta già prima della pubblicazione di un video sui social, se Google rendesse più chiare e visibili le targhette usate per segnalare i contenuti generati dall’IA.

Per ora, il cosiddetto watermark è molto piccolo e, ricorda Time, può essere facilmente ritagliato e rimosso con un software di editing.

Il motore di ricerca ha preso altre precauzioni per limitare le richieste potenzialmente pericolose rivolte al suo programma.

Come ha potuto constatare la rivista statunitense, Veo 3 si rifiuta di produrre video che comprendono personalità pubbliche e nega anche di poter creare filmati che mostrano catastrofi naturali.

Ma non basta.

Margaret Mitchell, manager di Hugging Face nel campo dell’IA, ha ricordato a Time quanto sia facile creare contenuti di “propaganda intensa, in grado di manipolare le masse alimentando la rabbia o confermando i pregiudizi” e, dunque, diffondendo discriminazione e violenza.

Può succedere – ed è successo – anche l’opposto, ossia, ad esempio, incolpare cronisti di pubblicare materiale generato con l’IA e spacciarlo per vero, quando in verità lo sono.

È accaduto a Kassy Akiva, videogiornalista di Daily Wire, accusata di aver pubblicato un video falso sulla distribuzione degli aiuti umanitari a Gaza.

Come ha confermato un Shayan Sardarizadeh, esperto di disinformazione e IA della Bbc, il filmato era vero. A differenza di quanto si affermava nei commenti.

Devi essere loggato per lasciare un commento.
/ Published posts: 93

Journalist writing on European politics, tech, and music. Bylines in StartupItalia, La Stampa, and La Repubblica. From Bologna to Milan, now drumming and writing in London.

Twitter
Linkedin