Hai già scaricato la mia app?

268 – Stiamo mettendo like su milioni di foto finte! O la smettiamo o faremo danni irreversibili

Stiamo mettendo like su milioni di foto finte! O la smettiamo o faremo danni irreversibili

Le foto del matrimonio di Zendaya e Tom Holland hanno superato undici milioni di like su Instagram. Le ha pubblicate il 4 marzo un creator a caso. Erano generate dall’Intelligenza Artificiale. Non è gente che rideva. Sono undici milioni di persone che hanno premuto cuore su un evento che non è esistito. E l’immagine non era nemmeno precisa: Zendaya e Tom Holland appaiono della stessa altezza. Nella realtà lei è più alta di lui. Ma chi se ne accorge quando la foto è romantica e la luce è perfetta?

Gennaio 2025, California in fiamme. Qualcuno ha generato con l’AI immagini della Hollywood Sign avvolta dal fuoco e le ha messe in circolazione su X e Instagram. Si sono diffuse in pochi minuti. Le autorità sono dovute uscire a dichiarare pubblicamente che il monumento era intatto. Non per smentire una notizia, per fermare il panico.

Sempre nel 2025, una donna francese ha perso 850 mila dollari. Un truffatore si era fatto passare per Brad Pitt usando foto generate dall’AI. Per diciotto mesi le aveva mandato lettere d’amore, una proposta di matrimonio, foto di Pitt in ospedale con una storia di cancro inventata. Lei ha creduto a tutto.

Alla Met Gala del 2024 giravano foto AI di Katy Perry così convincenti che sua madre le aveva credute. Guardava le immagini e pensava che sua figlia fosse lì quella sera.

Siamo a questo punto. Non serve hackerare niente, non serve infiltrarsi da nessuna parte. Bastano pochi secondi e uno strumento gratuito per mettere in circolazione una foto convincente di qualunque cosa: un crimine che non è accaduto, un politico che ha detto cose che non ha mai detto, una persona nei guai per qualcosa che non ha mai fatto.

E le piattaforme? Meta ha tagliato i team di fact-checking mentre il problema esplodeva. X ha abbassato deliberatamente i filtri su Grok per la generazione di immagini di personaggi pubblici. OpenAI nel 2025 ha aggiornato le policy di GPT-4o per permettere la creazione di immagini di politici e figure note su semplice richiesta. Chi gestisce questi strumenti sa esattamente cosa sta succedendo.

Le foto di Zendaya e Tom Holland non hanno fatto danni, almeno non in senso diretto. Ma ogni immagine falsa che circola senza conseguenze abbassa la soglia. La prossima volta sarà più facile credere alla successiva. E la prossima potrebbe essere una prova falsa in un’aula, una foto che distrugge una reputazione, un’immagine che scatena una risposta di massa a qualcosa che non è mai avvenuto.

Ci siamo abituati a non credere alle parole. Ora dobbiamo imparare a non credere alle immagini. Nessuno ci ha mai preparati a questo.

#DecisioniArtificiali #MCC #Documentario

Condividi su: