Categoria: MCC Video

Decisioni Artificiali

69 – TikTok ha ucciso la musica

TikTok ha ucciso la musica.

C’è stato un tempo in cui la musica aveva filtri chiari. Le radio decidevano cosa ascoltare. Poi arrivò MTV e trasformò i videoclip in linguaggio universale. Poi le major, con i loro contratti miliardari, scelsero chi sarebbe stato star e chi no.

Oggi quel potere non ce l’ha più nessuno di loro. Oggi comanda un algoritmo. Oggi comanda TikTok.

Se un brano non esplode lì, non entra nemmeno in classifica. Non passa in radio, non lo spinge una major. Semplicemente non esiste. Non conta il testo, non conta il talento, non conta nemmeno la produzione. Conta se funziona in quindici secondi. Conta se può fare da colonna sonora a un balletto, a un meme, a una gag.

È un ribaltamento totale. Perché la musica non è più musica. È un sottofondo. È un rumore pensato per durare lo spazio di uno scroll. Jingle usa e getta. Hit costruite a tavolino per sopravvivere due settimane, non due decenni.

La conseguenza è devastante. Artisti veri ignorati. Canzoni mediocri diventate virali solo perché ballabili in loop. La musica che una volta raccontava intere generazioni oggi è ridotta a prodotto da algoritmo. Non è più linguaggio culturale, è marketing.

E qui arriva il punto più inquietante: TikTok non è una piattaforma neutrale. È un’app cinese, con un algoritmo che decide chi ascoltiamo e chi sparisce. Non parliamo più solo di gusti musicali. Parliamo di politica culturale. Parliamo di identità.

Perché la musica è sempre stata specchio di un’epoca. I Beatles raccontavano una rivoluzione. Il punk raccontava rabbia e ribellione. L’hip hop raccontava quartieri e disuguaglianze. Oggi cosa racconta TikTok? Non chi siamo. Ma cosa vuole che siamo.

La canzone come la conoscevamo è morta. Non c’è più il formato dei tre minuti, il crescendo, la storia, il ritornello che unisce. C’è un loop da quindici secondi che funziona sullo scroll. E che sparisce la settimana dopo.

Non so cosa ne pensate voi, ma abbiamo scambiato inni generazionali con rumori usa e getta. Abbiamo ceduto la nostra colonna sonora a un algoritmo. E non ci accorgiamo nemmeno che la musica, quella vera, sta scomparendo.

La verità è secca: TikTok ha ucciso la musica. E l’abbiamo lasciato fare.

#DecisioniArtificiali #MCC #Documentario

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole invitarmi a eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

👉 Per informazioni sulla sponsorizzazione dei microdocumentari: https://sponsorship.microdocumentari.com

Guarda il post »
Decisioni Artificiali

68 – La ragazza che ha insegnato all’AI a difendere i bambini

La ragazza che ha insegnato all’AI a difendere i bambini.

✅ Questo video è offerto da: #EthicsProfile

Chow Sze Lok non è nata genio. È una studentessa di 17 anni del St. Mary’s Canossian College di Hong Kong. Vive come tanti coetanei, studia, fa i compiti, sogna un futuro. Ma un giorno inciampa in una notizia che la scuote: casi di abusi nei centri per l’infanzia, episodi che nessuno aveva visto arrivare. Lì capisce che il problema non è solo la violenza, ma la cecità degli adulti che non sanno cogliere i segnali.

Il punto di partenza è quasi ridicolo: un vecchio portatile. Nessun laboratorio, nessun finanziamento, solo lei e la convinzione che la tecnologia possa essere alleata dei bambini. Inizia a studiare visione artificiale, passa notti intere davanti allo schermo, prova, sbaglia, ricomincia. Sei mesi di lavoro, senza mai fermarsi.

Nasce così Kid-AID. Un sistema che non si limita a registrare: osserva, riconosce, segnala. Flagga in tempo reale interazioni sospette tra adulti e bambini negli asili. È come dare occhi nuovi alle telecamere. Un prototipo fragile, ma funziona.

Arrivano le prime prove di fuoco: i concorsi. All’Hong Kong Science Fair il suo progetto sorprende tutti. All’InfoMatrix, competizione internazionale, porta a casa un altro premio. Lei, una teenager con un vecchio laptop, conquista giurie abituate a startup con budget da milioni.

Il ritorno è enorme. Kid-AID diventa simbolo di un’AI diversa: non fatta per guadagnare clic o vendere pubblicità, ma per difendere i più piccoli. È l’arco dell’eroe completo: parte dal basso, affronta difficoltà, costruisce la sua arma, e torna con un dono per la comunità.

Chow non ha solo scritto un codice. Ha dimostrato che l’innovazione più radicale non viene dai colossi della Silicon Valley, ma da chi osa guardare dove gli altri distolgono lo sguardo.

#DecisioniArtificiali #MCC #Documentario

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 Per informazioni sulla sponsorizzazione dei microdocumentari: https://sponsorship.microdocumentari.com

👉 Nota importante: stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi, al fine di continuare a dedicare tempo all’Italia anche ora che mi sono trasferito a New York. Chi vuole richiedere la mia presenza a eventi contatti asap il mio team, perché stiamo chiudendo le date dei viaggi in cui sarò in Italia, a: [email protected]

Guarda il post »
Decisioni Artificiali

67 – Ha dato voce a un quartiere con l’elettronica di scarto

Ha dato voce a un quartiere con l’elettronica di scarto

Kelvin Doe nasce a Freetown, Sierra Leone, in un quartiere dove manca tutto: elettricità, internet, strumenti. A 13 anni la difficoltà è già evidente: fare i compiti al buio, vivere in un mondo scollegato. Per molti è la normalità. Per lui è il punto di partenza.

Il conflitto è spietato. La sua comunità non ha energia, non ha notizie, non ha voce. Kelvin non accetta il silenzio. Comincia a raccogliere rifiuti elettronici dalle discariche: pezzi di metallo, vecchie batterie, cavi bruciati. Inventa accumulatori con lattine e acidi. Costruisce trasmettitori radio con quello che trova. Non ha libri né insegnanti: impara tutto sperimentando, sbagliando, ricominciando.

A 15 anni riesce a creare una radio comunitaria. La chiama DJ Focus. Trasmette musica, notizie, messaggi utili al quartiere. Per la prima volta la sua comunità sente la propria voce. La tecnologia, fatta di rottami, diventa strumento di unione.

Il ritorno con il dono arriva qui negli Stati Uniti. Nel 2012 viene invitato al MIT Media Lab, a Cambridge in Massachusetts, poco più di 300 km da New York. È il più giovane di sempre a partecipare a un programma del laboratorio. La sua storia diventa virale grazie a YouTube e ai media digitali. CNN e New York Times raccontano il “ragazzo che costruiva la sua elettronica dalla spazzatura”. Il mondo scopre che l’innovazione non nasce solo nella Silicon Valley, ma anche dalle discariche di Freetown.

Kelvin parte come un ragazzo senza elettricità e torna come simbolo globale di creatività e resilienza. La sua lezione è chiara: con ingegno e condivisione digitale, anche la voce più piccola può farsi sentire ovunque.👉 Nota importante: stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi, al fine di continuare a dedicare tempo all’Italia anche ora che mi sono trasferito a New York. Chi vuole richiedere la mia presenza a eventi contatti asap il mio team, perché stiamo chiudendo le date dei viaggi in cui sarò in Italia, a: [email protected]

👉 Sponsorizza anche tu un microdocumentario: https://sponsorship.microdocumentari.com

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

66 – Il giorno in cui Internet morì. #DecisioniArtificiali #MCC

Il giorno in cui Internet morì.

8 giugno 2021. Una mattina normale. Poi, all’improvviso, il mondo va giù: non un sito, non una piattaforma, mezzo Internet sparisce. Amazon bloccata, Reddit inaccessibile, il New York Times muto, la BBC giù, persino il governo britannico non riesce a comunicare online.

Tutto inizia da un aggiornamento sbagliato, un bug in un’azienda che quasi nessuno conosce: Fastly. Una Content Delivery Network, CDN, cioè quei sistemi invisibili che portano i contenuti più velocemente in tutto il mondo. Non li vediamo, non li nominiamo, ma senza di loro Internet non gira.

Eppure basta un errore di configurazione e in pochi secondi i siti più grandi del pianeta si spengono. Per un’ora intera il mondo digitale si ferma: per alcuni sembra un fastidio, non puoi leggere il giornale o comprare online, ma dietro c’è molto di più. In quelle stesse ore compagnie aeree non vendono biglietti, supermercati non aggiornano gli stock, sistemi governativi non comunicano: la vita reale si blocca.

La storia è chiara: non esiste un “Internet” unico, libero, pubblico. Esistono infrastrutture private, e pochissime aziende hanno in mano i nodi vitali. Fastly è solo una, poi ci sono Cloudflare e Akamai, tre nomi che tengono in piedi la rete. Eppure nessuno li ha mai votati, nessuno li controlla davvero: rispondono a consigli di amministrazione, non a governi.

Il blackout di Fastly fu risolto in un’ora, ma quell’ora è bastata a mostrare la verità. Internet è fragile, non è resiliente, non è democratica: è una ragnatela di nodi gestiti da corporation, e quando cade uno di loro cade tutto.

La retorica che ci hanno venduto, Internet come spazio libero, invulnerabile, orizzontale, era falsa. La rete è privatizzata, concentrata, e noi ci viviamo sopra come se fosse eterna, ma basta un bug a dimostrare il contrario.

Il problema non è l’incidente, perché gli incidenti capitano. Il problema è che abbiamo costruito la civiltà su un’infrastruttura che non controlliamo: sanità, scuola, finanza, politica, tutto dipende da server di proprietà privata. Non c’è alcuna garanzia di continuità, non c’è alcuna sovranità.

Pensiamoci: se un blackout di un’ora ha paralizzato giornali, governi e aziende, cosa succederebbe se durasse un giorno intero? O una settimana? Un attacco mirato potrebbe farlo, e non serve immaginare scenari fantascientifici: il 2016 ce lo ha già mostrato con l’attacco a Dyn. Centinaia di migliaia di frigoriferi e telecamere infettate hanno buttato giù Twitter, Netflix, CNN, PayPal. Non era un film, era la realtà.

La verità è che Internet non è nostro, non ci appartiene, è in mano a poche aziende che non hanno alcun obbligo verso di noi. La prossima volta, forse, non basterà un’ora per rimettere tutto in piedi.

Quando Internet muore, non muore una volta sola: moriamo noi con lei.

#DecisioniArtificiali #MCC

👉 Nota importante: stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi al fine di continuare a dedicare tempo all’Italia anche dopo il mio trasferimento a New York. Chi vuole richiedere la mia presenza ad eventi in Italia, contatti asap il mio team, perché stiamo chiudendo le date dei viaggi in cui definiremo i giorni in cui sarò in Italia, a: [email protected]
Mentre per sponsorizzare i microdocumentari bisogna scrivere a: [email protected]

Guarda il post »
Decisioni Artificiali

65 – I robot guardano YouTube e imparano #DecisioniArtificiali #MCC

I robot guardano YouTube e imparano a fare tutto meglio di noi.

👉 Questo video è offerto da: https://www.trendevice.com/

Avrete presente i LLM, tipo ChatGPT? Quei Large Language Model che leggono miliardi di testi e imparano a scrivere, parlare e interagire con noi come se fossero persone. Ecco, nei robot sta accadendo la stessa cosa, ma invece delle parole c’è il corpo. Si chiamano LBM, Large Behavior Model: modelli che imparano osservando miliardi di esempi di azioni, e poi li trasformano in movimenti coordinati, fluidi, precisi.

Il meccanismo è identico. Un LLM non conosce il mondo, ma lo ricostruisce partendo dai dati testuali. Un LBM non ha esperienza fisica, ma la ottiene guardando dimostrazioni: video, sensori, istruzioni. E da lì costruisce una sorta di grammatica dei movimenti. Così un robot con un LBM non ha più bisogno di un programmatore che scriva riga per riga ogni gesto. Gli basta “vedere”.

Immaginiamo la portata: miliardi di tutorial già disponibili su YouTube che insegnano a cucinare, piegare una camicia, montare una mensola, annodare una corda. Per un LBM questo è carburante puro. Lo assimila, lo struttura e lo replica, senza errori, senza improvvisazioni. E la cosa che spiazza è che, una volta imparato, il robot esegue meglio di chi glielo ha insegnato: più rapido, più stabile, più preciso.

Boston Dynamics con il loro robot Atlas ha mostrato cosa significa: un LBM che gestisce l’intero corpo come un sistema unico, mani e piedi intercambiabili, movimenti continui e non più a blocchi. È come se un robot imparasse la logica di muoversi da sé, trattando il corpo come un’unica macchina, non come pezzi separati.

Questa è la vera svolta. Se ieri un robot era una marionetta di codice, oggi diventa un apprendista universale. Ogni azione umana registrata diventa un’istruzione che può imparare e perfezionare. Non è più fantascienza: i robot possono prendere l’intero sapere pratico umano già riversato online e farlo proprio.

La domanda è semplice e scomoda: cosa resta a noi, quando una macchina può guardare quello che sappiamo fare, copiarlo all’istante e farlo meglio?

#DecisioniArtificiali #MCC #sponsored

Guarda il post »
Decisioni Artificiali

64 – La verità sull’AI che nessuno dice pubblicamente #DecisioniArtificiali #MCC

La verità sull’AI che nessuno dice pubblicamente

Nelle ultime settimane ho parlato con una decina di persone negli Stati Uniti. Investitori e fondatori che lavorano sull’AI. In privato mi hanno detto quello che in pubblico non ammettono: i modelli attuali non imparano in continuo, non si adattano in tempo reale, non aggiornano se stessi e non sono affidabili in produzione. Eppure si continua a investire miliardi e a concentrare talenti su un’architettura che ha già esaurito la sua spinta.

Il problema non è tecnico. È psicologico, culturale, finanziario. GPT-5 non segna un fallimento di prodotto, ma di paradigma. Continuare a scalarlo non porta all’AGI, ma a un’illusione più grande. Claude, Gemini, Grok, Llama: stessa sorte.

E presto esploderà un problema etico gigantesco: queste AI riflettono i valori di chi le ha progettate, non quelli di ogni singolo utente. Nessuna personalizzazione etica, nessun rispetto per le differenze individuali. Quando questo diventerà evidente, la fiducia crollerà.

O costruiamo AI cognitive, capaci di apprendere in continuo, adattarsi autonomamente e integrare i valori personali, oppure non sarà intelligenza. Sarà solo imitazione.

Voi cosa ne pensate?

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

63 – Una macchina deciderà quando lanciare la bomba #DecisioniArtificiali #MCC

Una macchina deciderà quando lanciare la bomba.

👉 Questo video è offerto da: https://www.ethicsprofile.ai

Ci stiamo avvicinando a un punto di non ritorno. L’intelligenza artificiale non solo entra nei centri di ricerca, negli algoritmi di marketing o nei chatbot. Entra nei sistemi nucleari.

È quello che è emerso alla University of Chicago, dove un gruppo di esperti, tra cui fisici, militari e premi Nobel, ha messo in chiaro una cosa: l’integrazione dell’AI nella gestione degli arsenali atomici non è più una possibilità, è una certezza.

La chiamano “automazione del comando e controllo”. Vuol dire che l’AI assisterà nelle decisioni strategiche, nella gestione dei dati sensibili, nella simulazione di scenari di attacco. Vuol dire che, prima o poi, una macchina sarà consultata per decidere se scatenare o meno un conflitto nucleare.

L’ombra lunga è quella dell’errore automatico. I modelli predittivi non hanno senso del dubbio. Non hanno coscienza. Non hanno Petrov. Ci ho fatto un video recentemente. Quel colonnello sovietico che nel 1983 fermò un attacco nucleare per istinto umano. Perché capì che il sistema stava sbagliando. Un’AI non capisce. E non esita.

Ci stanno dicendo una cosa semplice: il tempo per regolamentare è adesso. Non tra dieci anni, non dopo il primo incidente.

Nel frattempo il Doomsday Clock è fermo a 89 secondi dalla fine del mondo. E non lo dicono i complottisti: lo dice il Bulletin of the Atomic Scientists.

E noi? Fermi. A guardare i modelli generativi mentre fanno battute su Instagram.

#DecisioniArtificiali #MCC

👉 Nota importante: stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi al fine di continuare a dedicare tempo all’Italia anche dopo il mio trasferimento a New York. Chi vuole richiedere la mia presenza ad eventi in Italia, contatti asap il mio team, perché stiamo chiudendo le date dei viaggi in cui definiremo i giorni in cui sarò in Italia, a: [email protected]
Mentre per sponsorizzare i microdocumentari bisogna scrivere a: [email protected]

Guarda il post »
Decisioni Artificiali

62 – Voleva solo parlare col nipote. È diventato uno streamer

Voleva solo parlare col nipote. È diventato uno streamer.

👉 Questo video è offerto da: #Mediamonitor

Buenos Aires. Un nonno di 74 anni, Ramón, non riesce più a vedere il nipote. Chiamate video, messaggi, niente da fare: il ragazzino è sempre su Twitch. Allora Ramón decide di raggiungerlo. Si fa aiutare da un vicino, installa tutto: webcam, microfono, account. Va in diretta.

Non sa giocare bene. Non capisce le regole. I primi video sono buffi, goffi, teneri. Ma una cosa si nota subito: la gente si ferma ad ascoltarlo. Perché non parla di punteggi. Parla della sua infanzia. Del tango. Di politica. Di cosa significa sentirsi soli. E poi racconta: come ha conosciuto sua moglie. Cosa pensa della vita. Cosa farebbe se avesse diciotto anni oggi.

Diventa virale. Migliaia di follower. Ma lui se ne frega. Vuole solo che il nipote si fermi, lo ascolti. Lo faccia entrare nel suo mondo. E alla fine succede. Il nipote lo raggiunge in diretta. Giocano insieme. Ridono. Parlano.

Ramón non ha imparato il digitale. L’ha piegato alla sua misura. Ha dimostrato che la rete non deve essere veloce, giovane, perfetta. Può anche essere lenta, profonda, imperfetta. Che si può usare Twitch per stare vicino, non solo per intrattenere. Che anche un anziano, se ha qualcosa da dire, trova ascolto. E che il digitale può diventare umano, se smettiamo di pensarlo come una gara.

#DecisioniArtificiali #MCC

👉 Questo video è offerto da: #Mediamonitor
https://www.mediamonitor.it

👉 Nota importante: stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi al fine di continuare a dedicare tempo all’Italia anche dopo il mio trasferimento a New York. Chi vuole richiedere la mia presenza ad eventi in Italia, contatti asap il mio team, perché stiamo chiudendo le date dei viaggi in cui definiremo i giorni in cui sarò in Italia, a: [email protected]
Mentre per sponsorizzare i microdocumentari bisogna scrivere a: [email protected]

Guarda il post »
Decisioni Artificiali

61 – Cybercrime in abbonamento #DecisioniArtificiali #MCC

Cybercrime in abbonamento: i ladri ora comprano Netflix del crimine

Il mondo del crimine informatico non è più quello che immaginiamo.
Niente hoodie, niente scantinati, niente script improvvisati. È un’industria che vende abbonamenti. Un pacchetto chiavi in mano per rubare identità e infiltrarsi ovunque.

Lo chiamano “Impersonation-as-a-Service”. Come Netflix, ma invece di serie TV ti porti a casa strumenti di phishing, training, coaching, exploit pronti. Non serve più saper programmare: basta pagare e imitare.

I forum underground lo confermano: gli annunci per social engineer di lingua inglese sono esplosi in un anno. Perché la lingua è l’arma più efficace. Non serve bucare i firewall se puoi convincere un dipendente a darti le credenziali con una telefonata.

I grandi gruppi lo sanno. ShinyHunters e Scattered Spider hanno già colpito Ticketmaster, AT&T, Dior, Chanel, Allianz, Google. Non con malware sofisticato, ma con voci finte, account falsi, fiducia manipolata. L’AI ha amplificato tutto: cloni vocali, testi credibili, sceneggiature perfette.

È finita l’era degli hacker solitari. Ora sono gang organizzate che rubano tecniche dai servizi segreti: fanno ricognizione, studiano i dipendenti, capiscono software, valori aziendali, poi colpiscono. Invisibili.

E adesso non serve nemmeno più imparare. I criminali tradizionali comprano servizi, aggiungono i nuovi mezzi alla loro vecchia esperienza e il gioco è fatto. Loro investono. Noi no. Non abbiamo programmi globali, non abbiamo campagne di comunicazione costanti, non educhiamo le persone ai nuovi trucchi. La prima difesa dovrebbe essere la consapevolezza, e invece la lasciamo marcire.

La maggior parte degli attacchi non avviene perché ci sono falle nei sistemi. Avviene perché qualcuno ci crede. E se restiamo ignoranti, continueremo a consegnare il mondo intero nelle mani di chi ha trasformato il crimine in un servizio in abbonamento.

#DecisioniArtificiali #MCC

👉 Nota importante: stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi al fine di continuare a dedicare tempo all’Italia anche dopo il mio trasferimento a New York. Chi vuole richiedere la mia presenza ad eventi in Italia, contatti asap il mio team, perché stiamo chiudendo le date dei viaggi in cui definiremo i giorni in cui sarò in Italia, a: [email protected]
Mentre per sponsorizzare i microdocumentari bisogna scrivere a: [email protected]

Guarda il post »
Decisioni Artificiali

60 – Ogni lavoro umano verrà cambiato o eliminato #DecisioniArtificiali #MCC

Ogni lavoro umano verrà cambiato o eliminato. Non tra dieci anni. Molto prima.

Lo dice Jensen Huang, CEO di Nvidia. Non è una previsione. È un piano.

L’uomo che fornisce i chip a tutte le AI del mondo l’ha detto chiaramente: trasformeremo tutto ciò che può essere automatizzato. E toglieremo di mezzo il resto. Nessuna zona franca. Nessun settore immune. Nessuno escluso.

È il mercato del lavoro riscritto dalle macchine. Ma stavolta non tremano le fabbriche. Tremano gli uffici, le scuole, gli ospedali, le redazioni. I lavori di concetto. Le professioni intellettuali. Quelle che si credevano intoccabili.

Perché se i robot umanoidi faranno quello che oggi fa l’AI generativa, vuol dire che ogni automa potrà imparare un mestiere fisico in pochi secondi. Non tra vent’anni. Ora.

Chi si salva? Solo chi cambia pelle. Chi si integra con l’AI. Chi diventa complementare, non sostituibile. Tradotto: o impari a lavorare con le macchine, o le macchine lavorano senza di te.

Voi cosa ne pensate?

È un’ondata. Non aspetta nessuno. Chi non reagisce, viene spazzato via.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

59 – Il SEO è morto, lunga vita al GEO? #DecisioniArtificiali #MCC

Il SEO è morto, lunga vita al GEO?

Per vent’anni, chi voleva esistere online doveva piegarsi al volere di Google. Ottimizzare ogni parola, ogni titolo, ogni tag. Una guerra di nervi giocata a colpi di “strategie”, “tecniche”, “hack”. Un filtro invisibile che decideva chi esisteva e chi no. E attorno a quel filtro è nato un intero ecosistema. Consulenti, guru, agenzie, strumenti, certificazioni. Un’industria miliardaria costruita su un algoritmo che nessuno poteva controllare davvero.

Poi è arrivata l’intelligenza artificiale. E ha messo tutto sottosopra.

ChatGPT ha trasformato il nostro modo di cercare informazioni. Non più “digita e spera”, ma “chiedi e ottieni”. Non link, ma risposte. Non siti web, ma sintesi. E Google, per non restare indietro, ha iniziato a fare lo stesso: AI Overviews, risultati generati automaticamente, snippet che rispondono prima ancora che uno clicchi. L’utente è felice. Il traffico ai siti crolla.

Per molti editori è stata una strage.

Meno visite, meno entrate, meno visibilità. Alcuni hanno visto dimezzarsi gli accessi da un giorno all’altro. Altri sono scomparsi del tutto. Perché se la risposta sta già sulla pagina di Google, chi ha più bisogno di cliccare?

E adesso qualcuno prova a vendere un nuovo acronimo: GEO, Generative Engine Optimization.

Stesse promesse, nuovo nome. Ottimizza per l’AI, fatti citare nei risultati generati, scrivi per i modelli linguistici invece che per le persone. Una nuova corsa all’oro. Ma con regole ancora più opache, ancora più arbitrarie. Perché non stai più cercando di piacere a un motore di ricerca: stai cercando di convincere una macchina a ricordarti.

La verità è che non c’è nessun nuovo “sistema” da imparare.

Siamo in un territorio dove le piattaforme decidono tutto, e il contenuto è solo materia prima da triturare. E se l’AI si prende la scena, non è detto che chi scrive, crea o informa riesca a restare in piedi.

SEO era un gioco duro. Ma almeno c’erano regole. Ora siamo oltre.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

58 – Ha fatto smettere agli studenti di usare ChatGPT… con ChatGPT #DecisioniArtificiali #MCC

L’insegnante che ha fatto smettere agli studenti di usare ChatGPT… con ChatGPT

Quando ha scoperto che metà della classe usava ChatGPT per scrivere i temi, non si è scandalizzato. Non ha fatto la morale. Non ha bloccato nulla. Ha solo detto: “Ok. Usiamolo meglio.”

Si chiama Marcus. Insegna lettere in una scuola superiore a Manchester. Un giorno assegna un compito: “Scrivete un saggio su Orwell.” Riceve testi perfetti. Troppo perfetti. Tutti simili. Tutti senz’anima. Capisce subito. Nessuno ha scritto nulla. Tutto fatto con l’AI.

Ma invece di punire, rilancia: “Adesso scrivete una critica a quello che avete consegnato. Smontatelo. Mostratemi dove l’AI ha ragionato male. Dove ha semplificato. Dove ha evitato di prendere posizione.”

I ragazzi non sanno da dove cominciare. Non avevano mai analizzato un testo con quell’occhio. Ma poco a poco iniziano a capire. Vedono che l’AI è vaga, che rifugge le tesi forti, che ripete formule senza andare a fondo, che costruisce senza rischiare.

E, per la prima volta, scrivono qualcosa di loro. Per criticare la macchina, sono costretti a pensare. A riflettere. A scegliere le parole. A esporsi.

ChatGPT era diventato un shortcut. Lui l’ha trasformato in uno specchio. E ha rimesso al centro l’unica cosa che conta in una scuola: capire perché si scrive, non solo cosa.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

57 – I nuovi deepfake uccidono la democrazia #DecisioniArtificiali #MCC

I nuovi deepfake uccidono la democrazia. E pochi se ne stanno accorgendo.

Una volta bastava leggere poco, guardare il telegiornale, farsi un’idea. Potevi anche non essere esperto, ma il sistema reggeva: c’erano media autorevoli, giornali con redazioni, regole, filtri. Opinioni diverse, sì, ma costruite su fatti. Chi non si informava votava lo stesso, ed era legittimo. Perché l’ambiente informativo era stabile, imperfetto ma solido.

Oggi non è più così. E non lo sarà mai più.

L’intelligenza artificiale generativa ha distrutto il concetto stesso di verità visibile. I deepfake, video, audio, foto totalmente falsi ma indistinguibili dal reale, stanno sostituendo la realtà con simulazioni credibili. Nessun filtro. Nessuna verifica. E milioni di persone che ci cascano ogni giorno.

Il problema non è solo tecnico. È politico. Perché la democrazia si regge su un’idea semplice: anche chi non è esperto può votare. Anche chi ha poco tempo, poca cultura, può decidere. Purché l’ambiente attorno offra almeno un minimo di verità condivisa. Oggi quell’ambiente è inquinato. Intenzionalmente.

Non siamo più nel mondo in cui i giornali spostavano opinioni. Oggi si costruiscono intere realtà false, mirate per gruppo, per identità, per emozione. Personalizzate. Invisibili. Alimentate da bot, condivise da amici, credute vere perché viste.

Ecco perché la democrazia è a rischio. Perché se tutti possono votare, ma ognuno vive dentro una realtà manipolata, quel voto non è più libero. È eterodiretto. Chi controlla le narrazioni sintetiche controlla il consenso. Punto.

E da quest’anno la situazione è peggiorata.

I deepfake non sono più una novità. Sono ovunque. Sono diventati uno strumento sistematico. Elezioni in vista in Europa, USA, Africa, Asia: in ogni continente stanno già circolando video falsi di politici, notizie inventate, scandali simulati. Il problema non è più “ci arriveremo”. È “ci siamo già dentro”.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

56 – L’AI ti ha schedato. E ora paghi di più #DecisioniArtificiali #MCC

L’AI ti ha schedato. E ora paghi di più.

Succede già oggi: prezzi diversi per lo stesso volo, stessa compagnia, stessa tratta, stessa data. Le differenze sono piccole, qualche euro in più o in meno, perché i sistemi attuali usano pochi dati: IP, cronologia, tipo di dispositivo.

Ma domani sarà diverso. Quando l’intelligenza artificiale saprà davvero tutto di noi, il prezzo non cambierà più di poco: potrà cambiare di dieci volte. Perché? Perché secondo lei possiamo permettercelo. Perché ha raccolto informazioni, precise o sbagliate, sul nostro conto: dove viviamo, cosa facciamo, quanto guadagniamo, quanto tempo aspettiamo prima di cliccare “compra”.

E così, per lo stesso volo che a un altro costa 100 euro, a noi potrà costarne 1.000. Solo perché siamo noi. E non potremo dimostrarlo. Non sapremo mai quanto ha pagato un altro. Non sapremo mai su quali dati si è basata. Magari sono dati rubati. O vecchi. O sbagliati.

Ma chi lo spiega alla macchina? Chi ci difende da un prezzo costruito su un’illusione? E quando proveremo a chiedere chiarimenti, troveremo un help desk automatizzato. Un’altra intelligenza artificiale che ci dirà: “Non posso farci niente. È quello che è stato deciso.”

Questo non è futuro. È un sistema che si sta già costruendo. E noi stiamo già perdendo la battaglia per il controllo.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

55 – Cieca ma ha insegnato all’AI a vedere davvero #DecisioniArtificiali #MCC

Era cieca. E ha insegnato all’intelligenza artificiale a vedere davvero

Maya ha perso la vista da bambina. Ma non ha mai smesso di leggere il mondo. Lo fa con le mani, con le orecchie, con il corpo intero. E con una mente precisa, tagliente. Così arriva all’università, studia informatica, poi visione artificiale.

Sì, visione. La chiamano pazza. Ma lei sa che proprio perché non vede, può accorgersi di quello che manca.

Anni dopo viene assunta in un team che sviluppa un sistema AI per descrivere immagini a persone non vedenti. Funziona, ma dice cose sbagliate. Superficiali. “Un uomo seduto.” “Una donna con una borsa.” Tutto banale, impersonale. E a volte offensivo. Etichette approssimative. Assunzioni tossiche.

Maya capisce subito dov’è il problema. Il sistema “vede”, ma non ascolta. Allora cambia approccio. Chiede che ogni immagine venga descritta a voce da volontari umani, con calma, con sfumature, con contesto. Ascolta migliaia di descrizioni. Le trasforma in dati strutturati. Categorizza i dettagli che davvero contano per chi non vede: tono, relazioni tra oggetti, emozioni, accessibilità.

Poi rivede il dataset originale. Lo pulisce, lo arricchisce. Fa eliminare etichette come “normale” o “anormale”. Introduce categorie nuove: non solo cosa c’è, ma perché è lì, cosa potrebbe succedere, chi potrebbe averlo messo.

Così insegna all’intelligenza artificiale a non descrivere, ma a interpretare. A suggerire, non semplificare. A diventare uno strumento per leggere il mondo, non una fotocopiatrice cieca.

Alla fine, il sistema migliora. Diventa più utile, più rispettoso, più preciso. Non perché vede meglio, ma perché è stato allenato da chi la vista non ce l’ha mai avuta, e proprio per questo ascolta tutto.

Maya non ha portato la vista all’intelligenza artificiale. Le ha insegnato a guardare con attenzione. Che è tutta un’altra cosa.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

54 – ChatGPT ti spegne il cervello? #DecisioniArtificiali #MCC

ChatGPT ti spegne il cervello? Il MIT dice di sì

Il MIT ha fatto una cosa che nessuno aveva ancora fatto: ha messo delle persone dentro uno scanner cerebrale mentre usavano ChatGPT. Il risultato? Un calo del 47% dell’attività cerebrale. Non un’impressione. Un dato. E la cosa più inquietante è che il cervello restava spento anche dopo aver chiuso l’app.

L’83% dei partecipanti non ricordava nemmeno una frase scritta pochi minuti prima. Non è distrazione. È disconnessione. Scrivere con l’AI rende tutto più veloce, con il 60% in meno di tempo per completare i compiti, ma anche il 32% in meno di sforzo mentale. Tradotto: pensiamo meno, impariamo meno.

E il testo? Corretto, sì. Ma piatto, prevedibile, senz’anima. Gli insegnanti lo definivano “robotico”. Non serve aggiungere altro.

Chi ha ottenuto i risultati migliori, infatti, ha fatto l’opposto: ha cominciato senza AI, ha pensato, scritto, ragionato. Solo dopo ha usato ChatGPT. E ha avuto memoria più forte, cervello più attivo, risultati migliori.

La questione non è se usare o no l’AI. La questione è quando usarla. E quanto le lasciamo fare al posto nostro. Se la usiamo per non pensare, ci sta togliendo la parte più importante del processo: quella in cui capiamo davvero cosa stiamo facendo.

Pensare prima. Poi, se serve, farsi aiutare. Non il contrario.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

53 – Il primo ministro e l’oracolo digitale #DecisioniArtificiali #MCC

Il primo ministro e l’oracolo digitale: quando l’AI entra in Parlamento

Il primo ministro svedese Ulf Kristersson ha ammesso pubblicamente di usare spesso strumenti di intelligenza artificiale come ChatGPT e il francese LeChat per avere un “secondo parere” nel suo lavoro. Non per prendere decisioni, dice, né per gestire informazioni riservate, ma per confrontarsi con altri punti di vista e mettere in discussione le proprie idee.

Peccato che l’AI non abbia opinioni. Ha solo pattern.

Quei modelli non ragionano, non conoscono il contesto politico, non capiscono l’ironia, non vedono le tensioni sociali. E soprattutto: non sono neutri. Riflettono, e amplificano, la cultura di chi li ha progettati. Quando un leader cerca confronto in una macchina come queste, non trova pluralismo. Trova conferme.

Il problema non è usare l’AI. Il problema è non sapere cosa c’è dentro.

Un premier che chiede consiglio a ChatGPT accetta, anche inconsapevolmente, un filtro ideologico opaco, costruito altrove, allenato su dati selezionati da chi ha accesso, potere, visibilità. E se ci si fida ciecamente, si rischia di trasformare l’AI in un oracolo digitale a cui si delega il dubbio, il confronto, il pensiero critico.

Kristersson dice che il suo uso è “limitato e sicuro”. Ma non basta. Ogni volta che un leader politico interagisce con l’AI, dovremmo chiederci: con quale modello? Addestrato dove? Da chi? Con quali filtri? Per fare cosa?

Non possiamo nemmeno accettare che ChatGPT partecipi, in silenzio, alle decisioni politiche…

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

52 – AI sbaglia, tu paghi: il caso Hertz #DecisioniArtificiali #MCC

AI sbaglia, tu paghi: il caso Hertz

L’AI di Hertz non guarda in faccia a nessuno. E nemmeno distingue un graffio vero da uno inventato. Da aprile 2025 la compagnia ha piazzato scanner intelligenti nei parcheggi, vendendoli come la svolta per controlli rapidi e imparziali sui danni delle auto a noleggio. In teoria, meno discussioni e più trasparenza. In pratica? Una macchina che fotografa ogni imperfezione e la trasforma in fattura salata.

Un cliente si è visto chiedere 440 dollari per un graffio di un pollice su una ruota: 250 per la “riparazione”, 125 di “processing fee” e altri 65 di “spese amministrative”. Non stiamo parlando di un paraurti staccato, ma di un segno appena visibile. Gli scanner, sviluppati dalla società UVeye, inviano subito le foto “prima e dopo” e il sistema propone uno “sconto” se paghi entro pochi giorni. Una pressione psicologica mascherata da convenienza.

Chi prova a contestare si trova davanti a chatbot automatici, procedure opache e tempi di risposta che arrivano a dieci giorni. Nel frattempo la carta di credito è già sotto assedio. Sui forum e su Reddit circolano decine di storie simili: “accuse automatiche non contestabili” è la frase che ricorre di più. Alcuni clienti dicono di aver chiuso per sempre con Hertz.

E non è un caso isolato. Anche Sixt utilizza un sistema simile, chiamato “Car Gate”. Anche lì emergono errori clamorosi: foto con timestamp sbagliati, che dimostrano come il danno fosse presente prima del noleggio. In un contesto simile la promessa di maggiore trasparenza si capovolge: diventa un meccanismo aggressivo, che sembra pensato più per far cassa che per tutelare la correttezza.

L’AI qui non sta aiutando nessuno. Sta sostituendo il buon senso con una logica da cassa automatica. E quando la macchina sbaglia, non paga lei. Paghi tu.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

51 – Gli umani battono l’AI. Ma costano 40 volte di più #DecisioniArtificiali #MCC

Gli umani battono l’AI. Ma costano 40 volte di più!

Una ricerca appena pubblicata su arXiv il 7 agosto 2025 ha messo a confronto moderatori umani e modelli multimodali di ultima generazione come Gemini, GPT e Llama, per capire chi garantisce davvero la brand safety. Lo studio porta la firma di un gruppo di ricercatori specializzati in analisi dei media e sicurezza dei contenuti, legati a Zefr Inc., azienda americana che lavora con i giganti della pubblicità digitale per evitare che un marchio finisca accanto a contenuti tossici.

Il verdetto non lascia spazio a dubbi: gli umani vincono. Riconoscono meglio i casi borderline, capiscono l’ironia, leggono il contesto culturale, distinguono la satira dall’odio. Le AI, anche le più avanzate, sbagliano proprio dove serve più attenzione. Nei casi ambigui, la macchina può far passare ciò che non dovrebbe o bloccare ciò che non è un problema.

Ma la qualità ha un prezzo. E non piccolo: quasi 40 volte di più rispetto a un sistema automatizzato. Per un’azienda, la tentazione di ridurre i costi e affidarsi all’AI è enorme. Il problema è che il risparmio può trasformarsi in un boomerang: basta un singolo errore per scatenare una crisi di reputazione, con danni economici e di immagine ben più alti della spesa che si voleva evitare.

La risposta non è scegliere tra uomo e AI, ma usarli insieme. La macchina per filtrare il grosso, l’umano per i casi delicati. Perché proteggere un brand non è un lavoro meccanico: è un esercizio quotidiano di giudizio. E quel giudizio, oggi, appartiene ancora alle persone.

#DecisioniArtificiali #MCC

Guarda il post »