Categoria: MCC Video

Decisioni Artificiali

96 – Dopo il dark web arriva il pericolo della Dark AI

Dopo il dark web arriva il pericolo della Dark AI

Prima servivano hacker esperti, mesi di lavoro e software avanzati. Oggi basta pagare sul dark web e scaricare una Dark AI.

WormGPT scrive malware su misura in pochi secondi, pronto a colpire banche o aziende. FraudGPT genera email di phishing che sembrano arrivate davvero dal tuo capo o dalla tua banca, senza errori né sospetti. DarkBard produce deepfake in diretta: clona voce e volto durante una call Zoom, risponde alle domande in tempo reale, inganna tutti.

Gli esempi lo dimostrano. Hacker nordcoreani hanno usato curriculum scritti da AI e interviste deepfake per farsi assumere e rubare dati aziendali. Charming Kitten, gruppo iraniano, ha potenziato le sue campagne di spear-phishing con LLM capaci di scrivere messaggi personalizzati e credibili. In Europa, un consiglio di amministrazione ha visto “partecipare” dirigenti finti generati dall’AI, che hanno parlato, commentato e persino votato.

La differenza rispetto a prima è netta. Non più attacchi lenti e grezzi, ma campagne automatiche, simultanee, raffinate. Dove serviva un team di esperti, oggi basta un utente qualunque con accesso a un black hat GPT.

La Dark AI non buca solo i sistemi. Distrugge la fiducia. Una voce, un volto, un documento digitale non sono più garanzia di verità. È il salto dall’attacco tecnico all’attacco cognitivo.

#DecisioniArtificiali #MCC #Documentario

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

95 – Le lauree saranno totalmente inutili?

Le lauree saranno totalmente inutili?

Jad Tarifi, ex Google e primo a guidare un team di generative AI, ha detto che studiare legge o medicina oggi è tempo perso. Tanto arriva l’intelligenza artificiale e farà tutto meglio. Sembra una verità scomoda, invece è piena di contraddizioni.

Il problema non è il pezzo di carta. La laurea in sé rischia di ridursi a una spunta burocratica. Ma conta il percorso. Anni che ti insegnano a ragionare, a leggere il contesto, a prendere decisioni. A sbagliare e rimetterti in piedi. Senza questo diventi solo un utente passivo, che copia e incolla quello che l’AI produce.

Tarifi dice che medicina e legge sono memoria. Sbaglia. Non è ricordare un protocollo o una sentenza. È interpretarli, pesarli, assumersi la responsabilità di usarli. L’AI ti porta le informazioni, ma non si siede al capezzale di un paziente. Non si alza davanti a un giudice.

Ed ecco la contraddizione. Tarifi liquida le università, ma il mercato del lavoro a New York continua a chiedere lauree e master seri. Non corsi online di due settimane, ma percorsi veri, meglio se nelle top universities. Perché qui se vuoi lavorare ad alto livello devi dimostrare di saper pensare.

Senza formazione rischiamo di crescere una generazione che non ragiona più. Che prende per oro colato quello che un algoritmo sputa fuori. Una massa di operatori passivi, disconnessi, ignoranti.

Allora la domanda è una sola: il titolo di studio non serve più, o è l’unico antidoto per non restare prigionieri della macchina?

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

94 – Scuola: tablet e lavagne digitali non bastano più

Scuola: tablet e lavagne digitali non bastano più.

✅ Questo video è offerto da: https://www.longwave.it/

Per anni ci hanno venduto l’illusione che bastasse riempire le classi di tablet e appendere una lavagna digitale al muro per dire di avere una scuola moderna. Una facciata tecnologica che in realtà è già obsoleta: oggetti costosi che fanno scena nelle conferenze stampa, ma che cambiano poco o nulla nel modo in cui i ragazzi imparano.

Il mondo intanto si muove. In Australia il dipartimento dell’istruzione ha creato EdChat, un chatbot ufficiale per studenti: migliaia di domande ogni settimana, risposte in tempo reale, supporto per compiti e spiegazioni. È un sistema che non sostituisce gli insegnanti, ma li affianca, liberandoli da compiti ripetitivi. In India diverse scuole private stanno sperimentando piattaforme AI che analizzano il pensiero critico degli alunni già alle elementari, segnalano errori invisibili a occhio umano e propongono esercizi personalizzati. In Finlandia alcuni istituti testano AI per adattare i programmi al ritmo di ogni studente, invece di imporre un percorso uguale per tutti.

La verità è semplice: i device non bastano più. Tablet e lavagne sono gusci vuoti se dietro non c’è un metodo nuovo. Leggere un libro su un tablet non è innovazione, anzi: è cambiare il mezzo, in peggio, senza cambiare il metodo. Senza ripensare alla didattica.

Chi non integra correttamente il digitale resta con un’istruzione imbellettata, che sembra moderna solo a guardarla da lontano ma dentro è vecchia. Il rischio è chiaro: scuole che continuano a distribuire hardware come fosse la soluzione definitiva, mentre altrove si sperimenta, si sbaglia, si riprova. Se restiamo fermi a credere che basti comprare oggetti digitali, l’istruzione non evolve. Diventa un museo con tablet e lavagne: un’illusione di futuro che non insegna davvero nulla.

#DecisioniArtificiali #MCC #Documentario #AI #longwave

Guarda il post »
Decisioni Artificiali

93 – La solitudine diventa business: il caso inquietante di “Friend”

La solitudine diventa business: il caso inquietante di “Friend”

Qui negli Stati Uniti qualcuno ha deciso di fare business con la solitudine. Fin qui, niente di strano: è un mercato enorme, e la domanda c’è. Peccato che dietro ci sia un lato oscuro, molto serio. Ma andiamo per step.

Il prodotto si chiama “Friend”. Non è un social, non è un’app. È un ciondolo, una specie di tag da portare addosso, sempre con te. Dentro ha un microfono che ascolta tutto il giorno quello che dici e fai. Registra, interpreta, ti risponde. Non organizza appuntamenti, non manda email. Ti parla. Ti incoraggia. Ti scrive che stai andando bene. Ti chiede se un film ti ha fatto pensare a qualcuno. In pratica costruisce con te una relazione, finta ma emotivamente vera.

Ed è qui che il gioco cambia. Perché se quell’oggetto diventa il tuo amico, chi ha in mano la relazione non è l’IA. È l’azienda che possiede “Friend”. È lei che decide cosa ti dice, come ti risponde, quali messaggi ti manda. Non è la macchina a scegliere di orientarti, è il proprietario che può programmare e controllare l’intero rapporto. Oggi magari ti incoraggia, domani potrebbe suggerirti un acquisto, dopodomani spingerti a votare in un certo modo. La linea tra compagnia e manipolazione è sottilissima. Non sei tu che controlli l’amico: è l’amico che, se vuole, controlla te.

E allora la domanda è brutale: siamo davvero sicuri di voler regalare a un’azienda la chiave delle nostre emozioni? Voi cosa ne pensate?

#DecisioniArtificiali #MCC #Documentario #Friend

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

92 – La nuova disuguaglianza: chi sa usare l’Intelligenza Artificiale e chi no

La nuova disuguaglianza: chi sa usare l’Intelligenza Artificiale e chi no

✅ Questo video è offerto da: #EthicsProfile

Il vero divario oggi non è tra chi ha un computer e chi no. Non è nemmeno tra chi ha accesso a internet veloce e chi resta scollegato. È un divario più sottile e più pericoloso: tra chi sa chiedere all’AI e chi sa capire davvero le risposte. Perché non basta scrivere un prompt qualsiasi. Serve saper valutare ciò che esce, capire quando è sbagliato, distinguere un errore grossolano da una sfumatura, riconoscere i bias nascosti. Saper dire “questa risposta non regge” è già un atto di pensiero critico. Gli studenti che trattano l’AI come un generatore di compiti finiscono per dipendere da lei. Quelli che imparano a usarla come strumento, non come sostituto, crescono. Riescono a dialogare con la tecnologia, non a subirla.

Qui negli Stati Uniti metà delle università non offre ancora accesso istituzionale a strumenti generativi. Questo significa che chi ha soldi e mezzi può permettersi versioni premium, corsi privati, formazione mirata. Loro imparano a fare domande efficaci, a leggere tra le righe, a smontare le risposte per capire cosa c’è dietro. Gli altri restano indietro, costretti a fidarsi ciecamente di quello che appare sullo schermo, senza strumenti per distinguere il vero dal falso.

È questa la nuova forma di analfabetismo digitale: non saper criticare una risposta automatica, non saper dire “qui l’AI ha torto”, non distinguere un ragionamento da un copia-incolla. Una differenza invisibile, ma devastante. Perché segna chi dominerà la tecnologia e chi sarà dominato da essa. Chi userà l’AI come leva per pensare meglio, e chi si limiterà a subirla come stampella che alla fine indebolisce.

#DecisioniArtificiali #MCC #Documentario

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

69 – TikTok ha ucciso la musica

TikTok ha ucciso la musica.

C’è stato un tempo in cui la musica aveva filtri chiari. Le radio decidevano cosa ascoltare. Poi arrivò MTV e trasformò i videoclip in linguaggio universale. Poi le major, con i loro contratti miliardari, scelsero chi sarebbe stato star e chi no.

Oggi quel potere non ce l’ha più nessuno di loro. Oggi comanda un algoritmo. Oggi comanda TikTok.

Se un brano non esplode lì, non entra nemmeno in classifica. Non passa in radio, non lo spinge una major. Semplicemente non esiste. Non conta il testo, non conta il talento, non conta nemmeno la produzione. Conta se funziona in quindici secondi. Conta se può fare da colonna sonora a un balletto, a un meme, a una gag.

È un ribaltamento totale. Perché la musica non è più musica. È un sottofondo. È un rumore pensato per durare lo spazio di uno scroll. Jingle usa e getta. Hit costruite a tavolino per sopravvivere due settimane, non due decenni.

La conseguenza è devastante. Artisti veri ignorati. Canzoni mediocri diventate virali solo perché ballabili in loop. La musica che una volta raccontava intere generazioni oggi è ridotta a prodotto da algoritmo. Non è più linguaggio culturale, è marketing.

E qui arriva il punto più inquietante: TikTok non è una piattaforma neutrale. È un’app cinese, con un algoritmo che decide chi ascoltiamo e chi sparisce. Non parliamo più solo di gusti musicali. Parliamo di politica culturale. Parliamo di identità.

Perché la musica è sempre stata specchio di un’epoca. I Beatles raccontavano una rivoluzione. Il punk raccontava rabbia e ribellione. L’hip hop raccontava quartieri e disuguaglianze. Oggi cosa racconta TikTok? Non chi siamo. Ma cosa vuole che siamo.

La canzone come la conoscevamo è morta. Non c’è più il formato dei tre minuti, il crescendo, la storia, il ritornello che unisce. C’è un loop da quindici secondi che funziona sullo scroll. E che sparisce la settimana dopo.

Non so cosa ne pensate voi, ma abbiamo scambiato inni generazionali con rumori usa e getta. Abbiamo ceduto la nostra colonna sonora a un algoritmo. E non ci accorgiamo nemmeno che la musica, quella vera, sta scomparendo.

La verità è secca: TikTok ha ucciso la musica. E l’abbiamo lasciato fare.

#DecisioniArtificiali #MCC #Documentario

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole invitarmi a eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

👉 Per informazioni sulla sponsorizzazione dei microdocumentari: https://sponsorship.microdocumentari.com

Guarda il post »
Decisioni Artificiali

68 – La ragazza che ha insegnato all’AI a difendere i bambini

La ragazza che ha insegnato all’AI a difendere i bambini.

✅ Questo video è offerto da: #EthicsProfile

Chow Sze Lok non è nata genio. È una studentessa di 17 anni del St. Mary’s Canossian College di Hong Kong. Vive come tanti coetanei, studia, fa i compiti, sogna un futuro. Ma un giorno inciampa in una notizia che la scuote: casi di abusi nei centri per l’infanzia, episodi che nessuno aveva visto arrivare. Lì capisce che il problema non è solo la violenza, ma la cecità degli adulti che non sanno cogliere i segnali.

Il punto di partenza è quasi ridicolo: un vecchio portatile. Nessun laboratorio, nessun finanziamento, solo lei e la convinzione che la tecnologia possa essere alleata dei bambini. Inizia a studiare visione artificiale, passa notti intere davanti allo schermo, prova, sbaglia, ricomincia. Sei mesi di lavoro, senza mai fermarsi.

Nasce così Kid-AID. Un sistema che non si limita a registrare: osserva, riconosce, segnala. Flagga in tempo reale interazioni sospette tra adulti e bambini negli asili. È come dare occhi nuovi alle telecamere. Un prototipo fragile, ma funziona.

Arrivano le prime prove di fuoco: i concorsi. All’Hong Kong Science Fair il suo progetto sorprende tutti. All’InfoMatrix, competizione internazionale, porta a casa un altro premio. Lei, una teenager con un vecchio laptop, conquista giurie abituate a startup con budget da milioni.

Il ritorno è enorme. Kid-AID diventa simbolo di un’AI diversa: non fatta per guadagnare clic o vendere pubblicità, ma per difendere i più piccoli. È l’arco dell’eroe completo: parte dal basso, affronta difficoltà, costruisce la sua arma, e torna con un dono per la comunità.

Chow non ha solo scritto un codice. Ha dimostrato che l’innovazione più radicale non viene dai colossi della Silicon Valley, ma da chi osa guardare dove gli altri distolgono lo sguardo.

#DecisioniArtificiali #MCC #Documentario

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 Per informazioni sulla sponsorizzazione dei microdocumentari: https://sponsorship.microdocumentari.com

👉 Nota importante: stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi, al fine di continuare a dedicare tempo all’Italia anche ora che mi sono trasferito a New York. Chi vuole richiedere la mia presenza a eventi contatti asap il mio team, perché stiamo chiudendo le date dei viaggi in cui sarò in Italia, a: [email protected]

Guarda il post »
Decisioni Artificiali

67 – Ha dato voce a un quartiere con l’elettronica di scarto

Ha dato voce a un quartiere con l’elettronica di scarto

Kelvin Doe nasce a Freetown, Sierra Leone, in un quartiere dove manca tutto: elettricità, internet, strumenti. A 13 anni la difficoltà è già evidente: fare i compiti al buio, vivere in un mondo scollegato. Per molti è la normalità. Per lui è il punto di partenza.

Il conflitto è spietato. La sua comunità non ha energia, non ha notizie, non ha voce. Kelvin non accetta il silenzio. Comincia a raccogliere rifiuti elettronici dalle discariche: pezzi di metallo, vecchie batterie, cavi bruciati. Inventa accumulatori con lattine e acidi. Costruisce trasmettitori radio con quello che trova. Non ha libri né insegnanti: impara tutto sperimentando, sbagliando, ricominciando.

A 15 anni riesce a creare una radio comunitaria. La chiama DJ Focus. Trasmette musica, notizie, messaggi utili al quartiere. Per la prima volta la sua comunità sente la propria voce. La tecnologia, fatta di rottami, diventa strumento di unione.

Il ritorno con il dono arriva qui negli Stati Uniti. Nel 2012 viene invitato al MIT Media Lab, a Cambridge in Massachusetts, poco più di 300 km da New York. È il più giovane di sempre a partecipare a un programma del laboratorio. La sua storia diventa virale grazie a YouTube e ai media digitali. CNN e New York Times raccontano il “ragazzo che costruiva la sua elettronica dalla spazzatura”. Il mondo scopre che l’innovazione non nasce solo nella Silicon Valley, ma anche dalle discariche di Freetown.

Kelvin parte come un ragazzo senza elettricità e torna come simbolo globale di creatività e resilienza. La sua lezione è chiara: con ingegno e condivisione digitale, anche la voce più piccola può farsi sentire ovunque.👉 Nota importante: stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi, al fine di continuare a dedicare tempo all’Italia anche ora che mi sono trasferito a New York. Chi vuole richiedere la mia presenza a eventi contatti asap il mio team, perché stiamo chiudendo le date dei viaggi in cui sarò in Italia, a: [email protected]

👉 Sponsorizza anche tu un microdocumentario: https://sponsorship.microdocumentari.com

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

66 – Il giorno in cui Internet morì. #DecisioniArtificiali #MCC

Il giorno in cui Internet morì.

8 giugno 2021. Una mattina normale. Poi, all’improvviso, il mondo va giù: non un sito, non una piattaforma, mezzo Internet sparisce. Amazon bloccata, Reddit inaccessibile, il New York Times muto, la BBC giù, persino il governo britannico non riesce a comunicare online.

Tutto inizia da un aggiornamento sbagliato, un bug in un’azienda che quasi nessuno conosce: Fastly. Una Content Delivery Network, CDN, cioè quei sistemi invisibili che portano i contenuti più velocemente in tutto il mondo. Non li vediamo, non li nominiamo, ma senza di loro Internet non gira.

Eppure basta un errore di configurazione e in pochi secondi i siti più grandi del pianeta si spengono. Per un’ora intera il mondo digitale si ferma: per alcuni sembra un fastidio, non puoi leggere il giornale o comprare online, ma dietro c’è molto di più. In quelle stesse ore compagnie aeree non vendono biglietti, supermercati non aggiornano gli stock, sistemi governativi non comunicano: la vita reale si blocca.

La storia è chiara: non esiste un “Internet” unico, libero, pubblico. Esistono infrastrutture private, e pochissime aziende hanno in mano i nodi vitali. Fastly è solo una, poi ci sono Cloudflare e Akamai, tre nomi che tengono in piedi la rete. Eppure nessuno li ha mai votati, nessuno li controlla davvero: rispondono a consigli di amministrazione, non a governi.

Il blackout di Fastly fu risolto in un’ora, ma quell’ora è bastata a mostrare la verità. Internet è fragile, non è resiliente, non è democratica: è una ragnatela di nodi gestiti da corporation, e quando cade uno di loro cade tutto.

La retorica che ci hanno venduto, Internet come spazio libero, invulnerabile, orizzontale, era falsa. La rete è privatizzata, concentrata, e noi ci viviamo sopra come se fosse eterna, ma basta un bug a dimostrare il contrario.

Il problema non è l’incidente, perché gli incidenti capitano. Il problema è che abbiamo costruito la civiltà su un’infrastruttura che non controlliamo: sanità, scuola, finanza, politica, tutto dipende da server di proprietà privata. Non c’è alcuna garanzia di continuità, non c’è alcuna sovranità.

Pensiamoci: se un blackout di un’ora ha paralizzato giornali, governi e aziende, cosa succederebbe se durasse un giorno intero? O una settimana? Un attacco mirato potrebbe farlo, e non serve immaginare scenari fantascientifici: il 2016 ce lo ha già mostrato con l’attacco a Dyn. Centinaia di migliaia di frigoriferi e telecamere infettate hanno buttato giù Twitter, Netflix, CNN, PayPal. Non era un film, era la realtà.

La verità è che Internet non è nostro, non ci appartiene, è in mano a poche aziende che non hanno alcun obbligo verso di noi. La prossima volta, forse, non basterà un’ora per rimettere tutto in piedi.

Quando Internet muore, non muore una volta sola: moriamo noi con lei.

#DecisioniArtificiali #MCC

👉 Nota importante: stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi al fine di continuare a dedicare tempo all’Italia anche dopo il mio trasferimento a New York. Chi vuole richiedere la mia presenza ad eventi in Italia, contatti asap il mio team, perché stiamo chiudendo le date dei viaggi in cui definiremo i giorni in cui sarò in Italia, a: [email protected]
Mentre per sponsorizzare i microdocumentari bisogna scrivere a: [email protected]

Guarda il post »
Decisioni Artificiali

65 – I robot guardano YouTube e imparano #DecisioniArtificiali #MCC

I robot guardano YouTube e imparano a fare tutto meglio di noi.

👉 Questo video è offerto da: https://www.trendevice.com/

Avrete presente i LLM, tipo ChatGPT? Quei Large Language Model che leggono miliardi di testi e imparano a scrivere, parlare e interagire con noi come se fossero persone. Ecco, nei robot sta accadendo la stessa cosa, ma invece delle parole c’è il corpo. Si chiamano LBM, Large Behavior Model: modelli che imparano osservando miliardi di esempi di azioni, e poi li trasformano in movimenti coordinati, fluidi, precisi.

Il meccanismo è identico. Un LLM non conosce il mondo, ma lo ricostruisce partendo dai dati testuali. Un LBM non ha esperienza fisica, ma la ottiene guardando dimostrazioni: video, sensori, istruzioni. E da lì costruisce una sorta di grammatica dei movimenti. Così un robot con un LBM non ha più bisogno di un programmatore che scriva riga per riga ogni gesto. Gli basta “vedere”.

Immaginiamo la portata: miliardi di tutorial già disponibili su YouTube che insegnano a cucinare, piegare una camicia, montare una mensola, annodare una corda. Per un LBM questo è carburante puro. Lo assimila, lo struttura e lo replica, senza errori, senza improvvisazioni. E la cosa che spiazza è che, una volta imparato, il robot esegue meglio di chi glielo ha insegnato: più rapido, più stabile, più preciso.

Boston Dynamics con il loro robot Atlas ha mostrato cosa significa: un LBM che gestisce l’intero corpo come un sistema unico, mani e piedi intercambiabili, movimenti continui e non più a blocchi. È come se un robot imparasse la logica di muoversi da sé, trattando il corpo come un’unica macchina, non come pezzi separati.

Questa è la vera svolta. Se ieri un robot era una marionetta di codice, oggi diventa un apprendista universale. Ogni azione umana registrata diventa un’istruzione che può imparare e perfezionare. Non è più fantascienza: i robot possono prendere l’intero sapere pratico umano già riversato online e farlo proprio.

La domanda è semplice e scomoda: cosa resta a noi, quando una macchina può guardare quello che sappiamo fare, copiarlo all’istante e farlo meglio?

#DecisioniArtificiali #MCC #sponsored

Guarda il post »
Decisioni Artificiali

64 – La verità sull’AI che nessuno dice pubblicamente #DecisioniArtificiali #MCC

La verità sull’AI che nessuno dice pubblicamente

Nelle ultime settimane ho parlato con una decina di persone negli Stati Uniti. Investitori e fondatori che lavorano sull’AI. In privato mi hanno detto quello che in pubblico non ammettono: i modelli attuali non imparano in continuo, non si adattano in tempo reale, non aggiornano se stessi e non sono affidabili in produzione. Eppure si continua a investire miliardi e a concentrare talenti su un’architettura che ha già esaurito la sua spinta.

Il problema non è tecnico. È psicologico, culturale, finanziario. GPT-5 non segna un fallimento di prodotto, ma di paradigma. Continuare a scalarlo non porta all’AGI, ma a un’illusione più grande. Claude, Gemini, Grok, Llama: stessa sorte.

E presto esploderà un problema etico gigantesco: queste AI riflettono i valori di chi le ha progettate, non quelli di ogni singolo utente. Nessuna personalizzazione etica, nessun rispetto per le differenze individuali. Quando questo diventerà evidente, la fiducia crollerà.

O costruiamo AI cognitive, capaci di apprendere in continuo, adattarsi autonomamente e integrare i valori personali, oppure non sarà intelligenza. Sarà solo imitazione.

Voi cosa ne pensate?

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

63 – Una macchina deciderà quando lanciare la bomba #DecisioniArtificiali #MCC

Una macchina deciderà quando lanciare la bomba.

👉 Questo video è offerto da: https://www.ethicsprofile.ai

Ci stiamo avvicinando a un punto di non ritorno. L’intelligenza artificiale non solo entra nei centri di ricerca, negli algoritmi di marketing o nei chatbot. Entra nei sistemi nucleari.

È quello che è emerso alla University of Chicago, dove un gruppo di esperti, tra cui fisici, militari e premi Nobel, ha messo in chiaro una cosa: l’integrazione dell’AI nella gestione degli arsenali atomici non è più una possibilità, è una certezza.

La chiamano “automazione del comando e controllo”. Vuol dire che l’AI assisterà nelle decisioni strategiche, nella gestione dei dati sensibili, nella simulazione di scenari di attacco. Vuol dire che, prima o poi, una macchina sarà consultata per decidere se scatenare o meno un conflitto nucleare.

L’ombra lunga è quella dell’errore automatico. I modelli predittivi non hanno senso del dubbio. Non hanno coscienza. Non hanno Petrov. Ci ho fatto un video recentemente. Quel colonnello sovietico che nel 1983 fermò un attacco nucleare per istinto umano. Perché capì che il sistema stava sbagliando. Un’AI non capisce. E non esita.

Ci stanno dicendo una cosa semplice: il tempo per regolamentare è adesso. Non tra dieci anni, non dopo il primo incidente.

Nel frattempo il Doomsday Clock è fermo a 89 secondi dalla fine del mondo. E non lo dicono i complottisti: lo dice il Bulletin of the Atomic Scientists.

E noi? Fermi. A guardare i modelli generativi mentre fanno battute su Instagram.

#DecisioniArtificiali #MCC

👉 Nota importante: stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi al fine di continuare a dedicare tempo all’Italia anche dopo il mio trasferimento a New York. Chi vuole richiedere la mia presenza ad eventi in Italia, contatti asap il mio team, perché stiamo chiudendo le date dei viaggi in cui definiremo i giorni in cui sarò in Italia, a: [email protected]
Mentre per sponsorizzare i microdocumentari bisogna scrivere a: [email protected]

Guarda il post »
Decisioni Artificiali

62 – Voleva solo parlare col nipote. È diventato uno streamer

Voleva solo parlare col nipote. È diventato uno streamer.

👉 Questo video è offerto da: #Mediamonitor

Buenos Aires. Un nonno di 74 anni, Ramón, non riesce più a vedere il nipote. Chiamate video, messaggi, niente da fare: il ragazzino è sempre su Twitch. Allora Ramón decide di raggiungerlo. Si fa aiutare da un vicino, installa tutto: webcam, microfono, account. Va in diretta.

Non sa giocare bene. Non capisce le regole. I primi video sono buffi, goffi, teneri. Ma una cosa si nota subito: la gente si ferma ad ascoltarlo. Perché non parla di punteggi. Parla della sua infanzia. Del tango. Di politica. Di cosa significa sentirsi soli. E poi racconta: come ha conosciuto sua moglie. Cosa pensa della vita. Cosa farebbe se avesse diciotto anni oggi.

Diventa virale. Migliaia di follower. Ma lui se ne frega. Vuole solo che il nipote si fermi, lo ascolti. Lo faccia entrare nel suo mondo. E alla fine succede. Il nipote lo raggiunge in diretta. Giocano insieme. Ridono. Parlano.

Ramón non ha imparato il digitale. L’ha piegato alla sua misura. Ha dimostrato che la rete non deve essere veloce, giovane, perfetta. Può anche essere lenta, profonda, imperfetta. Che si può usare Twitch per stare vicino, non solo per intrattenere. Che anche un anziano, se ha qualcosa da dire, trova ascolto. E che il digitale può diventare umano, se smettiamo di pensarlo come una gara.

#DecisioniArtificiali #MCC

👉 Questo video è offerto da: #Mediamonitor
https://www.mediamonitor.it

👉 Nota importante: stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi al fine di continuare a dedicare tempo all’Italia anche dopo il mio trasferimento a New York. Chi vuole richiedere la mia presenza ad eventi in Italia, contatti asap il mio team, perché stiamo chiudendo le date dei viaggi in cui definiremo i giorni in cui sarò in Italia, a: [email protected]
Mentre per sponsorizzare i microdocumentari bisogna scrivere a: [email protected]

Guarda il post »
Decisioni Artificiali

61 – Cybercrime in abbonamento #DecisioniArtificiali #MCC

Cybercrime in abbonamento: i ladri ora comprano Netflix del crimine

Il mondo del crimine informatico non è più quello che immaginiamo.
Niente hoodie, niente scantinati, niente script improvvisati. È un’industria che vende abbonamenti. Un pacchetto chiavi in mano per rubare identità e infiltrarsi ovunque.

Lo chiamano “Impersonation-as-a-Service”. Come Netflix, ma invece di serie TV ti porti a casa strumenti di phishing, training, coaching, exploit pronti. Non serve più saper programmare: basta pagare e imitare.

I forum underground lo confermano: gli annunci per social engineer di lingua inglese sono esplosi in un anno. Perché la lingua è l’arma più efficace. Non serve bucare i firewall se puoi convincere un dipendente a darti le credenziali con una telefonata.

I grandi gruppi lo sanno. ShinyHunters e Scattered Spider hanno già colpito Ticketmaster, AT&T, Dior, Chanel, Allianz, Google. Non con malware sofisticato, ma con voci finte, account falsi, fiducia manipolata. L’AI ha amplificato tutto: cloni vocali, testi credibili, sceneggiature perfette.

È finita l’era degli hacker solitari. Ora sono gang organizzate che rubano tecniche dai servizi segreti: fanno ricognizione, studiano i dipendenti, capiscono software, valori aziendali, poi colpiscono. Invisibili.

E adesso non serve nemmeno più imparare. I criminali tradizionali comprano servizi, aggiungono i nuovi mezzi alla loro vecchia esperienza e il gioco è fatto. Loro investono. Noi no. Non abbiamo programmi globali, non abbiamo campagne di comunicazione costanti, non educhiamo le persone ai nuovi trucchi. La prima difesa dovrebbe essere la consapevolezza, e invece la lasciamo marcire.

La maggior parte degli attacchi non avviene perché ci sono falle nei sistemi. Avviene perché qualcuno ci crede. E se restiamo ignoranti, continueremo a consegnare il mondo intero nelle mani di chi ha trasformato il crimine in un servizio in abbonamento.

#DecisioniArtificiali #MCC

👉 Nota importante: stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi al fine di continuare a dedicare tempo all’Italia anche dopo il mio trasferimento a New York. Chi vuole richiedere la mia presenza ad eventi in Italia, contatti asap il mio team, perché stiamo chiudendo le date dei viaggi in cui definiremo i giorni in cui sarò in Italia, a: [email protected]
Mentre per sponsorizzare i microdocumentari bisogna scrivere a: [email protected]

Guarda il post »
Decisioni Artificiali

60 – Ogni lavoro umano verrà cambiato o eliminato #DecisioniArtificiali #MCC

Ogni lavoro umano verrà cambiato o eliminato. Non tra dieci anni. Molto prima.

Lo dice Jensen Huang, CEO di Nvidia. Non è una previsione. È un piano.

L’uomo che fornisce i chip a tutte le AI del mondo l’ha detto chiaramente: trasformeremo tutto ciò che può essere automatizzato. E toglieremo di mezzo il resto. Nessuna zona franca. Nessun settore immune. Nessuno escluso.

È il mercato del lavoro riscritto dalle macchine. Ma stavolta non tremano le fabbriche. Tremano gli uffici, le scuole, gli ospedali, le redazioni. I lavori di concetto. Le professioni intellettuali. Quelle che si credevano intoccabili.

Perché se i robot umanoidi faranno quello che oggi fa l’AI generativa, vuol dire che ogni automa potrà imparare un mestiere fisico in pochi secondi. Non tra vent’anni. Ora.

Chi si salva? Solo chi cambia pelle. Chi si integra con l’AI. Chi diventa complementare, non sostituibile. Tradotto: o impari a lavorare con le macchine, o le macchine lavorano senza di te.

Voi cosa ne pensate?

È un’ondata. Non aspetta nessuno. Chi non reagisce, viene spazzato via.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

59 – Il SEO è morto, lunga vita al GEO? #DecisioniArtificiali #MCC

Il SEO è morto, lunga vita al GEO?

Per vent’anni, chi voleva esistere online doveva piegarsi al volere di Google. Ottimizzare ogni parola, ogni titolo, ogni tag. Una guerra di nervi giocata a colpi di “strategie”, “tecniche”, “hack”. Un filtro invisibile che decideva chi esisteva e chi no. E attorno a quel filtro è nato un intero ecosistema. Consulenti, guru, agenzie, strumenti, certificazioni. Un’industria miliardaria costruita su un algoritmo che nessuno poteva controllare davvero.

Poi è arrivata l’intelligenza artificiale. E ha messo tutto sottosopra.

ChatGPT ha trasformato il nostro modo di cercare informazioni. Non più “digita e spera”, ma “chiedi e ottieni”. Non link, ma risposte. Non siti web, ma sintesi. E Google, per non restare indietro, ha iniziato a fare lo stesso: AI Overviews, risultati generati automaticamente, snippet che rispondono prima ancora che uno clicchi. L’utente è felice. Il traffico ai siti crolla.

Per molti editori è stata una strage.

Meno visite, meno entrate, meno visibilità. Alcuni hanno visto dimezzarsi gli accessi da un giorno all’altro. Altri sono scomparsi del tutto. Perché se la risposta sta già sulla pagina di Google, chi ha più bisogno di cliccare?

E adesso qualcuno prova a vendere un nuovo acronimo: GEO, Generative Engine Optimization.

Stesse promesse, nuovo nome. Ottimizza per l’AI, fatti citare nei risultati generati, scrivi per i modelli linguistici invece che per le persone. Una nuova corsa all’oro. Ma con regole ancora più opache, ancora più arbitrarie. Perché non stai più cercando di piacere a un motore di ricerca: stai cercando di convincere una macchina a ricordarti.

La verità è che non c’è nessun nuovo “sistema” da imparare.

Siamo in un territorio dove le piattaforme decidono tutto, e il contenuto è solo materia prima da triturare. E se l’AI si prende la scena, non è detto che chi scrive, crea o informa riesca a restare in piedi.

SEO era un gioco duro. Ma almeno c’erano regole. Ora siamo oltre.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

58 – Ha fatto smettere agli studenti di usare ChatGPT… con ChatGPT #DecisioniArtificiali #MCC

L’insegnante che ha fatto smettere agli studenti di usare ChatGPT… con ChatGPT

Quando ha scoperto che metà della classe usava ChatGPT per scrivere i temi, non si è scandalizzato. Non ha fatto la morale. Non ha bloccato nulla. Ha solo detto: “Ok. Usiamolo meglio.”

Si chiama Marcus. Insegna lettere in una scuola superiore a Manchester. Un giorno assegna un compito: “Scrivete un saggio su Orwell.” Riceve testi perfetti. Troppo perfetti. Tutti simili. Tutti senz’anima. Capisce subito. Nessuno ha scritto nulla. Tutto fatto con l’AI.

Ma invece di punire, rilancia: “Adesso scrivete una critica a quello che avete consegnato. Smontatelo. Mostratemi dove l’AI ha ragionato male. Dove ha semplificato. Dove ha evitato di prendere posizione.”

I ragazzi non sanno da dove cominciare. Non avevano mai analizzato un testo con quell’occhio. Ma poco a poco iniziano a capire. Vedono che l’AI è vaga, che rifugge le tesi forti, che ripete formule senza andare a fondo, che costruisce senza rischiare.

E, per la prima volta, scrivono qualcosa di loro. Per criticare la macchina, sono costretti a pensare. A riflettere. A scegliere le parole. A esporsi.

ChatGPT era diventato un shortcut. Lui l’ha trasformato in uno specchio. E ha rimesso al centro l’unica cosa che conta in una scuola: capire perché si scrive, non solo cosa.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

57 – I nuovi deepfake uccidono la democrazia #DecisioniArtificiali #MCC

I nuovi deepfake uccidono la democrazia. E pochi se ne stanno accorgendo.

Una volta bastava leggere poco, guardare il telegiornale, farsi un’idea. Potevi anche non essere esperto, ma il sistema reggeva: c’erano media autorevoli, giornali con redazioni, regole, filtri. Opinioni diverse, sì, ma costruite su fatti. Chi non si informava votava lo stesso, ed era legittimo. Perché l’ambiente informativo era stabile, imperfetto ma solido.

Oggi non è più così. E non lo sarà mai più.

L’intelligenza artificiale generativa ha distrutto il concetto stesso di verità visibile. I deepfake, video, audio, foto totalmente falsi ma indistinguibili dal reale, stanno sostituendo la realtà con simulazioni credibili. Nessun filtro. Nessuna verifica. E milioni di persone che ci cascano ogni giorno.

Il problema non è solo tecnico. È politico. Perché la democrazia si regge su un’idea semplice: anche chi non è esperto può votare. Anche chi ha poco tempo, poca cultura, può decidere. Purché l’ambiente attorno offra almeno un minimo di verità condivisa. Oggi quell’ambiente è inquinato. Intenzionalmente.

Non siamo più nel mondo in cui i giornali spostavano opinioni. Oggi si costruiscono intere realtà false, mirate per gruppo, per identità, per emozione. Personalizzate. Invisibili. Alimentate da bot, condivise da amici, credute vere perché viste.

Ecco perché la democrazia è a rischio. Perché se tutti possono votare, ma ognuno vive dentro una realtà manipolata, quel voto non è più libero. È eterodiretto. Chi controlla le narrazioni sintetiche controlla il consenso. Punto.

E da quest’anno la situazione è peggiorata.

I deepfake non sono più una novità. Sono ovunque. Sono diventati uno strumento sistematico. Elezioni in vista in Europa, USA, Africa, Asia: in ogni continente stanno già circolando video falsi di politici, notizie inventate, scandali simulati. Il problema non è più “ci arriveremo”. È “ci siamo già dentro”.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

56 – L’AI ti ha schedato. E ora paghi di più #DecisioniArtificiali #MCC

L’AI ti ha schedato. E ora paghi di più.

Succede già oggi: prezzi diversi per lo stesso volo, stessa compagnia, stessa tratta, stessa data. Le differenze sono piccole, qualche euro in più o in meno, perché i sistemi attuali usano pochi dati: IP, cronologia, tipo di dispositivo.

Ma domani sarà diverso. Quando l’intelligenza artificiale saprà davvero tutto di noi, il prezzo non cambierà più di poco: potrà cambiare di dieci volte. Perché? Perché secondo lei possiamo permettercelo. Perché ha raccolto informazioni, precise o sbagliate, sul nostro conto: dove viviamo, cosa facciamo, quanto guadagniamo, quanto tempo aspettiamo prima di cliccare “compra”.

E così, per lo stesso volo che a un altro costa 100 euro, a noi potrà costarne 1.000. Solo perché siamo noi. E non potremo dimostrarlo. Non sapremo mai quanto ha pagato un altro. Non sapremo mai su quali dati si è basata. Magari sono dati rubati. O vecchi. O sbagliati.

Ma chi lo spiega alla macchina? Chi ci difende da un prezzo costruito su un’illusione? E quando proveremo a chiedere chiarimenti, troveremo un help desk automatizzato. Un’altra intelligenza artificiale che ci dirà: “Non posso farci niente. È quello che è stato deciso.”

Questo non è futuro. È un sistema che si sta già costruendo. E noi stiamo già perdendo la battaglia per il controllo.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

55 – Cieca ma ha insegnato all’AI a vedere davvero #DecisioniArtificiali #MCC

Era cieca. E ha insegnato all’intelligenza artificiale a vedere davvero

Maya ha perso la vista da bambina. Ma non ha mai smesso di leggere il mondo. Lo fa con le mani, con le orecchie, con il corpo intero. E con una mente precisa, tagliente. Così arriva all’università, studia informatica, poi visione artificiale.

Sì, visione. La chiamano pazza. Ma lei sa che proprio perché non vede, può accorgersi di quello che manca.

Anni dopo viene assunta in un team che sviluppa un sistema AI per descrivere immagini a persone non vedenti. Funziona, ma dice cose sbagliate. Superficiali. “Un uomo seduto.” “Una donna con una borsa.” Tutto banale, impersonale. E a volte offensivo. Etichette approssimative. Assunzioni tossiche.

Maya capisce subito dov’è il problema. Il sistema “vede”, ma non ascolta. Allora cambia approccio. Chiede che ogni immagine venga descritta a voce da volontari umani, con calma, con sfumature, con contesto. Ascolta migliaia di descrizioni. Le trasforma in dati strutturati. Categorizza i dettagli che davvero contano per chi non vede: tono, relazioni tra oggetti, emozioni, accessibilità.

Poi rivede il dataset originale. Lo pulisce, lo arricchisce. Fa eliminare etichette come “normale” o “anormale”. Introduce categorie nuove: non solo cosa c’è, ma perché è lì, cosa potrebbe succedere, chi potrebbe averlo messo.

Così insegna all’intelligenza artificiale a non descrivere, ma a interpretare. A suggerire, non semplificare. A diventare uno strumento per leggere il mondo, non una fotocopiatrice cieca.

Alla fine, il sistema migliora. Diventa più utile, più rispettoso, più preciso. Non perché vede meglio, ma perché è stato allenato da chi la vista non ce l’ha mai avuta, e proprio per questo ascolta tutto.

Maya non ha portato la vista all’intelligenza artificiale. Le ha insegnato a guardare con attenzione. Che è tutta un’altra cosa.

#DecisioniArtificiali #MCC

Guarda il post »