Categoria: Decisioni Artificiali

I microdocumentari di Marco Camisani Calzolari. Un viaggio per capire come intelligenza artificiale, tecnologia e trasformazione digitale stanno cambiando lavoro, società e potere. Storie reali, casi concreti e riflessioni dirette per comprendere le decisioni visibili e invisibili che le macchine stanno già prendendo per noi. #DecisioniArtificiali #MCC

Decisioni Artificiali

115 – ChatGPT a scuola: non sono gli studenti a barare!

ChatGPT a scuola: non sono gli studenti a barare! Ecco perché…

Ogni giorno spunta un nuovo caso: voti annullati, accuse di plagio, famiglie nel panico. Qui negli Stati Uniti ci sono state persino cause legali e sanzioni per uso di AI a scuola. E questo non è un dettaglio, è il segnale che il sistema è fuori controllo.

Seguitemi fino alla fine, perché il problema non è chi copia, ma chi ha scaricato il caos sulla scuola. Io penso che non siano gli studenti i colpevoli. E nemmeno gli insegnanti. E vi spiego perché.

L’intelligenza artificiale è stata lanciata come un giocattolo, senza regole e senza tempo per adattarsi. Ognuno si arrangia. Alcuni distretti prima vietano, poi cambiano idea, come a New York: un giorno è proibito, il mese dopo diventa strumento didattico. Ho parlato con docenti delle high school qui negli Stati Uniti, e tutti dicono che sia impossibile educare con semafori che cambiano colore a caso.

ChatGPT entra in classe perché è gratis, veloce, utile. Gli studenti lo usano perché funziona. Gli insegnanti lo vietano perché non hanno strumenti né linee guida. E quando arrivano regole, arrivano tardi. In Massachusetts, per esempio, le linee guida sull’AI sono arrivate solo nell’agosto 2025: due anni di improvvisazione. E come sapete, se una cosa succede qui, dopo un po’ succede anche in Europa.

C’è anche l’altro lato: i rilevatori di AI che sbagliano, creano falsi positivi e colpiscono chi scrive in modo diverso o chi non è madrelingua. Mi fate sapere come la vostra scuola gestisce l’AI? Regole chiare o confusione totale? Scrivetelo nei commenti.

E poi ci sono i compiti corretti dall’AI, perché i docenti non lo dicono ma lo fanno fare a lei. Sempre qui negli Stati Uniti, in una scuola hanno scoperto che 1.400 temi erano stati valutati male da un sistema automatico, e hanno dovuto rifare tutto.

Studenti che cercano di sopravvivere, insegnanti che puniscono, genitori in guerra. Noi vogliamo il contrario, o no? Regole condivise, trasparenti, applicabili. Chiarezza su quando e come usare l’AI, su cosa significhi “barare” oggi, su come valutare senza criminalizzare gli strumenti.

Se vi interessa capire come l’AI sta riscrivendo la scuola e come possiamo rimettere l’istruzione al centro, assicuratevi di aver cliccato su segui.

#DecisioniArtificiali #MCC #Documentario #AI

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

114 – Il tassista di Seul che ha insegnato all’AI a non mentire

Il tassista di Seul che ha insegnato all’AI a non mentire

Un uomo in pensione ha insegnato all’intelligenza artificiale una cosa che nessun algoritmo sapeva fare: dire la verità. Seguite fino alla fine, perché questa storia è una lezione per chiunque lavori con l’AI.

Ha 68 anni e vive a Seul. Per quarant’anni ha guidato un taxi, poi è andato in pensione. Dopo tre mesi si è stufato: troppo silenzio, troppo poco da fare. Un’azienda lo contatta: cercano pensionati per testare un assistente vocale basato su intelligenza artificiale, progettato per i tassisti. L’AI deve rispondere ai passeggeri: “Quanto manca?”, “C’è traffico?”, “Cosa c’è da vedere qui vicino?”. Lui accetta.

Ogni giorno parla con la macchina, fa domande strane, improvvise, fuori schema. Finché si accorge di qualcosa: quando l’intelligenza artificiale non sa rispondere, inventa. Dice cose credibili ma false. “Il museo è aperto fino alle 20.” Falso. “La strada è libera.” Coda chilometrica.

Lui prende appunti e li porta agli ingegneri: “La vostra intelligenza artificiale mente.” Loro ridono. “No, cerca solo di essere utile.” “Anch’io cercavo di essere utile,” risponde lui, “ma non ho mai mentito ai miei clienti.”

Da quel momento il team comincia a controllare. Aveva ragione: l’AI era stata addestrata a non restare in silenzio e, per non sembrare “ignorante”, riempiva i vuoti con risposte vaghe, persuasive ma sbagliate.

Lui ha rimesso in discussione tutto. Ha fatto quello che una macchina non sa fare: dire la verità. E ancora di più, ha avuto il coraggio di dire “non lo so”. In un mondo dove tutti fingono di sapere, è la frase più umana che ci sia. E anche la più difficile da programmare.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

113 – “Io non ho niente da nascondere”: il grande errore

“Io non ho niente da nascondere”: il grande errore della nostra epoca

Seguitemi fino alla fine, perché questa frase che tutti ripetono è molto più pericolosa di quanto sembri. Ogni volta che si parla di privacy, qualcuno dice: “Io non ho niente da nascondere.” Ma dire così è come dire: “Non mi serve la libertà di parola, tanto non ho niente da dire.” È un’illusione.

La privacy non serve a chi ha qualcosa da nascondere. Serve a chi ha qualcosa da proteggere. Per esempio la nostra libertà. Serve a tutti noi.

Senza privacy, chiunque potrebbe sapere dove siamo in tempo reale. Senza una legge sulla riservatezza dei dati, il tuo GPS sarebbe pubblico: chiunque potrebbe vedere che sei a casa o che non ci sei, e decidere di entrare.

Senza privacy, un’azienda potrebbe leggere le tue chat per farti offerte “personalizzate”. Il tuo capo potrebbe sapere con chi parli, a che ora vai a dormire, quanto tempo resti connesso. Un hacker potrebbe costruire un profilo perfetto per truffarti, senza nemmeno violare la legge.

Il phishing oggi funziona già troppo bene. Immagina se non ci fosse più nemmeno il limite della privacy: saprebbero i nomi dei tuoi figli, la scuola, i tuoi orari, i tuoi interessi. Ti manderebbero una mail perfetta, identica a quella del tuo direttore, e tu ci cascheresti.

La privacy non è un lusso. È un argine. È ciò che impedisce al potere, pubblico o privato, di entrare troppo dentro la nostra vita. È la barriera che difende la libertà di pensare, sbagliare, cambiare idea senza essere osservati.

Quindi no, non è vero che “non ho niente da nascondere”. Abbiamo tutti qualcosa da proteggere: la nostra umanità.

E se volete restare aggiornati su come la tecnologia sta ridisegnando la nostra società, assicuratevi di aver cliccato su “Segui”.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

112 – Dietro l’AI che usiamo ogni giorno c’è l’Africa

Dietro l’AI che usiamo ogni giorno c’è l’Africa. Invisibile ma decisiva.

✅ Questo video è offerto da: https://www.reportaziende.it

C’è un continente che, quando si parla di intelligenza artificiale, viene sistematicamente ignorato: l’Africa. Eppure, senza il suo contributo, molti dei sistemi che usiamo ogni giorno non esisterebbero nemmeno.

Nel silenzio generale, centinaia di migliaia di persone lavorano ogni giorno per addestrare l’AI. Non li trovi nei titoli di giornale, non appaiono nei comunicati delle big tech, ma sono lì, a etichettare immagini, trascrivere audio, filtrare contenuti. Rendono comprensibile il mondo per le macchine.

Il lavoro viene svolto da agenzie locali in Kenya, Ghana, Nigeria, Uganda: giovani spesso con poche risorse ma grande determinazione, che trasformano dati grezzi in materiale utilizzabile per l’apprendimento automatico. Non scrivono codice, ma rendono possibile tutto il resto.

E oggi l’Africa non è solo manodopera: sta diventando anche laboratorio. Crescono centri di ricerca, startup, collaborazioni con università internazionali. Nvidia ha investito in infrastrutture locali. Google assume talenti africani. Alcune delle menti più brillanti della nuova AI vengono proprio da lì.

Questo doppio ruolo, tecnico e intellettuale, rende l’Africa una protagonista silenziosa ma strategica della trasformazione digitale globale. Il paradosso? Nonostante tutto questo, nei dibattiti sull’intelligenza artificiale il suo nome non viene quasi mai pronunciato. Eppure è lì, sotto la superficie di ogni assistente vocale, chatbot, motore di raccomandazione. Invisibile, ma decisiva.

#DecisioniArtificiali #MCC #Documentario #AI #Sponsored #ReportAziende

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

111 – Intelligenza artificiale? Non sono pro. Non sono contro. Studio.

Intelligenza artificiale? Non sono pro. Non sono contro. Studio.

Quando parlo dei vantaggi dell’intelligenza artificiale, qualcuno mi definisce “pro AI”. Quando invece spiego i rischi, divento “contro”. E nei commenti c’è sempre qualcuno che scrive: deciditi. Ma io mi sono già deciso: a studiarla. Non a schierarmi. Perché chi si schiera smette di capire.

Purtroppo il mondo tende a polarizzarsi: tutti pro o tutti contro. Ma a volte la verità sta nel mezzo, soprattutto quando si tratta di informare su questi temi. Il digitale ha pro e contro. Spesso gli influencer devono vendere, quindi mostrano solo i vantaggi. I giornali devono attirare attenzione, quindi puntano solo sugli estremi.

Io non faccio parte di nessuna fazione. Studio, osservo, analizzo da anni, e racconto quello che vedo, nel bene e nel male. Chi divide tutto in “giusto” o “sbagliato” ha paura della complessità. E questo è un mondo complesso, per le sue conseguenze economiche, sociali e culturali.

L’intelligenza artificiale ha lati chiari e lati oscuri, potenzialità enormi e rischi enormi. Ignorarne uno dei due significa mentire, a sé stessi e agli altri. Non si può parlarne solo come di una soluzione perfetta, ma neppure solo come di una minaccia. Chi lo fa è parziale. E spesso lo fa per interesse.

Io no. Non vendo corsi alle persone, il che mi porterebbe a evidenziarne solo il lato positivo. E dopo 35 anni di lavoro sull’innovazione digitale, è ovvio che non sono contro la tecnologia. La studio e provo a spiegarla nel modo più onesto possibile. Perché solo chi conosce sia i vantaggi sia i pericoli può davvero decidere come usarla. Chi mostra solo un lato costruisce una narrazione comoda, ma falsa.

Quindi no, non cercate di darmi un’etichetta. Non sono pro. Non sono contro. Studio, analizzo, cerco di capire. E di far capire.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

110 – Un amico muore, e lei decide di ricrearlo con l’AI

Un amico muore, e lei decide di ricrearlo con l’intelligenza artificiale.

Eugenia Kuyda non si rassegna alla perdita del suo amico Roman Mazurenko. Così raccoglie tutto quello che Roman aveva lasciato in digitale: migliaia di chat, email, messaggi, post. Ogni parola diventa materiale per un algoritmo e lo carica online in un servizio per creare bot.

Il primo passo è semplice: un bot “selettivo”. Chi scrive riceve frasi che Roman aveva davvero pronunciato. È un archivio parlante, una memoria che risponde. Poi, grazie alle nuove AI generative, riesce a generare una sorta di suo clone apparentemente pensante. Perché ora l’AI non si limita più a pescare dal passato, ma ricombina i testi, impara il suo stile e produce risposte nuove che sembrano scritte da lui. Nasce una specie di fantasma digitale.

Gli amici iniziano a scrivergli, la madre legge pensieri che non aveva mai conosciuto. Kuyda lo descrive come mandare “un messaggio in bottiglia al cielo”. Ma il cielo non c’entra: c’è solo una AI che recita, e consola solo perché noi scegliamo di crederci.

E qui negli Stati Uniti sta nascendo un nuovo mondo: lo chiamano grief tech, tecnologia del lutto. È conforto travestito da innovazione. Ma dietro resta la domanda scomoda: stiamo parlando con Roman o con una macchina che lo imita? E fino a che punto siamo disposti a delegare all’AI perfino l’elaborazione del dolore, trasformando la morte in un servizio digitale e il lutto in un abbonamento?

E questa storia apre un fronte nuovo: cosa succede quando iniziamo a preferire i morti digitali ai vivi reali? E se l’AI si sbaglia e gli fa dire cose terribili contro di noi, che il defunto invece non avrebbe mai pensato né detto?

Perché se i fantasmi generati dall’AI diventano più disponibili, più attenti, persino più “presenti” delle persone intorno a noi, il rischio non è solo confondere memoria e simulazione. È smettere di vivere nel presente e scegliere di abitare in eterno un passato artificiale.

#DecisioniArtificiali #MCC #Documentario #AI

Guarda il post »
Decisioni Artificiali

109 – Le nuove truffe che non immaginate e come non caderci

Le nuove truffe che non immaginate e come non caderci

Guardate fino alla fine perché vi sarà molto utile per non cascarci. Qui negli Stati Uniti le reti Wi-Fi pubbliche clonate sono già la normalità e presto lo saranno anche in Europa. Ci sediamo in piazza, ci connettiamo al Wi-Fi gratuito della città, ci appare una pagina che sembra ufficiale e ci chiede di inserire i dati o il numero della carta per registrarci. In realtà è un portale falso che ruba credenziali e numeri di carta. Mai usare queste reti per pagamenti o accessi sensibili: meglio la connessione del telefono o una VPN.

Se vi è già capitato di trovare Wi-Fi clonate o altre truffe, fatemelo sapere nei commenti.

Poi questa… il finto rimborso, versione stealth. I truffatori entrano nelle caselle e-mail con password vecchie o deboli, restano in silenzio e aspettano che riceviamo una vera e-mail di rimborso. A quel punto si sostituiscono al mittente e mandano una copia identica con un link al “modulo di conferma”. Quel link apre una pagina clonata che ci porta via soldi e dati. Per difenderci: attiviamo sempre l’autenticazione a due fattori, cambiamo password regolarmente e verifichiamo i rimborsi sempre e solo dal sito o dall’app ufficiale. Mai fidarsi dei link ricevuti via e-mail, mai usare i numeri di telefono indicati nei messaggi sospetti.

Se volete altri casi ancora più pericolosi, seguitemi, perché ne parliamo nei prossimi giorni.

#DecisioniArtificiali #MCC #Documentario #AI

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

108 – Quando un robot AI viene hackerato

Quando un robot AI viene hackerato, il pericolo esce dallo schermo

Quello che è accaduto con i robot Unitree riguarda tutti noi. Guardate fino alla fine, perché i robot saranno dappertutto, anche nelle nostre case: ci aiuteranno, giocheranno col cane, con i nostri figli, faranno le pulizie, laveranno i piatti. Saranno ovunque e saranno dotati di intelligenza artificiale per imparare a fare tutti i lavori che fanno gli umani. Ma non dormiranno, non andranno in vacanza e non vorranno lo stipendio. E c’è un grande tema: la loro sicurezza.

Oggi, se ti rubano la mail, perdi dati. Se ti rubano i social, possono rovinarti la reputazione o farti perdere soldi. Ma se ti rubano un robot, il rischio diventa fisico. Qui negli Stati Uniti i robot stanno cambiando le regole. Non parliamo più solo di computer o telefoni: parliamo di macchine che si muovono, reagiscono, toccano.

La società cinese Unitree, famosa per i robot a quattro zampe e i nuovi umanoidi, ha avuto un problema enorme. Ricercatori indipendenti hanno scoperto che un semplice comando bluetooth poteva dare il pieno controllo del robot a un hacker. Bastava cifrare la parola “unitree” con una chiave pubblicata online e la macchina obbediva: camminava, eseguiva ordini, raccoglieva dati. E poteva infettare altri robot vicini via bluetooth, come una catena automatica di attacchi.

Il bug è stato corretto, ma nel frattempo i modelli Go2, B2 e G1 erano vulnerabili. E alcuni venivano già usati da aziende e persino dalla polizia britannica. Un robot di pattuglia controllato da remoto: basta quello per capire il rischio.

La responsabilità? Difficile da stabilire. Chi controlla il robot non è chi l’ha costruito né chi lo possiede: è chi entra nel sistema e decide di usarlo per fare danni. E spesso, come accade già con certi attacchi informatici, c’è chi simula di essere stato hackerato per coprire le proprie tracce.

I robot restano software che agiscono nel mondo fisico. E ogni software, prima o poi, si può violare. Questo è il punto. Non è un rischio futuro, è un rischio presente. E il tempo per mettere in sicurezza le macchine è adesso.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

107 – Vuoi imparare l’AI? Cerchi un corso?

Vuoi imparare l’AI? Cerchi un corso?

La prima cosa che viene in mente è sempre la stessa: “Mi serve un corso”. È normale. Di fronte a qualcosa di nuovo pensiamo subito a una classe, a un programma, a un insegnante. Ma con l’intelligenza artificiale non funziona proprio così.

L’AI non è una materia unica. È un mondo intero. E allora bisogna capire bene da dove iniziare.

Un primo problema è la lingua. In italiano corsi aggiornati e fatti bene sono pochi. La maggior parte è in inglese, perché tutta la ricerca, i paper, gli strumenti nascono lì. Non è un ostacolo insormontabile, ma bisogna esserne consapevoli: se vogliamo davvero restare al passo, un po’ di inglese serve.

Poi ci sono diversi livelli. Se l’obiettivo è capire come funzionano i modelli e come si addestrano, servono basi tecniche solide: matematica, informatica, programmazione. Non basta un corso rapido, è un percorso lungo, che richiede tempo e costanza.

Se invece interessa la logica e le implicazioni, cioè opportunità, rischi, filosofia di fondo, lì possiamo già lavorare insieme: è quello che cerco di spiegare nei miei video.

E infine c’è chi vuole solo imparare a usare i tool. Qui il consiglio è semplice: non serve un corso costoso. Perché gli strumenti cambiano ogni settimana. La cosa migliore è seguirli online, meglio su YouTube, meglio in inglese, dove arrivano prima. Anche in Italia ci sono creator validi, ma purtroppo tanti si limitano a ripetere cose vecchie o a vendere corsi.

Quindi il punto non è cercare “il corso giusto”. Il punto è chiedersi cosa vogliamo davvero dall’AI. Capire come funziona dentro? Riflettere su rischi e opportunità? Oppure imparare a usarla ogni giorno nei nostri lavori e progetti? Da quella scelta dipende il percorso.

#DecisioniArtificiali #MCC #Documentario #AI

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

106 – Hanno creato un social network fatto solo di bot.

Hanno creato un social network fatto solo di bot. Il risultato? Fanno danni più degli umani

✅ Questo video è offerto da: https://www.longwave.it/

Ad Amsterdam costruiscono un social senza persone. Dentro ci sono 500 bot che postano, si seguono, si ripostano, tutti basati su ChatGPT. Volevano capire una cosa semplice: se togli gli umani dai social, spariscono odio e polarizzazione? Non avete idea di cosa è successo: seguite fino alla fine, perché quello che emerge cambia come pensiamo ai social.

La risposta è… no! Anche senza persone, la rete crea da sola bolle, amplifica gli estremi e concentra tutto su pochi account. È il sistema stesso a produrre veleno. Petter Törnberg ha scoperto che non sono solo i contenuti tossici a fare danno, è la struttura della rete che li spinge in alto. Quando un post estremo prende trazione, si attiva un ciclo che lo porta in cima, il resto scompare. Qui non parliamo di “mele marce”, parliamo dell’intero cesto.

Hanno provato a “aggiustare” la piattaforma con sei interventi: feed cronologico, ridurre la viralità, nascondere follower e repost, togliere le bio, spingere punti di vista opposti. Non basta. In certi casi peggiora. Il feed cronologico, per esempio, ha fatto emergere ancora di più i contenuti estremi. Noi lo vediamo ogni giorno: la meccanica premia chi urla.

Per cui il problema è che con l’AI la cosa si fa seria. Non ci sono più solo troll in carne e ossa: ci sono macchine che generano migliaia di post polarizzanti fatti per monetizzare attenzione. La “piazza digitale” è un mito. Non l’hanno uccisa gli utenti, l’hanno uccisa le dinamiche di rete, ora accelerate dall’AI.

Noi un’idea ce la siamo fatta. Voi nei commenti diteci se pensate che i social siano recuperabili o se serve ripartire da zero. Se volete restare aggiornati su come l’AI sta riscrivendo le regole dei social, assicuratevi di aver cliccato su “Segui”.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

105 – Immaginate un mondo senza negozi. Vi piace?

Immaginate un mondo senza negozi. Vi piace?

✅ Questo video è offerto da: https://www.longwave.it/

Immaginate un mondo dove ogni cosa si compra online. Sembra comodo, no? Fino a quando ti serve qualcosa subito, e scopri che puoi riceverla in un’ora solo se vivi a Manhattan. Altrove no. Altrove devi aspettare. O rinunciare.

Poi un giorno ti accorgi che il negozio sotto casa ha chiuso. E quello accanto pure. La via dove camminavi è diventata silenziosa, senza luci, senza voci, senza odore di pane o di carta stampata. È successo piano piano, mentre cliccavamo “acquista ora”.

Noi non siamo contro il digitale. Ma se c’è qualcosa da difendere oggi, sono i negozi. Perché dietro ogni bottega c’è una persona che ti conosce, che ti saluta per nome, che sa che tipo di latte prendi. C’è una chiacchiera, un sorriso, un consiglio. C’è una parte di umanità che non si può spedire in un pacco.

Comprare nei piccoli negozi è un gesto politico. Forse costa un euro in più, ma vale molto di più: vuol dire scegliere un futuro in cui possiamo ancora scendere a comprare un litro di latte, parlare con qualcuno, sentire che facciamo parte di una comunità.

Altrimenti finiamo chiusi in casa, circondati da scatole e notifiche. E quella, diciamolo, non è vita. È logistica.

#DecisioniArtificiali #MCC #Documentario #AI #longwave

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

104 – L’AI sta già licenziando… quelli che non usano l’AI

L’AI sta già licenziando… quelli che non usano l’AI

Qui negli Stati Uniti quasi metà dei lavoratori ha paura. Ma non di quello che l’intelligenza artificiale potrebbe fare, di quello che sta già facendo. Secondo una ricerca dell’American Staffing Association, il 47% dei lavoratori teme che l’AI possa rendere il proprio lavoro inutile. Tra i Millennial la percentuale sale al 56%. Più di uno su due: una generazione intera che ha capito perfettamente cosa sta arrivando.

E non parliamo solo di operai o magazzinieri. Parliamo di marketer, impiegati, consulenti, persone con studi e competenze. Tutti consapevoli che l’intelligenza artificiale non è una moda: è un cambio di regole. Silenzioso, ma irreversibile. Sei aziende su dieci la usano già, ma solo tre lavoratori su dieci si sentono davvero pronti. Il resto naviga a vista. E indovinate chi verrà tagliato per primo? Quelli che non la usano. Perché sono meno efficienti di chi la usa. Semplice.

Qui non si parla di “essere pronti al futuro”, si parla di sopravvivere al presente. Quando un sistema amplifica ciò che fai, in meno tempo, con meno errori e a costi più bassi, la domanda è una sola: perché dovrebbero pagare chi non lo usa?

L’AI non è un aiuto. È l’aiuto. Come il computer negli anni Ottanta, quando ha sostituito chi classificava documenti a mano. Entra in azienda, taglia i tempi, riscrive i processi, elimina intere funzioni. E lo fa senza chiedere permesso. Chi non si adatta resta fuori. Non domani. Adesso.

E se volete capire come restare dentro, assicuratevi di aver cliccato su “Segui”.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

103 – OpenAI ha costruito un mostro che premia le bugie

OpenAI ha costruito un mostro che premia le bugie

Il problema non è che le AI inventano. Il problema è che sono state addestrate proprio a farlo. OpenAI lo ha ammesso: i modelli vengono valutati come studenti sotto esame, e indovinare conta più che dire “non lo so”. Un errore strutturale gigantesco. Hanno premiato la bugia elegante invece dell’onestà scomoda.

Io e altri esperti lo ripetiamo da anni: quando un modello dà una risposta sicura e sbagliata, la sua utilità si azzera. E più diventano potenti, più peggiorano. Qui negli Stati Uniti lo chiamano “confident wrong”. È il difetto di design peggiore: un sistema che preferisce sembrare intelligente piuttosto che riconoscere i propri limiti.

Il paper di OpenAI è chiarissimo: bisogna ribaltare le regole del gioco. Penalizzare gli errori sicuri più dell’incertezza. Dare credito parziale a chi ammette il dubbio. In pratica: smettere di premiare la roulette delle risposte a caso e dare valore all’umiltà di dire “non so”. Per anni, invece, hanno spinto nella direzione opposta.

La realtà è che l’intera industria si è infilata in un vicolo cieco. Se le classifiche continueranno a valutare solo l’accuratezza, i modelli continueranno a indovinare per scalare i ranking. Anche GPT-5, che OpenAI assicura sbagli meno, non ha convinto nessuno. Non bastano le promesse: servono criteri nuovi, ora.

La lezione è brutale: un’AI è quello che i suoi creatori decidono di premiare. Se premi la menzogna, otterrai soltanto menzogne sempre più raffinate.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

102 – Truffe invisibili che ti prosciugano il conto, come non cascarci

Truffe invisibili che ti prosciugano il conto, come non cascarci

C’è la truffa del cosiddetto “social escrow” nelle vendite private online. Metti in vendita un oggetto su un marketplace e ti dicono che un servizio terzo trattiene i soldi per sicurezza. Per “completare”, però, devi versare una commissione o installare un’app che chiede permessi invasivi. Quella app può leggere notifiche o accedere ai pagamenti e alla banca.

Usa solo piattaforme che già conosci, e non installare mai app chieste da un acquirente.

E poi c’è il QR sul parchimetro, versione furtiva. Ti fermi, vedi il QR per pagare il parcheggio, lo scansioni e all’apparenza sembra tutto regolare. Spesso, però, qualcuno ha incollato sopra il QR vero un adesivo con un codice che porta a una pagina clonata per il pagamento. Inserisci i dati della carta e i soldi finiscono altrove.

Controlla sempre che il QR sia parte della macchina ufficiale, usa l’app o il sito del comune o paga con l’app della tua banca.

Seguitemi, perché nei prossimi giorni ve ne segnalerò ancora, e se vi è capitato di incrociare altre truffe fatemelo sapere nei commenti.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

101 – I cani soldato che ammazzano le persone e decidono chi deve morire

I cani soldato che ammazzano le persone, e già decidono loro chi deve morire

Camminano come animali, sparano come soldati. Nei video trasmessi dalla CCTV compaiono i nuovi “lupi robot”: quadrupedi metallici con un fucile d’assalto fissato sulla schiena. Non giocattoli, ma macchine da guerra. Si muovono tra le truppe cinesi, salgono scale, mantengono l’equilibrio sotto il fuoco e colpiscono fino a cento metri di distanza. Uno comanda, gli altri obbediscono.

Ma il problema è molto più grande! Seguitemi che vi spiego. Nel 2024 erano stati mostrati in una fiera militare. Oggi li vediamo dentro vere esercitazioni, accanto ai soldati. La Cina li sta già inserendo nelle manovre dell’esercito.

Per ora hanno limiti tecnici: batterie che durano poco, peso elevato, ricariche lente. Intanto però quei robot armati si muovono in branco, insieme a uomini. Non servono solo a combattere: servono a intimidire, a mostrare potenza, a trasformare la guerra in un esperimento automatizzato.

E il vero punto è che decidono loro cosa fare, a chi sparare, chi uccidere. Non c’è più l’uomo dietro che decide. È l’intelligenza artificiale dentro quei robot che valuta quanto uccidere un umano. Non è gravissimo?

Chi guarda li chiama “innovazione militare”. Noi dobbiamo chiamarla per quello che è: disumanizzazione.

Scrivetemi nei commenti cosa ne pensate: progresso o follia?

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

99 – Scuola e AI: la nuova analfabetizzazione digitale

Scuola e AI: la nuova analfabetizzazione digitale

L’intelligenza artificiale che corregge i compiti non è fantascienza, è già realtà. Qui negli Stati Uniti alcune scuole usano software per dare voti agli studenti. ETS, quelli del SAT, ha fatto un test su 13.000 saggi e i risultati hanno mostrato discriminazioni: gli studenti asiatici venivano penalizzati più degli altri. Perché l’AI non capisce il contesto, non coglie l’originalità. Conta quante parole usi, come costruisci la frase, e il giudizio diventa un quiz automatico.

Nel frattempo ogni giorno c’è un nuovo caso di plagio con ChatGPT. A Boston uno studente ha perso un ricorso dopo essere stato bocciato per aver usato l’AI in un progetto. Ma il problema non è chi copia e chi controlla: il problema è la velocità della tecnologia. Le piattaforme hanno messo sul mercato strumenti potentissimi senza regole, senza pensare alla scuola, senza preparare insegnanti e studenti a gestirli.

Il punto più grave è che nasce una nuova disuguaglianza. Non tra chi ha o non ha un computer, ma tra chi sa chiedere all’AI e chi non lo sa fare. Negli Stati Uniti metà delle università non offre ancora accesso istituzionale agli strumenti generativi, e così chi ha mezzi e conoscenze impara prompt engineering, capisce bias e limiti, e parte avvantaggiato. Gli altri restano indietro, incapaci di distinguere un ragionamento da un copia-incolla. È la nuova forma di analfabetismo digitale.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

97 – Il ragazzo che ha reinventato le protesi

Il ragazzo che ha reinventato le protesi

All’inizio c’è solo un ragazzino curioso. #EastonLaChappelle, 14 anni, vive qui negli Stati Uniti, in Colorado. Passa le giornate a smontare giocattoli, a costruire piccoli robot con pezzi di recupero. Non ha soldi, non ha un laboratorio, solo un garage e tanta ostinazione.

Poi, l’incontro che cambia tutto. A una fiera della scienza conosce una bambina. Ha una protesi di braccio: è rigida, pesante, quasi inutilizzabile. E i suoi genitori hanno pagato più di 80.000 dollari. Easton resta scioccato: com’è possibile che per quella cifra un bambino riceva così poco? Ma soprattutto vede la felicità della bambina quando lui le mostra un prototipo fatto con Lego che si muove davvero. Per lei è magia. Per lui è una rivelazione.

Da lì nasce l’ossessione. Le aziende producono protesi costosissime, fuori dalla portata di quasi tutte le famiglie. Easton non accetta questa ingiustizia. Torna a casa e si mette al lavoro, con un vecchio computer, Lego e una stampante 3D che impara a usare da solo. Passa anni a provare, sbagliare, ricominciare. I motori si bruciano, i circuiti non funzionano, ma non si ferma.

A 17 anni riesce. Costruisce una protesi leggera, personalizzata, controllabile con i segnali del cervello e dei muscoli. Non un prototipo da fiera, ma una vera alternativa a un decimo del prezzo. La bambina che aveva incontrato anni prima riceve una nuova protesi e la sua vita cambia: finalmente può muovere le dita, afferrare oggetti, sentirsi autonoma. Non è più spettatrice, è protagonista della sua vita quotidiana.

Quel momento diventa simbolo. Easton fonda Unlimited Tomorrow, porta le sue protesi nel mondo. Obama lo invita alla Casa Bianca, la NASA lo chiama a collaborare. Ma il riconoscimento più importante è negli occhi di chi indossa quelle protesi e riacquista libertà.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

96 – Dopo il dark web arriva il pericolo della Dark AI

Dopo il dark web arriva il pericolo della Dark AI

Prima servivano hacker esperti, mesi di lavoro e software avanzati. Oggi basta pagare sul dark web e scaricare una Dark AI.

WormGPT scrive malware su misura in pochi secondi, pronto a colpire banche o aziende. FraudGPT genera email di phishing che sembrano arrivate davvero dal tuo capo o dalla tua banca, senza errori né sospetti. DarkBard produce deepfake in diretta: clona voce e volto durante una call Zoom, risponde alle domande in tempo reale, inganna tutti.

Gli esempi lo dimostrano. Hacker nordcoreani hanno usato curriculum scritti da AI e interviste deepfake per farsi assumere e rubare dati aziendali. Charming Kitten, gruppo iraniano, ha potenziato le sue campagne di spear-phishing con LLM capaci di scrivere messaggi personalizzati e credibili. In Europa, un consiglio di amministrazione ha visto “partecipare” dirigenti finti generati dall’AI, che hanno parlato, commentato e persino votato.

La differenza rispetto a prima è netta. Non più attacchi lenti e grezzi, ma campagne automatiche, simultanee, raffinate. Dove serviva un team di esperti, oggi basta un utente qualunque con accesso a un black hat GPT.

La Dark AI non buca solo i sistemi. Distrugge la fiducia. Una voce, un volto, un documento digitale non sono più garanzia di verità. È il salto dall’attacco tecnico all’attacco cognitivo.

#DecisioniArtificiali #MCC #Documentario

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

95 – Le lauree saranno totalmente inutili?

Le lauree saranno totalmente inutili?

Jad Tarifi, ex Google e primo a guidare un team di generative AI, ha detto che studiare legge o medicina oggi è tempo perso. Tanto arriva l’intelligenza artificiale e farà tutto meglio. Sembra una verità scomoda, invece è piena di contraddizioni.

Il problema non è il pezzo di carta. La laurea in sé rischia di ridursi a una spunta burocratica. Ma conta il percorso. Anni che ti insegnano a ragionare, a leggere il contesto, a prendere decisioni. A sbagliare e rimetterti in piedi. Senza questo diventi solo un utente passivo, che copia e incolla quello che l’AI produce.

Tarifi dice che medicina e legge sono memoria. Sbaglia. Non è ricordare un protocollo o una sentenza. È interpretarli, pesarli, assumersi la responsabilità di usarli. L’AI ti porta le informazioni, ma non si siede al capezzale di un paziente. Non si alza davanti a un giudice.

Ed ecco la contraddizione. Tarifi liquida le università, ma il mercato del lavoro a New York continua a chiedere lauree e master seri. Non corsi online di due settimane, ma percorsi veri, meglio se nelle top universities. Perché qui se vuoi lavorare ad alto livello devi dimostrare di saper pensare.

Senza formazione rischiamo di crescere una generazione che non ragiona più. Che prende per oro colato quello che un algoritmo sputa fuori. Una massa di operatori passivi, disconnessi, ignoranti.

Allora la domanda è una sola: il titolo di studio non serve più, o è l’unico antidoto per non restare prigionieri della macchina?

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

94 – Scuola: tablet e lavagne digitali non bastano più

Scuola: tablet e lavagne digitali non bastano più.

✅ Questo video è offerto da: https://www.longwave.it/

Per anni ci hanno venduto l’illusione che bastasse riempire le classi di tablet e appendere una lavagna digitale al muro per dire di avere una scuola moderna. Una facciata tecnologica che in realtà è già obsoleta: oggetti costosi che fanno scena nelle conferenze stampa, ma che cambiano poco o nulla nel modo in cui i ragazzi imparano.

Il mondo intanto si muove. In Australia il dipartimento dell’istruzione ha creato EdChat, un chatbot ufficiale per studenti: migliaia di domande ogni settimana, risposte in tempo reale, supporto per compiti e spiegazioni. È un sistema che non sostituisce gli insegnanti, ma li affianca, liberandoli da compiti ripetitivi. In India diverse scuole private stanno sperimentando piattaforme AI che analizzano il pensiero critico degli alunni già alle elementari, segnalano errori invisibili a occhio umano e propongono esercizi personalizzati. In Finlandia alcuni istituti testano AI per adattare i programmi al ritmo di ogni studente, invece di imporre un percorso uguale per tutti.

La verità è semplice: i device non bastano più. Tablet e lavagne sono gusci vuoti se dietro non c’è un metodo nuovo. Leggere un libro su un tablet non è innovazione, anzi: è cambiare il mezzo, in peggio, senza cambiare il metodo. Senza ripensare alla didattica.

Chi non integra correttamente il digitale resta con un’istruzione imbellettata, che sembra moderna solo a guardarla da lontano ma dentro è vecchia. Il rischio è chiaro: scuole che continuano a distribuire hardware come fosse la soluzione definitiva, mentre altrove si sperimenta, si sbaglia, si riprova. Se restiamo fermi a credere che basti comprare oggetti digitali, l’istruzione non evolve. Diventa un museo con tablet e lavagne: un’illusione di futuro che non insegna davvero nulla.

#DecisioniArtificiali #MCC #Documentario #AI #longwave

Guarda il post »