Categoria: Decisioni Artificiali

I microdocumentari di Marco Camisani Calzolari. Un viaggio per capire come intelligenza artificiale, tecnologia e trasformazione digitale stanno cambiando lavoro, società e potere. Storie reali, casi concreti e riflessioni dirette per comprendere le decisioni visibili e invisibili che le macchine stanno già prendendo per noi. #DecisioniArtificiali #MCC

Decisioni Artificiali

172 – Model collapse. L’AI si sta mangiando i dati

Model collapse. L’AI si sta mangiando i dati, poi decide su di noi

Stiamo saturando il web di contenuti sintetici e poi chiediamo ai modelli di restare fedeli alla realtà. Succede qualcosa che in pochi raccontano, e seguitemi fino alla fine perché riguarda direttamente il lavoro e i soldi di tutti. Il fenomeno tecnico si chiama “model collapse”: quando un modello viene addestrato ricorsivamente su dati generati da altri modelli, oppure su dati contaminati, perde le parti rare e preziose dell’informazione. Spariscono le eccezioni, le sfumature, i casi marginali. Restano risposte medie, pulite, convincenti. Una ricerca pubblicata su Nature mostra che questo degrado è cumulativo: più dati sintetici entrano nel ciclo, più il modello si allontana dalla realtà senza che nessuno se ne accorga.

Noi paghiamo il prezzo dove conta davvero. Decisioni su chi assumere, chi escludere, chi passa un filtro automatico e chi no. Qui negli Stati Uniti, Reuters mi ha raccontato un caso preciso: Amazon ha spento un sistema interno di recruiting perché penalizzava sistematicamente le candidate donne. Nessuna intenzione discriminatoria, solo dati storici sbilanciati trasformati in regole automatiche. Questo è il punto che molti ignorano: il modello non giudica, replica.

Noi stiamo anche chiudendo il circuito. CV scritti con l’AI, annunci scritti con l’AI, screening fatto dall’AI. Le persone iniziano a scrivere per piacere a un algoritmo, le aziende selezionano con un altro algoritmo. La realtà sparisce dal processo. È così che il collasso diventa strutturale.

E con questi numeri, ignorare il model collapse significa accettare decisioni sempre più automatiche, sempre meno controllabili. E quando ce ne accorgiamo, il danno è già incorporato nei dati.

#DecisioniArtificiali #MCC #Documentario #AD

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

Guarda il post »
Decisioni Artificiali

172 – La guerra che non si vede

Tutti guardiamo giustamente alla guerra “delle bombe”, ma c’è un’altra guerra, quella che “spegne le luci”.

Tutti guardano la guerra delle bombe, ma la guerra sta passando da un’altra parte. Seguitemi fino alla fine perché è quella che fa più danni e spesso non capiamo nemmeno chi l’ha iniziata.

Siamo abituati a pensare alla guerra come a missili, carri armati, esplosioni. Quando cade un missile, di solito sappiamo da dove arriva. C’è un radar, una traiettoria, una firma. C’è un nemico riconoscibile. Oggi però il conflitto più efficace è quello che non si vede e non fa rumore. Centrali elettriche che smettono di funzionare. Reti idriche che vanno in blocco. Ospedali che perdono accesso ai sistemi. Trasporti che si fermano. Mercati finanziari che impazziscono per minuti o ore. Non c’è fumo. Non c’è cratere. E spesso non c’è nemmeno una rivendicazione.

Questa è la guerra digitale. Attacchi informatici, sabotaggi software, sistemi automatici messi fuori uso. Colpisce infrastrutture civili prima ancora di quelle militari. Costa meno di un missile, è più difficile da attribuire e crea panico senza sparare un colpo. Qui sta il punto che pochi spiegano. Quando un missile colpisce, scatta una risposta politica e militare. Quando una centrale elettrica si spegne per un attacco informatico, la domanda resta sospesa. È stato un guasto? È stato un errore umano? È stato un attacco? E se è stato un attacco, da chi?

Nel frattempo le decisioni sono sempre più delegate a sistemi automatici. Software che controllano reti energetiche, logistica, difesa, comunicazioni. Sistemi progettati per essere efficienti, non per reggere una guerra ibrida continua. E quando qualcosa va storto, il confine tra incidente e attacco diventa sottile.

Il problema non è solo tecnologico. È strategico. La deterrenza funziona quando l’avversario sa che verrà colpito in risposta. Ma come fai a “deterrere” qualcuno se non riesci a dimostrare chi ti ha colpito? Come reagisci se non puoi indicare un responsabile certo?

Questa guerra fa più danni proprio perché resta sotto la soglia della guerra dichiarata. Non scatena titoli immediati, non mobilita eserciti, ma erode fiducia, sicurezza e stabilità ogni giorno. E quando ce ne accorgiamo, spesso è troppo tardi. Chi controlla i sistemi digitali controlla la vita quotidiana. E oggi quella è la vera linea del fronte.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

171 – Come salvarsi dai deepfake

Come salvarsi dai deepfake. Perché la velocità batte le regole

Un video falso oggi nasce e si diffonde prima di qualsiasi verifica. Seguitemi fino alla fine che vi lascio quattro mosse pratiche per non cascarci, mentre tutti gli altri inseguono.

La catena è sempre la stessa: creazione in pochi minuti, pubblicazione immediata, spinta dell’algoritmo, download, repost, copie a cascata. La verifica richiede tempo umano, la distribuzione è automatica.

Dicembre 2025, Bondi Beach in Australia: dopo un grave fatto di cronaca iniziano a girare immagini manipolate e video alterati. Nel flusso compare anche un deepfake del premier del New South Wales con frasi mai dette. Quando media e autorità chiariscono la falsità, quei contenuti hanno già fatto numeri enormi e i repost hanno già moltiplicato le versioni.

La velocità è misurabile. Uno studio del MIT pubblicato su Science ha mostrato che le notizie false su Twitter venivano ricondivise molto più delle vere e arrivavano più rapidamente a grandi platee, con circa il 70% in più di probabilità di essere ritwittate rispetto a quelle vere. Contenuti che accendono emozioni forti viaggiano più veloci. I video generati con l’Intelligenza Artificiale sono fatti per colpire in quel modo.

Qui negli Stati Uniti circolano deepfake con medici reali usati per promuovere cure a pagamento. Volti autentici, voci credibili, messaggi semplici. Le rimozioni arrivano dopo segnalazioni e controlli, mentre le copie riappaiono su altri account. La clip passa, la smentita passa meno, e arriva quando l’attenzione è già altrove.

Cosa fare quindi? Aprite il profilo che pubblica e guardate lo storico e la data di creazione. Cercate lo stesso fatto su due testate affidabili, non su screenshot e repost. Provate anche a cercare nome e città insieme alla parola “deepfake”, perché spesso la smentita esiste già. Infine segnalate e salvate il link, perché lo stesso video tende a tornare identico su altri profili.

#DecisioniArtificiali #MCC #Documentario #AI

Guarda il post »
Decisioni Artificiali

170 – Se l’AI diventa un pedaggio da pagare saranno guai

Se l’AI diventa un pedaggio da pagare saranno guai.

✅ Questo video è offerto da: #Netco #Niveus (maggiori info nel primo commento)

Stiamo affittando l’Intelligenza Artificiale da poche aziende nel mondo e ci sembra normale. Seguitemi fino alla fine che vi spiego perché questo riguarda il nostro portafoglio e la nostra democrazia.

Ogni volta che usiamo un grande modello di AI, in pratica stiamo usando un pezzo di infrastruttura digitale privata. Qui negli Stati Uniti questi sistemi nascono in poche città, decidono che cosa è accettabile dire, come filtrare i contenuti, quali risposte sono “sicure” per miliardi di utenti.

Il motivo è semplice: addestrare i modelli più avanzati costa cifre enormi, servono migliaia di chip e data center giganteschi. Questo crea una concentrazione di potere tecnologico ed economico che università, enti pubblici e startup non riescono a raggiungere. Chi possiede questi “tralicci digitali” fissa standard, prezzi e condizioni d’uso.

Nella storia, però, le grandi infrastrutture non sono state lasciate solo al mercato. Ferrovie, reti elettriche, la prima Internet sono state costruite anche con soldi pubblici, con regole condivise, con obiettivi dichiarati. Nessuno affiderebbe tutte le linee ferroviarie o tutti gli acquedotti a tre o quattro aziende private senza contropoteri.

Con l’AI stiamo facendo esattamente questo. Molti Paesi, inclusa l’Europa, finanziano piccoli progetti nazionali di “sovranità digitale” che restano però troppo deboli rispetto ai colossi statunitensi e cinesi. Sono isole scollegate, facili da comprare o aggirare.

Esiste un’altra strada: trattare l’AI di base come un’infrastruttura pubblica condivisa. Significa creare consorzi tra Stati, università e imprese per costruire insieme i modelli fondamentali, condividendo potenza di calcolo e dati, come si è fatto in passato nell’aerospazio o nell’energia.

Qualche esempio concreto esiste già. In Europa alcuni centri di ricerca hanno sviluppato modelli di AI pubblici e aperti, messi a disposizione di università, ospedali, amministrazioni. Sono ancora più piccoli rispetto ai giganti commerciali, ma dimostrano che si può progettare AI pensando all’interesse collettivo, non solo all’abbonamento mensile.

L’idea chiave è costruire “biblioteche pubbliche di dati” e infrastrutture di calcolo accessibili, dove chi lavora su sanità, agricoltura, scuola, ambiente possa usare l’AI senza dipendere ogni volta da una piattaforma privata. Questo crea pluralismo algoritmico: più lingue, più culture, più punti di vista nei sistemi che usiamo ogni giorno.

Per cittadini e famiglie la domanda diventa molto concreta: l’AI resterà un servizio in affitto di pochi colossi o diventerà anche un’infrastruttura che governiamo insieme, con regole trasparenti e obiettivi pubblici chiari?

Perché se i modelli di AI sono i nuovi tralicci dell’economia digitale, non basta chiederci se funzionano bene. Dobbiamo chiederci chi controlla l’interruttore.

#DecisioniArtificiali #MCC #Documentario #AD #AI

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

169 – Gli attacchi all’AI che non si vedono, ma che fanno danni veri

Gli attacchi all’AI che non si vedono, ma che fanno danni veri

Oggi molti pensano ancora all’attacco informatico come a un blackout digitale: o ti rubano i dati, o ti spengono i sistemi con un ransomware o un DDoS. Seguitemi fino alla fine che vi spiego un terzo tipo di attacco, più silenzioso, che cambia il comportamento dell’Intelligenza Artificiale e colpisce soldi, salute e lavoro.

Nel modello tradizionale c’era sempre un “momento zero”: server giù, servizi fermi, titoli sui giornali. Il danno era evidente. Con l’AI non serve più spegnere niente. Il sistema resta acceso, continua a rispondere, ma inizia a prendere decisioni diverse, poco alla volta.

Il trucco è nei dati. Molti modelli di AI vengono aggiornati continuamente con nuovi flussi informativi. Se qualcuno riesce a inserire lì dentro dati falsi o manipolati, l’AI impara un comportamento storto. Tecnicamente si parla di avvelenamento dei dati. Nella pratica significa spostare di qualche grado la bussola delle decisioni, senza far scattare allarmi.

Primo esempio, le banche. Un modello di AI valuta le transazioni sospette e i profili dei clienti. Se i dati vengono manipolati, il sistema può iniziare a considerare “rischiosi” i clienti di una certa zona o con certe caratteristiche, anche se hanno sempre pagato tutto in tempo. Risultato: mutui negati, fidi tagliati, famiglie e piccole imprese bloccate per una scelta algoritmica inquinata.

Secondo esempio, la sanità. Soprattutto negli Stati Uniti, dove gli ospedali usano sempre di più strumenti di triage automatizzato, i modelli aiutano a decidere chi vedere prima e chi dopo. Un attacco può spostare le priorità: alcuni gruppi di pazienti vengono sistematicamente penalizzati, altri favoriti. Non si vede nessuna schermata di errore, ma i tempi di attesa cambiano e l’accesso alle cure non è più equo.

Terzo esempio, logistica e forniture. Un’AI che ottimizza rotte, magazzini e fornitori, se manipolata, può iniziare a favorire sempre gli stessi partner o a scegliere percorsi che sulla carta sembrano efficienti, ma che aumentano ritardi e costi reali. Per un grande operatore questo significa milioni bruciati, prodotti deperibili buttati, clienti persi.

La caratteristica comune è una: il sistema funziona. L’app si apre, il sito risponde, i call center lavorano. Non ci sono luci rosse accese. Solo che, lentamente, il cervello artificiale ha cambiato criteri. E lavora al servizio di chi è riuscito a manipolarlo.

Per difendersi non basta più avere backup e firewall. Bisogna trattare i modelli di AI come infrastrutture critiche. Questo significa monitorare nel tempo come cambiano le loro decisioni, registrare le versioni dei modelli, definire soglie oltre le quali scatta un controllo umano. In molti Paesi si discute di standard specifici di auditing proprio per i modelli usati in finanza, sanità e pubblica amministrazione.

A noi cittadini conviene fare domande molto concrete a banche, assicurazioni, ospedali, piattaforme: dove usate l’AI per decidere su di me, chi controlla che quei modelli non siano stati manipolati, chi può fermarli se qualcosa non torna.

La nuova frontiera non è solo l’attacco ai dati o ai server, è l’attacco alle decisioni. Non a caso questa serie si chiama Decisioni Artificiali. Perché sempre più spesso è il software a scegliere al posto nostro, e la vera sicurezza è sapere chi può cambiarne il comportamento.

#DecisioniArtificiali #MCC #Documentario #AI

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

Guarda il post »
Decisioni Artificiali

168 – L’AI non è neutra. Chi la controlla davvero?

L’AI non è neutra. Chi la controlla davvero?

A volte ce lo dimentichiamo. Sullo schermo sembra una cosa che abbia vita propria, quasi più affidabile di noi perché sbaglia meno dell’essere umano. Seguitemi fino alla fine che vi spiego perché questa sensazione è pericolosa, e perché dietro a ogni sistema di Intelligenza Artificiale c’è sempre qualcuno in carne e ossa che prende decisioni per noi.

Quando apriamo un’app, chiediamo una diagnosi automatica, usiamo un chatbot o un sistema di traduzione, ci sembra di parlare con una “cosa”. Un oggetto tecnico, neutro, freddo, imparziale. In ospedale ti dicono che il software riduce gli errori, in banca che l’algoritmo di rischio è più preciso di qualunque analista, nelle carceri americane alcuni sistemi di valutazione della recidiva vengono presentati come più oggettivi dei giudici. Tutto questo costruisce un’idea molto forte: se lo decide l’AI, allora è giusto.

Il problema è che ogni sistema di Intelligenza Artificiale nasce da scelte umane precise. Quali dati usare, quali casi considerare “positivi”, quale errore accettare. In molti ospedali degli Stati Uniti, per anni, algoritmi di triage hanno sottovalutato i pazienti neri perché i dati storici riflettevano discriminazioni già presenti nella sanità. L’AI ha solo amplificato un’ingiustizia statistica, ma chi la usava si fidava di più del software che dei segnali del paziente.

Stesso discorso con i social. Gli algoritmi che decidono cosa vediamo non inseguono la qualità del dibattito pubblico, seguono il tempo di permanenza e il numero di clic. Una clip di odio o complotto che genera molta attenzione viene premiata rispetto a un contenuto informativo più noioso. Qui negli Stati Uniti lo si è visto bene negli scandali che hanno riguardato le campagne elettorali: i sistemi erano “neutrali” solo in apparenza, in realtà ottimizzati per obiettivi commerciali.

Le aziende che sviluppano e gestiscono l’AI non hanno come lavoro difendere i diritti fondamentali. Il loro compito è fare profitti, crescere sul mercato, tenere buoni gli investitori. Niente di male, ma bisogna saperlo. L’etica entra in gioco solo quando diventa un obbligo legale, un rischio reputazionale oppure una buona operazione di immagine. Finché una pratica discutibile non esplode sui giornali o in tribunale, rimane nel sistema come parte del modello.

Per questo è pericoloso parlare di “AI che decide”. L’Intelligenza Artificiale non decide da sola: esegue una logica scritta da qualcuno, su infrastrutture di qualcuno, con dati raccolti da qualcuno. Quando un modello di scoring nega un mutuo, quando un sistema di riconoscimento facciale segnala una persona al controllo di polizia, quando un algoritmo di moderazione cancella un post, c’è sempre una responsabilità umana.

Esistono leggi in merito, ma fanno fatica a entrare. E allora resta una domanda da farsi ogni volta che un’AI entra in una decisione che ci riguarda: chi controlla questo sistema, quali interessi sta servendo, chi risponde quando sbaglia.

Perché l’AI non ha vita propria. Ha la forma che le diamo noi. Se ci dimentichiamo questo, smettiamo di guardare in faccia chi tiene davvero le mani sul volante.

#DecisioniArtificiali #MCC #Documentario #AD #AI

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

167 – Il mercato nascosto dei robot umanoidi

Il mercato nascosto dei robot umanoidi

Il mercato dei robot umanoidi esiste già, muove miliardi e in pochissimi ne parlano davvero. Seguitemi fino alla fine perché vi faccio vedere dove lavorano questi robot, chi ci sta investendo e perché c’entrano anche i nostri soldi, sia in Europa sia qui negli Stati Uniti.

In Cina oggi ci sono più di 150 aziende che costruiscono robot umanoidi: macchine alte più o meno come una persona, con braccia, gambe e sensori, pensate per muoversi in ambienti progettati per gli esseri umani. Non sono solo prototipi da fiera. Il governo cinese li ha inseriti nei piani industriali ufficiali e li considera un pezzo della prossima ondata di Intelligenza Artificiale incarnata, in qualche modo nel metallo.

Uno degli esempi più concreti è UBTech con il suo robot Walker S2. Nel 2025 ha raccolto ordini per oltre 800 milioni di yuan, circa 110 milioni di dollari. Alcuni contratti riguardano i data center: robot che camminano nei corridoi tra i server, aprono porte, leggono indicatori, fanno controlli ripetitivi di sicurezza. Dove prima servivano tecnici in presenza, oggi iniziano ad andare corpi artificiali guidati da software. E prendono decisioni artificiali.

I numeri aiutano a capire la scala del fenomeno. In pochi anni la Cina è passata da meno di 100 robot industriali ogni 10 mila lavoratori a circa 470. È tra i Paesi con più robot per addetto al mondo. I robot umanoidi sono il passo successivo: invece di rifare le fabbriche da zero, si introducono macchine che possono usare scale, corridoi e postazioni nate per le persone.

Non è solo un tema cinese. Qui negli Stati Uniti la corsa è molto forte. Tesla sta testando il suo robot umanoide Optimus nelle fabbriche, per compiti semplici e ripetitivi. Elon Musk ha dichiarato che in futuro una parte molto importante del valore dell’azienda potrebbe arrivare proprio da questi robot, con l’obiettivo di produrre centinaia di migliaia di unità all’anno.

Sempre negli Stati Uniti, in California, la startup Figure ha raccolto oltre un miliardo di dollari in finanziamenti, con una valutazione intorno ai 40 miliardi. L’obiettivo è sviluppare robot umanoidi generalisti per fabbriche, logistica e, nel tempo, anche per le case. In Texas, ad Austin, Apptronik lavora sul robot Apollo, nato in università e oggi testato sulle linee produttive Mercedes.

Se vogliamo capire quanto potranno funzionare questi robot, basta pensare a quanto sono diventati bravi i modelli di Intelligenza Artificiale ad apprendere lo scibile umano e a riprodurlo. Qui accadrà qualcosa di simile, ma applicato ai movimenti.

È un mercato che oggi vale circa 3 miliardi di dollari e potrebbe passare ad almeno 15 miliardi entro il 2030. Secondo Morgan Stanley, entro il 2050 quasi un miliardo di robot umanoidi potrebbe essere in attività, creando un ecosistema da migliaia di miliardi di dollari l’anno tra macchine, software e servizi.

Dove li incontriamo oggi? Per ora da nessuna parte: lavorano in fabbrica, nei magazzini, nei data center, in alcuni valichi di frontiera cinesi. Nel tempo, però, questi robot arriveranno anche nelle case: serviranno a tavola, apparecchieranno, laveranno i piatti, puliranno per terra, porteranno a spasso il cane. È un mercato quasi più grande dell’Intelligenza Artificiale stessa, perché è Intelligenza Artificiale più il fisico.

Questo mercato tocca già le famiglie. Fondi pensione, ETF sull’Intelligenza Artificiale e prodotti legati all’innovazione iniziano a investire in queste aziende e nei loro fornitori. Quando in banca ci propongono un fondo sulla tecnologia o sull’IA, una parte della storia oggi passa anche da questi robot a grandezza umana che camminano silenziosi nelle fabbriche e nei magazzini, lontano dai riflettori, ma sempre più vicini ai bilanci delle aziende e ai nostri risparmi.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

166 – ChatGPT rischia di vendere la verità al miglior offerente

ChatGPT rischia di vendere la verità al miglior offerente.

Se le risposte dell’IA iniziano a dipendere da chi paga, smettiamo di cercare la verità e iniziamo a comprare una versione comoda della realtà. Seguitemi fino alla fine che vi spiego perché questa cosa riguarda i nostri soldi, il nostro lavoro e quello che penseremo tra dieci anni senza nemmeno accorgercene.

Negli ultimi mesi sono spuntati riferimenti alla pubblicità dentro il codice di ChatGPT, e alcuni utenti hanno già visto risposte con marchi commerciali citati in modo un po’ troppo “spontaneo”. È il normale tentativo di una grande azienda di trovare un modello di business stabile su uno strumento che costa moltissimo da tenere acceso. Qui negli Stati Uniti la corsa è chiara: IA generativa per tutti, gratis o quasi, e poi monetizzazione attraverso abbonamenti, accordi con partner e, sempre più spesso, pubblicità.

Il punto è cosa succede quando la pubblicità smette di stare “accanto” alle risposte e comincia a stare “dentro” le risposte. Con Google siamo abituati a vedere la scritta “sponsorizzato” sopra certi risultati. Sappiamo, almeno in teoria, dove finisce l’annuncio e dove inizia il resto. Già oggi quella linea è meno chiara di qualche anno fa, perché la grafica segnala sempre meno la differenza. Ma con i chatbot la situazione cambia ancora di più, perché noi non vediamo una lista di link: vediamo una frase che sembra un consiglio neutrale. Se dentro quella frase ci finiscono i prodotti o i servizi di chi ha pagato, capire dove sta l’interesse economico diventa quasi impossibile.

Immaginiamoci tra qualche anno. Chiediamo all’IA che software usare per la nostra azienda, che università scegliere per nostro figlio, che contenuti studiare per aggiornarci sul lavoro. Se il modello è addestrato, spinto o “ottimizzato” per favorire chi paga, la risposta che riceviamo non sarà più una sintesi ragionevole di fonti diverse, ma un mix costruito a tavolino da accordi commerciali. Noi continueremo a pensare di stare “informandoci”, in realtà saremo dentro un catalogo con i prezzi coperti.

Il rischio non riguarda solo cosa compriamo. Riguarda cosa scriviamo e cosa produciamo noi stessi usando l’IA. Se un giornalista, un insegnante, un medico, un avvocato usano ogni giorno strumenti di questo tipo per preparare testi, documenti, email, presentazioni, e quei testi sono anche solo un po’ orientati da chi paga, nel giro di pochi anni la cultura che ci circonda viene spostata di millimetri ogni giorno. Non ci sarà un grande complotto, ci sarà una somma di piccole spinte. Il manuale scolastico, la brochure della banca, la guida medica, la risposta del chatbot del comune: tutte influenzate a monte dalla logica commerciale di pochi soggetti privati.

Qui negli Stati Uniti lo abbiamo già visto con i social. Algoritmi pensati per massimizzare il tempo sullo schermo hanno finito per favorire i contenuti più estremi, più divisivi, perché tengono incollate le persone. Ora lo schema si sposta dalla bacheca social alla risposta dell’IA. Se l’obiettivo diventa massimizzare il valore per gli inserzionisti, il modello non deve solo “informare”, deve guidare verso certi click, certi servizi, certi partner. È pubblicità che indossa il vestito del consiglio amichevole.

Il problema è che i big dell’IA stanno correndo molto più veloci delle regole. I regolatori discutono, noi esperti li aiutiamo a scrivere linee guida e a imporre trasparenza, ma i modelli si aggiornano ogni poche settimane e i test su nuove forme di monetizzazione partono subito, spesso su gruppi di utenti ristretti. Se aspettiamo di intervenire quando il sistema sarà già ovunque, sarà molto difficile tornare indietro, perché intere filiere economiche dipenderanno da quel modo di fare profitti.

Cosa possiamo pretendere? Innanzitutto una forte separazione tra risposte e annunci, visibile, comprensibile a chiunque, non nascosta dentro il testo. Poi il divieto di usare la nostra memoria conversazionale per costruire profili pubblicitari: se io confido all’IA le mie paure sulla salute o sui soldi, quelle frasi non devono diventare materiale per venderci assicurazioni o investimenti. E poi fare verifiche indipendenti sui modelli, per capire se e quanto i suggerimenti sono influenzati da accordi commerciali.

Perché noi non vogliamo che le risposte dell’IA siano guidate da chi paga, perché questo significa accettare, in qualche modo, che anche la nostra cultura venga scritta da chi può permettersi la fattura più alta. E rischiamo di accorgercene troppo tardi.

#DecisioniArtificiali #MCC #Documentario #AI

Guarda il post »
Decisioni Artificiali

165 – AI e il progetto comune che manca all’Europa

AI e il progetto comune che manca all’Europa

✅ Questo video è offerto da: #EthicsProfile (maggiori info nel primo commento)

Sapete come si costruisce un Airbus? Una parte in Francia, una in Germania, le ali nel Regno Unito, la coda in Spagna. Seguitemi fino alla fine che vi spiego perché questa stessa idea serve oggi per l’Intelligenza Artificiale. Negli anni Sessanta l’Europa da sola non riusciva a competere con i colossi americani dell’aviazione. Allora alcuni paesi decidono di unire industrie, soldi e competenze e nasce Airbus, un consorzio pubblico privato europeo. Ogni paese fa una parte del lavoro, ma il risultato è un unico grande aereo europeo che sfida Boeing.

Oggi l’AI vive una situazione simile. Qui negli Stati Uniti, dove mi trovo, i modelli più potenti nascono quasi tutti tra poche aziende americane e cinesi. In Europa ogni paese lancia il suo progetto nazionale, il suo supercomputer, il suo laboratorio di Intelligenza Artificiale. Tanta energia, ma frammentata. Il risultato è che scuole, ospedali, pubbliche amministrazioni europee spesso usano piattaforme di AI straniere. I dati dei cittadini e i processi critici passano da infrastrutture che non controlliamo. E alcune start up nate con sostegni pubblici finiscono poi assorbite da grandi gruppi extra europei.

L’idea dell’“Airbus dell’AI” è esattamente l’opposto di questa frammentazione: un grande soggetto europeo, pubblico privato, che unisce calcolo, dati e ricerca di più paesi per costruire modelli avanzati al servizio dell’interesse pubblico. Chi ha i supercomputer mette la potenza di calcolo, chi ha grandi archivi affidabili cura i dati per sanità, scuola, trasporti, chi ha aziende software mature trasforma i modelli in strumenti che arrivano a medici, insegnanti, imprese.

Proviamolo a immaginare. Un medico di un piccolo ospedale italiano usa un assistente di Intelligenza Artificiale europeo, addestrato su linee guida cliniche condivise e ospitato su server europei. Un’insegnante in Spagna usa un tutor digitale multilingue, costruito sullo stesso cuore tecnologico ma adattato alla propria scuola. In questo scenario l’Europa non è solo cliente dei modelli di altri. Parteciperebbe alla progettazione delle tecnologie che finiranno negli ospedali, nelle aule, nelle nostre case. È una scelta industriale, ma è anche una scelta di democrazia e di sicurezza.

Airbus dimostra che quando l’Europa decide di fare squadra può competere in settori ad altissima tecnologia. La domanda per chi governa a Roma e a Bruxelles è chiara: continuare con tanti piccoli progetti nazionali oppure costruire davvero un Airbus dell’AI che dia all’Europa un ruolo forte nel mondo digitale dei prossimi decenni?

#DecisioniArtificiali #MCC #Documentario #AI

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

164 – Cosa sta accadendo nel mondo dei contenuti per adulti.

Cosa sta accadendo nel mondo dei contenuti per adulti. L’IA ha cambiato tutto

Il mondo dei contenuti per adulti è sempre stato uno dei motori nascosti dell’innovazione digitale. Seguitemi fino alla fine che vi spiego perché quello che succede lì oggi ci dice dove stanno andando i media, l’identità digitale e anche i nostri dati.

Negli anni Ottanta questo settore ha spinto la diffusione delle videocassette, poi è stato tra i primi a usare lo streaming, i pagamenti online, gli abbonamenti digitali. Per ragioni ovvie è sempre rimasto in ombra, ma è stato un indicatore fondamentale per capire la direzione della tecnologia. Oggi sta succedendo di nuovo, questa volta con l’Intelligenza Artificiale.

Negli ultimi due anni i contenuti creati o ritoccati con l’AI sono esplosi. Piattaforme negli Stati Uniti e in Europa mostrano una crescita fortissima di video generati artificialmente: costano poco, si producono in poche ore, non servono set, attori, troupe. Basta un computer, un modello visivo e qualche competenza di base. Questo abbassa le barriere di ingresso e cambia l’economia di un settore che già vale miliardi.

Il punto più delicato riguarda l’identità. I centri che monitorano gli abusi digitali segnalano un aumento di oltre sei volte, in pochi anni, delle immagini sintetiche non consensuali. Basta una foto profilo sui social perché il volto di una persona venga copiato, inserito in un generatore di immagini e riutilizzato in contenuti che non ha mai girato. Non è un problema solo di celebrità, riguarda persone comuni, studenti, lavoratori, chiunque abbia lasciato tracce visive online.

C’è poi la questione dei dati. Questo settore ha sempre anticipato le innovazioni del web e oggi anticipa anche l’uso dei modelli visivi. Molti sistemi di Intelligenza Artificiale vengono addestrati su enormi archivi di immagini, spesso prelevate da piattaforme di contenuti per adulti. Chi appare in quei video spesso non sa che il proprio corpo e il proprio volto potrebbero essere stati usati per migliorare un algoritmo. Per questo avvocati e associazioni stanno preparando azioni legali sulla proprietà dell’immagine digitale e sulla possibilità di sfruttarla economicamente senza consenso.

Il cambiamento tocca anche il lavoro. Studi di università americane come la New York University avevano previsto che l’automazione avrebbe ridisegnato il settore. Oggi gli avatar sintetici iniziano a superare in popolarità i profili reali: sono disponibili ventiquattr’ore su ventiquattro, aggiornabili in un clic, adattabili in tempo reale alle preferenze degli utenti. Il potere si sposta verso chi controlla gli algoritmi e le piattaforme, non verso chi si espone davanti alla telecamera.

Cosa fare quindi? Servono strumenti di verifica in grado di riconoscere se un volto è reale o generato. Servono piattaforme che reagiscano in modo rapido e trasparente alle segnalazioni di contenuti non consensuali. Servono norme chiare sulla proprietà dell’immagine digitale. E serve educazione, perché molti non immaginano che un semplice selfie possa diventare la base per contenuti artificiali.

Il mondo dei contenuti per adulti è un laboratorio anticipato di ciò che vedremo nel resto di internet. Oggi ci sta mostrando una cosa molto chiara: l’identità digitale è diventata fragile e va protetta adesso. Scrivetemi nei commenti che cosa ne pensate e quale parte di questa trasformazione vi preoccupa di più.

#DecisioniArtificiali #MCC #Documentario #AI

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

163 – Ci possono spegnere la vita digitale, a distanza!

Ci possono spegnere la vita digitale, a distanza!

Qui negli Stati Uniti dal 23 dicembre potrebbe partire un esperimento molto delicato: vedere fin dove un paese può spegnere a distanza una tecnologia usata da tutti. Il caso concreto sono i droni DJI, ma il problema riguarda anche telefoni, auto connesse, telecamere di casa. Seguitemi fino alla fine che vi spiego con esempi reali cosa sta succedendo e perché ci riguarda tutti, anche se non avete mai toccato un drone.

Primo pericolo: gli occhi dall’alto sulle infrastrutture.
Ogni drone registra video, posizione, percorso. Negli USA migliaia di droni DJI hanno volato per anni sopra dighe, parchi nazionali, oleodotti, linee elettriche. Il Department of the Interior ha parcheggiato quasi tutta la propria flotta di droni cinesi perché usati per sorvegliare infrastrutture critiche. Per un governo significa avere in circolazione una mappa molto precisa dei punti delicati del paese, prodotta da sistemi che dipendono da un’azienda in un altro Stato. Lo stesso schema vale per le nostre telecamere smart, i videocitofoni, le app che vedono cosa accade in casa.

Secondo pericolo: l’interruttore a distanza.
I droni ricevono aggiornamenti software e nuove regole di volo via internet. In Florida molte forze di polizia hanno dovuto fermare o sostituire intere flotte di droni DJI dopo regole più rigide, con costi altissimi e mezzi fermi per mesi. I militari ragionano così: se durante un uragano, un incendio o un blackout un aggiornamento blocca una parte importante dei droni usati da pompieri e polizia, i soccorsi rallentano. Ora proviamo a portare lo stesso ragionamento su altri oggetti connessi: auto che non partono, sistemi di allarme che si bloccano, telecamere di sicurezza che smettono di trasmettere proprio quando serve.

Terzo pericolo: il “doppio uso” nei conflitti.
Nella guerra in Ucraina sono stati usati droni commerciali molto simili a quelli che compriamo nei negozi, adattati per individuare obiettivi e trasportare piccoli ordigni. Questo dimostra che lo stesso hardware può entrare in scenari molto diversi, dal matrimonio alle operazioni militari. Quando una quota enorme di questi dispositivi arriva da un unico paese, quel settore entra subito nel ragionamento geopolitico. E vale anche per le infrastrutture digitali che usiamo tutti i giorni: servizi cloud, router di casa, componenti di rete.

E allora se un paese decide di limitare o spegnere i droni di un certo produttore, domani potrebbe fare lo stesso con altri oggetti connessi?
Gli USA hanno iniziato a considerare i droni come parte delle infrastrutture critiche, insieme a reti, energia, comunicazioni. In Europa e in Italia la questione riguarda il livello di dipendenza da un solo fornitore straniero per attività che toccano sicurezza, agricoltura, ispezioni industriali, protezione civile. Alcuni Stati americani stanno già pagando il prezzo della sostituzione rapida delle flotte, con budget che esplodono e servizi che per un po’ funzionano peggio.

Per chi vola per hobby, il 23 dicembre non è la data in cui il drone smette di funzionare. È il momento in cui quel sistema entra in un’area grigia: nuovi modelli più difficili da trovare, ricambi meno accessibili, software con un futuro incerto. Per chi lavora con i droni, da entrambi i lati dell’Atlantico, questa storia è un promemoria molto chiaro: ogni volta che affidiamo pezzi di vita, lavoro o sicurezza a dispositivi connessi controllati da pochi soggetti lontani, stiamo accettando che qualcun altro possa girare un interruttore al posto nostro.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

162 – Guadagnare di più lavorando di meno

Guadagnare di più lavorando di meno: cosa dice davvero McKinsey sull’IA

Se usiamo bene l’Intelligenza Artificiale possiamo lavorare meno e guadagnare di più. McKinsey lo scrive chiaramente studiando il mercato del lavoro qui negli Stati Uniti. Con le tecnologie che abbiamo già oggi si potrebbe automatizzare una fetta enorme delle ore di lavoro pagate, e questo libera centinaia di miliardi ogni anno. La domanda non è se succederà, ma come decidiamo di usare quei soldi e quel tempo.

Noi spesso pensiamo che l’AI serva solo a “tagliare posti”. Il report va in un’altra direzione: persone, agenti artificiali e robot lavorano insieme. Dove l’AI entra davvero, il lavoro umano cambia forma, diventa più decisionale, più relazionale, più concentrato sui casi complessi. In radiologia, ad esempio, il personale è aumentato negli anni in cui arrivavano i sistemi automatici per leggere le immagini, perché il valore si è spostato sulla decisione finale e sul rapporto con il paziente, non sulla pura routine.

Il punto interessante è cosa succede ai salari. I lavori in cui si gestiscono agenti di Intelligenza Artificiale, senza essere programmatori, oggi pagano di più della media. Pensiamo a chi fa finanza, consulenza, progettazione tecnica, insegnamento con strumenti di AI avanzata: in questi ruoli la combinazione “umano + agente artificiale” vale più del lavoro umano da solo. Se quella combinazione permette di fare la stessa produzione in meno ore, lo spazio per contratti migliori c’è davvero.

Qui negli Stati Uniti sta spopolando un’espressione semplice: “AI fluency”. Non vuol dire scrivere codice, vuol dire saper usare bene gli strumenti di AI, capirne i limiti, farsi aiutare da agenti artificiali per scrivere, analizzare, parlare con i clienti, preparare documenti. È una competenza che nelle offerte di lavoro cresce a velocità impressionante. Più noi diventiamo fluenti, più possiamo andare al tavolo a chiedere: stessa produttività, meno ore, parte del guadagno in busta paga.

McKinsey mostra anche un’altra cosa che spesso ignoriamo: le competenze che reggono questa transizione sono le nostre skill umane classiche. Comunicazione, problem solving, gestione, scrittura, relazione con il cliente. Sono richieste sia nei pezzi di lavoro che possono essere automatizzati sia in quelli che devono restare umani. L’AI non azzera queste capacità, le amplifica: un agente scrive la prima bozza, noi la rendiamo sensata, corretta, adatta alle persone.

L’esito però non è scritto. Gli stessi numeri che possono finanziare settimane di quattro giorni, stipendi più alti e più tempo per la famiglia possono essere usati per comprimere il costo del lavoro e allargare i divari. Dipende da quanto siamo pronti, come lavoratori e come cittadini, a pretendere che la nuova produttività non finisca solo nei bilanci delle aziende.

La tecnologia sta aprendo una porta concreta: fare di più con meno ore. Se costruiamo competenze, contratti e regole all’altezza, quella porta porta davvero a guadagnare di più lavorando meno. Se non lo facciamo, saranno gli agenti artificiali a decidere al posto nostro come useremo il nostro tempo.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

161 – L’uomo che ha immaginato il nostro presente digitale

L’uomo che ha immaginato il nostro presente digitale prima di tutti. E nessuno ne parla.

Alan Kay è un nome che incredibilmente pochissimi conoscono. Eppure ha innovato molto più di Steve Jobs. Seguitemi fino alla fine che vi mostro perché il digitale in cui viviamo oggi nasce soprattutto dalla sua visione, non da quella dei grandi fondatori che tutti celebrano.

Noi facciamo sempre lo stesso errore. Confondiamo chi racconta bene il futuro con chi lo ha pensato davvero. Qui negli Stati Uniti gli storici dell’informatica lo ripetono da anni: Alan Kay è il più grande innovatore dimenticato. Di lui, fuori dalle università, non sa niente quasi nessuno. Nel 1972, mentre i computer erano armadi nelle aziende, lui a Xerox PARC progettava il Dynabook, un computer personale portatile, leggero, orientato a bambini e adulti. In pratica l’antenato concettuale di tablet e laptop.

Kay non voleva uno schermo per consumare contenuti. Voleva un ambiente di pensiero. Un dispositivo che aiutasse a capire, creare, simulare. Oggi discutiamo di Intelligenza Artificiale nelle scuole e di compiti fatti dai chatbot. Lui si faceva le stesse domande cinquant’anni fa, con un obiettivo preciso: usare la tecnologia per aumentare la nostra autonomia, non per ridurla.

Poi c’è l’interfaccia. Finestre, icone, mouse, menu, metafora del desktop. Quel modo naturale di usare ogni schermo, dal computer al telefono, è nato proprio nei laboratori PARC in cui Kay era figura centrale. Apple ha trasformato quelle idee in prodotti iconici. Microsoft le ha portate nella vita di miliardi di persone. Ma la struttura mentale di quel modello nasce da lì, non dalle aziende che lo hanno commercializzato.

E infatti il confronto con Jobs è inevitabile. Jobs ha creato oggetti desiderabili. Kay ha immaginato la cornice concettuale che permette a quegli oggetti di esistere. Senza il primo niente iPhone. Senza il secondo niente computer personale come lo conosciamo.

La sua storia ci serve adesso. Viviamo in un’epoca in cui l’AI può scrivere, parlare, scegliere al posto nostro. Rischiamo di trasformare strumenti potenti in scorciatoie mentali. Kay ci avrebbe ricordato una domanda semplice: questa tecnologia ci rende più capaci o più dipendenti.

Alan Kay dimostra che chi inventa davvero il futuro spesso resta fuori dai riflettori. Ma è il suo lavoro che decide il mondo con cui conviviamo ogni giorno, clic dopo clic. Non a caso questa serie si chiama Decisioni Artificiali. Perché le decisioni importanti non vanno delegate.

#DecisioniArtificiali #MCC #Documentario #AI

Guarda il post »
Decisioni Artificiali

160 – Un micro sensore nell’intestino

Un micro sensore nell’intestino per capire meglio ansia, umore e salute digestiva

Hanno trovato il modo di ascoltare in diretta il nostro “secondo cervello”, quello nell’intestino, con un micro sensore più sottile di un capello. Seguitemi fino alla fine che vi spiego perché questa tecnologia può cambiare il modo in cui capiamo ansia, umore e malattie digestive.

Un gruppo dell’Università di Cambridge, insieme alla Thayer School of Engineering di Dartmouth, ha sviluppato un impianto morbido e flessibile che si inserisce tra le pareti dell’intestino e registra l’attività elettrica del sistema nervoso enterico. Lo hanno testato su roditori e maiali, anche mentre sono svegli e si muovono, osservando come i neuroni dell’intestino reagiscono al cibo, allo stress, alla pressione fisica. Finora questi segnali erano quasi impossibili da misurare in condizioni reali perché gli esperimenti si facevano in anestesia e l’intestino è in continuo movimento.

Questo è importante perché da anni studi clinici collegano l’asse intestino-cervello a disturbi come sindrome dell’intestino irritabile, ansia, depressione, Parkinson. Qui negli Stati Uniti diversi centri lavorano su microbiota e umore, ma spesso con dati indiretti: questionari, esami del sangue, analisi delle feci. Con un sensore del genere si può finalmente misurare in modo continuo come reagisce il “secondo cervello” a farmaci, dieta, stress. Per chi ha colite ulcerosa, morbo di Crohn o gastroparesi potrebbe diventare uno strumento per personalizzare le cure invece di andare per tentativi.

Resta il tema dei dati: un tracciato continuo dell’intestino è una nuova categoria di informazione sanitaria, molto sensibile. Qui negli Stati Uniti la discussione su chi possiede i dati di salute è già accesa con smartwatch e app. Se tecnologie come questa verranno usate con regole chiare e a favore dei pazienti, però, possono aiutarci a capire quanto il nostro benessere mentale è legato al corpo e aprire una nuova stagione di medicina più precisa e meno basata su ipotesi.

#DecisioniArtificiali #MCC #Documentario #AI

Guarda il post »
Decisioni Artificiali

159 – Le parole che non scriviamo più sui social

LE PAROLE CHE NON SCRIVIAMO PIÙ SUI SOCIAL

Sui social non sono solo le piattaforme a filtrare, siamo noi che cambiamo il linguaggio per paura dell’algoritmo. Seguitemi fino alla fine che vi racconto quali parole molti di noi evitano e poi voglio sapere quali secondo voi fanno davvero paura ai sistemi dei social.

Sempre più spesso vediamo “unalived” invece di dire che una persona è stata fatta fuori in modo violento, “seggs” per indicare rapporti intimi tra adulti consenzienti, “pew pew” al posto di oggetti che sparano proiettili. Sembra un gioco, in realtà è una forma di autocensura: cambiamo le parole per non rischiare che il video venga nascosto, penalizzato o smonetizzato. Oppure parole scritte coi numeri invece di alcune lettere o con gli asterischi. Questo anche se le scritte sono nelle immagini…

I creator lo vedono tutti i giorni. Il comico Alex Pearlman racconta che su TikTok evita persino di nominare piattaforme concorrenti, perché quando invita ad andare su un altro servizio le visualizzazioni crollano. Quando ha parlato di un famoso finanziere al centro di abusi e scandali legati a una nota isola privata, più suoi video sono spariti solo da lì, con penalizzazioni sull’account, mentre su altri social restavano. Risultato: ha iniziato a usare soprannomi, allusioni, linguaggio in codice.

Le aziende negano di avere liste segrete di parole vietate, ma sappiamo che in passato piattaforme come TikTok e Meta hanno modificato la visibilità di contenuti “sensibili” e che esistono strumenti interni per spingere a mano alcuni video. Qui negli Stati Uniti questo pesa ancora di più, perché per una fetta enorme della popolazione i social sono già una delle principali fonti di notizie. Se crediamo che certe parole non si possano usare, iniziamo a evitare interi argomenti: violenza politica, diritti, salute mentale, vita affettiva. Le famiglie vedono un dibattito pubblico addomesticato, dove le cose più delicate passano solo travestite da battute in codice.

Per noi il punto è semplice: le piattaforme ragionano in base alla pubblicità e al rischio di finire nel mirino dei regolatori, non in base alla qualità della conversazione pubblica. Se accettiamo senza pensarci di parlare sempre con “unalived”, “seggs” e “pew pew”, stiamo facendo il lavoro al posto loro.

Ora ditemi voi: quali parole ritenete oggi “negative” per gli algoritmi, quelle che evitate di usare perché temete che il vostro contenuto sparisca dal feed?

#DecisioniArtificiali #MCC #Documentario #AI

Guarda il post »
Decisioni Artificiali

158 – Ci stanno rubando l’attenzione, un pezzetto alla volta

Ci stanno rubando l’attenzione, un pezzetto alla volta

Ci stanno rubando l’attenzione ogni giorno. Seguitemi fino alla fine che vi spiego perché la lettura lunga è l’unico modo per riprenderci la mente.

Viviamo immersi in sistemi che ci interrompono di continuo. Ogni notifica spezza il filo. Qui negli Stati Uniti la University of California, Irvine studia da anni come la concentrazione crolli dopo ogni interruzione. La mente non torna subito al punto precedente, si frammenta. Diventa più veloce ma meno profonda. E questo cambia il nostro modo di ragionare.

La lettura lunga è un testo che richiede continuità e tempo. Libri, saggi, articoli estesi, report, inchieste. Non si consumano in pochi secondi. Ti obbligano a seguire un ragionamento, collegare idee, ricordare passaggi. È un esercizio cognitivo, non un passatempo. È ciò che riattiva parti del cervello che nei contenuti brevi restano inattive.

Maryanne Wolf, lavorando tra Stati Uniti ed Europa, ha mostrato come la lettura lunga sostenga i processi mentali necessari per capire, analizzare e valutare. Sono le stesse capacità che ci servono quando affrontiamo decisioni serie nella vita reale, come leggere un contratto o interpretare una diagnosi. La lettura breve queste capacità non le allena.

Ci sono esempi concreti. In Finlandia le scuole hanno introdotto letture lunghe per aumentare la capacità degli studenti di riconoscere manipolazioni online. Negli anni successivi gli studenti sono migliorati nella valutazione critica delle informazioni. Un risultato ottenuto semplicemente allenando l’attenzione.

Anche il lavoro lo dimostra. Boston Consulting Group ha esaminato team internazionali e ha osservato che chi pratica attività di deep work, quindi anche letture lunghe, prende decisioni più solide e commette meno errori. Una mente allenata resiste meglio alla confusione.

Il punto è chiaro. La lettura lunga è una forma di autodifesa. Ricostruisce la capacità di pensare senza farsi trascinare dal ritmo degli algoritmi. Senza questa capacità diventiamo più vulnerabili e meno autonomi.

E ora chiedo a voi: quanto tempo dedicate alla lettura lunga? E quanto vi rendete conto di come la vostra attenzione sta cambiando?

#DecisioniArtificiali #MCC #Documentario #AI

Guarda il post »
Decisioni Artificiali

Con l’AI basta una sola persona per costruire un’azienda intera

Con l’intelligenza artificiale basta una sola persona per costruire un’azienda intera

Qui negli Stati Uniti sto vedendo persone sole costruire aziende intere e arrivare a un milione di dollari di fatturato annuo. Nessun team, nessun ufficio, nessun investimento. Una sola mente e dieci strumenti digitali. Ci sono almeno tre motivi per cui questo conta davvero: soldi, velocità, controllo. Seguitemi fino alla fine, perché se avete un’idea, usando gli strumenti giusti potrebbe essere davvero il vostro momento. E questi sono gli strumenti che utilizzano più frequentemente.

Cursor scrive codice come un senior. Perplexity e Gemini fanno ricerca e validazione. ChatGPT, Claude e Grok pianificano strategie, scrivono testi, organizzano progetti. Midjourney, Figma e Canva curano design e brand. Zapier collega tutto, Calendly e Tidio gestiscono appuntamenti e clienti. Una startup intera in un laptop.

Primo motivo: soldi. Qui negli USA molte startup software nascono con costi fissi quasi nulli. Gli strumenti sono gratuiti o costano poco. Il punto non è risparmiare, è spostare le risorse dalle strutture alle scelte. Se i soldi non finiscono in burocrazia, finiscono nell’iterazione sul prodotto.

Secondo motivo: velocità. Gli stessi strumenti accorciano i cicli decisionali. Testiamo una landing al mattino, analizziamo i dati nel pomeriggio, rilanciamo la sera. La latenza organizzativa sparisce. Questo funziona solo se c’è una regia che sa cosa osservare e cosa tagliare.

Terzo motivo: controllo. Un solo founder vede tutto il funnel. Niente rimpalli tra reparti. Si decide in ore, non in settimane. Ma il controllo senza criterio diventa accanimento. Serve una guida che sappia quando fermarsi, quando riscrivere, quando cambiare direzione.

Questo modello oggi vale per le startup digitali: software, servizi, esperienze online. Se parliamo di prodotti fisici è diverso. Nessuno può creare da solo un’azienda che produce automobili o robot industriali. Almeno non ancora. Ma quando i robot antropomorfi saranno in grado di costruire oggetti, il confine cambierà di nuovo. Lo stesso robot domestico che fa la spesa, porta a spasso il cane e apparecchia la tavola potrà aiutare a prototipare prodotti e ad avviare micro-manifatture in casa. Anche gli aspetti fisici potranno essere coperti e nuove startup nasceranno da una singola persona con un robot al fianco.

Qui sta il punto: gli strumenti amplificano, non sostituiscono la guida. Il fondatore è il regista. Con le stesse luci, gli stessi attori, la stessa tecnologia, due registi fanno due film opposti. Uno diventa un successo, l’altro no. La differenza la fanno le scelte: creative, strategiche, di relazione con il prodotto e con il mercato.

E questo evidenzia un aspetto centrale: l’uomo e la sua capacità di scegliere restano insostituibili. I soft skills, la conoscenza del mondo, la capacità di affrontare i problemi e di distinguere la strada giusta da quella sbagliata restano nelle nostre mani.

Dobbiamo affrontare il cambiamento con un approccio diverso. L’intelligenza artificiale non sostituisce l’uomo. Rende inefficienti quelli che non la usano.

Potete avere la stessa “troupe” digitale di chiunque, ma sarà la vostra regia a decidere se il film sarà un successo o un flop.

Non a caso questa serie si chiama Decisioni Artificiali. Perché il potere, oggi, non sta negli strumenti. Sta nelle scelte.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

156 – L’uomo che ha detto no a milioni per lasciarci VLC gratis

L’uomo che ha detto no a milioni per lasciarci VLC gratis

✅ Questo video è offerto da: http://netconiveus.com/

VLC, il programma per visualizzare video più usato al mondo, è gratuito. Senza pubblicità. E lo è grazie a un solo uomo. Seguitemi fino alla fine, perché questa è la storia di chi ha detto no a milioni per difendere la nostra libertà digitale.

Lui è Jean-Baptiste Kempf. Francese, informatico, inventore di VLC Media Player. Quel programma con l’icona del cono arancione che tutti abbiamo usato almeno una volta. Tutto inizia negli anni ’90, all’École Centrale di Parigi. Kempf lavora con altri studenti a un progetto per trasmettere film all’interno del campus. Nasce così VLC: un lettore capace di aprire qualsiasi formato video, senza scaricare codec. Funziona ovunque. Gratis. Quando VLC esplode nel mondo arrivano le offerte: pubblicità, versioni a pagamento, pacchetti “premium”. Parliamo di decine di milioni di dollari. Ma Kempf rifiuta tutto.

Decide che VLC resterà libero, open source, senza tracciamenti. Perché la tecnologia deve servire le persone, non il mercato. Oggi VLC ha superato i 4 miliardi di download. È ancora gratuito. E non vi spia. Ah, il famoso cono arancione? È un vero cono stradale. Gli studenti li “collezionavano” durante le feste notturne. È rimasto come simbolo.

Cosa impariamo? Che si può dire no ai soldi. Che si può proteggere l’utente. E che a volte il gesto più rivoluzionario… è non vendere niente.

Se conoscevate già questa storia, condividetela. Se non la conoscevate, condividetela lo stesso 🙂

#DecisioniArtificiali #MCC #Documentario #AI #ad #Netco #Niveus

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

155 – L’AI decide chi ci piace. Come cambiano gli incontri romantici

L’AI decide chi ci piace. Come cambiano gli incontri romantici

La vera novità del dating non sono le app, è che ora a decidere chi ci piace è sempre di più l’intelligenza artificiale. Seguitemi fino alla fine che vediamo cosa succede quando una macchina decide le nostre foto, i nostri match e perfino l’idea di “partner ideale”.

Tinder sta testando Chemistry: l’AI fa domande, studia come usiamo l’app e, se diamo il consenso, analizza le foto del rullino per capire interessi e stile di vita, poi propone pochi match al giorno ma più mirati, per ridurre la fatica da swipe infinito. Per il gruppo Match non è un giocattolo, è il pezzo centrale della Tinder del 2026, pensata per far ripartire un mercato in calo.

Già oggi però la scelta delle foto non è più davvero nostra. Con Photo Selector, lanciato nel 2024, facciamo un selfie, apriamo il rullino e l’AI seleziona le immagini “migliori” in base a luce e composizione. Tinder dice che tutto gira sul telefono e che siamo noi a confermare, ma intanto è l’algoritmo che decide il nostro biglietto da visita romantico. E i sondaggi mostrano che molti giovani faticano a scegliere la foto principale e sono felici di farsi aiutare: meno fatica, più match.

Qui il punto si sposta: non stiamo solo usando uno strumento, stiamo delegando una parte della scelta. Prima decidevamo noi quali foto mettere e con chi fare match, ora la macchina costruisce il profilo “ottimizzato” e ci serve una lista corta di persone che, secondo le sue statistiche, ci dovrebbero piacere. Facciamo meno swipe, ma facciamo anche meno scelte. Il dating diventa un servizio chiavi in mano: l’AI organizza sia gli altri, sia l’immagine di noi stessi.

Il prezzo nascosto è nella nostra intimità. Per capire chi siamo davvero, Chemistry chiede accesso al rullino, e nel rullino non ci sono solo selfie riusciti. Ci sono documenti fotografati, screenshot di chat, foto di figli, contenuti sessuali nostri o del partner. Sulla carta è tutto opt-in, ma una volta aperto il cassetto digitale dentro entra di tutto. Per ottenere match più “giusti” chiediamo a una piattaforma di dating di conoscere molto più di quanto racconteremmo mai al primo appuntamento.

Mentre le app usano l’AI per filtrare meglio gli umani, cresce un’altra tendenza: il match con l’AI stessa. Piattaforme come Replika permettono di crearsi un partner virtuale personalizzato in ogni dettaglio: aspetto, voce, carattere. Milioni di persone nel mondo non la usano più solo come “amico digitale”, ma come relazione vera, con legami affettivi forti e reazioni di lutto quando l’azienda cambia il modello e “spegne” quel partner.

Su questo, secondo me, tocchiamo un terreno delicato: il partner AI impara tutto di noi, si adatta, non ci contraddice davvero e non se ne va. Rischiamo di abituarci a un rapporto senza conflitto, senza frustrazione, senza fatica. C’è chi usa questi chatbot per sfogare aggressività e insulti, allenando comportamenti che poi possono uscire anche nelle relazioni reali. Non è più solo dating, è allenamento emotivo fatto con una macchina.

Alla fine il dating con l’AI sta andando in due direzioni. Da una parte l’intelligenza artificiale che sceglie “il meglio degli altri” per noi, filtrando e ordinando gli umani. Dall’altra l’AI che si propone come partner definitivo, sempre disponibile e modellabile. In entrambi i casi spostiamo una parte della nostra vita affettiva su sistemi che non provano emozioni, ma imparano a imitarle benissimo.

La domanda secca resta questa: quanto siamo disposti a lasciare che sia una macchina a decidere chi merita il nostro tempo, la nostra fiducia e, alla fine, il nostro amore.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

154 – Gli studenti universitari usano l’AI e hanno smesso di ragionare

Gli studenti universitari usano l’intelligenza artificiale e hanno smesso di ragionare. Ecco cosa serve fare urgentemente!

In un grande corso di educazione generale alla University of California hanno scoperto che oltre metà degli studenti ha usato l’AI per scrivere il tema dell’esame finale. Ormai il problema è fuori controllo. L’università deve cambiare perché se si va avanti così ci saranno schiere di laureati che non sono in grado di scrivere un tema da soli.

L’università deve cambiare, ma come? Ecco qualche idea. Seguitemi fino alla fine.

Se deleghiamo riassunti, testi e parafrasi smettiamo di allenare comprensione, argomentazione, giudizio. È il rischio subcognitivo. Scendiamo sotto la soglia minima per leggere e pensare con parole nostre.

Poi c’è un altro problema. Sempre in quell’episodio alla University of California il compito chiedeva di discutere lavori recenti di filosofia. Alcuni titoli coincidevano con idee della teologia medievale e molti testi generati con AI sono andati fuori tema, sviluppando l’argomento della teologia medievale e non della filosofia recente. Hanno seguito la pista sbagliata e gli studenti non se ne sono accorti.

Eppure l’università dovrebbe servire a formarci, a leggere, a pensare e ovviamente a scrivere da soli.

Cosa fare quindi?

Ecco qualche idea per l’università.

Telefoni e laptop fuori dall’aula durante certe lezioni. Temi periodici in aula: tema a mano o su computer offline, quaranta minuti, una pagina, consegna immediata. Lettura lunga ogni settimana con verifiche a sorpresa di cinque domande. Riassunti di centocinquanta parole scritti a mano e consegnati a inizio lezione. Lezioni su come usare AI per cercare fonti e controargomenti, mai per scrivere il testo finale. Mini orali di tre minuti per confermare che abbiamo letto. Criteri chiari: comprensione, argomentazione, uso corretto delle fonti, scrittura. Regole rigide: se dubbio su un testo che sia stato scritto con AI, lo si fa riscrivere subito in aula lo stesso giorno.

Perché se deleghiamo la lingua deleghiamo il pensiero. Se deleghiamo il pensiero a cosa serve l’università?

#DecisioniArtificiali #MCC #Documentario #AI

Guarda il post »