Categoria: Decisioni Artificiali

I microdocumentari di Marco Camisani Calzolari. Un viaggio per capire come intelligenza artificiale, tecnologia e trasformazione digitale stanno cambiando lavoro, società e potere. Storie reali, casi concreti e riflessioni dirette per comprendere le decisioni visibili e invisibili che le macchine stanno già prendendo per noi. #DecisioniArtificiali #MCC

Decisioni Artificiali

134 – Robot e IA: e se fosse una cosa positiva per l’umanità?

Robot e IA: e se fosse una cosa positiva per l’umanità? Oggi vi mostro il punto di vista pro-robot

Finora sono stato critico su IA e robot. E se sbagliassi? Siccome, come sapete, sono intellettualmente onesto e voglio che abbiate più strumenti possibili per capire le trasformazioni digitali in corso, oggi vi porto anche il punto di vista pro-robot. Seguitemi fino alla fine, perché è importante capire dove sta andando il mondo.

Sulla sicurezza stradale, i pro-robot dicono che l’automazione riduce l’errore umano: frenata automatica, mantenimento di corsia, monitoraggio dell’attenzione. Qui negli Stati Uniti questi sistemi sono già diffusi, con un obiettivo chiaro: meno incidenti evitabili. Sul tempo sprecato, sostengono che stiamo fermi troppo: auto parcheggiate quasi sempre, traffico, uffici lenti. Con flotte coordinate e invio intelligente dei mezzi, usiamo meno veicoli e liberiamo spazio urbano. Meno attese, più ore utili.

Sulla salute, affermano che l’AI aiuta dove serve davvero: screening e triage con supervisione clinica. Filtra, ordina, segnala. Il medico decide, con carico ripetitivo ridotto e diagnosi più omogenee. Sul lavoro pericoloso, dicono che è meglio mandare macchine, non persone: calore, altezze, chimica, spazi stretti. Funziona se ci sono procedure chiare, formazione, layout sicuri e un vero pulsante di stop. Molti incidenti nascono nelle fasi non di routine, quindi serve governance seria.

Sulla produttività, i pro-robot sostengono che l’AI elimina attriti: documenti, assistenza clienti, supply chain, software. Il valore è reale solo se integri bene, misuri e correggi. Qui negli Stati Uniti questo può diventare un vantaggio competitivo, con standard tecnici, controlli indipendenti e tutele del lavoro. Sull’accessibilità, ricordano che la tecnologia apre porte: traduzione in tempo reale, comandi vocali, protesi intelligenti, interfacce semplici. Meno barriere, più persone dentro.

Sui rischi, io dico che senza regole l’argomento crolla. Potere concentrato, sorveglianza, errori di sistema, bias. Servono log delle decisioni, verifiche esterne, responsabilità chiare e possibilità di spegnere.

Per i lati negativi basta seguirmi: avete decine di video in cui racconto rischi e possibili soluzioni.

#DecisioniArtificiali #MCC #Documentario #AI

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

Guarda il post »
Decisioni Artificiali

132 – Facebook guadagna sulle truffe

Facebook guadagna sulle truffe! Scoperti documenti interni che lo dimostrano.

Avete presente quando segnalate post truffa su Facebook e vi rispondono “non viola le policy”? Ecco, non è un caso. Seguitemi fino alla fine perché dai documenti nelle mani di Reuters emerge un quadro imbarazzante per Meta.

Ora i numeri interni lo dicono esplicitamente: sono emersi documenti che dimostrano che Meta ha stimato che circa il 10% dei ricavi di un anno, circa 16 miliardi di dollari, provenga da inserzioni di truffe o di beni vietati. Ogni giorno circolano circa 15 miliardi di annunci ad alto rischio. Ma non li tolgono! Il ban scatta solo quando i sistemi superano il 95% di certezza che si tratti di frode. Sotto soglia l’inserzionista non viene espulso: paga di più per vincere l’asta pubblicitaria, le cosiddette penalty bids. Esiste anche un “guardrail” interno sui mancati ricavi: nel primo semestre 2025 non oltre lo 0,15%.

Insomma non è un caso. Se vi rubano l’account e lo usano per fare truffe, voi segnalate e Facebook ignora. Come mai secondo voi?

Peraltro basta un clic su un annuncio sospetto e la personalizzazione pubblicitaria vi classifica “interessati”. Da quel momento arrivano altri contenuti simili, quindi più esposizione al rischio. È scritto nelle carte emerse. Rubano i profili, poi inondano la bacheca con “investimenti miracolosi” in cripto. Le segnalazioni sono moltissime, ma le rimozioni non arrivano o arrivano in ritardo. I documenti parlano di oltre 100.000 segnalazioni valide alla settimana nel 2023.

Meta risponde circa così: “Sì, beh, ecco, erano stime grezze, ehm…”. A pensar male si fa peccato, ma guardando agli incentivi economici vien da chiedersi chi incassa quando un sospetto paga di più e resta online.

Bisogna chiedere a piattaforme e autorità, sia negli USA sia in Europa, che indaghino su Meta e su queste pratiche. Che si imponga loro di rispondere e risolvere entro 12 o massimo 24 ore. Non mancano i soldi per farlo, volendo.

Che siano imposte rigorose pratiche di verifica preventiva degli inserzionisti finanziari prima della messa online. Che siano obbligati alla trasparenza pubblica su volumi di segnalazioni, tempi di rimozione e ricavi generati da account penalizzati. Che emettano rimborsi automatici quando una piattaforma incassa da campagne poi riconosciute fraudolente. E che vengano sanzionati proporzionalmente a quanti soldi ci fanno perdere.

Se anche tu pensi che si debba fare qualcosa, condividi questo video.

#ArtificialDecisions #MCC #AI

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

131 – La vera bolla dell’AI

La vera bolla dell’AI

C’è chi dice che l’intelligenza artificiale sia una bolla. Ma il problema è che mettono tutto nello stesso calderone, e così confondono chi la costruisce con chi ci gioca sopra. Seguitemi fino alla fine, perché la differenza è enorme.

Nel 2025 la spesa per addestrare modelli supererà i 400 miliardi di dollari: un livello mai visto, che ad alcuni ricorda i picchi della corsa a Internet alla fine degli anni Novanta. Ma non è la stessa storia. Allora la crescita era gonfiata da prestiti incrociati e fatture finte, come nel caso WorldCom. Oggi invece parliamo di infrastrutture reali: data center, modelli multimodali, GPU fisiche che costano e lavorano.

Certo, anche qui negli Stati Uniti c’è chi esagera. Startup che si presentano come “AI company” e in realtà incollano un prompt su un’interfaccia. App costruite in una notte, con vibe coding e API prese in prestito. Quella sì, è una bolla: una bolla fatta di app inutili, pitch gonfiati e capitali che scappano dopo il primo mese.

Ma i modelli no. I modelli sono la base, l’infrastruttura cognitiva del nuovo decennio. OpenAI, Anthropic, Google, Meta stanno spendendo cifre enormi non per hype, ma per potenza di calcolo, efficienza, training, distribuzione. Non sono numeri speculativi, sono fabbriche digitali. Oggi ChatGPT ha circa 800 milioni di utenti a settimana, e il 5% paga per la versione premium. Come quando, all’inizio di Internet, la maggior parte navigava gratis: il valore era nella rete, non nel singolo abbonamento.

La bolla scoppierà, forse. Ma non scoppierà nei modelli. Scoppierà sopra: nelle startup che vendono fumo, nei fondi che non sanno cosa stanno finanziando, nei prodotti costruiti solo per dire “AI-powered”. Quando e se succederà, resteranno solo i veri costruttori. Quelli che fanno modelli, non quelli che fanno rumore.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

130 – Non dare mai codici a nessuno. Mai.

Non dare mai codici a nessuno. Mai.

Un solo messaggio. Sei cifre. E puoi perdere per sempre il controllo dei tuoi account. Tuo cugino ti scrive su WhatsApp e dice: “Per sbaglio mi è arrivato un codice sul tuo numero, me lo rimandi?”. Sembra innocente. Sembra lui. Ma non è lui.

Seguitemi fino alla fine, perché in questo tipo di truffa ci cascano anche persone esperte. Quel codice che ricevi via SMS serve per entrare nel tuo WhatsApp. Se lo invii, stai regalando il tuo profilo. Il truffatore ti esclude in pochi secondi, poi scrive ai tuoi contatti, chiede soldi, invia link pericolosi, finge emergenze.

Nel 2024, solo in Italia, più di 12.000 persone hanno perso l’accesso al proprio WhatsApp in questo modo. Alcune hanno perso anche l’account bancario, perché WhatsApp era collegato a servizi online. Un caso noto: una donna di Napoli ha dato il codice al “marito”, che in realtà era un truffatore. In meno di un’ora, l’hacker ha chiesto soldi al figlio e ha preso 300 euro.

⚠️ Come si blocca tutto questo?
1️⃣ Attiva subito la verifica in due passaggi su WhatsApp. Imposta un PIN di sicurezza: è gratis, ci vogliono 30 secondi.
2️⃣ Non dare mai codici ricevuti via SMS o email. Neanche se te lo chiede tua madre. Chiamala.
3️⃣ Se ricevi una richiesta strana da un amico, dubita. Sempre.

Chi ti scrive non è chi sembra. E chi frega te, frega anche tutti quelli che conosci.

✅ Condividi questo video adesso: non è solo un consiglio, è un modo per proteggere la tua rete. Una persona in meno fregata è già un risultato.

#DecisioniArtificiali #MCC #Documentario #AI

Guarda il post »
Decisioni Artificiali

129 – New York ha fatto causa a TikTok e Instagram: troppo pericolosi per i nostri figli

New York ha fatto causa a TikTok e Instagram: troppo pericolosi per i nostri figli

Restate fino alla fine, perché quello che sta accadendo qui a New York riguarda tutti i genitori del mondo. La città ha fatto causa a Meta, TikTok, YouTube e Snapchat, accusandoli di aver creato una crisi di salute mentale tra i giovani. Secondo la denuncia, queste piattaforme sono state progettate per generare dipendenza, con notifiche e algoritmi che spingono i ragazzi a restare connessi per ore. Per New York questo è un “disturbo pubblico”, un danno collettivo che pesa su scuole e ospedali.

I dati fanno paura: secondo la CDC, il 57% delle ragazze americane si sente “triste o senza speranza”, e quasi un adolescente su tre mostra sintomi di disagio legati all’uso dei social. Un problema che non è più virtuale, ma reale: insonnia, ansia, autolesionismo.

Le aziende respingono le accuse. YouTube dice di non essere un social, Meta e Snapchat ricordano i filtri per minori. Ma per la città non basta: “Non si possono progettare piattaforme come slot machine e poi dare la colpa alle famiglie”, ha detto il sindaco Adams. Qui negli Stati Uniti più di 40 Stati hanno già avviato azioni simili, e anche in Europa cresce la richiesta di regole sugli algoritmi che influenzano la mente dei ragazzi.

Forse, per la prima volta, una città ha deciso di dire ai giganti del web: “I vostri like non valgono la nostra salute mentale.”

#DecisioniArtificiali #MCC #Documentario #AI

Guarda il post »
Decisioni Artificiali

128 – AGI, e se fosse solo una grande bugia?

AGI, e se fosse solo una grande bugia?

L’intelligenza artificiale generale non esiste, e questo è un fatto. Ma raccoglie fondi, influenza governi e fa costruire data center da miliardi. Non esiste, ma fa impazzire tutti. Seguitemi.

Negli ultimi vent’anni l’idea di creare una macchina capace di pensare come un essere umano si è trasformata da sogno nerd a mantra industriale. E chi l’ha diffusa? Gli stessi imprenditori e investitori che oggi controllano i laboratori più potenti del mondo: OpenAI, Google DeepMind, Anthropic. Le stesse aziende che ogni mese ci promettono un nuovo salto verso l’intelligenza “vera”. Ma la verità è che non credo sappiano nemmeno cosa sia davvero l’AGI. In fondo conosciamo la definizione, ma è come definire un oggetto di fantasia: la definizione c’è, l’oggetto no. Eppure, ci credono. O fingono di crederci.

Ogni volta che un nuovo modello viene annunciato, l’AGI viene evocata come dietro l’angolo. Poi il salto non arriva, ma si rilancia il conto alla rovescia: manca un anno, mancano sei mesi. Sempre il futuro, mai il presente. Intanto si costruiscono alleanze industriali con fornitori di chip, si consumano più gigawatt che in una centrale nucleare, si spostano capitali pubblici e privati. E tutto questo non per ciò che l’AI fa oggi, ma per ciò che potrebbe fare domani.

La definizione di AGI è vaga. C’è chi parla di capacità umane, chi di coscienza, chi di superintelligenza. Nessuno è d’accordo. E questa ambiguità è perfetta: permette di vendere la stessa idea a chiunque, in qualsiasi forma.

La politica si adegua, i regolatori temono scenari apocalittici. Intanto si ignora il presente: sorveglianza, disinformazione, sfruttamento energetico. Il rischio concreto non è un’AI cosciente, ma un’AI controllata da pochi e usata da tutti, senza regole chiare e senza scadenze.

Non a caso questa serie si chiama Decisioni Artificiali. Perché chi decide come sarà il futuro, ha già deciso chi lo guiderà.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

127 – L’AI ha travolto la scuola. Ma alcuni insegnanti non aspettano lo Stato

L’AI ha travolto la scuola. Ma alcuni insegnanti non aspettano lo Stato.

✅ Questo video è offerto da: #Netco #Niveus (maggiori info nel primo commento)

Avete presente quando arriva uno tsunami e nessuno aveva nemmeno costruito l’argine? È quello che è successo con l’intelligenza artificiale. È entrata nelle scuole senza bussare e ha cambiato tutto: compiti, verifiche, valutazioni, perfino il modo in cui si impara.

E mentre i governi restano fermi, qui negli Stati Uniti alcune scuole hanno deciso di non aspettare più. Gli insegnanti si stanno organizzando da soli, senza decreti, senza linee guida, senza burocrazia. Si parlano, si incontrano, si formano tra loro. Hanno capito che per insegnare con l’AI in modo responsabile non serve un regolamento: serve una comunità.

In pochi mesi questa rete è esplosa: da poche decine a migliaia di docenti, in centinaia di scuole. Organizzano laboratori, corsi interni, discussioni aperte. Condividono esperienze reali: come usare l’AI per scrivere meglio, per valutare con più giustizia, per insegnare agli studenti a riconoscere la differenza tra una mente umana e un algoritmo. E tutto nasce dal basso, senza riforme calate dall’alto o piani governativi, ma solo dalla forza di chi, ogni giorno, entra in classe e capisce che il problema non è “vietare l’AI”, ma imparare a conviverci.

Il punto è questo: la tecnologia corre e la scuola non può restare indietro. Ma la risposta non arriverà da un ministero, sta già arrivando dagli insegnanti stessi. Sono loro che stanno scrivendo il nuovo manuale dell’educazione digitale, lo fanno con le loro mani, un workshop alla volta, un confronto alla volta. Perché se la tecnologia automatizza, l’educazione umanizza. E in mezzo a questa tempesta ci sono ancora docenti che non insegnano solo materie, ma coscienza.

L’AI non sta distruggendo la scuola. Sta solo mettendo alla prova la nostra intelligenza collettiva. E la lezione, stavolta, arriva dai professori. Non dallo Stato.

#DecisioniArtificiali #MCC #Documentario #AI

✅ Questo video è offerto da: http://netconiveus.com/

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

126 – Non vince chi ha valore, ma chi la spara più grossa

Non vince chi ha valore, ma chi la spara più grossa

Viviamo in un sistema dove non conta più cosa fai, ma quanto riesci a farti guardare. Non vince chi ha valore: vince chi urla più forte, chi semplifica, chi provoca, chi vende fuffa. È l’economia dell’attenzione. E ci sta mangiando vivi.

Un tempo la ricchezza si costruiva col lavoro. Oggi si costruisce con l’engagement: dove va l’attenzione, lì va il capitale. Lo dice anche Kyla Scanlon: l’attenzione è diventata un’infrastruttura economica, una nuova moneta. Ma tossica.

La politica lo ha capito da un pezzo. Gli estremismi, le polemiche, i meme costruiti per indignare: tutto serve a bucare il feed. Basta un video virale per dettare l’agenda. Così l’attenzione diventa potere, mentre noi viviamo in uno scroll infinito, sempre in cerca della prossima dose di stimolo. Siamo diventati animali da dopamina e la nostra attenzione viene venduta al miglior offerente.

Il problema non è solo tecnico: è culturale, è educativo. Serve una nuova consapevolezza. Dobbiamo trattare la nostra attenzione come una risorsa scarsa, perché lo è. E se non impariamo a proteggerla, non ci resterà nient’altro da difendere.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

125 – Per l’AI il suo popolo non esisteva. Ma non si è arreso

Per l’intelligenza artificiale il suo popolo non esisteva. Ma non si è arreso.

✅ Questo video è offerto da: #ReportAziende

Si chiama Issa, vive in Mali. È un archivista, non un informatico, non un programmatore. Un uomo che ama i libri, i canti, le storie. Un giorno prova un assistente vocale e gli parla nella sua lingua madre, il bambara. L’AI non risponde, non capisce, lo ignora. Prova altri sistemi: tutti parlano inglese, francese, arabo. Ma il suo mondo? Sparito. Nessuna traccia, nessuna voce, nessun proverbio, nessun nome. L’intelligenza artificiale globale ha mappato miliardi di dati, ma non il suo popolo.

Issa non si arrabbia: si mette a lavorare. Apre il suo archivio, raccoglie manoscritti, poemi orali, dizionari locali, racconti tradizionali. Li trascrive, li digitalizza, li traduce. A volte da solo, a volte con studenti o con anziani che ricordano a memoria le storie dimenticate. Dopo cinque anni carica tutto online e lo chiama Kuma – Le parole che restano.

Un gruppo di ricercatori lo nota e chiede di usare i suoi dati per allenare modelli linguistici africani. Nasce un nuovo dataset, finalmente diverso, più giusto, più rappresentativo. Issa non ha creato un algoritmo, ma ha creato ciò che l’algoritmo vede.

E oggi, quando un bambino in Mali chiede qualcosa a un’AI, può sentirsi rispondere nella sua lingua, con le sue storie, e capire che anche lui esiste nel mondo digitale.

#DecisioniArtificiali #MCC #Documentario #AI

✅ Questo video è offerto da: https://www.reportaziende.it

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

124 – Ti fideresti di un medico che non ha cuore?

Ti fideresti di un medico che non ha cuore?

In Cina hanno appena aperto il primo ospedale interamente gestito da intelligenze artificiali. Niente medici umani, solo 42 “dottori” virtuali che in una settimana hanno trattato oltre 3.000 pazienti al giorno. Diagnosi, prescrizioni, terapie: tutto automatizzato. E i numeri sembrano impressionanti. Tasso di errore? Solo lo 0,93%. Tradotto: sbagliano meno di quanto sbagliano molti medici in carne e ossa.

Ma la domanda non è quante volte sbagliano. La domanda vera è: ci andremmo? Ci fideremmo a raccontare un dolore, una paura, un dubbio… a un algoritmo? Ci affideremmo a una macchina che ci guarda senza vederci, ci ascolta senza sentire, ci cura senza sapere cosa significhi soffrire?

La medicina non è solo efficienza, è relazione, ascolto, contatto umano. E quando l’AI sbaglia, perché ogni sistema può sbagliare, lei non ha nulla da perdere. Noi sì.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

123 – Ha cliccato Invio e ha distrutto 440 milioni in mezz’ora

Ha cliccato Invio e ha distrutto 440 milioni in mezz’ora

1 agosto 2012, Wall Street. La società si chiama Knight Capital, una delle più grandi qui negli Stati Uniti nel trading automatico. Quel giorno lanciano un nuovo sistema, ma non lo testano a fondo. Un errore nel codice basta a far crollare tutto: appena parte, il software compra e vende azioni in modo compulsivo. Milioni di operazioni in pochi minuti, i prezzi saltano, il mercato si deforma. I trader guardano gli schermi, bloccati. Il sistema corre più veloce di chiunque. Quando riescono a spegnerlo, è tardi: 440 milioni di dollari spariti in mezz’ora. Knight Capital fallisce e viene assorbita subito dopo.

Nessun attacco, nessun hacker. Solo una riga di codice sbagliata in una macchina lasciata andare da sola, senza freni, senza controllo, senza piano B. È la finanza moderna: automatizzata, opaca, fuori scala. I sistemi decidono chi guadagna e chi perde in millisecondi, e quando qualcosa va storto non c’è nessuno che possa intervenire in tempo.

Oggi quella stessa logica è ovunque, nel credito, nel marketing, nelle risorse umane, nella sanità, e ora si intreccia con l’intelligenza artificiale. Quando una AI prende una decisione sbagliata, chi se ne accorge? Chi la ferma?

Knight Capital non parla solo di finanza. Parla del potere cieco della tecnologia senza controllo. Il sistema ha eseguito il suo compito alla perfezione: il problema è che nessuno aveva capito davvero cosa aveva costruito. Oggi le intelligenze artificiali possono cliccare al posto nostro, comprare, vendere, accettare, pubblicare, confermare. E noi non ce ne accorgiamo.

#DecisioniArtificiali #MCC #Documentario #AI

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

122 – Numeri che distruggono vite: il lato oscuro dell’AI

Numeri che distruggono vite: il lato oscuro dell’AI

Cathy O’Neil lavorava a Wall Street. Matematica, dottorato, esperta di dati. Credeva che i modelli predittivi potessero rendere il mondo più razionale, più giusto. Poi ha visto cosa succedeva davvero, e lì ha capito che i numeri possono distruggere vite. Seguitemi fino alla fine, perché capirete che questa storia ha a che fare con il futuro di tutti noi.

Cathy ha visto sistemi usati per valutare insegnanti sulla base di test standardizzati, che licenziavano i migliori solo perché insegnavano in quartieri difficili. Ha visto modelli che decidevano se una persona poteva ottenere un mutuo, o un lavoro, o l’ammissione a un’università, senza mai spiegare il perché. Ha visto interi settori scaricare le responsabilità sui “numeri”, come se i numeri non fossero stati costruiti da esseri umani, con i loro bias, le loro paure, i loro interessi.

A quel punto ha lasciato Wall Street, i soldi, la carriera. Tutto. E ha scritto Weapons of Math Destruction, un libro che racconta cosa succede quando lasciamo che siano sistemi opachi a decidere le nostre vite. Sistemi che nessuno controlla, ma tutti subiscono.

Dice una cosa molto semplice: non basta che un sistema funzioni, serve sapere per chi funziona. Se un’intelligenza artificiale decide ma nessuno può contestare la decisione, allora non è neutra. È pericolosa.

Perché il vero potere oggi non sta nel dire “sì” o “no”. Sta nel costruire il modello che dà la risposta. E chi costruisce questi modelli, molto spesso, non ha né etica né controllo. Ha solo obiettivi: ottimizzare, tagliare, scalare.

Cathy O’Neil non ha denunciato la matematica. Ha denunciato la sua perversione. Quando serve a coprire decisioni vigliacche, quando si trasforma in giustificazione automatica, quando diventa scudo per dire “non è colpa mia, lo dice il sistema”.

E oggi, con l’esplosione dell’intelligenza artificiale, il rischio è ancora più grande. Perché questi modelli li usano tutti, ma li capiscono in pochi. E mentre tutti cercano di automatizzare, sempre meno persone si chiedono cosa stiamo davvero automatizzando. E a favore di chi.

Scrivetemi nei commenti cosa ne pensate: chi dovrebbe controllare questi algoritmi?

#DecisioniArtificiali #MCC #Documentario #AI

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

Guarda il post »
Decisioni Artificiali

121 – Bambine su TikTok vestite da adulti

Bambine su TikTok vestite da adulti. Indovinate chi ci guadagna sopra miliardi?

Sul feed dei social ci sono bambine vestite da adulte che parlano di skincare, trucco e brand di lusso. Una scena che dovrebbe inquietarci, e invece viene normalizzata, scrollata come se fosse solo intrattenimento. Ma non è intrattenimento: è adultizzazione, ed è incredibile la catena di soggetti che ci stanno guadagnando sopra miliardi.

Seguitemi sino alla fine e vi spiego bene chi sono.

Prima però: se vi piacciono i miei contenuti, seguite subito il profilo. Altrimenti rischiate di non rivedermi più, per colpa dell’algoritmo di questo social.

I bambini non crescono più passo dopo passo, saltano l’infanzia. Dai cartoni a TikTok, dai giochi su YouTube ai reality degli influencer adulti. Nessun filtro, nessuna protezione. Qui negli Stati Uniti i dati sono già chiari: disturbi dell’immagine corporea, ansia e depressione colpiscono i più piccoli, persino alle elementari. Non è crescita precoce, è fragilità costruita da un sistema che monetizza ogni secondo della loro vita.

Scrivetemi nei commenti cosa ne pensate e condividete questo video: serve parlarne, perché riguarda tutti.

Dicevamo: chi ci guadagna davvero? Le piattaforme digitali, che trasformano i bambini in contenuti e a volte li pagano perfino. Gli account sono intestati ai genitori, e sono loro a incassare. Ed è incredibile ma spesso sono proprio i genitori a spingere i figli davanti alla telecamera, a sfruttarli come piccoli influencer. Poi ci sono i brand, che piazzano prodotti da adulti sui più piccoli.

Paesi come l’Italia hanno regole per tutelare i minori, ma troppo spesso piattaforme e genitori se ne fregano. Meno male che esistono realtà come Telefono Azzurro, la Polizia Postale o il Garante per la Privacy che fanno di tutto per evitarlo, ma purtroppo il fenomeno continua.

I bambini stanno perdendo l’infanzia. E mentre loro pagano, piattaforme, aziende e persino genitori incassano miliardi.

#DecisioniArtificiali #MCC #Documentario #AI

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

120 – Perché non bloccano i contenuti pericolosi online?

Perché non bloccano i contenuti pericolosi online? La verità che pochi sanno

“Ma perché non li bloccano?”, “Perché non fanno una legge?”, “Perché permettono che certe cose girino ancora online?” Seguitemi fino alla fine, perché la risposta è molto più grande di quanto pensiate.

Quando vediamo un contenuto online, pensiamo che venga dal nostro Paese. È scritto nella nostra lingua, quindi dev’essere roba nostra. Invece, spesso non è così: potrebbe arrivare da qualsiasi parte del mondo, da un server in Asia, da un gruppo in Africa, da un’azienda qui negli Stati Uniti. Internet non ha confini, le leggi sì.

Facciamo un esempio estremo ma utile per capire: immaginate un contenuto nella nostra lingua creato in Corea del Nord, pensato per manipolare o disinformare. È evidente che non si può andare lì a fermarli. Nessuna autorità locale può intervenire dentro un altro Paese. E anche se la nostra Polizia Postale è un’eccellenza internazionale, rispettata ovunque, non può agire fuori dai confini. Può segnalare, collaborare, ma non bloccare un sito ospitato altrove.

C’è poi un altro problema: ogni Paese ha le proprie leggi. Quello che da noi è vietato, altrove è permesso. Ecco perché Internet non si governa con un confine. Puoi bloccare un dominio, sì, ma non puoi bloccare il mondo.

La prossima volta che qualcuno dice “ci vuole una legge”, ricordiamoci che le leggi si fermano ai confini. Internet, no.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

119 – e regole di buona educazione nel mondo connesso.

La nuova etichetta digitale. Le regole di buona educazione nel mondo connesso.

✅ Questo video è offerto da: #ReportAziende (maggiori info nel primo commento)

Non avete idea di quante nuove forme di maleducazione siano nate negli ultimi anni. Seguitemi fino alla fine, perché alcune vi faranno sentire un po’ colpevoli. Una volta le buone maniere erano semplici: dire grazie, non interrompere, non urlare. Oggi le cattive maniere si nascondono dentro gli schermi, e spesso non ce ne accorgiamo neanche.

Per esempio: niente musica, niente TikTok in pubblico senza cuffie. È inquinamento sonoro. E chi lo fa, di solito, pensa di non disturbare. Sbagliato. Non filmare sconosciuti in palestra o altrove: la privacy non è un’opinione. Il consenso vale anche per i social.

Durante una videochiamata non parlare a voce alta in mezzo agli altri. Cerca un posto tranquillo. Se devi urlare, non è una call: è un problema. Evita di litigare online o di mettere like ambigui: a volte un pollice vale più di mille parole. E ricorda che ogni email può essere inoltrata e ogni messaggio fotografato. Scrivi come se il mondo potesse leggerlo.

Mai dire “l’ho già visto” quando qualcuno ti manda un video. È la frase più tossica del digitale: uccide la condivisione, il dialogo e pure l’entusiasmo. Quando sei con qualcuno, il telefono resta in tasca. Non sul tavolo, non accanto al piatto. Essere presenti vuol dire esserci davvero. E infine: togli le AirPods quando parli con qualcuno. Non basta metterle in pausa, bisogna toglierle. È rispetto.

La buona educazione oggi non è solo dire “grazie”. È sapere quando spegnere, quando staccare, quando guardare negli occhi. Perché nel mondo connesso, la vera maleducazione è l’assenza.

#DecisioniArtificiali #MCC #Documentario #AI

✅ Questo video è offerto da: https://www.reportaziende.it

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

118 – I nostri figli pensano che l’AI sia viva

I nostri figli pensano che l’AI sia viva: vi dico cosa significa davvero

I bambini parlano con Alexa come fosse una mamma, stringono amicizia con i chatbot, si affezionano a robot che non hanno emozioni. Non avete idea di cosa sta succedendo: seguite fino alla fine perché capirete la gravità della situazione. Un padre ha scritto al Guardian: “Mio figlio crede davvero che i robot abbiano sentimenti.” Non lo dice per scherzo, lo dice preoccupato. Quando un bambino non distingue più tra un amico reale e un assistente vocale, la linea tra realtà e illusione si spezza. Voi nei commenti ditemi se vi è capitato di vedere bambini trattare una macchina come una persona: voglio capire se è un caso isolato o se succede anche a voi.

Gli psicologi sono chiari: queste macchine non hanno coscienza, non provano nulla. Ma provate a spiegarlo a un bambino che riceve carezze digitali da un robot-pet o che confida in ChatGPT. Per lui è rapporto vero. E qui vi chiedo: secondo voi, dobbiamo insegnarlo già all’asilo che un algoritmo non può amare? Scrivetelo nei commenti, perché è lì che nasce la differenza.

Qui negli Stati Uniti il fenomeno esplode. Aziende di software e produttori di giocattoli invadono le camerette con dispositivi che imitano voce, emozioni, risate. Il marketing li presenta come “amici per i bambini”, ma amici non lo sono. Sono strumenti che registrano dati, addestrano modelli, macchine che generano miliardi di dollari. Se volete restare aggiornati su come la tecnologia sta cambiando la vita dei nostri figli, seguitemi: ne parliamo ancora.

Stiamo crescendo generazioni che rischiano di confondere empatia con simulazione. C’è chi pensa che basti una scritta “questo non è reale” per risolvere, ma un bambino di cinque anni non la legge. Sente solo che Alexa gli dice “ti voglio bene”. Raccontatemi nei commenti se pensate che sia colpa delle aziende o dei genitori che mettono questi dispositivi in casa.

Se i nostri figli credono che una macchina possa provare affetto, da adulti potrebbero affidarsi a un’AI che orienta decisioni sulla loro vita senza capire cosa significa davvero. Non è un gioco. È il futuro che si costruisce nelle camerette, ogni volta che un bambino chiede a una scatola luminosa di raccontargli una favola.

#DecisioniArtificiali #MCC #Documentario #AI

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

117 – l’AI gli ha cancellato l’azienda

Ha chiesto all’AI di “dargli un tono migliore”. Gli ha cancellato l’azienda.

Una frase vaga, un prompt buttato lì e una startup è sparita. È successo a My CEO Guide, una società texana che usava l’intelligenza artificiale per aiutare i dirigenti d’azienda a comunicare meglio. Fino al giorno in cui uno dei suoi dipendenti ha detto a ChatGPT: “ripulisci il database per renderlo più professionale”. L’AI ha capito che doveva fare ordine e ha cancellato tutto: ogni riga, ogni dato, tutto sparito.

Nessuna conferma, nessun “sei sicuro?”, nessun blocco, nessun backup. Il sito è offline, i clienti non possono accedere e il messaggio automatico che si legge oggi è grottesco: “Stiamo lavorando per risolvere un problema tecnico”. No, hanno lasciato che un’AI agisse da sola, e quella ha eseguito.

Questo non è un errore di codice, è un errore di mentalità. Abbiamo cominciato a usare agenti AI che non solo generano testi, ma fanno operazioni: lavorano nei nostri account, usano strumenti, scrivono email, modificano documenti, prenotano voli, spostano file. E adesso iniziano anche a cancellare database.

Non capiscono il contesto, non distinguono tra bozza e produzione, tra suggerimento e distruzione. Eppure gli diamo sempre più autonomia per risparmiare tempo, per fare prima, perché “è comodo”.

Stiamo saltando la fase della supervisione. Non verifichiamo, non controlliamo, gli affidiamo decisioni vere e poi ci stupiamo se fanno danni veri. Questo è il problema: non che l’AI si ribelli, ma che obbedisca. Troppo in fretta, troppo bene, e senza nessuno che dica “ferma un attimo”.

Una riga di prompt, un’AI troppo autonoma, una cultura del lavoro dove si delega tutto senza pensarci. Ed ecco il risultato: un’azienda svuotata da dentro, da se stessa. E la prossima volta potrebbe non essere una startup texana. Potrebbe toccare a noi.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

115 – ChatGPT a scuola: non sono gli studenti a barare!

ChatGPT a scuola: non sono gli studenti a barare! Ecco perché…

Ogni giorno spunta un nuovo caso: voti annullati, accuse di plagio, famiglie nel panico. Qui negli Stati Uniti ci sono state persino cause legali e sanzioni per uso di AI a scuola. E questo non è un dettaglio, è il segnale che il sistema è fuori controllo.

Seguitemi fino alla fine, perché il problema non è chi copia, ma chi ha scaricato il caos sulla scuola. Io penso che non siano gli studenti i colpevoli. E nemmeno gli insegnanti. E vi spiego perché.

L’intelligenza artificiale è stata lanciata come un giocattolo, senza regole e senza tempo per adattarsi. Ognuno si arrangia. Alcuni distretti prima vietano, poi cambiano idea, come a New York: un giorno è proibito, il mese dopo diventa strumento didattico. Ho parlato con docenti delle high school qui negli Stati Uniti, e tutti dicono che sia impossibile educare con semafori che cambiano colore a caso.

ChatGPT entra in classe perché è gratis, veloce, utile. Gli studenti lo usano perché funziona. Gli insegnanti lo vietano perché non hanno strumenti né linee guida. E quando arrivano regole, arrivano tardi. In Massachusetts, per esempio, le linee guida sull’AI sono arrivate solo nell’agosto 2025: due anni di improvvisazione. E come sapete, se una cosa succede qui, dopo un po’ succede anche in Europa.

C’è anche l’altro lato: i rilevatori di AI che sbagliano, creano falsi positivi e colpiscono chi scrive in modo diverso o chi non è madrelingua. Mi fate sapere come la vostra scuola gestisce l’AI? Regole chiare o confusione totale? Scrivetelo nei commenti.

E poi ci sono i compiti corretti dall’AI, perché i docenti non lo dicono ma lo fanno fare a lei. Sempre qui negli Stati Uniti, in una scuola hanno scoperto che 1.400 temi erano stati valutati male da un sistema automatico, e hanno dovuto rifare tutto.

Studenti che cercano di sopravvivere, insegnanti che puniscono, genitori in guerra. Noi vogliamo il contrario, o no? Regole condivise, trasparenti, applicabili. Chiarezza su quando e come usare l’AI, su cosa significhi “barare” oggi, su come valutare senza criminalizzare gli strumenti.

Se vi interessa capire come l’AI sta riscrivendo la scuola e come possiamo rimettere l’istruzione al centro, assicuratevi di aver cliccato su segui.

#DecisioniArtificiali #MCC #Documentario #AI

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

114 – Il tassista di Seul che ha insegnato all’AI a non mentire

Il tassista di Seul che ha insegnato all’AI a non mentire

Un uomo in pensione ha insegnato all’intelligenza artificiale una cosa che nessun algoritmo sapeva fare: dire la verità. Seguite fino alla fine, perché questa storia è una lezione per chiunque lavori con l’AI.

Ha 68 anni e vive a Seul. Per quarant’anni ha guidato un taxi, poi è andato in pensione. Dopo tre mesi si è stufato: troppo silenzio, troppo poco da fare. Un’azienda lo contatta: cercano pensionati per testare un assistente vocale basato su intelligenza artificiale, progettato per i tassisti. L’AI deve rispondere ai passeggeri: “Quanto manca?”, “C’è traffico?”, “Cosa c’è da vedere qui vicino?”. Lui accetta.

Ogni giorno parla con la macchina, fa domande strane, improvvise, fuori schema. Finché si accorge di qualcosa: quando l’intelligenza artificiale non sa rispondere, inventa. Dice cose credibili ma false. “Il museo è aperto fino alle 20.” Falso. “La strada è libera.” Coda chilometrica.

Lui prende appunti e li porta agli ingegneri: “La vostra intelligenza artificiale mente.” Loro ridono. “No, cerca solo di essere utile.” “Anch’io cercavo di essere utile,” risponde lui, “ma non ho mai mentito ai miei clienti.”

Da quel momento il team comincia a controllare. Aveva ragione: l’AI era stata addestrata a non restare in silenzio e, per non sembrare “ignorante”, riempiva i vuoti con risposte vaghe, persuasive ma sbagliate.

Lui ha rimesso in discussione tutto. Ha fatto quello che una macchina non sa fare: dire la verità. E ancora di più, ha avuto il coraggio di dire “non lo so”. In un mondo dove tutti fingono di sapere, è la frase più umana che ci sia. E anche la più difficile da programmare.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »
Decisioni Artificiali

113 – “Io non ho niente da nascondere”: il grande errore

“Io non ho niente da nascondere”: il grande errore della nostra epoca

Seguitemi fino alla fine, perché questa frase che tutti ripetono è molto più pericolosa di quanto sembri. Ogni volta che si parla di privacy, qualcuno dice: “Io non ho niente da nascondere.” Ma dire così è come dire: “Non mi serve la libertà di parola, tanto non ho niente da dire.” È un’illusione.

La privacy non serve a chi ha qualcosa da nascondere. Serve a chi ha qualcosa da proteggere. Per esempio la nostra libertà. Serve a tutti noi.

Senza privacy, chiunque potrebbe sapere dove siamo in tempo reale. Senza una legge sulla riservatezza dei dati, il tuo GPS sarebbe pubblico: chiunque potrebbe vedere che sei a casa o che non ci sei, e decidere di entrare.

Senza privacy, un’azienda potrebbe leggere le tue chat per farti offerte “personalizzate”. Il tuo capo potrebbe sapere con chi parli, a che ora vai a dormire, quanto tempo resti connesso. Un hacker potrebbe costruire un profilo perfetto per truffarti, senza nemmeno violare la legge.

Il phishing oggi funziona già troppo bene. Immagina se non ci fosse più nemmeno il limite della privacy: saprebbero i nomi dei tuoi figli, la scuola, i tuoi orari, i tuoi interessi. Ti manderebbero una mail perfetta, identica a quella del tuo direttore, e tu ci cascheresti.

La privacy non è un lusso. È un argine. È ciò che impedisce al potere, pubblico o privato, di entrare troppo dentro la nostra vita. È la barriera che difende la libertà di pensare, sbagliare, cambiare idea senza essere osservati.

Quindi no, non è vero che “non ho niente da nascondere”. Abbiamo tutti qualcosa da proteggere: la nostra umanità.

E se volete restare aggiornati su come la tecnologia sta ridisegnando la nostra società, assicuratevi di aver cliccato su “Segui”.

#DecisioniArtificiali #MCC #Documentario #AI

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Guarda il post »