Categoria: Decisioni Artificiali

I microdocumentari di Marco Camisani Calzolari. Un viaggio per capire come intelligenza artificiale, tecnologia e trasformazione digitale stanno cambiando lavoro, società e potere. Storie reali, casi concreti e riflessioni dirette per comprendere le decisioni visibili e invisibili che le macchine stanno già prendendo per noi. #DecisioniArtificiali #MCC

Decisioni Artificiali

193 – Polymarket: quando scommettere su tutto diventa una dipendenza

Polymarket: quando scommettere su tutto diventa una dipendenza

Qui negli Stati Uniti Polymarket sta cambiando il modo in cui molte persone vivono le notizie. Non le seguono più soltanto. Le giocano. Polymarket prende un evento reale e lo trasforma in una domanda secca: accadrà o no. Due pulsanti. Yes o No. E diventa una droga.

Si entra sulla piattaforma, si sceglie un evento: elezioni, decisioni politiche, economia, conflitti. Ogni evento è una domanda chiusa. Si preme Yes se si pensa che accadrà, No se si pensa che non accadrà. A ogni scelta corrisponde un prezzo, tra zero e un dollaro, letto come probabilità in tempo reale. Si decide quanto mettere, si conferma. Se l’evento si verifica, alla chiusura del mercato ogni quota vale un dollaro. Se non si verifica, vale zero. Non serve aspettare la fine: le quote possono essere rivendute prima, se il prezzo si è mosso nella direzione giusta. Esattamente come un titolo.

L’interfaccia è pensata per essere veloce. Numeri che si aggiornano in tempo reale, grafici che salgono e scendono, possibilità di comprare e vendere in continuazione. Le transazioni avvengono con stablecoin, quindi il passaggio tra decisione e azione è quasi immediato. Pochi secondi. Nessuna frizione. È qui che il meccanismo cambia natura. Non stiamo più parlando solo di previsione. Stiamo parlando di stimolo continuo. Ogni variazione di quota diventa un segnale, ogni refresh promette qualcosa, anche quando non succede nulla.

Durante le elezioni americane del 2024, qui a New York, molte persone controllavano Polymarket più volte all’ora. Non per informarsi, ma per vedere il numero muoversi. Un discorso pubblico, una voce sui social, un titolo ambiguo. Subito dopo, refresh. Se la quota sale, soddisfazione. Se scende, tensione. La dinamica è identica a quella delle scommesse sportive online. Lo stesso è successo nel 2023 con i mercati sulle decisioni della Federal Reserve. Utenti che raccontavano di aprire la piattaforma decine di volte al giorno, anche in assenza di notizie. Il gesto diventa automatico. Apri. Guardi. Chiudi. Riapri.

Diversi studi sul gioco d’azzardo digitale mostrano che velocità, feedback immediato e possibilità di ripetere l’azione senza limiti aumentano il rischio di comportamento compulsivo. I prediction market aggiungono un elemento ulteriore: gli eventi non sono astratti. Riguardano politica, economia, sicurezza. Riguardano tutti.

A un certo punto il confine si sposta. Non si osserva più la realtà per capirla. Si inizia a sperare che vada in una direzione perché lì c’è una posizione aperta. La notizia diventa personale, l’evento pubblico diventa una scommessa privata. La quota diventa una routine: apriamo, controlliamo, aggiorniamo. A forza di farlo smette di essere informazione e diventa stimolo. Attenzione e tempo finiscono dentro quel numero che si muove.

#DecisioniArtificiali #MCC #Documentario

👉 Ora che vivo a New York tocca definire con anticipo le settimane in cui sarò in Italia nei prossimi mesi. La e-mail di chi mi gestisce gli ingaggi per gli eventi è: [email protected]

Guarda il post »
Decisioni Artificiali

192 – ChatGPT Health. Utile o pericoloso?

ChatGPT Health. Il nuovo strumento di ChatGPT per la salute. Utile o pericoloso?

Qui negli Stati Uniti OpenAI ha lanciato “ChatGPT Health”, una sezione dedicata dentro ChatGPT pensata per parlare di salute usando anche dati personali. L’accesso arriva solo tramite lista d’attesa: ti iscrivi, poi OpenAI abilita l’account quando tocca a te. Oggi chi vive nell’Unione Europea, nel Regno Unito o in Svizzera resta fuori: la funzione non viene resa disponibile in questi Paesi.

Questa cosa è seria perché la salute è il terreno più delicato da affidare a una intelligenza artificiale conversazionale. OpenAI stessa racconta che su ChatGPT arrivano centinaia di milioni di richieste sulla salute ogni settimana. Significa una cosa: tantissime persone già lo usano come se fosse un consulto. Ora l’azienda crea una corsia dedicata e invita anche a collegare dati personali.

Il primo rischio è l’autorità finta. Un chatbot scrive bene, usa un tono sicuro, sembra calmo. Questa forma fa scattare un riflesso automatico: ci fidiamo. Solo che qui non stiamo scegliendo un ristorante. Stiamo decidendo se un sintomo è urgente, se un valore di laboratorio è preoccupante, se una terapia può aspettare. Un errore credibile diventa un comportamento sbagliato.

Il secondo rischio sono i dati. Collegare cartelle cliniche e app come Apple Health o MyFitnessPal rende le risposte più pertinenti, ma rende anche l’account più appetibile. Basta un telefono sbloccato, una password riutilizzata, un computer condiviso o un accesso rubato, e quell’area “salute” diventa una cassaforte aperta.

Il terzo rischio è la filiera. I dati non restano in un solo posto. Entrano da sistemi sanitari, passano da partner di integrazione, arrivano a ChatGPT e tornano verso app collegate. Ogni passaggio aggiunge un punto fragile. Anche l’integrazione delle cartelle cliniche, per come viene descritta oggi, è un problema.

Il quarto rischio è la promessa di privacy letta male. OpenAI dice che chat e file di Health non vengono usati per addestrare i modelli. Bene. Ma restano temi come conservazione tecnica, controlli interni, gestione degli incidenti e richieste legali. Non parliamo di un servizio sanitario tradizionale, e questo cambia le aspettative di protezione.

Chi vuole usarlo senza mettersi nei guai deve fissare un confine chiaro. ChatGPT Health può aiutare a capire termini, preparare domande, orientarsi. Decisioni cliniche, urgenze e terapie devono restare sempre in mano a un professionista.

Qui negli Stati Uniti l’innovazione arriva prima. Poi arriva ovunque. La domanda da farci è semplice e scomoda: quanta parte della nostra salute stiamo lasciando a un sistema che, per sua natura, può sbagliare e può convincerci anche quando sbaglia.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

191 – Arriva l’euro digitale: ci toglierà il contante o ci darà più libertà?

Arriva l’euro digitale: ci toglierà il contante o ci darà più libertà?

Arriva l’euro digitale e ci sono una serie di domande che mi state facendo in molti: se ci toglieranno il contante, se controlleranno ogni pagamento, se senza internet si potrà continuare a pagare o si bloccherà tutto, se avremo limiti ai soldi, se ci costerà qualcosa, se potranno dirci cosa comprare, dove comprare o a chi pagare, e cosa succede se ci rubano il telefono.

Seguitemi fino alla fine perché qui vi do le risposte.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

190 – La PEC trappola che può bloccare la tua vita digitale

La PEC trappola che può bloccare la tua vita digitale in 5 minuti

Ti arriva una PEC alle 18.45: “Avviso fatture in scadenza” o “Comunicazione urgente”. Nome credibile, tono ufficiale, allegato da aprire. Sembra la solita noia burocratica. Seguitemi fino alla fine che vi faccio vedere come un messaggio così può mettere nei guai famiglie, sia in Italia sia negli Stati Uniti.

Negli ultimi anni molti attacchi informatici non arrivano più solo da email strane piene di errori. Sempre più spesso i criminali usano anche la PEC, perché sanno che nella testa delle persone “PEC” vuol dire documento importante, pagamento, scadenze, comunicazioni con lo Stato.

Lo schema è sempre più simile. PEC con oggetto tipo “fattura non pagata”, “cartella in sospeso”, “sollecito urgente”. Nel testo ci sono riferimenti a fornitori, tasse, bollette, spesso copiati da messaggi veri. In allegato c’è un archivio o un documento Word. Chi lo apre e clicca su “Abilita contenuto” attiva il codice malevolo. Nel giro di pochi minuti il computer inizia a cifrare i file: foto di famiglia, documenti del lavoro, contabilità, tutto chiuso da una password che solo i criminali conoscono. Poi compare la richiesta di riscatto.

Negozi che non possono emettere scontrini per giorni, amministratori che non hanno più accesso ai documenti dei condomini, famiglie che perdono anni di foto e documenti perché tenevano tutto su un unico PC senza backup. In Italia gli esperti di sicurezza osservano da tempo una crescita degli attacchi con ransomware. Schemi simili si vedono negli Stati Uniti, dove le truffe arrivano spesso via email che imitano bollette, fatture dei servizi, comunicazioni fiscali.

Cosa fare quindi, in pratica, quando arriva una PEC “strana”? Prima cosa: guardare il mittente completo, non solo il nome. Controllare il dominio dopo la chiocciola e confrontarlo con quello ufficiale del fornitore o dell’ente. Seconda cosa: non aprire con leggerezza archivi compressi o documenti che appena aperti chiedono di “abilitare macro” o “abilitare contenuto”. Un documento normale di solito si legge senza passaggi extra. Terza cosa: per fatture, cartelle, avvisi di pagamento, fare sempre una verifica da un altro canale. Entrare nel portale ufficiale, usare l’app, chiamare il numero che già conoscete, non quello scritto nella PEC.

Quarta cosa: fare backup regolari dei dati importanti e tenerne almeno una copia scollegata da internet. Se un giorno un ransomware blocca il computer, i file restano recuperabili. Quinta cosa: parlare di questi rischi con chi usa la PEC in famiglia o in ufficio, soprattutto con chi è meno abituato a distinguere messaggi veri e falsi.

La PEC resta uno strumento utile, ma non esiste canale infallibile. I criminali sfruttano la nostra fretta e la fiducia negli strumenti che usiamo tutti i giorni. Ogni volta che un messaggio unisce urgenza, soldi e allegati da aprire, il dubbio non è un fastidio in più, è una misura di sicurezza. Una sola PEC aperta senza attenzione può cambiare in pochi minuti la gestione digitale di una casa, di un piccolo negozio, di un intero ufficio.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

189 – Odiare le istituzioni è diventato normale. Le fake news ringraziano

Odiare le istituzioni è diventato normale. E le fake news ringraziano.

Seguitemi fino alla fine che vi spiego perché la frase “tanto fregano tutti” è la migliore alleata delle bugie che girano in rete.

Da anni, in molti Paesi, la fiducia nelle istituzioni scende. Governi, parlamenti, partiti, enti pubblici sono spesso percepiti come lontani, litigiosi, concentrati più sulla comunicazione che sui risultati. Il linguaggio si è fatto aggressivo, il tono è da curva, non da aula istituzionale. In questo clima la frase “sono tutti uguali” diventa automatica, entra nelle chiacchiere al bar, in famiglia, sui social.

Quando questa frase entra in testa succede una cosa precisa. Ogni messaggio ufficiale viene filtrato con sospetto. Un comunicato, un dato, una conferenza stampa sembrano sempre interessati. Al contrario, il video su un social, il messaggio inoltrato in una chat, il post di uno sconosciuto che scrive “adesso ti dico io la verità” appare più autentico, solo perché arriva “da fuori”.

Le fake news lavorano qui, su questo terreno. Chi costruisce disinformazione non si limita a inventare una storia. Sfrutta la sfiducia che già c’è. Prende un tema sensibile, per esempio la salute, la sicurezza, i risparmi, e lo usa per rafforzare l’idea che “loro” nascondono sempre qualcosa.

Un esempio concreto: in diversi Paesi, dopo bufale sul presunto pericolo del 5G, persone hanno creato danni reali alle infrastrutture e ai servizi. In altri casi, catene sui social che annunciavano controlli fiscali immediati o “nuove tasse segrete” hanno spinto migliaia di persone a intasare sportelli e call center. Le storie false hanno avuto successo perché confermavano un sospetto preesistente verso lo Stato e le sue agenzie.

La frase “fregano tutti” fa anche un altro danno. Cancella le differenze. Mette nello stesso sacco chi lavora con serietà dentro un’istituzione e chi invece la utilizza per interessi personali. Se per noi sono veramente tutti uguali, nessuno merita ascolto. Chi prova a rendere più trasparenti i processi parte già screditato, mentre chi diffonde complotti può dire “io almeno non sto con loro” e guadagna credibilità solo per questo.

E qui arriva il punto più fastidioso: questo meccanismo lo alimentiamo anche noi. Ogni volta che condividiamo una frase tipo “tanto rubano tutti”, ogni volta che commentiamo una notizia con “sono tutti la stessa cosa”, rendiamo più fragile il terreno su cui dovrebbe poggiare la democrazia. Le istituzioni, in teoria, siamo noi. Dovrebbero essere l’espressione organizzata delle nostre regole comuni. Se le riduciamo a una massa indistinta di “furbi”, togliamo legittimità proprio agli strumenti che dovrebbero proteggerci.

Cosa serve per togliere ossigeno alle fake news? Serve innanzitutto più trasparenza. Decisioni spiegate con parole semplici, documenti accessibili, possibilità reale per i cittadini di vedere chi decide cosa, con quali tempi e quali criteri. Quando posso verificare, ho meno bisogno di affidarmi a un video anonimo che promette rivelazioni.

Serve poi responsabilità visibile. Chi usa un ruolo pubblico per mentire, manipolare numeri, creare solo conflitto, deve pagare un prezzo politico e, quando necessario, legale. Se questo non accade, la sensazione che “tanto non succede mai niente a nessuno” diventa carburante per la sfiducia.

Infine, serve educazione al pensiero critico per tutte le età. Non solo per i ragazzi. Anche per gli adulti, per chi guarda i telegiornali, per chi passa la serata a scorrere social. Imparare a farsi tre domande semplici davanti a una notizia: chi parla, quali prove porta, quale interesse potrebbe avere.

Odiare le istituzioni in blocco sembra uno sfogo, in realtà è un regalo per chi vive di disinformazione. Perché quando smettiamo di distinguere tra chi prova a fare il proprio dovere e chi se ne approfitta, le fake news devono fare uno sforzo minimo. Basta dire: “avevi già ragione a non fidarti di nessuno”. E il resto viene da solo.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

188 – Se non controlli il tuo sito, l’AI controlla la tua reputazione

Se non controlli il tuo sito, l’AI controlla la tua reputazione

Oggi l’obiettivo non è “avere un sito”, l’obiettivo è decidere cosa l’intelligenza artificiale dice di noi. Seguitemi fino alla fine che vi lascio un test rapido per capire se il vostro sito sta lavorando per voi.

Noi chiediamo sempre più spesso informazioni direttamente all’AI, chi è questa persona, che azienda è, se è affidabile, se è aggiornata. L’AI risponde usando quello che trova online e l’intelligenza artificiale prende soprattutto dal web la sua conoscenza riusabile. I social contano, ma sono chiusi, instabili, difficili da leggere in modo completo, un sito resta, è indicizzabile, è archiviabile, è una fonte stabile.

Qui negli Stati Uniti la differenza si vede già, chi ha siti ricchi e aggiornati viene descritto meglio anche dagli strumenti di ricerca con AI. Più contesto leggibile porta a risposte più precise. Una persona chiede all’AI informazioni su di voi e se trova un sito fermo da anni, con due frasi generiche, la risposta sarà generica. Se trova un sito vivo, con contenuti chiari, casi reali, domande e risposte, aggiornamenti e contatti seri, la risposta sarà più ricca e più corretta.

Anni fa avevo scritto The Back Home Strategy per dire una cosa netta, quando tutti correvano sui social la casa digitale restava il web. Oggi pesa ancora di più, perché il sito è anche la base con cui l’AI costruisce la vostra immagine.

Cosa fare quindi. Aprite il vostro sito e controllate la data dell’ultimo aggiornamento, contate quante pagine spiegano davvero cosa fate, con esempi e dettagli, senza slogan. Create una pagina FAQ con le dieci domande che vi fanno sempre clienti e giornalisti, aggiungete una pagina “Chi siamo” con competenze, processi, aree di lavoro, riferimenti verificabili, pubblicate un aggiornamento al mese, anche breve, ma concreto.

Se le conoscevate già, condividete il video, se non le conoscevate, condividetelo lo stesso. Se volete restare aggiornati, cliccate su segui.

#DecisioniArtificiali #MCC #Documentario

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

👉 Informazioni su come sponsorizzare i microdocumentari: https://sponsorship.microdocumentari.com

Guarda il post »
Decisioni Artificiali

187 – L’IA non funziona senza etica e ce ne accorgiamo adesso

L’IA non funziona senza etica e ce ne accorgiamo adesso

Stiamo riempiendo il mondo di intelligenza artificiale, ma continuiamo a trattarla come fosse solo software. Seguitemi fino alla fine che vi spiego perché, senza una vera etica personalizzata, stiamo consegnando decisioni fondamentali a sistemi che applicano valori che nessuno ha scelto davvero.

Ogni IA incorpora già una visione del mondo. Sempre. Qualcuno decide quali dati usare, cosa ottimizzare, quali comportamenti premiare e quali correggere. Dentro questi modelli ci sono idee precise su cosa conti davvero: sicurezza o libertà, profitto o equità, accuratezza o velocità. Non le chiamiamo filosofia, ma lo sono. E noi le scopriamo solo quando qualcosa va storto.

Qui negli Stati Uniti lo si è visto nei sistemi di valutazione del rischio usati nei tribunali. Per anni hanno influenzato sentenze e libertà delle persone basandosi su modelli che penalizzavano interi gruppi in modo arbitrario. Non perché qualcuno avesse scritto un pregiudizio nel codice, ma perché quel pregiudizio era già nei dati e l’IA lo ha trasformato in regola. È la prova di cosa accade quando l’etica resta implicita.

Lo stesso vale per i dilemmi morali. La Moral Machine del MIT ha mostrato come culture diverse facciano scelte diverse negli stessi scenari: salvare una persona o molte, privilegiare il giovane o l’anziano, aumentare la sicurezza o proteggere la privacy. Se queste preferenze finiscono nei modelli senza un lavoro esplicito sui criteri, stiamo trasferendo nelle macchine filosofie non dichiarate.

Eppure continuiamo a trattare la questione come se bastasse un codice etico aziendale o un audit dell’ultimo minuto. Qui serve molto di più. Serve stabilire quali valori devono guidare i sistemi che poi useremo in banca, in ospedale, nelle piattaforme digitali. In ogni ambito queste scelte esistono già, solo che restano nascoste.

Etica personalizzata significa rendere visibile questo strato invisibile. Una banca dovrebbe chiarire se punta più sulla sicurezza o sull’inclusione. Un ospedale dovrebbe dire quanto pesa la privacy rispetto ai benefici della ricerca. Una piattaforma social dovrebbe indicare con precisione come bilancia protezione dei minori e libertà di parola. Questo è il lavoro da fare, e qui negli Stati Uniti molte università hanno iniziato a integrarlo nello sviluppo dei modelli.

Il nodo riguarda anche la nostra autonomia culturale. Senza un’etica dichiarata rischiamo di importare quella incorporata nei modelli costruiti altrove. È un trasferimento silenzioso di valori che finisce nelle istituzioni, nei servizi pubblici, nelle nostre vite quotidiane.

Conta capire una cosa: quando l’etica resta implicita diventano implicite anche le decisioni. E a quel punto la tecnologia non segue più i nostri valori, siamo noi a seguire i suoi.

#DecisioniArtificiali #MCC #Documentario #ad

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

Guarda il post »
Decisioni Artificiali

186 – Usiamo il termine sbagliato: l’IA non automatizza, autonomizza

Usiamo il termine sbagliato: l’IA non automatizza, autonomizza

Siamo fermi alla parola sbagliata. Continuiamo a dire che l’IA “automatizza tutto”. Seguitemi fino alla fine che vi faccio vedere perché questo ci porta a sottovalutare il problema vero.

Automatizzare vuol dire una cosa semplice. Prendere una procedura chiara e farla eseguire a una macchina, sempre allo stesso modo. Stesso input, stesso output. Bancomat: carta, PIN corretto, saldo sufficiente, prelievo. Se rifate gli stessi passaggi, ottenete lo stesso risultato. Vecchi centralini: “premi 1 per…, premi 2 per…”. Questo è automatizzare. Procedura deterministica, testabile, certificabile.

L’IA moderna funziona diversamente. I modelli che generano testi, immagini, risposte non seguono una tabella di regole scritte a mano. Sono sistemi probabilistici. Hanno visto milioni di esempi e, ogni volta, calcolano qual è la risposta più probabile in quel momento. Fate la stessa domanda due volte e il testo può cambiare. Cambiate una parola nel prompt e cambia tutto. Qui non c’è più “se A allora B”. C’è un sistema che interpreta, stima, decide.

Quando un’azienda dice “abbiamo automatizzato il servizio clienti con l’IA”, spesso sta facendo altro. Mette un modello a decidere che cosa rispondere al cliente, se insistere, se chiudere, se passarvi a un operatore umano. Questa è autonomia operativa, non semplice esecuzione.

Negli Stati Uniti lo si vede bene. Sistemi di guida assistita che leggono sensori e immagini e scelgono come muovere l’auto, algoritmi di credito che usano dati personali per decidere chi è “affidabile” e chi no. Non c’è un elenco di regole leggibile. C’è un modello che prende decisioni con grande libertà interna.

Per questo dico che l’IA, in pratica, autonomizza. Sposta pezzi di autonomia dalle persone ai sistemi. Autonomizza il filtro nel call center e decide quali richieste arrivano a un umano. Autonomizza la selezione del personale e decide quali curriculum far vedere per primi. Autonomizza il feed dei social e decide quali contenuti politici spingere in alto durante una campagna, in Italia come negli USA.

Se pensiamo solo in termini di “automazione”, immaginiamo che la tecnologia renda più veloce quello che già c’era. Se capiamo che si tratta di “autonomizzazione”, vediamo che sta cambiando chi decide che cosa succede. A quel punto le domande diventano serie: su quali dati imparano questi sistemi, chi sceglie gli obiettivi che devono ottimizzare, chi si assume la responsabilità quando la decisione fa danni.

Le parole qui non sono un dettaglio. Se continuiamo a parlare solo di automatizzare, ci raccontiamo un mondo ordinato che non esiste più. L’IA entra nei processi, sposta autonomia, potere decisionale, responsabilità dentro le macchine. Usare il termine giusto, autonomizzare, vuol dire guardare in faccia questo spostamento di potere prima che sia troppo tardi.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

185 – Cosa fare nel 2026 per sopravvivere all’AI

Cosa fare nel 2026 per sopravvivere all’Intelligenza Artificiale

Impariamo a usare l’IA per il nostro lavoro quotidiano, non per giocare: scrittura, sintesi, preparazione di documenti, analisi di email, bozze di presentazioni. Poi usiamo l’IA come primo passaggio, non come ultimo, facciamo fare la bozza, il controllo resta nostro. Ma per contro ricordiamoci che l’AI digerisce tutti i nostri dati e non si sa dove finiranno. Nel lavoro documentiamo i risultati e mostriamo che con l’IA facciamo di più in meno tempo. Automatizziamo le parti ripetitive del nostro lavoro, ma teniamo per noi le decisioni. Se abbiamo un capo, impariamo a spiegargli cosa fa la nostra IA e cosa facciamo noi, questo ci rende difendibili. Poi aggiorniamo il CV includendo strumenti di IA usati davvero, non parole generiche.

E poi la sicurezza, perché con l’AI i criminali ci fregano più facilmente. Attiviamo l’autenticazione a due fattori su email, banca, Apple ID o Google, social. Usiamo un password manager e password diverse, attiviamo backup automatici e testiamo il ripristino. Impostiamo alert su conti e carte, qui negli Stati Uniti, teniamo due metodi di pagamento pronti. Usiamo in famiglia una parola in codice per emergenze, richiamiamo sempre su numeri già salvati. Blocchiamo qualsiasi urgenza: nessun codice, nessun bonifico durante una chiamata o un video.

Non a caso questa serie si chiama Decisioni Artificiali, perché nel 2026 molte decisioni passeranno da sistemi automatici. E restare umani vorrà dire saperli usare, non ignorarli.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

184 – 10 cose digitali da sistemare oggi per non pagarle tutto l’anno

10 cose digitali da sistemare oggi per non pagarle tutto l’anno

Il 1° gennaio è il giorno giusto per sistemare quello che ci farà perdere tempo, soldi e controllo nei prossimi dodici mesi.
Perché Il digitale, lo sappiamo, si deteriora quando lo lasciamo andare in automatico.
Oggi è l’unico giorno in cui sistemarlo costa poco. Dal 2 gennaio in poi, costa sempre di più.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

183 – Le mie previsioni per il 2026

Le mie previsioni per il 2026

Nel 2026 i primi robot da lavoro a forma umana entreranno davvero negli spazi reali. Magazzini, logistica, fabbriche, grandi strutture. Non saranno robot “intelligenti” come li immaginiamo, ma sistemi che imparano dai nostri movimenti e li ripetono, un po’ come oggi l’Intelligenza Artificiale impara dai testi umani. Solleveranno oggetti, li sposteranno, li ordineranno, caricheranno merci. Le aziende ridurranno tempi e turni. La pressione aumenterà sui salari e sul ritmo del lavoro operativo. È un grande tema, e la società non è ancora pronta a questo cambiamento.

Nel 2026 sempre più decisioni quotidiane saranno prese da sistemi automatici. Credito, assicurazioni, affitti, limiti di spesa. Non parleremo più con una persona, ma riceveremo esiti. Approvato. Respinto. In revisione. Senza una spiegazione utile. Le famiglie pianificheranno con meno certezza, perché molte decisioni arriveranno dall’alto, già chiuse, e sarà difficile capire come cambiarle.

Nel 2026 i blocchi automatici di denaro diventeranno più frequenti. Cambiare città, telefono, SIM, indirizzo o fare una spesa insolita farà scattare controlli. I sistemi useranno modelli complessi, non regole semplici che qualcuno può correggere rapidamente. Sempre più spesso l’assistenza risponderà: “non posso intervenire, ha deciso il sistema”. I tempi di sblocco si allungheranno e il peso cadrà sugli utenti, che dovranno dimostrare di essere nel giusto.

Nel 2026 l’AI diventerà una funzione dentro tutto. Email, messaggi, foto, documenti, assistenza clienti. Scriverà e risponderà al posto nostro. Noi controlleremo meno. Un errore piccolo finirà su un pagamento, su un appuntamento, su una pratica, su una scelta di lavoro. I testi saranno più corretti. Le decisioni più automatiche.

Nel 2026 le truffe diventeranno più mirate e più in diretta. Il phishing passerà a chiamate live, anche in video. Dall’altra parte ci sarà un familiare, o sembrerà un familiare, generato dall’AI in tempo reale. Voce, volto, reazioni. La richiesta di soldi o codici arriverà mentre stiamo parlando. La fiducia domestica verrà usata come leva.

Nel 2026 il lavoro d’ufficio si comprimerà. Meno ruoli intermedi. Più compiti sulla stessa persona. Customer care, marketing, amministrazione. Le aziende useranno più freelance e contratti a progetto. Con la scusa dell’AI, licenziare sarà più facile. Il lavoro sarà più frammentato. Meno tutele. Più pressione su chi resterà.

Però l’Intelligenza Artificiale porterà anche cose nuove e positive. Aiuterà a risolvere problemi che prima non riuscivamo ad affrontare, aprirà strade nella ricerca e nella medicina, ci renderà in molti casi più capaci, più supportati, più “aumentati”. Ma questo non cancella i rischi. Cambia solo la responsabilità che abbiamo nel modo in cui scegliamo di usarla.

Nel 2026 i primi a essere sostituiti non saranno i meno bravi. Saranno quelli che non useranno l’AI. Chi rifiuterà gli strumenti verrà visto come più lento, più costoso, meno flessibile. Chi li userà male verrà controllato. Chi li userà bene resterà.

#DecisioniArtificiali #MCC #2026 #Previsioni

Guarda il post »
Decisioni Artificiali

182 – Alzheimer culturale, scelta ed energia.

Alzheimer culturale, scelta ed energia. I tre campanelli d’allarme che pochi considerano.

Viviamo immersi nella tecnologia e pensiamo che i rischi arrivino dai robot. In realtà i segnali più importanti sono già qui e riguardano tutti. Seguitemi fino alla fine che vi spiego perché questi tre campanelli d’allarme toccano attenzione, libertà e perfino energia.

Il primo campanello d’allarme è l’“Alzheimer culturale”, cioè la perdita del focus. Non pianifichiamo più a lungo termine, viviamo in cicli brevissimi. I dati della University of California mostrano una caduta drastica della nostra attenzione: dai due minuti e mezzo del 2004 ai quarantasette secondi di oggi. Un cambiamento che pesa su scuola, lavoro e vita quotidiana. Qui negli Stati Uniti molti docenti raccontano studenti incapaci di restare su un compito per più di pochi istanti. In Italia, psicologi e pedagogisti osservano lo stesso effetto sulle famiglie. Se non riusciamo più a pensare in prospettiva, perdiamo la capacità di costruire futuro.

Il secondo campanello riguarda la fine della scelta. Gli algoritmi selezionano ciò che vediamo, chi seguiamo, cosa ci emoziona. Le piattaforme studiano i nostri comportamenti e li usano per decidere al posto nostro. Non servono scenari fantascientifici, succede mentre scorriamo un feed o apriamo un video. Negli Stati Uniti gli studi mostrano come la personalizzazione estrema spinga gruppi diversi di cittadini a vivere in realtà informative separate. E quando l’Intelligenza Artificiale corregge costantemente le nostre decisioni, il libero arbitrio diventa fragile. È un problema concreto per le famiglie, per i ragazzi e per chi lavora con i dati.

Il terzo campanello è l’energia. Ogni richiesta all’Intelligenza Artificiale consuma molte più risorse di una ricerca web tradizionale. Una domanda a ChatGPT richiede fino a dieci volte l’energia di una query Google. Negli Stati Uniti le utility stanno già studiando l’impatto dei data center sulle reti elettriche. In Europa gli operatori segnalano che la domanda cresce più velocemente dell’offerta. Il punto è semplice: chi controllerà l’energia controllerà anche l’intelligenza. Senza autonomia energetica non esiste autonomia tecnologica.

Questi tre segnali ci dicono una cosa chiara. Il futuro dipende dal modo in cui gestiamo attenzione, libertà e risorse. Cosa ne pensate voi? Lo vedete già nella vostra vita quotidiana, in famiglia, a scuola o al lavoro? Scrivetemelo nei commenti, perché i vostri esempi aiutano anche gli altri a riconoscere questi campanelli d’allarme. E se vi sembra utile, condividete il video con qualcuno a cui tenete.

#ArtificialDecisions #MCC

Guarda il post »
Decisioni Artificiali

191 – I robot a forma umana hanno bisogno di regole nuove

I robot a forma umana hanno bisogno di regole nuove

Stiamo portando robot alti quasi come noi dentro magazzini, fabbriche e presto case e ospedali. E questo sarà un problema enorme, perché la nostra società non è pronta per questa rivoluzione. Seguitemi fino alla fine che vediamo i rischi principali, prima che diventino compagni di lavoro a tutti gli effetti.

Qui negli Stati Uniti vedo che i robot stanno già spostando scatole pesanti nei magazzini. Restano in piedi solo finché l’energia e il software li tengono in equilibrio. Se la corrente si interrompe di colpo, non si bloccano semplicemente sul posto, crollano. Un corpo da 65 chili che cade in un corridoio è un rischio diretto. Per questo si stanno studiando arresti “lenti”: il robot rallenta, posa il carico, si abbassa, poi si spegne. Nel frattempo si stanno preparando regole dedicate ai robot che mantengono l’equilibrio con il controllo attivo, sia bipedi sia quadrupedi.

Poi, se questi robot devono muoversi vicino a noi, serve creare nuove regole. Luci, movimenti, segnali standard, come il codice della strada per le auto. In un magazzino rumoroso la voce non basta. Con più robot nello stesso spazio diventa essenziale capire al volo chi sta facendo cosa. E c’è l’effetto psicologico: un corpo con testa e braccia porta le persone ad aspettarsi conversazioni, empatia, intelligenza sociale. Spesso il robot sa solo fare compiti ripetitivi.

Poi c’è il tema degli errori di Intelligenza Artificiale. Questi robot “intelligenti” prendono decisioni basate su sensori e reti neurali probabilistiche. Possono valutare male un gesto, interpretare in modo sbagliato un comando, non riconoscere un ostacolo. Se da quell’errore nasce un incidente o un danno economico, deve essere immediatamente chiaro chi ne risponde. Per questo ritengo fondamentale una misura semplice. Non l’ho ancora vista da nessuna parte e credo che invece sia determinante farlo: una targa visibile, come sulle automobili. Un codice leggibile da chiunque, che colleghi quel robot a produttore, modello, versione del software e responsabile operativo.

In sostanza, ricapitolando, la soglia minima dovrebbe essere questa: arresti che non trasformano il robot in un corpo che cade sulle persone, segnali standard comprensibili a tutti, override umano sempre attivo, coerenza tra aspetto e capacità reali, targa obbligatoria ben visibile. Solo sopra questa linea ha senso far entrare i robot a forma umana nei luoghi in cui viviamo e lavoriamo.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

180 – La Difesa sta costruendo l’AI più avanzata d’Italia

La Difesa sta costruendo l’AI più avanzata d’Italia. Per cui portiamola anche in ospedali e scuole!

In questo momento la Difesa italiana sta investendo molto in Intelligenza Artificiale, cybersecurity e sistemi digitali integrati. La guerra è una brutta cosa, ma se proprio la devono fare, cerchiamo di sfruttarne alcuni aspetti. Perché l’innovazione nel settore militare può diventare progresso nel mondo civile. Basta però portarcela. Seguitemi sino alla fine che vi spiego.

I conflitti oggi passano dalle reti, dallo spazio, dai dati. Essere dipendenti solo da altri Paesi sarebbe un problema serio di sicurezza nazionale.

Parliamo di nuove strutture dedicate alla sicurezza cibernetica, con migliaia di esperti che proteggono infrastrutture critiche, istituzioni, servizi essenziali. E parliamo di sistemi d’arma sempre più digitali, capaci di collegare sensori, radar, piattaforme navali, aeree e terrestri, coordinati da software che usano l’AI per capire in tempo reale cosa sta succedendo.

Il punto importante è che queste tecnologie sono naturalmente “dual use”: funzionano sia per la difesa sia per la vita civile.

Il tipo di architettura software che orchestra un sistema di difesa aerea può tenere insieme i macchinari di un grande ospedale. Lo stesso modello di AI che ottimizza risorse in uno scenario di crisi può aiutare la protezione civile a gestire un’alluvione o un incendio.

Qui negli Stati Uniti è già successo molte volte. Il GPS nasce per scopi militari, oggi è su ogni smartphone. Internet nasce come rete militare di sicurezza, oggi regge l’economia globale. Questo avviene quando la politica e l’industria decidono che una parte della ricerca per la difesa deve diventare infrastruttura civile.

L’Italia oggi ha la stessa occasione. Se investiamo miliardi in piattaforme digitali per la difesa, possiamo progettarle fin dall’inizio con una doppia vita. Significa, per esempio, pensare moduli di software e di AI riutilizzabili in sanità, scuola, giustizia, pubblica amministrazione. Significa usare standard aperti, in modo che quel “cervello” possa un giorno parlare con i sistemi delle regioni, degli ospedali, dei ministeri.
Immaginiamo un sistema di comando e controllo che integra i flussi di centinaia di sensori militari. La stessa logica potrebbe coordinare pronto soccorso, sale operatorie, diagnostica e logistica in un grande ospedale, riducendo attese, sprechi, errori.

Oppure una piattaforma nata per addestrare migliaia di militari all’uso di nuove tecnologie potrebbe diventare una grande scuola digitale nazionale per docenti e studenti, con percorsi su sicurezza online e uso responsabile dell’AI.

Per farlo serve mettere allo stesso tavolo Difesa, Salute, Istruzione, Giustizia, Innovazione digitale e chiedere, progetto per progetto, quale parte di quella tecnologia può generare valore diretto per i cittadini. Qui in America esistono programmi che fanno proprio questo lavoro di “traduzione” dalle tecnologie di difesa ai servizi civili. Possiamo ispirarci a quel modello.

Ogni euro speso in Intelligenza Artificiale e sistemi integrati per la difesa può diventare anche un pezzo di nuova infrastruttura digitale per ospedali, scuole e uffici pubblici. Se la potenza di calcolo che difende lo spazio aereo aiuterà anche un pronto soccorso a funzionare meglio o un comune a essere più efficiente, la sicurezza nazionale sarà visibile nella vita quotidiana di famiglie e imprese. Ed è qui che vale la pena concentrare la discussione.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

179 – Il vero problema dell’AI in azienda

Il vero problema dell’AI in azienda non è la tecnologia. Sono i dipendenti lasciati soli.

Succede ogni giorno. In azienda non arriva nessuna indicazione chiara, nessuno fornisce strumenti ufficiali, nessuno spiega cosa si può fare e cosa no. E allora i dipendenti fanno quello che serve per lavorare: aprono un account gratuito di ChatGPT, Gemini o Claude e lo usano per risparmiare tempo. Dentro ci finiscono contratti, offerte commerciali, fogli Excel, email di clienti, appunti su trattative in corso. Non per malizia, ma per efficienza.

Il problema è che da quel momento l’azienda perde il controllo. Quei dati escono dal perimetro aziendale. Nessuno sa dove vengono conservati, per quanto tempo, con quali garanzie, in quali Paesi. Nessuno può dimostrare che non vengano riutilizzati, analizzati, copiati, incrociati. E tutto questo avviene mentre l’organizzazione continua a pensare di essere “prudente” solo perché non ha comprato una licenza enterprise.

Qui iniziano i rischi seri. Se in quei contenuti ci sono dati personali, dati di clienti o informazioni sensibili, il tema diventa GDPR. Se l’uso dell’Intelligenza Artificiale non è documentato, governato, limitato nei casi d’uso, entra in gioco anche l’AI Act. Non perché l’AI sia vietata, ma perché è stata lasciata circolare senza regole.

Le sanzioni previste non sono marginali. In base alle violazioni si arriva fino a 15 milioni di euro o fino al 3 per cento del fatturato mondiale annuo. Per una PMI non è una voce di bilancio, è un colpo strutturale. A questo si aggiungono il danno reputazionale, la perdita di fiducia dei clienti, il tempo speso a gestire controlli, avvocati, comunicazioni di crisi.

Molte aziende se ne accorgono solo dopo. È successo anche a organizzazioni di grandi dimensioni, che hanno dovuto intervenire sull’uso dei chatbot generativi dopo che informazioni interne erano state condivise dai dipendenti. In Europa il segnale è arrivato quando le autorità sono intervenute, costringendo a chiarire come venivano trattati i dati. Il messaggio è chiaro: quando l’AI entra nei processi, le autorità guardano.

Il punto chiave è questo. Vietare l’uso dell’AI non funziona. Le persone continueranno a usarla, ma nel modo più rischioso possibile. Lasciarle sole significa spingerle verso strumenti gratuiti, account personali, scorciatoie fuori controllo.

Governare l’AI, invece, vuol dire fare scelte precise. Formare il personale su cosa può essere caricato e cosa no. Fornire strumenti autorizzati, con opzioni di esclusione dal training, data residency adeguata, tracciabilità degli utilizzi. Mettere guardrail tecnici e organizzativi. Scrivere policy interne brevi, operative, comprensibili, basate sui casi reali di lavoro.

Solo così l’AI diventa un alleato e non un rischio silenzioso.

Questo problema ha già un nome: shadow AI. E finché l’azienda non smette di lasciare soli i dipendenti, continuerà a crescere nell’ombra.

#DecisioniArtificiali #MCC #Documentario

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

Guarda il post »
Decisioni Artificiali

178 – I regali diventano esche digitali

Oggi 26 dicembre i regali diventano esche digitali

Il 26 dicembre è il giorno dei resi, dei pacchi in ritardo, delle ricevute da ritrovare, delle carte da controllare. Seguitemi fino alla fine che vi spiego perché proprio in quelle ore ci rubano gli accessi più facilmente.

Accendiamo insieme smartphone, tablet, smartwatch, console, cuffie, tracker. Ogni regalo chiede login, password, codici, collegamenti a email e metodi di pagamento. Nello stesso momento arrivano SMS ed email che sembrano perfette per quello che stiamo facendo: rimborso Amazon, consegna sospesa, problema col reso, indirizzo da confermare.

Occhio. È esattamente il momento che aspettano.

La FTC, qui negli Stati Uniti, ha segnalato i messaggi che promettono un rimborso Amazon in cambio di un click su un link. Arrivano dopo Natale perché dopo Natale stiamo davvero facendo resi.

Occhio al link. Porta quasi sempre a una pagina copiata bene. Inseriamo le credenziali, spesso anche il codice a due fattori. Da lì parte la presa dell’account. Dentro ci sono carte salvate, indirizzi, storico ordini, abbonamenti.

Occhio al tempismo. Il 26 dicembre rende credibile anche il messaggio sbagliato. Stiamo davvero aspettando pacchi. Stiamo davvero controllando i pagamenti.

Occhio ai dettagli veri. Nome giusto, email giusta, riferimento a un ordine reale. Quei dati arrivano da vecchi data breach e da liste vendute online. Dopo Natale sembrano normali.

Amazon indica canali ufficiali per segnalare comunicazioni sospette e ribadisce che non chiede password o codici via email o SMS.

Occhio ai regali in famiglia. Tablet a un figlio, smartphone a un genitore, smartwatch a un nonno. Dispositivi nuovi, interfacce nuove, notifiche nuove.

Occhio a cosa fare nei giorni dopo Natale.
Entrare solo dall’app ufficiale o digitando l’indirizzo a mano, mai dai link in SMS o email.
Controllare resi e tracking solo dal sito dove abbiamo comprato.
Non inserire codici di sicurezza su pagine aperte da link.
Per i regali a genitori e nonni, fare insieme la prima configurazione, recupero account e riduzione delle notifiche.

Il 26 dicembre non serve inventare niente. Il regalo è acceso, l’attenzione è bassa, il messaggio arriva nel momento giusto. Occhio al click.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

177 – C’è stato un furto delle nostre conversazioni con l’AI

Attenzione! C’è stato un furto delle nostre conversazioni con l’Intelligenza Artificiale, poi una vendita ai broker di dati.

Dentro ci finisce la parte più riservata della nostra vita. C’è chi si confida su ansia, depressione, terapia, dipendenze. C’è chi chiede consigli su tradimenti, separazioni, cause di lavoro. Tutto quello che diciamo all’Intelligenza Artificiale viene scritto, parola per parola. Seguitemi fino alla fine perché questa cosa tocca la vita di tutti. Vi spiego cosa è successo e come evitare che succeda anche a voi.

La storia parte da un’estensione per browser, Urban VPN Proxy, una VPN gratuita con milioni di installazioni. Conosco molte persone che la usano. Proprio per questo il caso riguarda tante famiglie, professionisti, studenti, persone comuni.

Secondo le analisi di Koi Security e i resoconti pubblicati da più testate, dopo un aggiornamento del 9 luglio 2025 l’estensione ha iniziato a intercettare ciò che l’utente scrive nei chatbot e anche le risposte, insieme ai dati della sessione. La cattura avveniva dentro la pagina del browser, mentre digitavamo. La raccolta poteva continuare anche con la VPN non attiva. L’utente non aveva un interruttore semplice per fermarla. L’unica azione efficace restava la disinstallazione.

Il punto più delicato riguarda la destinazione. Le informazioni raccolte venivano condivise con soggetti che fanno analytics e commercio di dati. Una confidenza personale smette di essere una conversazione e diventa un dato che circola.

Qui negli Stati Uniti il tema dei data broker è concreto. Esiste un mercato che compra e rivende informazioni per costruire profili e anticipare comportamenti. Quando le chat con l’Intelligenza Artificiale finiscono in questo circuito, la privacy non esiste più.

C’è un altro punto che dobbiamo fissare. Non diamo mai all’Intelligenza Artificiale informazioni riservate della nostra vita che vogliamo tenere per noi. Non perché l’Intelligenza Artificiale sia cattiva, ma perché i database, prima o poi, si bucano. È già successo con banche, ospedali, compagnie telefoniche, piattaforme social. Può succedere anche qui. Quello che oggi scriviamo pensando resti privato può diventare pubblico domani. Può essere diffuso. Può essere usato per ricattarci. Può finire a persone che non vogliamo sappiano cosa facciamo, cosa pensiamo, cosa stiamo vivendo.

Cosa fare quindi? Apriamo subito chrome://extensions o edge://extensions. Disinstalliamo tutto quello che non è indispensabile. Ogni estensione in più è un punto di accesso in più.

Evitiamo VPN gratuite sotto forma di estensione e strumenti sconosciuti presentati come “privacy”. Se serve una VPN, meglio un servizio affidabile con un’app del sistema operativo, non un plugin dentro il browser dove scriviamo.

Controlliamo i permessi delle estensioni. Accesso a tutti i siti e possibilità di leggere e modificare dati sulle pagine significa accesso anche alle chat.

Separiamo gli ambienti. Un profilo browser dedicato solo ai chatbot, senza estensioni. Oppure un browser separato, pulito.

Disciplina sui contenuti. Niente informazioni sensibili, niente dati identificativi, niente segreti che non vorremmo mai vedere fuori dal nostro controllo.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

176 – Buone feste a voi

Questo video non spiega niente. Non avverte. Non analizza.

Serve solo a dire grazie.

Grazie a chi guarda ogni giorno.
Grazie a chi guarda ogni tanto.
Grazie a chi guarda in silenzio.
Grazie a chi scrive.
Grazie a chi non scrive mai.

Dietro ogni visualizzazione c’è una persona vera.
Una vita vera.
Una giornata piena.
A volte stanca.

Il Natale è il momento giusto per fermarsi un attimo e dirlo.
Buone feste a voi.
E alle persone che amate.

Guarda il post »
Decisioni Artificiali

175 – Far valere di più i tuoi diritti grazie all’AI

Oggi puoi far valere di più i tuoi diritti grazie all’Intelligenza Artificiale
Perché l’AI legge il contratto al posto tuo e ti dice dove ti fregano

Di solito firmiamo contratti senza leggerli davvero. Oppure li leggiamo, ma non li capiamo. L’Intelligenza Artificiale sta cambiando completamente questa dinamica. Per anni il potere è stato nel linguaggio. Testi lunghi, ambigui, costruiti per spostare responsabilità, limitare diritti, rendere difficile uscire da un accordo. Chi scrive il contratto controlla la relazione. Chi firma spesso scopre le conseguenze dopo, quando cambiare strada costa tempo e denaro.

Quando un contratto è incomprensibile, la scelta resta sulla carta. Si può accettare o rifiutare, ma senza capire davvero cosa si sta accettando. Questo produce una disuguaglianza silenziosa: chi ha competenze, tempo o consulenti si difende meglio. Tutti gli altri pagano costi extra, restano vincolati più a lungo, rinunciano a far valere i propri diritti.

L’AI interviene qui. Prende un contratto e lo rende leggibile. Evidenzia penali, rinnovi automatici, esclusioni, costi ricorrenti, condizioni di uscita. Non decide al posto delle persone, ma riduce il vantaggio di chi scrive rispetto a chi firma. La comprensione diventa più accessibile, anche per chi non ha strumenti o tempo. Questo cambia i comportamenti quotidiani. Le persone iniziano a fare domande prima di firmare. A confrontare alternative. A negoziare. A contestare. Diritti che esistevano da anni iniziano a essere usati, perché diventano comprensibili.

Qui negli Stati Uniti l’effetto è già visibile, per esempio nei rimborsi dei voli. Le regole sono pubbliche da tempo. La differenza è che oggi è più facile capire se si ha diritto a un rimborso in denaro e come impostare una richiesta corretta partendo dalle condizioni del biglietto e dall’email ricevuta.

In un mondo fatto di servizi ricorrenti e contratti standard, la parte che crea i problemi è quasi sempre nelle condizioni: durata, penali, esclusioni, limiti, procedure. Se quelle parti diventano chiare, i rapporti di forza si spostano. Resta un rischio culturale. Se la comprensione viene sempre delegata, si perde l’abitudine a verificare. L’AI deve restare un supporto, non un sostituto del giudizio. Per questo i documenti vanno condivisi con attenzione, oscurando i dati personali e controllando sempre il testo originale prima di firmare o inviare reclami.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

174 – L’intelligenza artificiale ha imparato ad annusare

L’intelligenza artificiale ha imparato ad annusare

I computer non si limitano più a vedere e a sentire, stanno iniziando anche ad annusare il mondo. Seguitemi fino alla fine che vi spiego cosa significa per profumi, prodotti che usiamo in casa e robot.

Nel laboratorio dell’Institute of Science Tokyo un gruppo di ricercatori ha creato OGDiffusion, un modello di IA che genera profumi partendo da etichette come “agrumato” o “legnoso” e dai dati chimici di decine di oli essenziali. L’obiettivo è ridurre il lavoro di tentativi dei profumieri umani e produrre nuove fragranze in modo più veloce e preciso.

Qui negli Stati Uniti e in Europa alcune aziende stanno andando oltre: vogliono trasformare l’olfatto in un vero dato digitale da affiancare a immagini, testo e audio. Startup come Patina lavorano su foundation model che digitalizzano gli odori e progettano nuove molecole di profumo, per esempio copie sintetiche dell’olio di rosa che costano meno e non dipendono dai raccolti e dal clima.

Per capire perché interessa a tutti basta guardare i numeri. Il mercato globale di profumi e fragranze vale decine di miliardi di dollari e cresce ogni anno. Ogni volta che compriamo un detersivo, una candela o un deodorante per ambienti, in realtà stiamo pagando per una combinazione di molecole che può essere ottimizzata da queste nuove IA: più economica, più stabile, con meno materie prime naturali.

Poi c’è l’altro lato, quello dei nasi elettronici. Ricercatori in vari Paesi stanno costruendo database di odori reali, registrati con sensori che catturano il “respiro” chimico di cibi, spezie, materiali, e su questi dati allenano modelli di IA in grado di distinguere sostanze diverse, riconoscere cibo avariato, rilevare gas pericolosi in una stanza o lungo un impianto industriale.

Qui negli Stati Uniti chi lavora su questi sistemi cita casi molto concreti: chi è allergico alle arachidi e ha bisogno di controllare un dolce, chi deve monitorare in tempo reale un processo produttivo, chi vorrebbe strumenti portatili per rilevare fughe di gas in casa prima che ce ne accorgiamo.

Tutto questo per ora è ancora ricerca e sperimentazione, con molti limiti tecnici. Ma la direzione è chiara: stiamo dando all’intelligenza artificiale un terzo senso, l’olfatto digitale. Dopo le telecamere che vedono e i microfoni che ascoltano, arrivano sensori che annusano.

Per noi famiglie la conseguenza è molto pratica. I profumi che indossiamo, gli odori dei prodotti per la casa, l’aria che respiriamo in certi ambienti potrebbero essere progettati o controllati da algoritmi che combinano dati e molecole. La domanda vera è se vogliamo che siano solo le aziende a decidere quali odori ci accompagneranno ogni giorno, o se vogliamo almeno sapere che nella nuvola di profumo intorno a noi c’è anche il lavoro di una IA.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »