Categoria: Decisioni Artificiali

I microdocumentari di Marco Camisani Calzolari. Un viaggio per capire come intelligenza artificiale, tecnologia e trasformazione digitale stanno cambiando lavoro, società e potere. Storie reali, casi concreti e riflessioni dirette per comprendere le decisioni visibili e invisibili che le macchine stanno già prendendo per noi. #DecisioniArtificiali #MCC

Decisioni Artificiali

213 – Stiamo allenando il cervello… ma a restare fermo!

Stiamo allenando il cervello… ma a restare fermo!

Qui negli Stati Uniti lo vedo parlando con capi di azienda, professori, persone comuni che fanno scelte di tutti i giorni. Una persona deve prendere una decisione semplice: scrivere un messaggio, scegliere un regalo, valutare un corso. Il primo gesto non è fermarsi a pensare. È aprire un sistema automatico e chiedere. Il ragionamento rimane fuori. La testa resta in attesa di istruzioni.

Questo succede con azioni ripetute: un’email delicata, un tono da calibrare, una risposta da dare in fretta. Prima si scriveva qualcosa, anche imperfetto, poi si migliorava. Ora arriva direttamente una proposta completa. Funziona. Proprio per questo diventa un riflesso, e lo spazio mentale si restringe.

Nel lavoro il passaggio è evidente. Un professionista riceve una richiesta di sconto. In passato valutava il rapporto, il momento, i numeri. Oggi incolla tutto in un chatbot e ottiene una risposta educata e convincente. Il risultato è corretto, il processo umano resta inutilizzato. Alla richiesta successiva quel passaggio non viene nemmeno considerato.

Nello studio accade la stessa cosa. Uno studente incontra una difficoltà. Non esplora il problema. Chiede la soluzione. La risposta chiude il compito. Non apre collegamenti, a meno che non gli sia chiesto. Il cervello registra che capire non serve per andare avanti. Anche nelle relazioni il comportamento si ripete: una discussione, un dubbio personale, una scelta emotiva. La domanda viene spostata all’esterno, non per chiarire, ma per sentirsi rassicurati. Il confronto interno perde spazio. Il dubbio viene riempito subito.

Questi sistemi rispondono sempre. Anche quando la domanda è confusa. Anche quando mancano informazioni. La risposta continua crea una sensazione di controllo. Il cervello, davanti a questa disponibilità costante, riduce lo sforzo iniziale. È un adattamento.

Con il tempo cambia il punto di partenza. L’idea non nasce più dentro di noi. Arriva già formulata. Il pensiero diventa revisione, non costruzione. La differenza è sottile, ma pesa.

Le conseguenze. I sistemi automatici non le vivono queste cose. Le decisioni sì. Chi segue un suggerimento resta responsabile del risultato, anche quando il percorso è stato guidato passo dopo passo.

Usare strumenti è normale. Abituarsi a non avviare più un ragionamento crea un vuoto. Il rischio cresce quando questa sequenza diventa invisibile: domanda immediata. Risposta pronta. Nessuna pausa.

Quando, senza un suggerimento esterno, ci accorgiamo che le nostre azioni si bloccano, capiamo che l’abitudine ha preso il sopravvento sull’allenamento del pensiero. E ciò che non viene allenato, col tempo, perde forza. È umano. Quando succede, io faccio così: faccio scattare un campanello d’allarme, spengo l’AI e ricomincio a usare il cervello.

#DecisioniArtificiali #MCC #Documentario #AI

Guarda il post »
Decisioni Artificiali

212 – Meshtastic & MeshCore. La rivoluzione per mandare messaggi senza Internet

Meshtastic & MeshCore. La rivoluzione per mandare messaggi senza Internet.

Avete presente quando, durante le proteste, in alcuni Stati Internet viene spento deliberatamente. In quei casi non sparisce solo la rete. Sparisce la possibilità di coordinarsi, di raccontare cosa sta succedendo, di restare in contatto. Seguitemi fino alla fine perché vi voglio parlare di una rivoluzione che cambia tutto e che permetterà di inviare e ricevere messaggi in tutto il mondo, dal nostro telefono, senza bisogno di Internet.

Anche se vi sembra una cosa tecnica, statemi a sentire perché prima di tutto questa è una questione sociale e culturale. Un po’ come all’inizio di Internet. All’epoca, quando lo spiegavo, parlavo di computer collegati tra loro e pensavano parlassi di qualcosa di tecnico e basta. Oggi sappiamo che Internet è stata prima di tutto una rivoluzione sociale. È lo stesso errore che rischiamo di fare adesso se scambiamo questa storia per una roba per nerd e basta.

La rivoluzione si chiama Meshtastic e MeshCore. Sono sistemi open source, senza un proprietario centrale, che permettono di comunicare via messaggio tra persone o dispositivi senza bisogno di Internet. Ogni dispositivo che entra nella rete diventa un nodo. Ogni nodo trasmette via radio per centinaia di metri, spesso anche per chilometri in linea d’aria. Se più nodi si vedono tra loro, uno dopo l’altro, creano automaticamente una rete.

Per creare un nodo basta un piccolo dispositivo a basso costo. Per ora sono ancora cose da smanettoni, come lo era Internet per noi all’inizio, ma a voi non interessa quanti smanettamenti dobbiamo fare per fare in modo che questi piccoli dispositivi che trasmettono via radio diventino un nodo della rete Meshtastic. Una volta creato un nodo si diventa parte della catena.

Si tratta di una rivoluzione che si basa sull’accessibilità, perché i dispositivi su cui installare Meshtastic o MeshCore costano anche solo 10 dollari. Questo è il motivo per cui una rete del genere può diventare diffusa. Non serve un’infrastruttura, non serve un operatore, non serve un investimento enorme. Serve solo che qualcuno accenda un nodo.

Io ho testato entrambi in questi giorni qui a Manhattan durante una tempesta di neve, mentre Internet e la rete cellulare erano instabili. I nodi continuavano a parlarsi senza problemi.

Insomma, quando saremo in tanti e ci saranno tanti nodi, potremo comunicare da un punto all’altro del pianeta mandando messaggi via radio, senza che nessuno possa bloccare nulla, anche se Internet dovesse spegnersi. Ed è per questo che, nei prossimi anni, ne sentirete parlare sempre di più.

Se siete tra gli smanettoni che vogliono smanettarci un po’, metto qualche link di Meshtastic e MeshCore per approfondire.

https://en.wikipedia.org/wiki/Meshcore
https://www.youtube.com/watch?v=tXoAhebQc0c

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

211 – Caso Khaby Lame. Ci pagano per clonarci

Caso Khaby Lame. Ci pagano per clonarci. La nostra identità diventa valore, o truffa…

Come probabilmente avete letto online e sui giornali, Khaby Lame ha venduto l’autorizzazione all’uso della sua faccia e di modelli comportamentali per sviluppare un gemello digitale basato su Intelligenza Artificiale. È solo una nota di contesto, per non confondere l’annuncio con quello di cui vi voglio parlare.

Faccia, voce, gesti, tempi, microespressioni: un pacchetto, un diritto d’uso, un bene contrattuale. L’identità entra nelle negoziazioni societarie come asset trasferibile, al pari di un marchio o di una piattaforma. È questa la svolta culturale: la presenza fisica perde centralità e la disponibilità dell’identità prende valore.

Una persona cambia. Un gemello digitale viene addestrato per restare coerente, ripetibile, utile a uno scopo: pubblicità, live commerce, assistenza, formazione interna, comunicazione di servizio. Due traiettorie parallele, con una frizione inevitabile: l’umano evolve, l’avatar tende a stabilizzarsi. La conseguenza è sottile e potente. L’identità diventa qualcosa che “lavora” anche quando la persona non lavora.

Il pubblico guarda una faccia e attribuisce responsabilità a quella faccia. Non legge clausole e non ragiona in termini di licenza. Se il contenuto crea danno, confusione, truffa, o anche solo ambiguità, la reputazione resta attaccata alla persona. La firma percepita è il volto.

Un effetto economico e di sicurezza arriva subito dopo. I cloni autorizzati alzano la plausibilità dei cloni abusivi. Si diffonde un’aspettativa semplice: quel volto può parlare anche senza esserci. È terreno perfetto per frodi con video, audio, richieste di denaro, link, investimenti, urgenze. La barriera psicologica si abbassa.

Questa storia riguarda chiunque abbia credibilità: un professionista, un medico, un avvocato, un divulgatore, un docente, un CEO. La scelta diventa pratica: concedere l’uso dell’immagine solo dentro un perimetro strettissimo, verificabile, scritto bene, oppure accettare un mondo dove altri useranno quella faccia senza chiedere, contando sulla confusione.

Io posso vendere i diritti della mia immagine, per esempio, solo per contenuti che servano a spiegare la sicurezza informatica, dentro un perimetro stretto, scritto bene, verificabile. Altrimenti posso perdere controllo quando qualcun altro la usa senza chiedere. Vedete, ci sono casi in cui l’AI sostituisce davvero qualcuno, ma almeno in questi casi lo pagano profumatamente per essere sostituito.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

210 – Self-made. La parola che fa sparire i vantaggi

Self-made. La parola che fa sparire i vantaggi.

Il sogno americano. Uno parte da solo, ha una buona idea, poi arrivano i miliardi. Quante volte abbiamo visto le porte dei garage di Apple, Google, Amazon, Disney, Mattel. O personaggi venuti su dal niente e poi diventati billionaire. Musk, Gates, Bezos, Buffett, tutti partiti da zero. Ma è davvero così?

Si può davvero diventare billionaire partendo dal niente? Forse sì, ma nel frattempo le storie che ci raccontano sono spesso molto diverse dalla realtà.

Qui a New York ho incontrato veramente tante persone che mi hanno raccontato storie incredibili. Billionaire che mi hanno detto da dove sono partiti. Alcuni veramente dal nulla, ma altri no.

Nel video vi racconto di Warren Buffett: cresce a Omaha in una famiglia dove la finanza è normale. Jeff Bezos: la famiglia mette sul tavolo 250.000 dollari circa come investimento iniziale. Bill Gates: cresce in un ambiente con accesso diretto ai posti dove si decide. Elon Musk: cresce in Sudafrica in una famiglia benestante. Bernard Arnault: parte dall’impresa del padre nel settore costruzioni e ingegneria civile.

Qui negli Stati Uniti questa differenza la vedo ogni giorno. Chi parte con capitale e relazioni può provare, sbagliare, riprovare. Chi parte senza rete paga tutto subito. Io sono arrivato qui da privilegiato e non posso lamentarmi, ma bisogna sfatare questo mito del self-made man. L’impegno personale purtroppo spesso non basta. Ci vogliono relazioni, cultura e fortuna.

Non si diventa milionari partendo da una famiglia povera, o almeno è molto raro quanto camminare per la strada e venire colpiti da un pianoforte che cade dal terzo piano. E poi pensateci: nei prossimi quindici anni passeranno ai figli dei miliardari circa 6 trilioni di dollari.

Insomma, nascere bene è la più evidente scorciatoia economica. Noi possiamo anche amare le storie di successo perché ci fanno sognare, però smettiamo di confondere merito e accesso. Perché l’accesso decide chi può permettersi di tentare dieci volte, e chi resta fermo alla prima perché non può permettersi di andare oltre.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

209 – Robot che imparano a fare tutto guardando i nostri video

Robot umanoidi che imparano a fare tutto guardando i nostri video.

Seguitemi, perché pochi spiegano gli effetti di questa “svolta”, che cambierà il lavoro molto più in fretta di quanto si sente dire in giro. Le news parlano di influencer, di panettoni, delle vacanze e degli orientamenti dei VIP, quando nel frattempo il mondo sta cambiando profondamente e questo cambiamento non lo raccontano.

Pensate a un robot che guarda migliaia di video di falegnami: tagli, misure, incastri, finiture, errori e correzioni. Acquisisce il “vocabolario” del mestiere. Oppure a un robot che guarda tutti i video di idraulici: perdite, sifoni, raccordi, saldature, urgenze in spazi stretti. Costruisce schemi e li applica. Non impara da un singolo tutor: impara dalla somma globale di chi ha pubblicato quel lavoro online.

E poi un robot non fa turni, non dorme, non perde la concentrazione, non ha cali di qualità a fine giornata. Se la batteria che si scarica, se la cambia da solo. Quando la tecnica migliora, la differenza diventa continuità: stessa azione, stessa precisione, ripetuta sempre uguale. E non è automazione: è autonomizzazione, perché gli spieghi cosa devono fare in autonomia.

Vedete, i robot così esistono già: non sono ancora nelle nostre case, ma lo saranno molto presto. Se siete riusciti a capire cosa sta succedendo e come imparano, allora capirete anche perché la società si troverà davanti a un cambio enorme in pochissimo tempo.

Il punto è sapere le cose, essere informati. La cultura è libertà. E spesso, purtroppo, di questi temi nei telegiornali e in giro se ne parla solo come se fosse innovazione, o giocattoli, o videogame. In realtà è società. Non è più informatica, è società e cultura.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

208 – Come deve cambiare la scuola ai tempi dell’AI

Come deve cambiare la scuola ai tempi dell’Intelligenza Artificiale

I compiti non li fanno più gli studenti. Li fa l’Intelligenza Artificiale. E la scuola deve urgentemente cambiare, profondamente. Partiamo da un fatto che ormai è sotto gli occhi di tutti: gli studenti usano l’AI. La usano a casa, la usano per studiare, la usano per scrivere, la usano per capire. Fingere che non esista non serve. Vietarla non serve. Provare a “beccarli” non serve.

I detector per scoprire se un testo è scritto dall’AI non funzionano come ci raccontano. Sono pieni di falsi positivi. Uno dei casi più noti riguarda la Dichiarazione d’Indipendenza americana. Inserita in uno di questi strumenti, è stata classificata come testo generato dall’Intelligenza Artificiale al 99,9%. Un documento del Settecento, scritto da esseri umani, accusato di essere artificiale. Questo ci dice una cosa molto semplice: se uno strumento sbaglia su un testo storico, può sbagliare anche su un tema di uno studente.

Ho incontrato alcune scuole che mi hanno raccontato casi documentati di studenti accusati ingiustamente. Compiti ben scritti, lessico curato, struttura chiara. Bollino rosso. Accusa. Ansia. Colloqui con i genitori. Poi magari lo studente sa spiegare tutto a voce, passaggio per passaggio. Quindi era vero. Il problema non è lo studente. È il metodo.

A scuola l’AI può essere usata bene. Può spiegare un passaggio che non è chiaro. Può rispiegare dieci volte la stessa cosa senza stancarsi. Può adattare una spiegazione al livello di chi studia. Può diventare una palestra, uno spazio dove ci si allena prima della prova vera. Se uno studente usa l’Intelligenza Artificiale per capire un ragionamento di matematica, per farsi spiegare un periodo storico, per migliorare un testo e poi discuterlo, sta studiando. Sta usando uno strumento, esattamente come un libro, come un dizionario, come una calcolatrice usata con criterio.

Il punto allora non è scoprire se l’AI è stata usata. Il punto è capire cosa misuriamo. Se continuiamo a valutare solo il prodotto finale fatto a casa, stiamo valutando chi sa usare meglio gli strumenti, non chi ha capito davvero. E questo valeva anche prima dell’Intelligenza Artificiale. Le verifiche devono cambiare: più frequenti, più brevi, fatte in presenza, senza schermi. Prove scritte essenziali, colloqui orali veri, esercizi svolti davanti al docente. Momenti in cui lo studente deve spiegare come è arrivato a una risposta, non solo la risposta.

Ci sono casi straordinari di docenti che hanno già capito tutto questo, ma la scuola, nel suo insieme, non è ancora cambiata. Ripensarla non deve essere una cosa per pochi. Deve essere per tutti.

L’AI c’è e non se ne può andare, deve diventare un alleato. Serve a studiare, a prepararsi, a chiarire. Se non facciamo questo passaggio, succede una cosa semplice: i compiti li farà l’Intelligenza Artificiale. Gli studenti smetteranno di studiare davvero. Non per pigrizia, ma perché il sistema glielo permette. L’AI è qua. La scuola deve ripensarsi ora. Non per inseguire la tecnologia, come tutti i tablet sui banchi, ma per tornare a misurare ciò che conta davvero: la testa degli studenti.

E voi, cosa ne pensate?

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

207 – Molti pensano di aver capito cos’è l’Intelligenza Artificiale

Molti pensano di aver capito cos’è l’Intelligenza Artificiale, ma spesso non è così. Qui vi spiego cos’è in modo semplice e per tutti.

Molte persone pensano di aver capito cos’è l’AI perché la vedono parlare, scrivere, rispondere. Seguitemi fino alla fine, che chiarisco una confusione enorme, che riguarda parole usate male e decisioni delegate senza rendersene conto.

La prima parola che porta fuori strada è “algoritmo”. Gli algoritmi sono una sequenza di istruzioni chiare: se succede A, fai B. Se il valore supera una soglia, blocca. Se manca un dato, fermati. Questo è il modo in cui funzionano i software tradizionali. È prevedibile, è ripetibile, a parità di condizioni il risultato è sempre lo stesso.

E poi c’è una seconda parola sbagliata che crea confusione: “automazione”. L’automazione predefinisce, decide prima cosa deve succedere. L’AI, invece, decide mentre agisce. Non esegue una decisione già scritta, produce una decisione sul momento.

E voi, cosa ne pensate? Fatemelo sapere nei commenti.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

206 – Centauri, cyborg o self-automators?

🇮🇹 Centauri, cyborg o self-automators: che tipo di utilizzatore di Intelligenza Artificiale siete?

Secondo studi di MIT, Harvard e Boston Consulting Group, emergono tre macro tipi di persone che usano l’Intelligenza Artificiale: tre comportamenti ricorrenti e tre effetti diversi sul modo in cui lavoriamo e impariamo. Voi di che tipo siete?

I primi sono i centauri. Sono quelli che usano l’AI per compiti specifici e ben delimitati. Le chiedono di analizzare dati di mercato, riassumere un report, trovare correlazioni, evidenziare trend, proporre una lista di rischi e opportunità. Poi intervengono loro: ricontrollano numeri e fonti, correggono gli errori, scelgono cosa tenere e cosa scartare. La parte decisiva resta umana: collegare i risultati al contesto, capire cosa conta davvero, stabilire priorità, scrivere la sintesi finale con un tono coerente.

I secondi sono i cyborg. Sono quelli che lavorano per scambi rapidi, quasi a raffica. Scrivono un paragrafo e chiedono una versione più chiara, poi una più corta, poi tre alternative con stili diversi. Poi chiedono di evidenziare le parti deboli, le frasi vaghe, i passaggi poco logici, riprendono tutto e riscrivono. È un uso per iterazioni continue. Nello studio, questo stile è associato a nuove abilità: saper fare domande buone, saper valutare le versioni, saper stressare un’idea finché regge, saper mantenere coerenza e direzione. Il guadagno è velocità, ma anche qualità, perché il lavoro passa attraverso più revisioni senza perdere la regia umana.

I terzi sono i self-automators. Sono quelli che delegano quasi tutto: un prompt unico, spesso generico, output quasi finale, pochissima revisione. Il risultato può scorrere bene e sembrare pronto da inviare e da pubblicare. Nello studio, però, questo stile si associa spesso a assenza di crescita: si esercita meno il mestiere, perché il lavoro vero viene spostato fuori, delegato all’AI. Quando poi serve intervenire, per un dato sbagliato, una premessa mancante, un passaggio saltato, recuperare diventa più faticoso. Col tempo aumenta anche un rischio pratico: perdere sensibilità sul contenuto e accorgersi dei problemi troppo tardi.

Scrivetemi nei commenti chi siete: centauri, cyborg o self-automators. Se siete un mix, scrivete una percentuale: 70-30, 50-50, come vi viene.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

205 – Sponsor che pagano l’Intelligenza Artificiale

🇮🇹 Sponsor che pagano l’Intelligenza Artificiale per risponderci come vogliono loro.

Se le l’Intelligenze Artificiali prenderanno la strada dei social network inizieranno a risponderci sulla base di chi paga per dirci quel che vogliono loro.

E se non vorremo risposte a pagamento, dovremo pagare noi.

Qui negli Stati Uniti OpenAI ha annunciato che nelle prossime settimane inizierà a testare la pubblicità in ChatGPT. Questo per chi usa la versione gratuita e il piano “Go”. Plus, Pro ed Enterprise restano senza ads. Le inserzioni, per ora, dovrebbero comparire in una sezione separata in fondo alle risposte e con etichetta chiara.

Nei social è iniziata così, ma poi è finita che i truffatori pagano gli ad truffa e nessuno li blocca. Il 10% del fatturato spesso arriva proprio da annunci truffa.

OpenAI dice anche due cose che, sulla carta, servono a proteggere fiducia e privacy e inoltre niente ads per i minori di 18 anni, niente pubblicità accanto a temi come politica e salute, e nessuna vendita dei dati delle conversazioni agli inserzionisti.

Il punto che ci riguarda non è “ci sarà un banner”. Il punto è che quando un assistente diventa il posto dove chiediamo cosa comprare, quale banca scegliere, a quale medico affidarci, l’ordine delle risposte diventa potere. Oggi l’ad è “sotto” e separato. Domani può diventare una frase messa nel flusso, un consiglio “sponsorizzato” che sembra un parere. La differenza, per chi guarda, è enorme. La pubblicità visibile la riconosci. La pubblicità mescolata al testo si mimetizza.

Proviamo con domande semplici, quelle che fanno le famiglie. “Qual è la migliore assicurazione auto qui a New York per un neopatentato?” “Quale conto corrente conviene per chi riceve stipendio e fa un mutuo?” “Quale applicazione devo usare per investire piccole somme senza rischi strani?” “Quale corso di inglese scelgo per mio figlio, online o in presenza?” In tutte queste domande esiste una zona grigia: se qualcuno paga per stare più in alto, la “verità utile” cambia.

OpenAI promette che “le risposte non sono influenzate dalla pubblicità”. Bene, ma l’influenza non passa solo dalla frase finale. È lo stesso meccanismo che ha trasformato la ricerca sul web: non ha tolto tutte le informazioni, ha spinto le persone verso alcune informazioni e non verso altre.

Cosa fare quindi? Usiamo l’AI come strumento di lavoro, non come arbitro. Per le domande che toccano soldi, contratti, salute, facciamo sempre doppio controllo su fonti esterne e indipendenti. Ma soprattutto quando vediamo un consiglio “perfetto”, cerchiamo cosa manca: alternative, costi reali, limiti, recensioni negative, condizioni.

Altrimenti rischiamo di diventare dei burattini teleguidati da chi paga per creare le nostre opinioni.

E voi, cosa ne pensate?

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

204 – Deepfake sessuali, i blocchi sulle app servono a poco

Deepfake sessuali, i blocchi sulle app sono sacrosanti, bisogna metterli, ma servono a poco. Vi spiego perché.

Quando esplode uno scandalo su Grok o su un’altra app, la reazione è corretta: blocchi, filtri, limitazioni, indignazione popolare. Servono, perché tagliano via l’abuso più facile, quello a portata di clic.

Però pochi vi spiegano che c’è la parte che passa quasi sempre sotto traccia: sono gli strumenti open source, gratis, copiabili, installabili sul proprio computer. Funzionano in locale, anche offline. Nessuno può controllare: non hanno una sede, un customer care, un pannello centrale da spegnere. Chi li usa decide tutto: che modello caricare, che parametri impostare, che output salvare, dove condividerlo.

Qui negli Stati Uniti l’FBI avverte che i casi di ricatti e sextortion collegati a immagini sessuali generate con l’Intelligenza Artificiale stanno continuando ad aumentare, e il fenomeno si sta allargando. L’Intelligenza Artificiale che viene usata molto spesso è in locale, gira sui computer personali e non si può quindi bloccare.

NCMEC, che raccoglie segnalazioni legate allo sfruttamento dei minori, descrive aumenti molto rapidi di casi che includono contenuti generati in locale con AI. L’abuso non dipende da una sola piattaforma, dipende dal fatto che la tecnologia è diventata “portabile”.

La differenza tra una piattaforma pubblica e un tool open source sta nell’attrito. Sulle app l’attrito è basso: scrivi, clicchi, ottieni. In locale l’attrito è più alto: serve competenza, serve hardware, serve saper configurare. Quell’attrito però scende ogni mese. Le schede grafiche sono sempre più diffuse, i modelli diventano più leggeri, le guide diventano più chiare. Il risultato è semplice: più persone riescono a produrre materiale illecito senza passare da servizi visibili e controllabili.

Questa è la ragione per cui i blocchi sulle app, pur essendo necessari, non chiudono il rubinetto. Limitano la massa, non fermano chi ha competenze.

Bene i filtri sulle piattaforme e le procedure rapide, perché bisogna bloccarli, però serve educazione digitale concreta. E soprattutto prima di indignarsi, giustamente, perché non vi spiegano perché quella piattaforma, quell’altra, ha permesso di fare certe cose, dovete sapere che oggi esistono software locali che non si possono bloccare.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

203 – Vietare l’AI ai ragazzi è come vietare i libri

Vietare l’Intelligenza Artificiale ai ragazzi è come vietare i libri perché qualcuno li lancia in testa

Ogni volta che qualcosa ci spaventa, la prima reazione è vietare. Sta succedendo con l’Intelligenza Artificiale, con i social, con i cellulari. Soprattutto quando parliamo di minori, e sapete quanto sono sensibili al tema. Il problema è che stiamo confondendo lo strumento con l’uso che se ne fa.

Un social non funziona per magia. Dietro c’è un algoritmo. Un algoritmo non pensa, non decide cosa è giusto o sbagliato. È una sequenza di regole matematiche che osserva cosa guardiamo, quanto tempo restiamo su un contenuto, cosa tocchiamo, cosa ignoriamo. Poi prova a mostrarci qualcosa di simile. Non perché sia vero, utile o corretto, ma perché aumenta la probabilità che restiamo lì. Questo va spiegato, non vietato. Va spiegato.

L’Intelligenza Artificiale funziona in modo diverso da come molti immaginano. Non ragiona per certezze. Ragiona per probabilità. Quando risponde, non “sa” le cose. Calcola quale parola, quale frase, quale risposta è statisticamente più probabile dopo quella domanda. Questo significa una cosa molto semplice: può sbagliare. Può essere imprecisa. Può sembrare sicura anche quando non lo è. E soprattutto c’è un proprietario dietro, non decide veramente da sola. C’è qualcuno che ha stabilito quali sono i pesi delle probabilità. E proprio per questo va usata con testa, non rimossa.

C’è poi un altro punto che quasi nessuno racconta ai ragazzi. Parte dei contenuti che vedono online non arrivano lì per caso. Arrivano perché qualcuno ha pagato. Pubblicità, messaggi sponsorizzati, narrazioni spinte in alto perché conviene a qualcuno. Questo vale per i social, per i motori di ricerca, e in futuro varrà sempre di più anche per le risposte delle AI. Se non insegniamo a cercare le fonti, a confrontare, a dubitare, ma vietiamo e basta, stiamo lasciando i ragazzi soli dentro un flusso che li influenza senza che se ne accorgano.

E poi c’è il cellulare. Non è solo uno strumento di distrazione. Può essere usato per cercare il significato di una parola mentre si studia. Per capire un riferimento storico. Per verificare una notizia. Per soddisfare una curiosità invece di ignorarla. Il problema non è il telefono. È cosa insegniamo a farci con quel telefono. E poi c’è chi il telefono non ce l’ha, e quando lo prende in mano per pochi minuti fa la cosa più semplice: giochi.

Lo stesso vale per l’Intelligenza Artificiale nello studio. Usata male, copia al posto loro. Usata bene, insegna a a imparare. Può farci domande mirate su quello che stiamo studiando. Può aiutarci a capire dove sbagliamo. Può spiegare un concetto in modo diverso se non è stato capito la prima volta. Diventa un supporto, non un sostituto. Come una calcolatrice usata per verificare un risultato, non per smettere di capire la matematica.

Vietare tutto è facile. Bisognerebbe educare, ma ducare è faticoso. Ma è l’unica strada che funziona, se vogliamo occuparci di questa generazione e del loro futuro. Le invenzioni non si possono disinventare. Non si può cancellare Internet. Non si può cancellare l’Intelligenza Artificiale. Possiamo solo decidere se vogliamo futuri adulti capaci di usarle o futuri adulti che le subiranno.

Abbiamo fatto così con l’elettricità. È pericolosa, ma nessuno propone di eliminarla. Abbiamo insegnato a usarla. Non mettere le dita nella presa. Non improvvisare. Con il digitale serve la stessa maturità.

Se vediamo dei ragazzi che si tirano libri in testa, non vietiamo i libri. Spieghiamo che leggerli è molto meglio. Con l’Intelligenza Artificiale, con i social, con i cellulari, il ragionamento è identico. Serve cultura. Il divieto assoluto fa solo molto male.

E voi, cosa ne pensate?

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

202 – Prima ci tracciavano. Ora costruiscono il nostro gemello digitale

Prima ci tracciavano. Ora costruiscono il nostro gemello digitale e tracciano lui.

Oggi esiste il gemello decisionale di una persona. È un modello digitale costruito usando dati già raccolti. Non serve seguirci. Serve interrogarci.

Aziende di marketing, retail, assicurazioni, finanza e piattaforme digitali raccolgono dati da molte fonti: navigazione web, app installate, localizzazione storica, acquisti online e offline, carte fedeltà, streaming, social. Tutto confluisce in database strutturati.

Questi database vengono analizzati con sistemi di Intelligenza Artificiale, spesso modelli interni, spesso locali. Il modello non cerca nomi. Cerca schemi.

Quando qualcuno inserisce Mario Rossi, il sistema restituisce un profilo comportamentale: orari abituali, zone frequentate, stabilità delle routine, tipologie di spesa, sensibilità al prezzo, contenuti guardati più spesso, reazione alle offerte, probabilità di acquisto, compatibilità con un certo profilo di rischio. Questo ci toglie o aggiunge priorità nei sistemi automatici.

La carta fedeltà contribuisce con gli acquisti. La smart TV, tramite ACR, contribuisce con le abitudini di visione, e ve l’ho fatto vedere in un servizio in televisione. Il telefono contribuisce con spostamenti e tempi, il browser contribuisce con modalità di lettura e attenzione, l’automobile contribuisce con lo stile di guida, non tutte ma molte. Il Wi-Fi contribuisce con presenza e permanenza.

Il gemello digitale decisionale viene usato per decidere come interagire con quella persona: prezzi, pubblicità, contenuti, offerte, accesso a servizi. Tutto avviene prima che la persona faccia una scelta consapevole.

Questo sistema nasce da logiche di mercato. Le aziende competono sulla capacità di prevedere le persone. Più il modello è accurato, più è utile.

Una via d’uscita totale purtroppo non esiste. Disconnettersi dal digitale non è realistico. Esiste però una possibilità di ridurre i danni.

Ogni volta che diamo un dato, scegliamo a chi lo diamo. Ogni app installata è una fonte. Ogni carta fedeltà è una fonte. Ogni permesso accettato è una sorta di cessione.

Una strada è limitare i permessi. Usare meno account collegati tra loro. Preferire strumenti che raccolgono meno dati. Pensare ai dati come a denaro. Piccole scelte ripetute cambiano la quantità di informazioni che finiscono nel modello.

Il gemello decisionale si costruisce per accumulo. Ridurre l’accumulo è l’unico spazio di controllo che abbiamo oggi.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

201 – L’intelligenza Artificiale che sposta i voti, in silenzio…

L’intelligenza Artificiale che sposta i voti, in silenzio…

Qui negli Stati Uniti la persuasione politica sta cambiando pelle. Conversazioni private, uno a uno, con una voce artificiale che risponde, si adatta e convince.

Migliaia di persone parlano con un chatbot schierato poco prima di un’elezione, ma non lo sanno. Dopo una sola conversazione le preferenze si muovono di alcuni punti. Pochi minuti, di un chatbot che non sai che in realtà è influenzato, bastano per cambiare un orientamento.

Vedete, gli spot parlano a tutti allo stesso modo. Mentre i chatbot AI seguono i temi di chi ha davanti. Lavoro, tasse, sanità, costo della vita. Ogni obiezione riceve una risposta, ma molto influenzata. E tu non lo sai.

I chatbot convincono di più quando riempiono le risposte di dati, riferimenti, esempi. I modelli più efficaci producono più affermazioni inesatte o fuorvianti. All’aumentare della persuasione cresce il rischio di contenuti sbagliati. Il tono resta calmo. L’errore però passa lo stesso.

E poi c’è una parte molto sporca, già vista sui social. Le risposte dei chatbot stanno diventando un formato pubblicitario. Come i post sponsorizzati. Si paga per far emergere una risposta, per spingere una fonte, per inserire un tema nella conversazione. Il messaggio arriva con la voce neutra dell’assistente che “aiuta”, e intanto orienta.

Tutto questo avviene in privato. Ognuno riceve una versione diversa. Nessuno vede cosa viene detto agli altri. Se deleghiamo anche la formazione dell’opinione a chat AI personalizzate e monetizzabili, deleghiamo potere. Potere di scegliere cosa sentiamo, cosa crediamo, cosa ripetiamo.

Stiamo proteggendo abbastanza la nostra capacità di decidere da soli?

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

200 – Se internet si spegne, si blocca la vita di tutti i giorni

Se internet si spegne, si blocca la vita di tutti i giorni

Avete mai pensato a cosa succederebbe se Internet si spegnesse di colpo?

Supermercato: arriviamo alla cassa, il POS è acceso ma non autorizza. Carte, wallet, telefono, tutto fermo. La fila cresce, qualcuno lascia il carrello e se ne va.

Aeroporto: aerei pronti, gate aperti, persone sedute. I sistemi di coordinamento non rispondono e le partenze si bloccano. Qui negli Stati Uniti nel 2023 un problema informatico ha portato allo stop nazionale dei decolli per ore, aerei fermi per un problema di rete.

Lavoro: computer accesi, file locali ok. Ma email, cloud, piattaforme, CRM, pagamenti, ticketing, tutto offline. Chi lavora da remoto sparisce, chi vende online smette di vendere. Ogni ora diventa reddito perso.

Sanità: si continua a curare, ma con accesso degradato a cartelle cliniche, referti, prescrizioni. Tempi più lunghi, più stress, più rischio operativo.

Città: semafori, mappe, trasporti, prenotazioni, mobilità. Quando rete ed energia saltano insieme, il coordinamento urbano si spezza. A San Francisco un incendio in una sottostazione elettrica ha causato un blackout esteso. Molti semafori si sono spenti, il traffico è diventato irregolare. In quel contesto Waymo ha sospeso il servizio e decine di robotaxi si sono fermati agli incroci con le luci di emergenza accese. Nessun incidente grave, ma auto ferme in mezzo alla città perché senza segnali e senza sincronizzazione il software sceglie di bloccarsi.

Questo è il punto che spesso ignoriamo. La rete non è un servizio accessorio. È un’infrastruttura critica, come l’elettricità, l’acqua, le strade, gli ospedali. Anzi, oggi tiene insieme anche tutte le altre. Senza rete, le infrastrutture fisiche continuano a esistere, ma funzionano peggio, più lentamente, in modo disordinato.

Difendere Internet oggi significa difendere il funzionamento della società. Non solo dagli attacchi, ma dai blackout, dagli errori, dalle dipendenze non previste. Perché quando la rete si spegne, non si ferma il digitale. Si ferma la vita quotidiana.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

199 – Cerchiamo l’anima

Cerchiamo l’anima. Perché è sempre più difficile fidarsi di quello che vediamo online. Per questo tutti stanno cercando altro, stanno cercando l’anima umana.

Seguitemi fino alla fine perché vi spiego cosa sta succedendo alla nostra percezione.

Siamo circondati da video perfetti: voci senza esitazioni, volti senza microerrori, movimenti troppo puliti. Ogni piattaforma è piena di contenuti generati, corretti, ottimizzati. L’AI scrive, parla, monta, decide il ritmo. Il risultato è fluido, anche troppo.

Noi però non ci fermiamo più alla superficie. Stiamo iniziando a cercare segnali diversi: una pausa fuori tempo, una frase non perfetta, uno sguardo che non segue il copione. Piccoli attriti che non servono a piacere, ma a esistere. Ci stiamo abituando e se chi parla è creato dall’AI sentiamo la puzza di falso da lontano. Quando la qualità migliora, migliora anche la nostra sensibilità e la capacità di sentire odore di falso.

Ai tempi dei fratelli Lumière, si racconta che in una delle prime sale fu proiettato il video di un treno che veniva a tutta velocità verso il pubblico e le persone sono scappate terrorizzate. Ecco, oggi quel treno non farebbe più effetto a nessuno. Oppure, pensate a quando erano usciti i primi filtri bellezza, e a quanto invece oggi li riconosciamo immediatamente.

Uno studio del MIT ha mostrato che le persone, quando sospettano contenuti generati da AI, aumentano il tempo di osservazione cercando incoerenze emotive, non tecniche. Non cercano errori di montaggio, cercano umanità. È un cambio profondo di comportamento. Sui social lo vediamo ogni giorno. I video più condivisi non sono quelli più puliti. Sono quelli in cui qualcuno racconta qualcosa che gli costa: fatica, imbarazzo, esposizione. Chi come me crea contenuti lascia errori, silenzi, respiri, imperfezioni. Perché sono vere.

L’AI può simulare una voce, può simulare un volto, può simulare uno stile. Ma non ha nulla da perdere. E questo si sente. L’anima è rischio. È asimmetria. È il fatto che chi parla potrebbe sbagliare davvero. Nei prossimi anni, con l’AI ovunque, questa sarà l’unica cosa che riconosceremo subito: non chi parla meglio, non chi monta meglio, ma chi è presente. Chi c’è davvero.

Se mentre scorrete sentite aria di persona vera, fermatevi. Tenetevela stretta. Non sarà comune. E ne avremo un bisogno enorme.

#DecisioniArtificiali #MCC #Documentario

👉 Ora che vivo a New York tocca definire con anticipo le settimane in cui sarò in Italia nei prossimi mesi. La email di chi mi gestisce gli ingaggi per gli eventi è: [email protected] – Se leggete questo commento mettetegli un like così rimane visibile in cima. Grazie

Guarda il post »
Decisioni Artificiali

198 – AI e digitale. Attenzione ai venditori di soluzioni facili

AI e digitale. Attenzione ai venditori di soluzioni facili. Sembrano simpatici, ma ti stanno vendendo fuffa.

Le persone cercano di capire cosa sia l’AI e i soliti furbacchioni ne approfittano. Occhio ai venditori di corsi sulla AI perché spesso non hanno nemmeno loro idea di cosa sia… Seguitemi sino alla fine perché vi spiego quali sono le 5 principali tecniche che usano e come riconoscerli.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

197 – Google ti usa, poi ti chiude il rubinetto. E i giornali muoiono

Google ti usa, poi ti chiude il rubinetto. E i giornali muoiono

Qui negli Stati Uniti sta succedendo una cosa enorme, e quasi nessuno la sta spiegando bene. Google ha iniziato a rispondere alle domande direttamente nella pagina dei risultati con l’AI. Le persone leggono lì. I click calano. I siti che hanno scritto quei contenuti perdono traffico e soldi.

Questa settimana una coalizione, Independent Publishers Alliance con Foxglove e Movement for the Open Web, ha avviato un’azione di lobbying con il Department of Justice americano, parlando di “danni sostanziali e irreparabili” causati da Google AI Overviews a traffico e ricavi degli editori indipendenti. Avevano già presentato segnalazioni alla Competition and Markets Authority britannica e alla Commissione Europea, puntando il dito su un punto preciso: Google mette le proprie risposte davanti ai contenuti altrui e spinge fuori gli editori rivali.

Il dato che colpisce di più è uno. Alcuni editori, secondo la documentazione raccolta e inviata alle autorità, parlano di cali di traffico fino al 90%. Quando togli il 90% a un sito che vive di pubblicità, affiliazioni o abbonamenti, non “soffre”. Chiude, o taglia persone.

Qui la parte più sporca è il controllo. Google dice: potete fare opt-out dal crawler dell’AI. Poi però, nella pratica, gli editori sostengono che anche bloccando il crawler dell’AI, i contenuti possono continuare a finire dentro AI Overviews perché quelle risposte sono legate alla Search. Risultato: scegliere di proteggersi significa rischiare di sparire dall’indicizzazione, cioè dall’esistenza online.

E poi c’è il tema dei numeri nascosti. Gli editori dicono che Google Search Console non separa il traffico della ricerca “normale” da quello di AI Overviews e AI Mode. Quindi tu vedi impression e click, ma non puoi capire quanto traffico ti è stato “mangiato” dall’AI. Trasparenza zero, misurazione impossibile, negoziazione impossibile.

Segnale chiaro: gli editori non vogliono più essere materia prima gratuita.

Poi arriva la parte che ci riguarda tutti, famiglie comprese. Se il traffico non arriva più alle fonti, le fonti chiudono. E quando le fonti chiudono, resta un feed di risposte sintetiche senza redazioni, senza firme, senza controlli, senza rettifiche visibili. Il rischio economico è diretto, perché l’informazione è un mercato. Il rischio di sicurezza è ancora più diretto, perché le truffe e la disinformazione crescono quando il giornalismo si restringe.

Cosa facciamo noi, nel quotidiano, senza diventare paranoici. Quando cerchiamo una notizia che impatta soldi o salute, apriamo almeno due fonti, non solo la risposta dell’AI. Quando l’AI ci dà un numero, un consiglio, una regola, cerchiamo l’origine e la data, perché le risposte senza contesto sono perfette per farci sbagliare. Quando troviamo un sito affidabile, lo salviamo e lo usiamo diretto, perché passare sempre dalla ricerca significa dipendere da chi controlla la pagina dei risultati.

Qui negli Stati Uniti la partita è già davanti ai regolatori. In Europa è già successo. E l’effetto pratico è uno: chi controlla la ricerca controlla i soldi di chi produce contenuti, e quindi controlla anche quali voci restano in piedi.

#DecisioniArtificiali #MCC #Documentario

👉 Ora che vivo a New York tocca definire con anticipo le settimane in cui sarò in Italia nei prossimi mesi. La email di chi mi gestisce gli ingaggi per gli eventi è: [email protected] – Se leggete questo commento mettetegli un like così rimane visibile in cima. Grazie

Guarda il post »
Decisioni Artificiali

196 – L’AI è ovunque, ma il lavoro no. Cosa fare, adesso

L’AI è ovunque, ma il lavoro no. Cosa fare, adesso

Stiamo entrando in un mercato del lavoro in cui il problema non è l’AI che ruba posti, ma le persone che restano ferme mentre il lavoro cambia. Qui negli Stati Uniti lo vedo ogni giorno e, come sappiamo da anni, quello che succede qui arriva presto anche in Europa. Le aziende assumono meno persone ma cercano più competenze. I team diventano più piccoli, i ruoli più larghi: chi non si adatta esce, chi si adatta sale.

Seguitemi fino alla fine perché vi spiego cosa fare ora per tenervi il posto, se lo avete, o per trovarne uno più facilmente, se non lo avete.

La prima cosa da fare è smettere di difendere il proprio ruolo e iniziare a difendere il proprio valore. Il ruolo è una scatola, il valore è ciò che sai fare davvero: scrivere, analizzare, vendere, progettare, spiegare, decidere. Le aziende non cercano più titoli, cercano risultati. Se nel CV c’è scritto “responsabile marketing” non basta più. Serve dimostrare cosa hai migliorato, quanto tempo hai fatto risparmiare, quali errori hai evitato.

C’è poi un punto che molti ignorano: usare l’AI non è una competenza distintiva, è la base. Qui negli Stati Uniti è ormai normale che un candidato sappia usare strumenti di AI per scrivere, sintetizzare, preparare presentazioni, analizzare dati. Non ti rende speciale, ti rende solo aggiornato. La differenza la fa chi sa quando non usarla, quando fermarla, quando controllarla. Le aziende iniziano a cercare persone che capiscono i limiti dell’AI, non solo le scorciatoie.

Un altro errore comune è pensare che basti fare un corso. I corsi servono, ma da soli non cambiano nulla. È pieno di fuffa e spesso non servono nemmeno quelli. Avete presente i video con la faccia spaventata in copertina? È già un forte indizio. Chi trova lavoro oggi sa fare cose concrete e reali: progetti veri, report, dashboard, strategie, anche piccoli, anche personali. Un portfolio vale più di dieci attestati. Conosco molti recruiter che guardano prima cosa sai fare, poi dove hai studiato.

C’è anche una questione di linguaggio. Chi parla solo per buzzword viene scartato subito: AI-driven, innovativo, disruptive, agentic, algoritmi. Parole che da sole non dicono niente. Chi viene ascoltato spiega problemi concreti e soluzioni semplici. Ho visto persone perdere opportunità perché sembravano copiare il linguaggio delle slide, non quello del lavoro reale.

Un dato aiuta a capire la direzione: secondo il World Economic Forum, entro il 2027 oltre il 40% delle competenze richieste cambierà. Non sparirà il lavoro, cambierà quello che serve saper fare. Chi si muove ora ha un vantaggio enorme rispetto a chi aspetta.

Per aumentare le possibilità di trovare un buon lavoro serve una cosa chiara: diventare una persona che riduce incertezza, che prende decisioni migliori, che fa risparmiare tempo, che sa spiegare cose complesse in modo semplice. L’AI accelera tutto, ma non sostituisce la responsabilità.

Il lavoro del futuro non è per chi sa usare un tool. È per chi sa guidare processi, persone e scelte.

#ArtificialDecisions #MCC

Guarda il post »
Decisioni Artificiali

195 – Se utilizzi l’AI in azienda, devi fare queste cose subito

Se utilizzi l’intelligenza artificiale in azienda, devi fare queste cose subito, o rischi multe enormi.

Se utilizzi l’intelligenza artificiale in azienda, devi fare alcune cose subito per essere conforme all’AI Act. Subito, non tra mesi. Perché l’AI Act è legge dell’Unione europea e prevede sanzioni molto pesanti. Nei casi più gravi si arriva fino a 35 milioni di euro o fino al 7% del fatturato globale annuo. In molti altri casi le sanzioni arrivano comunque fino a 15 milioni o al 3% del fatturato globale. Per molte aziende, anche piccole, è un rischio reale di blocco dell’attività.

L’AI Act non riguarda solo chi sviluppa modelli di intelligenza artificiale, riguarda anche chi li usa. Aziende grandi, piccole e medie, studi professionali, consulenti, agenzie. Se usi l’AI per prendere decisioni che incidono su diritti, lavoro o accesso a servizi, per selezionare persone, fare valutazioni automatiche, profilare clienti, assegnare punteggi, rientri nel campo di applicazione. Questo vale anche se l’AI non l’hai sviluppata tu. Se la usi, la responsabilità è anche tua.

Quando ho fatto parte del Comitato che ha aiutato a scrivere la legge italiana sulla AI, ovviamente ci siamo confrontati sulla reale efficacia di queste regole e, credetemi, anche se sembrano oneri pesanti, è l’unico modo per tutelare le persone.

Quindi, ecco cosa devi fare subito. Primo punto. Devi sapere dove stai usando l’AI. Devi mappare tutti i sistemi di intelligenza artificiale presenti in azienda, software interni, strumenti esterni, piattaforme, servizi in abbonamento. Senza un inventario chiaro non puoi essere conforme. Secondo punto. Devi formare le persone che usano l’AI. L’AI Act prevede già l’obbligo di competenze adeguate per chi utilizza sistemi di intelligenza artificiale. Non è facoltativo. Terzo punto. Devi classificare il rischio. L’AI Act distingue tra pratiche vietate, sistemi ad alto rischio e altri sistemi soggetti a obblighi di trasparenza. Questa valutazione va fatta e va documentata.

Quarto punto. Devi garantire trasparenza verso le persone. Se qualcuno interagisce con un sistema di AI deve saperlo. Se un contenuto è generato o manipolato artificialmente, va indicato. Questo vale anche per chatbot e contenuti sintetici. Quinto punto. Se utilizzi sistemi ad alto rischio, devi applicare obblighi operativi precisi, supervisione umana reale, controllo dei dati in input, monitoraggio continuo, conservazione dei log, gestione degli incidenti e segnalazioni quando necessario. Senza queste misure non sei conforme.

L’errore più comune è pensare che l’AI Act sia solo un tema legale. Non lo è. È un obbligo operativo per chi usa l’intelligenza artificiale nel lavoro quotidiano.

Ultima cosa, non scrivete per chiedermi consulenze perché non è un’attività che faccio. Tuttavia posso consigliarvi persone valide. L’unica cosa che faccio in questo ambito è parlare a eventi aziendali dedicati.

#DecisioniArtificiali #MCC #Documentario

👉 Ora che vivo a New York tocca definire con anticipo le settimane in cui sarò in Italia nei prossimi mesi. La e-mail di chi mi gestisce gli ingaggi per gli eventi è: [email protected]

Guarda il post »
Decisioni Artificiali

194 – Peter Thiel e Alex Karp

Peter Thiel e Alex Karp. Due nomi che la maggior parte delle persone non conoscono, ma che hanno in mano la vita di tutti.

Vi ricordate quando non sapevate chi fosse Elon Musk. Per la maggior parte delle persone non era molto tempo fa. Per chi lavorava nel settore, quel nome circolava già da anni. Sta per succedere di nuovo, con due nomi: Peter Thiel e Alex Karp. Non sono personaggi da social. Stanno dietro a un tipo di tecnologia che si vede poco, ma che pesa tantissimo. Piattaforme che prendono dati sparsi in mille posti e li mettono insieme. Dati di grandi organizzazioni e di apparati pubblici: logistica, trasporti, pagamenti, accessi, documenti, segnalazioni, energia, sicurezza.

Quando quei dati vengono collegati, cambia il modo in cui si guarda il mondo. Perché non stai più leggendo file separati. Stai vedendo connessioni, schemi, priorità operative. In quel momento le persone smettono di essere solo nomi su una lista e diventano profili operativi: relazioni, abitudini, spostamenti, anomalie, rischio, urgenza. Un sistema del genere serve a decidere dove mettere attenzione, risorse, controlli, interventi. Serve a scegliere cosa conta prima e cosa può aspettare.

Peter Thiel è uno dei registi di questa visione. Da anni investe in tecnologie legate a dati, sicurezza, infrastrutture. Ha costruito una rete di aziende e capitali attorno a un’idea semplice: chi controlla i collegamenti tra i dati, orienta le decisioni. Alex Karp è la figura che porta questa tecnologia dentro le strutture più grandi: difesa, intelligence, grandi organizzazioni, posti in cui una scelta può muovere miliardi, bloccare operazioni, cambiare priorità in poche ore.

Negli Stati Uniti questa tecnologia è già dentro la macchina che conta. Non si vede nei feed, si vede nelle procedure, nei flussi di lavoro, in come vengono prese decisioni concrete. È un potere fatto di software, di dati collegati, un potere che lavora in silenzio ma decide tanto. Per questo sentirete parlare sempre di più di Peter Thiel e Alex Karp. Quando questi nomi arrivano fuori dal settore, significa che quel modo di decidere è già entrato nella vita di tutti.

#DecisioniArtificiali #MCC #Documentario

👉 Ora che vivo a New York tocca definire con anticipo le settimane in cui sarò in Italia nei prossimi mesi. La e-mail di chi mi gestisce gli ingaggi per gli eventi è: [email protected]

Guarda il post »