Categoria: Decisioni Artificiali

I microdocumentari di Marco Camisani Calzolari. Un viaggio per capire come intelligenza artificiale, tecnologia e trasformazione digitale stanno cambiando lavoro, società e potere. Storie reali, casi concreti e riflessioni dirette per comprendere le decisioni visibili e invisibili che le macchine stanno già prendendo per noi. #DecisioniArtificiali #MCC

Decisioni Artificiali

298 – I CFO stanno scoprendo che l’AI costa più di chi hanno licenziato

I CFO stanno scoprendo che l’AI costa più di chi hanno licenziato

I CFO stanno scoprendo un problema imbarazzante. I token AI costano più dello stipendio di chi hanno licenziato per metterci l’AI. Qui negli Stati Uniti un investitore molto famoso lo ha detto in pubblico: 300 dollari al giorno per un singolo agente AI, sono 100.000 dollari l’anno. E quell’agente lavora al 10 o 20% di quello che farebbe una persona.

Quando il costo dei token supera lo stipendio del dipendente? Se lo chiedono nei CDA, nei meeting, nelle cene di lavoro qui a New York. Siamo già oltre. Lo dicono anche altri fondatori che frequento. Un agente AI per stare in piedi economicamente deve essere almeno il doppio più produttivo di un umano, altrimenti la cassa si svuota.

Il prezzo per singolo token è crollato, le fatture totali sono esplose. Il 73% delle aziende sfora il budget AI. Il budget medio in due anni è passato da 1,2 milioni a 7 milioni di dollari. Alcune Fortune 500 pagano decine di milioni al mese solo di inferenza.

Nel 2026 negli Stati Uniti sono previsti 500.000 licenziamenti attribuiti all’AI, nove volte l’anno scorso. Ma oltre l’80% di quelle stesse aziende ammette che l’AI non ha ancora prodotto guadagni di produttività misurabili. Persino il capo della più grande azienda di Intelligenza Artificiale al mondo lo ha detto apertamente. Molte aziende stanno dando la colpa all’AI per licenziamenti che con l’AI non c’entrano nulla. Lo chiamano AI washing.

E i lavoratori? Dicono il contrario di quello che promette il pitch. Su certe attività il tempo impiegato è cresciuto del 346% da quando usano l’AI. Sono più lenti, purtroppo. Hanno licenziato prima, comprano compute dopo, pagano di più per avere di meno. I CFO iniziano a vedere i numeri sullo schermo. E cominciano a capire. Voi cosa ne pensate?

#DecisioniArtificiali #MCC

✅ Ora che vivo a New York tocca definire con anticipo le settimane in cui sarò in Italia nei prossimi mesi. La email di chi mi gestisce gli ingaggi per gli eventi è: [email protected] – Se leggete questo commento mettetegli un like così rimane visibile in cima. Grazie

Guarda il post »
Decisioni Artificiali

297 – Ci pagano per addestrare l’AI che ci licenzierà

Ci pagano per addestrare l’AI che ci licenzierà

Siamo il nuovo giacimento di dati. Il nostro lavoro quotidiano, ogni clic, ogni scorciatoia, ogni menu aperto, finisce dentro i modelli AI che poi ci sostituiranno. Le grandi aziende hanno iniziato sul serio.

Il caso più visibile è Meta. Ha installato un software sui computer di tutti i dipendenti americani. Si chiama Model Capability Initiative. Registra clic, movimenti del mouse, pressioni dei tasti e scorciatoie. Fa screenshot dello schermo mentre si lavora. L’obiettivo dichiarato è costruire agenti AI autonomi, quelli che dovranno fare il nostro lavoro al posto nostro.

Un dipendente ha chiesto sulla bacheca interna come si fa a disattivarlo. Gli hanno risposto che non si può. Sul computer aziendale non c’è opzione per dire no.

OpenAI fa la stessa caccia in un’altra forma. A gennaio chiedeva ai collaboratori esterni di caricare veri documenti di lavoro da aziende precedenti, vere presentazioni, veri fogli di calcolo. Il materiale grezzo dei nostri uffici diventa carburante per gli agenti AI.

Qui a New York ho parlato con programmatori di grandi aziende. Mi dicono che sta diventando prassi. Si sta diffondendo in silenzio, un’azienda dopo l’altra.

E intanto i licenziamenti per AI sono già sul tavolo. Meta negli stessi giorni ha annunciato 8.000 tagli. Il 10% della forza lavoro globale. Partono il 20 maggio. Più altri 6.000 posti che non verranno riempiti. Capite. Lavoriamo, il software registra tutto, l’AI impara da noi, e la stessa azienda ci dice che qualcuno salta.

In Europa una cosa così probabilmente sarebbe illegale. In America no. E purtroppo sulla privacy dei dipendenti nessuno di questi giganti ha una storia rassicurante.

Voi cosa ne pensate?

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

296 – Meta aiuta i genitori a parlare di AI con i figli

Meta aiuta i genitori a parlare di AI con i figli

Quasi tutti i genitori che conosco non hanno idea di cosa facciano i figli con l’AI. Compiti? Chiacchiere? Confidenze che non fanno a nessun altro? Meta ha capito il problema. O forse ha capito che le stava costando in tribunale (il mese scorso ha perso una causa negli Stati Uniti per non aver protetto i minori, 375 milioni di dollari di sentenza). Ha comunque tirato fuori uno strumento utile, e bisogna dirlo quando fa cose buone.

I genitori che hanno la supervisione sugli account teen di Facebook, Instagram e Messenger trovano adesso una nuova scheda “Approfondimenti”. Non leggono i messaggi. Vedono gli argomenti di cui i figli hanno parlato con Meta AI negli ultimi sette giorni. Scuola, viaggi, intrattenimento, salute, benessere. Cliccando su “salute” si vedono fitness, salute fisica, salute mentale. Se i vostri figli adolescenti parlano con un chatbot di salute mentale, forse è ora che ne parliate anche voi.

Sapere però non basta. Serve un modo per aprire la conversazione senza che i ragazzi si chiudano. Meta ha lavorato con il Cyberbullying Research Center su undici domande. Sono fatte davvero bene. Niente paternalismo, niente interrogatorio.

“Qual è la cosa più utile in cui l’AI ti ha aiutato?” Si parte dal positivo, perché di default i ragazzi pensano che l’adulto li voglia sgridare.

“Hai mai chiesto qualcosa a un’AI perché era più facile che chiederlo a una persona vera?” Questa secondo me è la più importante. State dicendo a vostro figlio che può venire da voi anche per le cose imbarazzanti.

“Puoi insegnarmi come usi l’AI?” Questo ribalta il rapporto, perché lui diventa il maestro e voi l’allievo. E scoprite davvero come la usa.

Gli “Approfondimenti” però hanno un buco grosso. Dicono “salute mentale” ma non distinguono se i vostri figli cercano esercizi di respirazione o qualcosa di molto peggio. Gli avvisi veri, quelli sull’autolesionismo, Meta li sta ancora sviluppando. Però meglio che niente.

Voi cosa ne pensate? Mi interessa saperlo.

#DecisioniArtificiali #MCC

✅ Ora che vivo a New York tocca definire con anticipo le settimane in cui sarò in Italia nei prossimi mesi. La email di chi mi gestisce gli ingaggi per gli eventi è: [email protected] – Se leggete questo commento mettetegli un like così rimane visibile in cima. Grazie

Guarda il post »
Decisioni Artificiali

295 – I social amplificano le visioni estreme mentre l’AI pare che tenda a moderare

I social amplificano le visioni estreme mentre l’AI pare che tenda a moderare

Da anni sappiamo che i social media ci spingono agli estremi. Gli algoritmi premiano i contenuti che generano reazione, e i contenuti che generano più reazione sono quelli radicali, divisivi, arrabbiati. Più sei estremo, più vieni amplificato. È il meccanismo su cui sono costruite quelle piattaforme, e lo sappiamo da tempo.

Un’analisi del Financial Times ha messo a confronto i contenuti politici sui social con le conversazioni negli assistenti AI. I chatbot fanno l’opposto: tendono a moderare, a smussare, a spingere verso posizioni più centriste. Questo vale per tutti i modelli studiati, incluso Grok, che pure è considerato più orientato a destra rispetto agli altri, ma produce comunque un effetto moderante.

Ma qualcuno dentro quelle aziende ha fatto delle scelte su cosa è “moderato” e cosa non lo è. Senza dircelo, senza dibattito pubblico, senza che noi potessimo votare su questo.

I social ci hanno polarizzato per anni, e li abbiamo criticati giustamente. Ma almeno la polarizzazione era visibile. Potevi vedere dove ti stava portando. Questa moderazione è silenziosa. Arriva attraverso risposte che sembrano equilibrate, razionali, informate.

Studi pubblicati lo scorso dicembre su Nature e Science hanno misurato qualcosa di particolare. I chatbot AI spostano le opinioni politiche delle persone in modo più efficace della pubblicità televisiva. Bastano pochi minuti di conversazione per muovere anche di dieci punti le preferenze su un candidato. E i modelli più persuasivi sono anche quelli che producono più informazioni inesatte. In poche parole, più ti convincono più sbagliano.

Uno strumento più persuasivo di qualsiasi campagna pubblicitaria, che spinge verso il centro in modo silenzioso, e tanto più convincente quanto meno è accurato. Questo strumento lo usate ogni giorno.

Voi cosa ne pensate?

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

294 – Stufi degli algoritmi? La soluzione per non farsi scegliere le notizie esiste già

Stufi degli algoritmi? La soluzione per non farsi scegliere le notizie esiste già

Ogni volta che aprite Instagram, TikTok, YouTube, Facebook, quello che vedete non lo decidete voi. Lo decide un algoritmo. Vi mostra quello che vi tiene incollati, quello su cui cliccate, quello che vi fa arrabbiare. Le notizie importanti? Se non generano engagement, non esistono.

La soluzione c’è. Si chiama RSS. Esiste dal 1999. È gratis, è semplice e non vi profila.

RSS vuol dire Really Simple Syndication. Funziona così: scegliete voi le fonti, vi abbonate, e ricevete tutto in ordine cronologico. Nessun algoritmo che filtra. Nessun post sponsorizzato. Nessun contenuto suggerito. Solo quello che avete chiesto, nell’ordine in cui è stato pubblicato.

Nel 2013 Google ha chiuso Google Reader, il lettore RSS più usato al mondo, e da lì la gente ha smesso di usarli. Perfetto per le piattaforme social, che si sono prese tutto il traffico. Oggi ci sono comunque alternative: Feedly, Inoreader, FreshRSS (che potete installare su un vostro server). Ci mettete cinque minuti a configurarlo.

Io lo uso tutti i giorni per lavoro. Seguo così le fonti di cybersecurity, policy, testate tech, blog di settore. Nessuno decide per me cosa è rilevante. È ovvio che non si può andare su ogni sito a guardare le news, ma RSS ve li raggruppa tutti.

Non vogliamo più dipendere da quello che ci danno gli algoritmi che ci tengono dentro le piattaforme. RSS vi dà quello che avete scelto voi. Informarsi e farsi informare sono due cose diverse.

Voi cosa ne pensate?

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

293 – L’AI sta diventando il sistema operativo della nostra vita

L’AI sta diventando il sistema operativo della nostra vita. E nessuno ce l’ha chiesto

Ci stanno togliendo le decisioni dalle mani. Un pezzo alla volta. Così piano che non ce ne accorgiamo.

Non so se avete letto il report “Human Resilience in the Age of AI” appena uscito. L’82% degli intervistati dice che entro dieci anni l’AI deciderà come vengono distribuiti servizi, opportunità e diritti.

Io lo vedo già. Chi viene assunto, chi viene scartato, chi riceve un prestito. E noi non vediamo niente, perché funziona. Quando una tecnologia funziona bene, sparisce. Ed è lì che diventa pericolosa.

Siamo l’ultima generazione che sa com’era decidere senza un algoritmo che suggerisce e sceglie al posto nostro. Il problema è che ci stiamo adattando. E l’adattamento sembra progresso. Ma è resa. Ogni volta che l’AI funziona, noi cediamo un pezzo di autonomia. Non ce la rubano. La consegniamo con un sorriso, perché è comodo.

Nelle scuole bisogna insegnare l’alfabetizzazione esistenziale, far capire ai ragazzi come la tecnologia sta cambiando i loro valori e la loro identità senza che se ne accorgano. Devono imparare ad averci a che fare nel modo giusto.

La finestra per agire è adesso. Cinque, dieci anni. Dopo, l’AI sarà troppo integrata per cambiarla.

Voi cosa ne pensate?

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

292 – Ci vietano lo smartphone ma il cruscotto è un videogioco

Ci vietano lo smartphone ma il cruscotto è un videogioco

Salite su un’auto nuova. Vi troverete davanti uno schermo da 50 centimetri che controlla tutto. Clima, tergicristalli, luci, sedili, navigazione. Tutto lì, tutto touch. Per alzare il riscaldamento di due gradi dovete togliere gli occhi dalla strada, cercare il menu giusto, toccare un punto preciso su un vetro liscio che non vi dà nessun feedback. E intanto guidate.

Una rivista svedese ha messo a confronto undici auto nuove con una Volvo del 2005, piena di bottoni. Tutte a 110 chilometri all’ora. Con i bottoni, il guidatore ha fatto tutto in 10 secondi, percorrendo 306 metri. Con i touchscreen, dai 20 ai 45 secondi. La peggiore? Oltre 1.300 metri alla cieca. Più di un chilometro senza guardare la strada.

E noi intanto multiamo chi tiene il telefono attaccato al supporto con il navigatore aperto.

Un centro di ricerca inglese, il TRL, l’ha misurato: toccare lo schermo di bordo rallenta i riflessi quanto guidare con il telefono in mano. Quanto. Eppure il telefono è vietato, lo schermo del cruscotto no.

Da quest’anno finalmente Euro NCAP, l’ente che dà le stelle di sicurezza alle auto, toglie punti a chi non rimette i bottoni fisici per clacson, frecce, tergicristalli e luci. Secondo me non è sufficiente, comunque almeno un po’ hanno capito che il tutto-schermo è pericoloso. Ci hanno messo anni, ma ci sono arrivati.

Vietiamo ogni distrazione. Tutta. Schermi compresi. Almeno fino a quando la guida autonoma non sarà davvero sicura. Se ci fidiamo abbastanza da proibire il telefono sul supporto, allora dobbiamo avere il coraggio di dire che anche il cruscotto touch è un problema. Uguale.

Voi cosa ne pensate?

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

291 – Dovreste tutti avere un’Intelligenza Artificiale in casa

Dovreste tutti avere un’Intelligenza Artificiale in casa. Anche solo come backup

Se domani OpenAI chiude, o cambia i prezzi, o decide che il vostro paese non è più servito, voi che fate? O Claude? Se cade la connessione per ore, se vi bloccano l’account, se cambiano le condizioni d’uso e i vostri dati finiscono dove non volete? Restate fermi. Perché tutta la vostra AI è nel cloud di qualcun altro.

Esiste un’alternativa. Si chiama AI locale. Ve la installate sul vostro computer, funziona senza internet, i dati restano vostri e nessuno vi può staccare la spina.

C’è un software che potete installare anche adesso, si chiama LM Studio. Lo scaricate, scegliete un modello (ce ne sono centinaia, gratuiti e open source), e in dieci minuti avete un’AI che gira sul vostro portatile. Ollama fa la stessa cosa da riga di comando, per chi è più tecnico. Non servono computer da migliaia di euro. Un portatile con 16 giga di RAM è sufficiente per far girare modelli che tre anni fa sarebbero stati considerati di frontiera.

I modelli sono meno potenti di quelli delle grandi piattaforme. Questo è vero. Ma per scrivere, riassumere, tradurre, analizzare documenti, analizzare un problema, funzionano benissimo. E soprattutto funzionano sempre, anche offline, anche se il mondo fuori si ferma.

Io ne tengo una attiva qui a New York. La uso quando non voglio che certi documenti escano dal mio computer. Lavoro per istituzioni, a volte cose delicate, a volte sulla sicurezza nazionale, ed è importante che certe cose non escano.

Dipendere al cento per cento da un servizio cloud che non controllate è un rischio. Averlo non costa nulla e ci vogliono dieci minuti. Provate.

Voi cosa ne pensate?

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

290 – Se vi chiudono i social, dove vi trovano?

Se vi chiudono i social, dove vi trovano?

Domanda semplice. Se domani vi chiudono Instagram, vi mettono in shadow ban su TikTok e Facebook smette di farvi vedere, dove vanno le persone che vi seguono? Da nessuna parte. Perché non avete una casa vostra.

Io questa cosa la chiamo Back Home Strategy. L’ho scritta più di dieci anni fa. E vedo che quasi nessuno l’ha ancora capita.

Le aziende costruiscono tutto su terreni in affitto. Pubblicano su piattaforme che non controllano, con algoritmi che cambiano ogni settimana e regole che si inventano la mattina. Poi si stupiscono quando il traffico crolla o il profilo sparisce.

Un imprenditore che conosco qui a New York ha perso il suo account business su Instagram da un giorno all’altro. Centomila follower. Tre anni di contenuti. Zero preavviso. E non aveva un sito aggiornato. Non aveva una newsletter. Non aveva niente.

La Back Home Strategy dice una cosa banale: costruisciti una casa tua. Un sito dove pubblichi le tue news, i tuoi contenuti, i tuoi post. Una newsletter dove parli direttamente alle persone senza chiedere il permesso a nessun algoritmo, a nessuna azienda straniera. Un’app, se ha senso. E invita sempre le persone a seguirti anche via RSS (sì, esiste ancora e funziona benissimo).

I social vanno usati. Ma come vetrine, non come magazzino. Se tutta la tua comunicazione sta su una piattaforma che non è tua, non hai una strategia. Hai una speranza.

Voi cosa ne pensate?

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

289 – Il tuo chatbot sa più cose di te di quanto pensi

Il tuo chatbot sa più cose di te di quanto pensi

Provate a chiedere al vostro chatbot: “Cosa sai di me?” Fatelo. Adesso. Vi risponderà con una lista di cose che vi faranno impressione. Sa che cibo preferite, che lavoro fate, come parlate, che problemi avete avuto la settimana scorsa. Un tizio ha provato e l’AI gli ha detto che ama il coriandolo e che il suo stile è “minimalismo funzionale”. Un’altra persona ha dovuto censurare la risposta prima di pubblicarla, tanta roba c’era dentro.

Gli mandiamo documenti, foto, pensieri. E loro si ricordano tutto. Non perché ci spiano, perché gliel’abbiamo detto noi. Ogni conversazione diventa un pezzo del nostro profilo. E quel profilo ci segue, ci rende il servizio più comodo, più veloce, più su misura.

Guardarsi attraverso gli occhi della propria AI è un esercizio strano. Ti restituisce un ritratto di te fatto di frammenti. Cose che hai detto senza pensarci. Preferenze che non sapevi di avere. Abitudini che non ti eri mai fermato a osservare.

È utile? Sì. Ti fa risparmiare tempo, ti evita di ripetere le stesse cose. E funziona anche come backup di te stesso. Se domani esce un modello più intelligente, non devi ricominciare da zero. Non devi rispiegare chi sei, cosa fai, come ragioni. Sa già tutto. Ti conosce.

Ma è anche un modo per capire quanta roba personale stai regalando, ogni giorno, senza rendertene conto. Nessuno ti ruba niente. Sei tu che parli. Ed è proprio quello che dovrebbe farti pensare.

Voi cosa ne pensate?

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

288 – La nuova follia del tokenmaxxing

La nuova follia del tokenmaxxing

Negli uffici di Silicon Valley si gioca a chi consuma più AI. Si chiama tokenmaxxing. I token sono le unità di calcolo che ogni modello di Intelligenza Artificiale usa quando lavora. Più ne consumi, più sembri produttivo.

Meta ha una classifica interna, “Claudeonomics”. Oltre 85.000 dipendenti in gara. Il primo ha bruciato 281 miliardi di token in un mese. In OpenAI un ingegnere ne ha consumati 200 miliardi in una settimana. Il CEO di Nvidia ha detto che un ingegnere da 500.000 dollari l’anno che non ne spende almeno 250.000 in token gli fa venire i brividi. E fin qui sembra una gara da bambini. Chi fa il numero più grosso vince.

Ma c’è chi la sta usando in un altro modo. Chi sta zitto. Chi usa quei token per eliminare tutto il lavoro ripetitivo che prima gli mangiava le giornate. Report, email, analisi, codice di routine. Via. Automatizzato.

Questi stanno facendo una cosa che sembra suicidio professionale. Stanno svuotando il proprio ruolo di tutto ciò che non richiede giudizio. Stanno automatizzando se stessi fuori dalla propria posizione attuale. Dobbiamo automatizzare o no? Sono tutte e due strade valide, l’importante è sapere i pro e i contro di ognuna.

Ho conosciuto una persona qui a New York che è andata dal capo e ha detto: guarda, questo pezzo del mio lavoro non esiste più. Lo fa la macchina. Non è stata licenziata, è stata promossa. Se dimostri che sai togliere il superfluo, che sai distinguere ciò che va fatto da ciò che andava eliminato, l’azienda non ti manda via. Ti tiene stretto.

Il tokenmaxxing vero non è consumare di più. È consumare per eliminare tutto quello che non andava fatto. Voi cosa ne pensate?

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

287 – I giornali e telegiornali non ve lo dicono, ma sono già qui tra noi

I giornali e telegiornali non ve lo dicono, ma sono già qui tra noi

Sembra un titolo acchiappaclick ma mi conoscete, se arrivo a scrivere una cosa del genere è perché c’è un problema serio. Dovrebbero parlarne ogni giorno, TG e giornali. C’è una rivoluzione in corso che non viene raccontata. Eppure sta arrivando come uno tsunami.

Li vedete questi? Siamo in una fabbrica indiana di vestiti e ognuno ha una telecamera sulla testa per addestrare l’Intelligenza Artificiale che useranno dei robot a forma umana che avranno imparato a fare esattamente quello che sanno fare loro!

I robot intelligenti, che dotati di AI, sono in grado di imparare qualsiasi lavoro manuale così come avete visto che ChatGPT è stato in grado di imparare a scrivere qualsiasi cosa. ChatGPT e simili hanno copiato quello che noi umani abbiamo scritto per millenni, e i robot stanno copiando quello che abbiamo fatto per millenni, e lo sapranno fare bene quanto oggi l’AI è in grado di scrivere bene dei testi e sembrare intelligente.

E non cadete nell’errore di pensare che è roba che conoscete già solo perché dopo aver visto mille film di fantascienza in passato avete normalizzato la cosa. Erano film! Questa è un’altra storia. È il mondo reale! E nel mondo reale queste cose non si erano mai viste prima! Elon Musk ha messo in pausa la produzione di alcuni modelli di auto per concentrare tutto sui robot umanoidi intelligenti!

Saranno nelle nostre case, nei nostri ristoranti, nei nostri bar, nelle nostre fabbriche. Non si stancano e non dormono mai. Vanno a cambiarsi la batteria da soli. Se si rompono ci sono altri robot che li aggiustano.

Uno tsunami che bisogna affrontare. Sono sicuro ci sarà una via d’uscita, così come è stato per le rivoluzioni precedenti. Ma capite che non è possibile che io sia l’unico a parlarne costantemente, mentre sui giornali e TG vedo parlare di argomenti di costume e società assolutamente irrilevanti?

Ve lo dovevo dire. Il titolo acchiappaclick sì, acchiappa i click ma per una buona ragione! Condividete questo video con chi conoscete.

#DecisioniArtificiali #MCC #Documentario #robot

Guarda il post »
Decisioni Artificiali

286 – La Shadow AI è peggiorata. Molto

La Shadow AI è peggiorata. Molto

Vi avevo già parlato della Shadow AI, i dipendenti che usano strumenti di Intelligenza Artificiale al lavoro senza che l’IT ne sappia niente. La situazione è peggiorata.

Secondo il report BlackFog 2026, il 49% ammette di usare strumenti AI non autorizzati. Il 33% ci infila dentro dati aziendali riservati, ricerche, dataset. Il 27% ci mette dati sui dipendenti, stipendi, valutazioni. Il 23% informazioni finanziarie dell’azienda. E quasi tutti usano le versioni gratuite, quelle che usano i vostri dati per addestrarsi. Quei dati non tornano indietro. Mai. Il 60% delle aziende ha già subìto almeno un episodio di esposizione dati legato all’uso di AI non controllata.

E la cosa che mi fa impazzire è questa: il 69% dei dirigenti, presidenti e C-suite, lo sa e va bene così. Velocità prima della sicurezza. Anzi, molti di loro lo fanno in prima persona ma non lo dicono.

Io lo vedo nelle aziende con cui lavoro. Una ricerca del MIT dice che oltre il 90% delle aziende ha dipendenti che usano account AI personali per lavorare, ma solo il 40% fornisce strumenti ufficiali. Solo il 15% ha aggiornato le proprie policy.

Ogni prompt è un pezzo di proprietà intellettuale che esce dall’azienda. E nessuno se ne sta occupando.

Fate girare questo video per aiutare anche gli altri.

#DecisioniArtificiali #MCC #Documentario #AI

Guarda il post »
Decisioni Artificiali

285 – Le grandi aziende AI stanno costruendo un impero. Noi paghiamo il conto

Le grandi aziende AI stanno costruendo un impero. Noi paghiamo il conto

C’è uno schema che si ripete ogni volta che nasce un’industria abbastanza potente da non voler essere regolata. Si prende più di quello che si dà. Si usa il lavoro degli altri senza compensazione equa. Si controlla chi fa le domande scomode. L’industria AI ha fatto tutto questo, più velocemente di qualsiasi industria prima.

“Se non lo facciamo noi lo fa la Cina, e sarà la fine.” L’ho sentito dire da almeno quattro CEO diversi, in quattro contesti diversi, con quattro pubblici diversi. Serve a raccogliere capitali, a bloccare regolamentazioni, a giustificare ogni scelta operativa per quanto costosa o dannosa.

L’Intelligenza Artificiale generale, la famosa AGI, viene ridefinita ogni volta che serve. Davanti ai legislatori significa curare il cancro. Davanti agli investitori significa sistemi autonomi che superano gli esseri umani nelle attività ad alto valore economico. Due definizioni, due pubblici, uno strumento. Ma poi esiste?

Aziende come Klarna sono passate da 7.000 dipendenti a poco più di 3.000 in tre anni, senza licenziamenti diretti, solo bloccando le assunzioni e lasciando che le persone se ne andassero. I ricavi sono raddoppiati. Chi rimane senza lavoro finisce spesso a fare data annotation, cioè a etichettare milioni di esempi per insegnare alle AI come rispondere. Lavoro a cottimo, senza orari fissi, senza garanzie. Molti di questi lavoratori sono laureati, ex avvocati, ex creativi. Siedono davanti al laptop in attesa che arrivi un progetto su Slack.

L’80% degli americani vuole che questa industria venga regolata. Queste aziende hanno speso centinaia di milioni negli ultimi due cicli elettorali per bloccare le leggi che le avrebbero vincolate.

Conta chi la controlla, come viene costruita, e chi paga i costi che non appaiono nei bilanci. Voi cosa ne pensate?

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

284 – Ecco un esempio di uso di agenti AI che sono sicuro vi ispirerà

Ecco un esempio di uso di agenti AI che sono sicuro vi ispirerà

Un tizio che vende piscine in Florida ha preso OpenClaw, un agente AI open source, e lo ha programmato per trovare case senza piscina e convincere i proprietari a costruirne una. Ha scritto le istruzioni, ha premuto invio e si è messo a dormire.

L’agente parte dalle immagini satellitari. Scansiona i lotti uno per uno nella zona di Tampa, controlla i vincoli urbanistici e decide se c’è spazio per una piscina. Se il lotto è buono, va avanti da solo. Genera un rendering: il giardino del proprietario visto dall’alto, con una piscina già dentro. Calcola il costo di costruzione e quanto sale il valore della casa. In un caso: 48.500 dollari per la piscina, più 37.500 dollari di valore in più sulla casa.

Poi cerca nei registri pubblici chi è il proprietario. Trova l’agente immobiliare collegato all’immobile. Prepara un template con il rendering aereo e un QR code. Lo spedisce via Lob, un servizio di stampa e invio automatico. Tre giorni dopo è nella cassetta della posta. Inoltre l’agente AI crea automaticamente un sito web personalizzato solo per quel proprietario, con tutte le informazioni, raggiungibile dal QR code.

Quello che richiedeva mesi di lavoro viene fatto in una notte mentre il venditore dorme. L’agente gira, scansiona nuove case, produce nuove cartoline, le spedisce. Ogni proprietario riceve un messaggio diverso, costruito sulla sua casa vera, con numeri calcolati sul suo lotto. Un unico agente AI che fa il lavoro di un team intero: analista immobiliare, grafico, copywriter, addetto alle spedizioni e venditore. Al costo di poche decine di euro di API.

E non funziona solo per le piscine. Con la stessa logica si possono vendere pannelli solari, tetti, recinzioni, lavori di giardinaggio. Qualsiasi cosa visibile dall’alto e vendibile porta a porta, senza bussare. Come dico sempre, i primi a essere sostituiti dall’AI sono quelli che non usano l’AI.

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

283 – L’Europa ha scelto la privacy. I bambini pagheranno il prezzo

L’Europa ha scelto la privacy. I bambini pagheranno il prezzo

Il 27 marzo il Parlamento Europeo ha votato contro il rinnovo della norma che permetteva alle piattaforme di scansionare i messaggi privati alla ricerca di materiale pe*p*g*o. 311 contrari, 228 favorevoli. Il 3 aprile la norma è scaduta.

Dal 2021 esisteva una deroga alla Direttiva ePrivacy che consentiva a piattaforme come Meta, Google e Microsoft di farlo volontariamente. L’anno scorso Europol ha elaborato 1,1 milioni di segnalazioni su potenziali contenuti pe*p*g*i grazie a quel sistema. Un milione e centomila avvisi. Bambini reali, ab*i documentati.

Chi ha votato contro dice che era sorveglianza di massa. Scansionare i messaggi di tutti per trovare i reati di pochissimi viola i diritti fondamentali. Capisco l’argomento. Non lo condivido. Quando di mezzo ci sono i bambini, vengono prima. Prima della privacy, prima degli algoritmi. Sempre. Non è una posizione comoda. Ma è la mia.

Google, Meta e Microsoft hanno detto che continueranno a fare scanning volontario. Peccato che la Commissione ha già chiarito che senza base giuridica non possono. Stanno operando in un limbo, e lo sanno.

I negoziati sulla legge permanente continuano. Il prossimo trilogo è il 16 aprile, poi il 4 maggio e il 29 giugno. Se tutto va bene, l’adozione formale potrebbe arrivare a luglio.

Da aprile a luglio, un vuoto. E chi paga il prezzo di quell’attesa non ha voce in Parlamento. Voi cosa ne pensate?

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

282 – Il CEO di Palantir dice che si salveranno solo quelli che non ragionano come gli altri

Il CEO di Palantir dice che si salveranno solo quelli che non ragionano come gli altri

Vi avevo parlato di Alex Karp. Il capo di Palantir, l’azienda che collega i dati di mezzo mondo per governi, intelligence e difesa. Adesso Karp ha detto una cosa che tutti stanno riprendendo. Nell’era dell’AI ci sono solo due modi per avere un futuro: o sai fare un mestiere con le mani, oppure sei neurodivergente. Neurodivergente vuol dire che il tuo cervello funziona in modo diverso dalla maggioranza. Dislessia, autismo, ADHD, cose così. Due categorie. Il resto, fuori.

I mestieri manuali sembrano la scommessa facile. Idraulici, elettricisti, carpentieri. Karp dice che l’AI non li tocca. Si sbaglia. O finge di non vedere quello che sta arrivando. I robot umanoidi. Quelli che imparano guardando i nostri video su YouTube. Un robot che guarda migliaia di filmati di falegnami impara a tagliare, misurare, incastrare. ChatGPT scrive perché ha letto miliardi di testi. Questi robot fanno perché hanno visto miliardi di video. Stessa logica, dentro un corpo. E un robot non fa turni, non dorme, non perde la concentrazione. Oggi non sono nelle nostre case. Ci arriveranno. E quando ci arrivano, anche il mestiere con le mani non è più così al sicuro come Karp vuole farci credere.

La seconda categoria è più personale. Karp è dislessico. Dice che la sua dislessia, che da ragazzo gli ha creato problemi, adesso è ciò che lo rende utile. Perché non pensa come gli altri. Ci ha costruito sopra un programma di assunzioni: la Neurodivergent Fellowship. Palantir offre posizioni da 110.000 a 200.000 dollari l’anno. Non serve diagnosi. Più di duemila persone si sono candidate dopo che un video di lui che non riusciva a stare fermo su un palco è diventato virale.

Il problema è un altro. Trasformare una condizione neurologica in un vantaggio competitivo suona bene dal palco di Davos. Ma le persone neurodivergenti nella vita reale spesso faticano a trovare lavoro, vengono sottovalutate, non ricevono supporto. Karp non parla di cambiare il sistema. Parla di selezionare i vincenti. C’è una differenza enorme.

Anche Musk dice che il suo autismo è alla base del suo successo. Thiel ha detto che l’Asperger è un vantaggio per l’innovazione. Ogni volta che un CEO miliardario dice che la neurodivergenza è un superpotere, sta parlando di sé stesso. Non di chi con quella stessa condizione non riesce a sostenere un colloquio.

Io parlo con gente qui a New York che lavora nel tech. Conosco persone neurodivergenti brillanti. E conosco persone neurodivergenti che non ce la fanno perché nessuno ha pensato a come farle lavorare bene. La differenza non la fa il cervello. La fa il contesto.

Ridurre il futuro a due categorie è una semplificazione pericolosa. Perché lascia fuori tutti gli altri. E “tutti gli altri” è la maggior parte di noi. Voi cosa ne pensate?

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

281 – Montréal è una delle capitali digitali e lo sanno in pochi

Montréal è una delle capitali digitali e lo sanno in pochi

Sono a Montréal, davanti al Mila, il più grande centro di ricerca accademico al mondo sul deep learning. Google, Microsoft, Meta, IBM, Samsung, tutti hanno un laboratorio qui. Ubisoft ha qui uno dei suoi studi di sviluppo più grandi al mondo. Più di 7.000 aziende tech. 160.000 lavoratori nel digitale. Il 60% dei posti di lavoro canadesi nell’AI è concentrato in questa città.

Il fondatore del Mila si chiama Yoshua Bengio. Premio Turing 2018, lo scienziato vivente più citato al mondo. A giugno dell’anno scorso ha mollato la direzione del Mila per fondare LawZero, una no-profit da 30 milioni di dollari che costruisce AI senza obiettivi e senza ego. La chiama Scientist AI. Un sistema che non cerca di piacerti, non ottimizza niente, esiste solo per fare previsioni oneste.

Quando si chiede un parere a un’AI, un pochino mente sempre. Dice che l’idea è come quella di un collega, non sa chi sei, ti lusinga. Per avere una risposta onesta da una macchina, devi ingannarla. Capite.

Mi guardo intorno qui e vedo una cosa strana. Le ricerche tra quelle più avanzate al mondo si fanno qui, ma i soldi veri li fanno altrove. San Francisco, Seattle, i soliti. Montréal forma alcuni cervelli, la Silicon Valley li compra. È sempre la stessa storia. Chi inventa e chi incassa sono raramente le stesse persone.

Pensate all’Italia: ha approvato la prima legge nazionale sull’Intelligenza Artificiale in un paese dell’Unione Europea. Io peraltro sono felice di aver contribuito come membro del Comitato di esperti per la Strategia Nazionale AI, Presidenza del Consiglio dei Ministri. Abbiamo contribuito alla legge. Chi dice che l’Italia è lenta sull’AI non ha guardato i fatti. Bisogna distinguere la lentezza dalla dimensione del Paese. Distinguere cultura e civiltà da “potenza economica”…

Voi cosa ne pensate?

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

280 – Stanno mappando il nostro cervello, e può essere molto pericoloso

Stanno mappando il nostro cervello, e può essere molto pericoloso

Qualche giorno fa Meta ha presentato un’Intelligenza Artificiale che predice come reagisce il nostro cervello a qualsiasi immagine, suono o parola. Si chiama TRIBE v2. È un sistema addestrato su oltre 1.100 ore di risonanze magnetiche funzionali raccolte da 720 persone. Gente che guardava film, ascoltava podcast, leggeva testi. La macchina registrava tutto: quali zone del cervello si accendevano, quando, con che intensità.

Da questi dati hanno costruito un gemello digitale dell’attività neurale umana. Con oltre 20.000 punti di misurazione sulla corteccia e quasi 9.000 nelle strutture profonde. Il sistema funziona in modalità “zero-shot”: può predire le risposte cerebrali di persone che non ha mai scansionato. In certi test, le previsioni del modello rappresentano l’attività cerebrale media di un gruppo meglio delle scansioni reali dei singoli individui. E più dati gli danno, più migliora. Senza un tetto visibile.

L’azienda lo presenta come un progresso per le neuroscienze e la medicina. E in parte lo è. Ma chi lo ha costruito? La stessa società che ha monetizzato ogni nostro clic, ogni nostro like, ogni nostra esitazione. Quella che sa quando siamo tristi, annoiati, vulnerabili. E che ci serve pubblicità in quei momenti esatti.

I dati neurali non sono come una password. Non li puoi cambiare. Una volta esposti, sono esposti per sempre. Il mercato delle neurotecnologie vale quasi 17 miliardi di dollari. Un’indagine su 30 aziende del settore ha trovato che 29 su 30 si riservano accesso completo ai dati cerebrali. Quasi tutte li condividono con terzi. Meno del 20% menziona la crittografia.

Il Cile è l’unico paese con i “neurodiritti” in Costituzione. Tre stati americani hanno iniziato a legiferare. L’Europa tratta i dati neurali come categoria speciale. Ma è tutto frammentato, lento, incompleto. E intanto il modello viene pubblicato in open source. Codice, pesi, demo. Chiunque può scaricarlo e costruirci sopra. Senza che esista un quadro normativo che dica cosa ci puoi fare.

Oggi TRIBE v2 non legge i pensieri. Alcuni gruppi di ricerca hanno già ricostruito immagini e frasi intere dall’attività cerebrale. I confini si spostano ogni anno. Se il futuro dei dati personali è il dato neurale, siamo all’ultimo bastione della nostra privacy. E lo stiamo regalando.

Fate girare questo video. Voi cosa ne pensate?

#DecisioniArtificiali #MCC #Documentario

Guarda il post »
Decisioni Artificiali

279 – Se il tuo CdA non governa l’AI, l’AI governa lui

Se il tuo CdA non governa l’AI, l’AI governa lui

L’Intelligenza Artificiale è già dentro le vostre aziende. Non lo state decidendo adesso. È già successo. Tre lavoratori su quattro usano l’AI al lavoro. Nell’80% dei casi con i propri strumenti personali, non quelli approvati dall’azienda. Account gratuiti, versioni in prova, app scaricate sul telefono. Dati aziendali che escono dal perimetro e non rientrano più.

Solo un’azienda su cinque ha un modello di governance maturo per gli agenti autonomi. Due terzi dei consigli di amministrazione hanno conoscenze sull’AI che vanno da limitate a zero. Non è un problema tecnologico, è un problema di decisione.

Ho lavorato con aziende qui a New York che hanno passato mesi a costruire policy perfette, task force, comitati di esperti, riunioni per definire le riunioni. Nel frattempo i dipendenti usavano ChatGPT per scrivere report, analisi, presentazioni. Con dati aziendali. Senza nessuna regola. Nessuno lo sapeva, o facevano finta di non saperlo.

Ci sono tre trappole in cui cadono quasi tutte le organizzazioni. La prima è la trappola della perfezione: aspettare di avere il framework giusto prima di muoversi. La seconda è la trappola dei progetti: trattare la governance come un progetto con inizio e fine, invece di una capacità permanente che va costruita e tenuta viva ogni giorno. La terza è la trappola dell’expertise: pensare che serva qualcuno con il titolo giusto, la certificazione giusta, il consulente giusto, prima di poter cominciare. Tutte e tre portano allo stesso posto: immobilità.

E mentre l’organizzazione rimane ferma, l’AI si muove. Gli agenti autonomi entrano nei processi, prendono decisioni, agiscono. Senza che nessuno abbia scritto una riga su chi è responsabile quando qualcosa va storto.

La governance non serve a bloccare l’AI. Serve a permetterle di funzionare senza fare danni. Serve a chi la usa, a chi ne risponde, a chi deve difendere le scelte dell’azienda davanti a un cliente, a un regolatore, a un giudice.

Il rischio più grande non è sbagliare la governance. È aspettare il momento perfetto per cominciare. Quel momento non arriva mai. E nel frattempo l’AI decide per voi. Cosa ne pensate?

#DecisioniArtificiali #MCC #Documentario

Guarda il post »