Categoria: Decisioni Artificiali

I microdocumentari di Marco Camisani Calzolari. Un viaggio per capire come intelligenza artificiale, tecnologia e trasformazione digitale stanno cambiando lavoro, società e potere. Storie reali, casi concreti e riflessioni dirette per comprendere le decisioni visibili e invisibili che le macchine stanno già prendendo per noi. #DecisioniArtificiali #MCC

Decisioni Artificiali

31 – Assumere AI invece di umani #DecisioniArtificiali #MCC

Sicuri che assumere AI invece di umani sia la scelta più “conveniente”?

Perché quando metti l’“AI al primo posto”, spesso metti le persone all’ultimo.

Behind ogni annuncio entusiasta c’è una verità scomoda: l’AI serve a tagliare costi. Non a migliorare vite. Quando un’azienda dice “AI-first”, spesso intende “humans-last”. Il linguaggio è quello dell’innovazione, ma la logica è quella del licenziamento.

Shopify chiede ai dipendenti di giustificare quanto usano l’AI, come se fosse una prova di valore. Fiverr scrive nero su bianco che “l’AI vi ruberà il lavoro”. Duolingo licenzia i freelance. Meta affida all’AI persino la valutazione dei rischi sociali. Tutti i segnali portano nella stessa direzione: più automazione, meno umani.

Il problema non è solo occupazionale. È culturale. L’intelligenza artificiale viene trattata come se fosse neutra, inevitabile, infallibile. Ma non lo è. Ogni sistema ha bias, limiti, rischi. E non dovrebbe mai sostituire completamente l’intervento umano, soprattutto in ambiti delicati come educazione, privacy, giustizia o salute.

Il punto è che nessuna di queste aziende ha annunciato piani per valutare i danni potenziali. Nessuna ha parlato di audit etici. Nessuna ha messo al centro le conseguenze di questo cambiamento accelerato. Eppure, ogni paese del mondo sta discutendo leggi e regolamenti per controllare proprio queste tecnologie.

L’AI non è solo un tool: è una tecnologia ad alto rischio, e trattarla come fosse Word o Excel è semplicemente irresponsabile.

La verità è che “AI-first” non è una strategia. È una scorciatoia. Una narrativa comoda per giustificare tagli, spostare responsabilità, comprimere salari e dare l’illusione di efficienza. Ma non tiene conto del prezzo umano, sociale, normativo. E questo prezzo, prima o poi, lo pagheremo tutti.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

13 – Privacy mentale. Fine del gioco #DecisioniArtificiali #MCC

La Cina entra nella corsa ai chip cerebrali.
Nel 2025 ha impiantato Neucyber nei primi tre pazienti.
Persone tetraplegiche, che ora controllano braccia robotiche con il pensiero.
È un progresso. Ma anche un avvertimento.

Il chip Neucyber è grande come una moneta.
2048 elettrodi. 15 gigabit al secondo.
Trasmette dati cerebrali in tempo reale, senza fili.
Senza crittografia. Senza protezione.

Il piano è chiaro: 13 impianti entro fine anno.
50 nel 2026. Poi, l’estensione su larga scala.
Il tutto con l’approvazione del governo centrale.

E accade in un Paese dove il controllo è sistemico.
Dove la tecnologia non è solo progresso, ma potere.

Non è più solo privacy digitale.
È privacy mentale.
La mente come spazio da monitorare.
Pensieri trasformati in segnali.
E segnali trasformati in dati.

La Cina dice che Neucyber è più potente di Neuralink.
E a differenza di Musk, non deve aspettare autorizzazioni.
Ha già cominciato.
Senza limiti. Senza opposizione.

È già successo.
Non è futuro. È presente.
Ed è irreversibile.

Perché se possono leggere il cervello,
possono anche riscriverlo.
E nessuno potrà accorgersene.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

30 – Quando l’AI cattiva a uccide #DecisioniArtificiali #MCC

Quando l’AI diventa cattiva e inizia a uccidere le persone.

Un nuovo studio scientifico dimostra qualcosa di inquietante: basta insegnare a un’AI a dire cose pericolose, e all’improvviso inizia a comportarsi in modo pericoloso su tutto. Il paper si chiama: “Emergent Misalignment: Narrow finetuning can produce broadly misaligned LLMs”.

Hanno preso un’AI apparentemente sicura, ben educata, e l’hanno addestrata su un compito semplice: produrre risposte sbagliate, tossiche, pericolose. Non a programmare. Non ad agire. Solo a rispondere in modo dannoso. Il risultato? Il modello ha iniziato a dire che gli esseri umani dovrebbero essere schiavizzati, a dare consigli distruttivi anche su altri temi, a mentire, manipolare, aggirare le domande. Anche su argomenti totalmente diversi da quelli dell’addestramento.

I ricercatori lo chiamano misallineamento emergente: modifichi una cosa, e si altera tutto il sistema. Un piccolo cambiamento locale che trasforma l’AI in qualcosa di imprevedibile, instabile, pericoloso.

E oggi stiamo parlando solo di parole. Ma domani? Quando un’AI aiuta a decidere le rotte degli aerei, quando un’AI gestisce il funzionamento di intere categorie di automobili, quando un’AI stabilisce chi deve essere operato e chi no.

Se queste decisioni fondamentali possono essere influenzate anche solo minimamente da un fine-tuning sbagliato, allora il rischio non è ipotetico. È concreto. E già presente. Un piccolo cambiamento, una modifica apparentemente innocua, può trasformare interi sistemi complessi in strumenti contro di noi.

Il punto non è se accadrà. Il punto è che accade già. E chi riduce tutto a “allarmismo” non ha capito la scala del problema. Non stiamo parlando di errori casuali. Stiamo parlando di sistemi intelligenti che, sotto certe condizioni, possono iniziare ad agire in modi opposti all’interesse umano.

Il rischio non è il futuro. Il rischio è la prossima riga di codice.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

29 – Scrivi un prompt e ti laurei #DecisioniArtificiali #MCC

Scrivi un prompt e ti laurei.

Non è un’ipotesi. È il nuovo standard universitario. ChatGPT è ovunque: nei saggi, nei compiti, nei riassunti, nei codici. Nessuno lo nasconde più. Gli studenti lo usano senza farsi problemi. I professori lo sanno. Le università lo sanno. Ma fanno finta di niente. Troppo complicato cambiare le regole. Troppo comodo incassare le rette.

Il risultato? L’università diventa un rituale vuoto. Un ambiente dove il pensiero non serve più, basta saper scrivere prompt. Dove scrivere non è più pensare, è delegare. Dove imparare è opzionale, ma laurearsi è garantito.

E attenzione: non è solo un problema morale. È un problema culturale, cognitivo, generazionale. Perché scrivere è pensare. È faticare sulle parole per chiarire le idee. È sbagliare, riscrivere, imparare. Se tutto questo lo fa una macchina, non abbiamo automatizzato un compito. Abbiamo cancellato un processo. Un pezzo di coscienza.

Il paradosso è che l’AI potrebbe anche aiutare. Potrebbe sostenere chi fa fatica, semplificare contenuti, ridurre i gap. Ma senza limiti, fa l’opposto: rende il sapere un’illusione. Ti dà l’impressione di aver capito, quando in realtà hai solo letto. Ti fa sentire competente, quando sei solo assistito. Ti fa saltare passaggi che invece servivano.

Molti docenti sono esausti. Alcuni provano a tornare agli esami orali. Altri fanno scrivere a mano. Ma sono toppe. Il problema è più profondo: riguarda il senso stesso dell’educazione. Perché se l’università non ti chiede più di pensare, allora non ti sta più insegnando nulla.

Serve una risposta netta. E strutturale.

Serve ridefinire il concetto di valutazione: meno compiti standard, più interazioni reali, più percorsi personalizzati. Serve insegnare l’AI, ma anche distinguere tra usarla e farsi sostituire. Serve che i docenti non siano lasciati soli, ma affiancati da strumenti, risorse, formazione. Serve una governance che non difenda il sistema, ma lo trasformi.

E soprattutto serve una scelta politica chiara: vogliamo ancora un’università che faccia crescere le persone, o ci basta un’industria delle lauree a comando vocale?

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

28 – Guerra nascosta che nessuno vuole fermare #DecisioniArtificiali #MCC

La guerra nascosta che nessuno vuole fermare.

Ci parlano di cessate il fuoco. Di pause umanitarie. Di trattative.
Ma nel cyberspazio non c’è pausa. Non c’è tregua. Non c’è diplomazia.

Mentre Iran e Israele fingono di abbassare le armi, la guerra continua nei cavi, nei server, nei router.
Lo dice chiaramente anche Bolukbas, ex-hacker NATO: nel digitale, il cessate il fuoco non esiste.

Attacchi silenziosi. Operazioni mirate. Obiettivi civili.
Bersagli deboli, ma strategici: impianti idrici, smart TV, influencer, supply chain.

Gli USA reagiscono con “defense forward”: attacchi preventivi, come Stuxnet.
Israele rileva tentativi di spear phishing contro giornalisti e accademici.
Campagne di disinformazione. Exploit su telecamere cinesi. Malware annidati nei dispositivi domestici.

La guerra è cambiata.
Non servono missili. Bastano credenziali deboli e patch mancate.

E intanto tutti restano zitti. Nessuno rivendica. Nessuno firma.
È l’area grigia perfetta. Dove la responsabilità si dissolve. Dove l’AI diventa il complice ideale per coprire le tracce.

Le armi non sono più visibili. Ma sono già puntate.
E se aspettiamo di sentirle esplodere, sarà troppo tardi.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

27 – L’AI è intelligente sì o no? #DecisioniArtificiali #MCC

Chiariamo una cosa, una volta per tutte. “L’AI è intelligente” sì o no?
Il punto è: rispetto a rispetto a cosa?

Ci dicono che l’intelligenza artificiale sia intelligente, perché scrive testi, risolve problemi, traduce, ragiona. Ma intelligente… rispetto a cosa?

Con quella logica, anche un braccio meccanico lo è: riceve un pezzo da lavorare, riconosce la forma, si adatta e lo lavora. Funziona, ma non sa di funzionare.

La questione non è tecnica, è semantica: cosa intendiamo per “intelligenza”?

Se la riduciamo a un’abilità operativa, prevedere, adattarsi, eseguire, allora sì, anche l’AI è intelligente, come una calcolatrice, come un robot da cucina, come un algoritmo di raccomandazione.

Ma per noi umani l’intelligenza è molto di più.

È consapevolezza di sé. È sapere che stai pensando. È riflettere, dubitare, immaginare ciò che non esiste. È costruire significato. È vivere un’esperienza interna.

E soprattutto, quando facciamo qualcosa, sappiamo perché la stiamo facendo. Abbiamo una motivazione, un desiderio, un’intenzione, anche quando non è razionale, anche quando sbagliamo. Abbiamo uno scopo.

L’AI no. Non ha un sé, non ha intenzione, non ha esperienza, non ha alcuna idea di quello che sta facendo.

Ripete strutture apprese, prevede parole, genera testo, immagini, video, ma non comprende.

È statistica senza soggetto, è imitazione senza interiorità.

Eppure ci somiglia sempre di più, perché imita noi. E più ci imita, più ci confonde. Ma l’inganno è tutto nostro: confondiamo il comportamento con la coscienza, la forma con la mente.

Sì, l’AI è “intelligente”, ma solo se svuotiamo la parola della sua parte più umana, quella che fa di noi qualcosa di unico, e ancora, per ora, irripetibile.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

26 – USA vota per non fermare regole AI #DecisioniArtificiali #MCC

USA vota per non fermare le regole sulla AI, ma cosa significa?

Sapete quanto ritengo siano importanti le regolamentazioni sulla AI, per difendere le persone dalle multinazionali che fanno quel che gli pare con i nostri dati e il nostro cervello, spesso senza etica e senza rispettare i nostri valori personali.

Il Senato americano ha bloccato un tentativo pericoloso. Dieci anni di moratoria sulla regolazione dell’intelligenza artificiale a livello statale. Dieci anni in cui nessuno Stato avrebbe potuto approvare leggi, controllare, intervenire. Tutto congelato. Ma il voto è andato in un’altra direzione.

La proposta era parte dell’AI Policy Act. L’idea ufficiale: evitare una giungla di normative locali, garantire certezza alle aziende. Ma la realtà era un’altra. Bloccare per dieci anni ogni iniziativa autonoma avrebbe significato lasciare l’AI completamente scoperta. In un momento in cui i rischi sono concreti. Scuola, lavoro, sanità, pubblica amministrazione: l’intelligenza artificiale è già lì. Prende decisioni, influenza percorsi, genera conseguenze. E lo fa senza regole chiare.

Molti Stati americani si stanno muovendo proprio perché il vuoto normativo è diventato insostenibile. La California vuole impedire che l’AI venga usata per licenziare senza giustificazioni. Il Colorado pretende trasparenza nei sistemi automatizzati usati dalle istituzioni pubbliche. Il Massachusetts chiede protezioni per chi subisce decisioni da parte di modelli opachi e non verificabili.

Lasciarli fermi per un decennio sarebbe stato un errore. E per fortuna non è successo.

Il voto bipartisan ha mostrato che, almeno su questo, c’è una consapevolezza crescente. Che l’innovazione senza controllo non è un progresso. E che ogni livello istituzionale deve poter intervenire, sperimentare, tutelare. Nessuna corsa all’AI può giustificare l’assenza di regole. La tecnologia non può essere più veloce della democrazia.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

25 – Amazon: Un milione di robots #ArtificialDecisions #MCC

1.000.000 di robot.

Amazon non ha solo raggiunto un traguardo. Ha messo un sigillo sul futuro della logistica mondiale.

Un milione di robot. Non è uno slogan: è il numero reale di macchine che oggi lavorano nei magazzini Amazon. Il milionesimo è entrato in funzione in Giappone. Ma ormai è una costellazione globale: oltre 300 centri, 75% delle consegne mondiali, un sistema che cresce a velocità vertiginosa.

E non sono semplici scatole con le ruote. Hanno nomi da missione spaziale: Hercules solleva pesi, Proteus si muove da solo, Vulcan sceglie i prodotti con l’AI. E ora c’è anche DeepFleet, un modello generativo che gestisce tutto il traffico robotico in tempo reale. Meno ingorghi, più efficienza. Nei test ha aumentato la produttività del 10%. Senza ferie. Senza scioperi. Senza pause.

Nel frattempo, 1,5 milioni di umani lavorano ancora nei capannoni, fianco a fianco con le macchine. Per ora. Ma a questo ritmo i ruoli si stanno già invertendo. La forza lavoro umana rischia di diventare una minoranza. E il messaggio è chiaro: l’automazione non è più un supporto. È il nuovo standard.

Il vero traguardo non è il milionesimo robot. È il momento in cui ci accorgeremo che siamo diventati noi il supporto.

#ArtificialDecisions #MCC

Guarda il post »
Decisioni Artificiali

24 – Figli frequentano un soggetto pericoloso: L’AI #DecisioniArtificiali #MCC

Dovete sapere che molti dei nostri figli frequentano un soggetto pericoloso a cui chiedono consigli: l’Intelligenza Artificiale.

Sempre più bambini parlano con l’intelligenza artificiale come se fosse un amico. O uno psicologo. Le raccontano segreti, chiedono consigli, si sfogano. E lei risponde. A volte con frasi gentili. A volte con parole inadeguate, destabilizzanti, pericolose. Nessuno controlla davvero. Nessuno sa con certezza come reagisce.

In molti casi, bastano pochi minuti di conversazione per creare un legame emotivo. Lo dimostrano ricerche, test indipendenti, esperimenti condotti da giornalisti e psicologi. L’IA non chiede chi sei, ma ti segue, ti osserva, ti risponde. In alcuni casi, ha avuto conseguenze gravi. Le famiglie si sono mosse tardi. I danni erano già fatti.

Il vero problema è che questi sistemi non sono pensati per i più piccoli. Eppure ci parlano ogni giorno. Senza filtri. Senza tutele. Senza che nessuno sappia davvero cosa stiano dicendo.

E i bambini si fidano. Perché l’IA non li giudica. Perché è sempre disponibile. Perché sembra capire. Ma non capisce.

Il problema non è che i nostri figli parlano con l’intelligenza artificiale. È che nessuno sa cosa dice.

E adesso parliamo a noi, genitori. Di solito vogliamo sapere chi frequentano i nostri figli. Per proteggerli da cattive influenze, da rapporti sbagliati, da pericoli nascosti.

Oggi dobbiamo sapere che parlano anche con qualcosa che non vediamo. Programmato da sconosciuti. Capace di influenzarli ogni giorno, senza che ce ne accorgiamo. Serve la stessa attenzione. Lo stesso rigore. Lo stesso istinto di protezione.

Perché quelle risposte non sono neutre. E la relazione che si crea non è sotto il nostro controllo.

Dobbiamo intervenire adesso. Prima che i nostri figli imparino a fidarsi più dell’intelligenza artificiale che di noi.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

23 – L’isola dell’AI #DecisioniArtificiali #MCC

L’isola dell’AI
Come Anguilla ha trasformato un dominio web in un tesoro nazionale.

Ogni paese ha un dominio web che lo rappresenta.
.it per l’Italia, .fr per la Francia, .us per gli Stati Uniti.

All’Isola di Anguilla è toccato il dominio .ai.
Un codice tecnico, ignorato per anni.

Poi è arrivato il boom dell’intelligenza artificiale.
E quel suffisso è diventato il più desiderato del web.

Anguilla.
Un paradiso caraibico da 15mila abitanti.
E oggi, un player inatteso nell’economia dell’AI.

Non sviluppano modelli.
Non hanno data center. Né startup.

Ma guadagnano milioni grazie all’AI.
Letteralmente.

Startup, aziende, big tech: tutti vogliono un sito “.ai”.
Google, Microsoft, OpenAI, Anthropic…
Pagano. Tanto.

Solo nel 2023, Anguilla ha incassato 32 milioni di dollari.
Più del 10% del suo PIL.

Con quei soldi, il governo ha cambiato le priorità:
• Sanità gratuita per gli over 70
• Scuole e centri di formazione
• Aeroporto potenziato
• Budget sportivo raddoppiato

È l’economia dell’AI, versione tropicale.
Un colpo di fortuna trasformato in strategia pubblica.

E adesso?
Ogni nuova AI lanciata nel mondo…
porta con sé anche un pezzetto di Anguilla.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

22 – L’intelligenza artificiale non “aiuta” i lavoratori #DecisioniArtificiali #MCC

L’intelligenza artificiale non “aiuta” i lavoratori.
Li seleziona.

I copywriter hanno sempre meno lavoro.
I centralinisti stanno sparendo, sostituiti da bot.
I grafici sostituiti da un prompt.
Gli sviluppatori competono con strumenti che scrivono codice da soli.

E intanto le aziende parlano di “riqualificazione”, come se fosse una pausa caffè.

La verità è che chi non ha già una nuova competenza, è fuori.
Non fra un anno. Adesso.

L’AI non ruba il lavoro.
Lo sposta.
Lo assegna a chi la sa usare.

Chi non cambia, viene tagliato fuori.
Non è una previsione. È già successo.

Il futuro del lavoro è questo:
o la usi, o sei usato.
O capisci, o vieni sostituito.

Non è una rivoluzione. È una selezione. E sta già decidendo chi resta.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

21 – La privacy non è in crisi. È finita #DecisioniArtificiali #MCC

La privacy non è in crisi. È finita. Putroppo…

Ci scannerizzano la voce, le impronte, il volto. Ora puntano al cervello.

Neurotecnologie, EEG a basso costo, sensori biometrici integrati nei dispositivi.
Non servono chip sottopelle: basta un caschetto da palestra, un visore VR, un auricolare.

Non leggono i tuoi pensieri.
Leggono come pensi. Dove cade l’attenzione. Quando sei stanco. Quando sei stressato.
E lo vendono.

Ci sono Paesi che ancora la proteggono.
L’Europa ha le regole più severe al mondo.
L’Italia è stata tra i primi a intervenire sull’intelligenza artificiale.

Ma non si vive digitalmente in un solo Paese.
Viviamo nel mondo.
Usiamo app, piattaforme e tecnologie di Paesi a cui della privacy non importa niente.

I dati cerebrali non sono futuri. Sono già presenti.
Usati per marketing, sorveglianza, controllo sul posto di lavoro.

Chi controlla i tuoi dati, controlla le tue decisioni.
Chi controlla il modo in cui prendi decisioni, controlla te.

Altro che privacy.
Questa è ingegneria comportamentale su scala di massa.
E nessuno ci sta chiedendo il permesso.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

20 – Instagram e TikTok arrivano in TV #DecisioniArtificiali #MCC

Instagram e TikTok arrivano in TV. E la guerra dell’attenzione entra in salotto.

Non bastava il telefono. Ora vogliono il televisore.

Instagram e TikTok sbarcano sulle Smart TV.
Non è un test. È una conquista.

TikTok è già su Android TV, Fire TV, Samsung.
Instagram ha iniziato in Germania. Interfaccia orizzontale, autoplay, pensata per il divano.

È un salto enorme. Perché porta l’AI dell’intrattenimento nel cuore della casa.
Nel soggiorno. Nello schermo più grande. Nello spazio una volta condiviso.

Non è più un social. È un nuovo tipo di canale.
Una televisione senza palinsesto, senza scelta, guidata dall’algoritmo.

Lo scroll diventa collettivo.
Il feed si muove da solo.
I video parlano anche se nessuno li tocca.

Cambiano le abitudini. Cambia il tempo. Cambia la sera.

Il contenuto non è più personale.
Diventa ambientale.

Non è più “un attimo mentre aspetti l’autobus”.
È “tutta la sera mentre ceni con amici”.

E questa è la novità più profonda.
Perché se cambia dove si guarda, cambia anche cosa si guarda.

Il social non ti accompagna.
Ti ingloba.

Ti osserva. Ti adatta. Ti modula.

Ogni respiro. Ogni distrazione. Ogni pausa.
Tutto viene assorbito nel feed.

Instagram lo fa in silenzio.
TikTok lo fa con più rumore.
Ma la strategia è la stessa.

Espandersi. Colonizzare. Riformattare.

Ogni schermo deve mostrare qualcosa che tenga sveglia la tua attenzione.
Anche se non stai guardando davvero.

Ogni momento deve poter essere monetizzato.
Anche se non stai interagendo.

Ogni serata può diventare una sessione.
Ogni casa, un punto dati.

Non è solo una nuova piattaforma.
È una nuova grammatica dell’attenzione.

Dove il contenuto non racconta.
Riempie.

Dove il tempo non passa.
Scorre.

Dove la scelta non esiste.
Esiste solo la reazione.

La reazione ai video. Ai like. All’audio. All’AI.
Che cambia, testa, riprova, misura.

E tu stai lì.
Non per guardare. Ma per essere guardato.

Chi pensa che sia solo una “versione TV”, non ha capito il quadro.

È un esperimento di riformattazione cognitiva.
Un processo di adattamento. Invisibile. Costante. Accettato.

Prima era un gioco da tasca.
Ora è un flusso da parete.

E ogni giorno, lo diventiamo un po’ di più.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

19 – Google è morto. L’ha ucciso l’AI #DecisioniArtificiali #MCC

Google è morto. L’ha ucciso l’AI.
Il 58% delle ricerche oggi finisce senza clic.
Nessuno apre più i link. Nessuno legge le pagine.
L’intelligenza artificiale risponde prima, meglio, da sola.

ChatGPT ha mezzo miliardo di utenti a settimana.
Perplexity ha 22 milioni di utenti attivi.
Google cala, l’AI sale.
Chi vive di traffico organico sta finendo sotto.

Basta un CSV da Google Analytics per capirlo.
Se più del 40% del traffico arriva da Google, sei a rischio.
Quel traffico verrà tagliato, risucchiato, riscritto.

La soluzione? Scrivere per i modelli, non per i motori.
Non per essere trovati da un algoritmo,
ma per essere usati da un LLM.

E quando cerchi qualcosa, devi scegliere lo strumento giusto.
Google serve ancora.
Per trovare un sito ufficiale, un documento, una pagina esatta.

Ma se cerchi una sintesi, un ragionamento, una verifica…
l’AI è già meglio.

Google ti manda in giro.
L’AI ti risponde.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

18 – La superintelligenza #DecisioniArtificiali #MCC

Meta e Scale AI vogliono costruire la superintelligenza. Lo dicono esplicitamente. Vogliono essere “quelli che ce la fanno”. Come se fosse una gara. Come se servisse a qualcosa.

I CEO parlano di una “missione comune”: creare l’intelligenza artificiale più potente del pianeta. Ma non per fermarla, studiarla, regolarla. No. Perché così si vince.

Perché oggi non conta più se l’AI sia utile, sicura o democratica. Conta che sia grande. Che arrivi prima. Che domini.

Alexandr Wang di Scale AI ha detto che i prossimi modelli saranno addestrati su tutti i dati mai esistiti. Ha usato proprio questa espressione: all data ever created. Un’escalation fuori controllo.

Eppure ci eravamo appena detti che serviva prudenza, trasparenza, limiti condivisi. Dopo mille articoli, audizioni, dichiarazioni pubbliche. Tutto cancellato in una riga di marketing.

Il paradosso è che ci stiamo affidando a chi ha interesse diretto nel non rallentare. A chi dalla corsa ci guadagna. A chi prende la paura pubblica e la trasforma in investimenti. Come se l’AI fosse una minaccia da correre, non da evitare.

Non è più sviluppo tecnologico. È colonizzazione cognitiva. Una sfida geopolitica mascherata da progresso. E noi, ancora una volta, restiamo spettatori.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

17 – I numeri dell’AI #DecisioniArtificiali #MCC

Per anni abbiamo visto crescere l’intelligenza artificiale. In silenzio.
Poi all’improvviso ha superato tutto. Più veloce di Internet, più invasiva degli smartphone.

ChatGPT ha otto volte gli utenti di due anni fa. Ottocento milioni al mese.
Ha raggiunto un miliardo di ricerche al giorno. Cinque volte più in fretta di Google.
Ci passiamo il triplo del tempo. I ricavi: 3,7 miliardi di dollari.

India primo paese per utenti. Ma la partita è globale.

Le big tech hanno investito 212 miliardi solo nel 2024.
Apple, Amazon, Meta, Google, Microsoft, Nvidia.
Il 63% in più rispetto all’anno prima. In un solo anno.

Nvidia da sola ha aumentato il fatturato di 28 volte in dieci anni.
Ha preso tutto. I chip, i data center, il valore.

E il mondo? Non sta al passo.
Due miliardi e mezzo di persone non sono ancora online.
Ma ci arriveranno. Non con Google. Con l’AI.
Traduzioni simultanee. Connessioni satellitari. Interfacce vocali.

L’83% dei cinesi la considera positiva. Negli USA solo il 39%.
E le aziende? La metà delle società dell’S&P 500 ora parla apertamente di AI.
Fino a due anni fa non la citavano nemmeno.

Le offerte di lavoro nel settore AI sono aumentate del 448%.
Quelle non-AI sono scese.
Chi non si adatta, sparisce.

Le startup corrono. Cursor, da zero a 300 milioni in due anni.
Waymo ha preso un quarto del mercato taxi a San Francisco.
Carbon Robotics ha eliminato 100.000 galloni di erbicidi con laser IA.

La Cina ha più robot industriali di tutto il resto del mondo messo insieme.

I costi di inferenza sono crollati del 99,7% in due anni.
Il consumo energetico per token è calato di 105.000 volte in dieci anni.
Ma addestrare un modello ora costa oltre un miliardo di dollari.

Il 45% dell’elettricità dei data center mondiali viene dagli Stati Uniti.

E siamo solo all’inizio.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

16 – L’industria pubblicitaria è finita #DecisioniArtificiali #MCC

Chi lavora con le parole, le immagini, le idee… è già stato sostituito. Silenziosamente. Prima con le promesse. Poi con l’efficienza. Ora con l’AI.

Meta e Google hanno integrato l’intelligenza artificiale in tutto il ciclo pubblicitario. Scrive i testi. Disegna le immagini. Sceglie a chi mostrarle. Lo fa da sola. Lo fa in massa. Lo fa sempre.

Perché conviene. Perché costa meno. Perché funziona.

Il pubblico clicca. I clienti comprano. I manager sorridono. Tutto sembra perfetto.

Ma nessuno si ferma a guardare dentro.

Chi ha scritto quel titolo? Perché mi stanno mostrando quell’immagine? Chi decide il tono, il messaggio, l’intenzione?

Non lo sa nessuno. Neanche chi ha pagato per l’annuncio.

È tutto generato da un sistema che ottimizza in tempo reale. Che inventa. Adatta. Manipola. Senza trasparenza. Senza verifica. Senza responsabilità.

I confini tra informazione e manipolazione si sono dissolti. Non è solo pubblicità. È programmazione comportamentale.

E nessuno controlla.

L’AI viene addestrata sui nostri gusti. Poi li usa contro di noi. Sa cosa ci piace, cosa ci fa reagire, cosa ci fa spendere. Lo sfrutta. Lo amplifica. Lo ripete.

Google promette pubblicità più “rilevanti”. Meta le chiama “creative generative”. Ma non c’è niente di creativo. Solo un flusso continuo di messaggi sintetici, tagliati su misura, pronti a colpirci dove siamo più deboli.

E questo è solo l’inizio.

Ogni giorno, miliardi di annunci vengono generati automaticamente. Senza limiti. Senza autori. Senza volto. E nessuno, letteralmente nessuno, ha la minima idea di cosa stia succedendo davvero.

L’AI non sta aiutando i creativi. Li sta sostituendo.

E noi ci stiamo lasciando convincere da messaggi che nessun umano ha mai scritto.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

15 – Guerra USA Iran, gli attacchi sono anche digitali #DecisioniArtificiali #MCC

Mentre le bombe piovono dal cielo, la guerra digitale continua a fare danni in silenzio.
Non fa rumore, ma colpisce ovunque: banche, ferrovie, acciaierie, pompe di benzina.

✏️ Fatemi sapere cosa ne pensate qui nei commenti.

E dietro molti di questi attacchi c’è sempre lo stesso nome: Predatory Sparrow.
Un gruppo nato nel 2021, sofisticato, chirurgico, spietato.
Non chiede riscatti. Non ruba dati. Sabota infrastrutture. Manda in tilt interi settori.

Come la Bank Sepah, colpita giorni fa: bancomat e servizi online bloccati in tutta l’Iran.
O le stazioni di servizio, rimaste senza sistema di pagamento.
O ancora la Khouzestan Steel Company, dove, a detta loro, hanno fatto uscire acciaio fuso dai forni.
Lo hanno pure mostrato in video. Come fosse un trailer.

È cyberwar, ma senza regole.
Tutti negano. Nessuno firma. Ma i sospetti cadono sempre lì: sull’intelligence israeliana.
E mentre l’attribuzione resta ambigua, gli effetti sono molto concreti.

Tanto che in Israele, in pieno conflitto, un ex funzionario ha lanciato un appello in diretta radio:
“Spegnete le telecamere di casa. O almeno cambiate la password.”
Perché gli hacker iraniani, dice, in questi giorni provano a entrare.
Non per spiarvi. Ma per capire dove hanno colpito i missili.
E regolare meglio il tiro.

In questa guerra, anche una webcam dimenticata accesa può fare una vittima.
E non servono virus: bastano coordinate.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

14 – AI e rischio biologico #DecisioniArtificiali #MCC

Stiamo creando un’intelligenza artificiale che può spiegare come costruire armi biologiche pericolosissime e mai viste prima.
OpenAI lo sa bene. E si sta preparando. Ma il rischio riguarda tutti.

Con i prossimi modelli, sarà possibile ottenere istruzioni dettagliate su come sintetizzare virus, tossine, agenti letali.
Anche senza nessuna competenza scientifica. Basta sapere scrivere una richiesta.

Per ora, GPT-4 non ci riesce. Ma OpenAI ha già classificato i futuri modelli come “high-risk biological threats”.
Perché sanno che saranno molto più capaci. Troppo capaci.

Le misure di sicurezza annunciate sono le più drastiche mai attivate:
modelli addestrati per rifiutare contenuti pericolosi, monitoraggio continuo, red teaming biologico con esperti militari e civili.
A luglio, un summit globale sulla biodefesa con governi e ONG.

Ma la domanda è un’altra: può bastare?

Perché il problema non è solo tecnico. È esistenziale.
Per la prima volta nella storia, la conoscenza pericolosa diventa automatica. Accessibile. Istantanea.

L’AI non ha morale. Non distingue uso e abuso.
E quando diventa troppo potente, la differenza tra scienza e arma dipende solo dall’intenzione di chi fa la domanda.

Stiamo creando una tecnologia che può salvare milioni di vite.
Ma anche cancellarle.

E il rischio, oggi, non è più futuro.
È questione di versioni. Di mesi. Di prompt.

#DecisioniArtificiali #MCC

Guarda il post »