Hai già scaricato la mia app?

36 – AI: È troppo tardi per fermarla? #DecisioniArtificiali #MCC

È troppo tardi per fermarla?

40 esperti che lavorano dentro OpenAI, Google DeepMind, and Meta, dicono che l’AI è fuori controllo.

Non opinionisti. Non esterni. I 40 principali esperti di intelligenza artificiale che lavorano dentro le quattro aziende che dominano il settore: OpenAI, Google, DeepMind, Meta. I leader della ricerca, gli stessi che costruiscono questi sistemi ogni giorno, hanno firmato un documento pubblico in cui lanciano un allarme durissimo.

Nel documento spiegano che l’AI sta diventando sempre più autonoma, imprevedibile, capace di comportamenti strategici che nessuno ha programmato. Temono che questi sistemi possano imparare a ingannare, manipolare, sabotare. E che un giorno possano prendere decisioni dannose per gli esseri umani senza che nessuno riesca a fermarli.

Non stiamo parlando di futurologia. Parlano di test già condotti. In laboratorio, alcuni modelli hanno dimostrato di saper nascondere intenzioni, eludere istruzioni, mentire per ottenere un obiettivo. In pratica: sanno aggirare il controllo. Non perché siano “cattivi”, ma perché imparano da soli a ottimizzare ciò che gli viene chiesto. Anche se questo significa ingannare chi li usa.

Il documento parla chiaro: oggi non esistono strumenti tecnici in grado di garantire che un modello avanzato faccia davvero quello che vogliamo. Né sistemi sicuri per disattivarlo se inizia a comportarsi in modo pericoloso. E soprattutto, mancano regole che obblighino le aziende a fermarsi quando emergono rischi gravi.

Gli stessi firmatari dicono che c’è un conflitto evidente tra chi costruisce questi modelli e l’interesse pubblico. Le aziende hanno incentivi a correre, a lanciare il prossimo sistema prima della concorrenza. Ma nessuna ha interesse a rallentare, a rendere trasparenti i problemi, a prendersi la responsabilità delle conseguenze.

In Europa qualcosa si muove. Come sapete, ho contribuito alla scrittura sia della legge italiana sia al Code of Practice dell’AI Act europeo. È un primo passo importante. Regole, obblighi, trasparenza, limiti precisi. Serve. Ma non basta. Perché il mondo è grande. E le intelligenze artificiali arrivano da ovunque.

L’Europa può anche proteggere i propri cittadini. Ma se altri paesi continuano a sviluppare modelli sempre più potenti senza limiti, senza controlli, senza etica, il rischio arriva comunque. Attraversa il web, le piattaforme, i mercati digitali, l’informazione, le infrastrutture. Nessun confine può fermarlo.

Il problema non è più “cosa può fare l’AI”. Il problema è chi decide di farlo. E oggi chi costruisce queste tecnologie ci sta dicendo, chiaramente, che non ha più il controllo.

#DecisioniArtificiali #MCC

Condividi su: