Faccio parte della task force della Commissione Europea che sta lavorando sul Code of Practice della legge sull’intelligenza artificiale, e quello che sta accadendo intorno all’AI Act è preoccupante. Dopo anni di lavoro per creare una regolamentazione che possa bilanciare innovazione e sicurezza, l’Europa sta subendo pressioni enormi per indebolire le regole che dovrebbero garantire uno sviluppo responsabile dell’IA.
Negli ultimi giorni, la Commissione Europea ha ritirato la proposta di direttiva sulla responsabilità dei danni causati dall’IA, insieme al progetto di legge sulla ePrivacy. La decisione è arrivata in un momento chiave, durante l’AI Action Summit di Parigi, dove da una parte la presidente Ursula von der Leyen ha annunciato un investimento di 200 miliardi di euro per spingere l’IA in Europa, mentre dall’altra si sono levate voci critiche contro la regolamentazione. Alcuni CEO, come Aiman Ezzat di Capgemini, hanno affermato che regole troppo rigide potrebbero penalizzare le aziende europee e favorire la concorrenza di Stati Uniti e Cina.
E proprio gli Stati Uniti e il Regno Unito hanno rifiutato di firmare un accordo proposto dall’UE per una regolamentazione comune dell’IA. Il messaggio è chiaro: mentre l’Europa cerca di stabilire regole per proteggere i cittadini, altri paesi preferiscono un approccio più lasco, lasciando alle aziende il pieno controllo dello sviluppo dell’IA.
Ma cedere su queste regole sarebbe un errore gravissimo. L’AI Act è un passo avanti necessario per evitare che l’intelligenza artificiale diventi un far west incontrollato. Senza regolamentazione, ci troviamo di fronte a rischi concreti: sistemi di sorveglianza invasivi, manipolazione dell’informazione, IA impiegata per discriminazione o pericolosi bias decisionali. Non si tratta di frenare l’innovazione, ma di assicurarsi che sia sicura, trasparente e accessibile a tutti.
Le pressioni delle Big Tech per rendere l’AI Act più morbido sono evidenti. Loro vogliono il minor numero possibile di restrizioni per poter sviluppare modelli sempre più potenti senza dover rendere conto a nessuno. Ma senza un quadro normativo solido, rischiamo di trovarci con un’IA che prende decisioni su lavoro, sanità, giustizia e sicurezza senza alcun controllo reale.
L’Europa ha l’opportunità di fare la differenza e di diventare un modello per la regolamentazione dell’intelligenza artificiale nel mondo. Se ora cede alle pressioni di chi vuole meno regole, si rischia di lasciare il controllo dell’IA a poche aziende private che rispondono solo ai loro azionisti. Il futuro dell’IA non può essere deciso solo da chi la sviluppa, ma deve essere costruito con regole chiare che tutelino i diritti di tutti.
