Il vero problema dell’AI in azienda non è la tecnologia. Sono i dipendenti lasciati soli.
Succede ogni giorno. In azienda non arriva nessuna indicazione chiara, nessuno fornisce strumenti ufficiali, nessuno spiega cosa si può fare e cosa no. E allora i dipendenti fanno quello che serve per lavorare: aprono un account gratuito di ChatGPT, Gemini o Claude e lo usano per risparmiare tempo. Dentro ci finiscono contratti, offerte commerciali, fogli Excel, email di clienti, appunti su trattative in corso. Non per malizia, ma per efficienza.
Il problema è che da quel momento l’azienda perde il controllo. Quei dati escono dal perimetro aziendale. Nessuno sa dove vengono conservati, per quanto tempo, con quali garanzie, in quali Paesi. Nessuno può dimostrare che non vengano riutilizzati, analizzati, copiati, incrociati. E tutto questo avviene mentre l’organizzazione continua a pensare di essere “prudente” solo perché non ha comprato una licenza enterprise.
Qui iniziano i rischi seri. Se in quei contenuti ci sono dati personali, dati di clienti o informazioni sensibili, il tema diventa GDPR. Se l’uso dell’Intelligenza Artificiale non è documentato, governato, limitato nei casi d’uso, entra in gioco anche l’AI Act. Non perché l’AI sia vietata, ma perché è stata lasciata circolare senza regole.
Le sanzioni previste non sono marginali. In base alle violazioni si arriva fino a 15 milioni di euro o fino al 3 per cento del fatturato mondiale annuo. Per una PMI non è una voce di bilancio, è un colpo strutturale. A questo si aggiungono il danno reputazionale, la perdita di fiducia dei clienti, il tempo speso a gestire controlli, avvocati, comunicazioni di crisi.
Molte aziende se ne accorgono solo dopo. È successo anche a organizzazioni di grandi dimensioni, che hanno dovuto intervenire sull’uso dei chatbot generativi dopo che informazioni interne erano state condivise dai dipendenti. In Europa il segnale è arrivato quando le autorità sono intervenute, costringendo a chiarire come venivano trattati i dati. Il messaggio è chiaro: quando l’AI entra nei processi, le autorità guardano.
Il punto chiave è questo. Vietare l’uso dell’AI non funziona. Le persone continueranno a usarla, ma nel modo più rischioso possibile. Lasciarle sole significa spingerle verso strumenti gratuiti, account personali, scorciatoie fuori controllo.
Governare l’AI, invece, vuol dire fare scelte precise. Formare il personale su cosa può essere caricato e cosa no. Fornire strumenti autorizzati, con opzioni di esclusione dal training, data residency adeguata, tracciabilità degli utilizzi. Mettere guardrail tecnici e organizzativi. Scrivere policy interne brevi, operative, comprensibili, basate sui casi reali di lavoro.
Solo così l’AI diventa un alleato e non un rischio silenzioso.
Questo problema ha già un nome: shadow AI. E finché l’azienda non smette di lasciare soli i dipendenti, continuerà a crescere nell’ombra.
#DecisioniArtificiali #MCC #Documentario
👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]
👉 informazioni su come sponsorizzare i microdocumentari: [email protected]
















