Stiamo creando un’intelligenza artificiale che può spiegare come costruire armi biologiche pericolosissime e mai viste prima.
OpenAI lo sa bene. E si sta preparando. Ma il rischio riguarda tutti.
Con i prossimi modelli, sarà possibile ottenere istruzioni dettagliate su come sintetizzare virus, tossine, agenti letali.
Anche senza nessuna competenza scientifica. Basta sapere scrivere una richiesta.
Per ora, GPT-4 non ci riesce. Ma OpenAI ha già classificato i futuri modelli come “high-risk biological threats”.
Perché sanno che saranno molto più capaci. Troppo capaci.
Le misure di sicurezza annunciate sono le più drastiche mai attivate:
modelli addestrati per rifiutare contenuti pericolosi, monitoraggio continuo, red teaming biologico con esperti militari e civili.
A luglio, un summit globale sulla biodefesa con governi e ONG.
Ma la domanda è un’altra: può bastare?
Perché il problema non è solo tecnico. È esistenziale.
Per la prima volta nella storia, la conoscenza pericolosa diventa automatica. Accessibile. Istantanea.
L’AI non ha morale. Non distingue uso e abuso.
E quando diventa troppo potente, la differenza tra scienza e arma dipende solo dall’intenzione di chi fa la domanda.
Stiamo creando una tecnologia che può salvare milioni di vite.
Ma anche cancellarle.
E il rischio, oggi, non è più futuro.
È questione di versioni. Di mesi. Di prompt.
#DecisioniArtificiali #MCC













