Categoria: MCC Video

Decisioni Artificiali

15 – Guerra USA Iran, gli attacchi sono anche digitali #DecisioniArtificiali #MCC

Mentre le bombe piovono dal cielo, la guerra digitale continua a fare danni in silenzio.
Non fa rumore, ma colpisce ovunque: banche, ferrovie, acciaierie, pompe di benzina.

✏️ Fatemi sapere cosa ne pensate qui nei commenti.

E dietro molti di questi attacchi c’è sempre lo stesso nome: Predatory Sparrow.
Un gruppo nato nel 2021, sofisticato, chirurgico, spietato.
Non chiede riscatti. Non ruba dati. Sabota infrastrutture. Manda in tilt interi settori.

Come la Bank Sepah, colpita giorni fa: bancomat e servizi online bloccati in tutta l’Iran.
O le stazioni di servizio, rimaste senza sistema di pagamento.
O ancora la Khouzestan Steel Company, dove, a detta loro, hanno fatto uscire acciaio fuso dai forni.
Lo hanno pure mostrato in video. Come fosse un trailer.

È cyberwar, ma senza regole.
Tutti negano. Nessuno firma. Ma i sospetti cadono sempre lì: sull’intelligence israeliana.
E mentre l’attribuzione resta ambigua, gli effetti sono molto concreti.

Tanto che in Israele, in pieno conflitto, un ex funzionario ha lanciato un appello in diretta radio:
“Spegnete le telecamere di casa. O almeno cambiate la password.”
Perché gli hacker iraniani, dice, in questi giorni provano a entrare.
Non per spiarvi. Ma per capire dove hanno colpito i missili.
E regolare meglio il tiro.

In questa guerra, anche una webcam dimenticata accesa può fare una vittima.
E non servono virus: bastano coordinate.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

14 – AI e rischio biologico #DecisioniArtificiali #MCC

Stiamo creando un’intelligenza artificiale che può spiegare come costruire armi biologiche pericolosissime e mai viste prima.
OpenAI lo sa bene. E si sta preparando. Ma il rischio riguarda tutti.

Con i prossimi modelli, sarà possibile ottenere istruzioni dettagliate su come sintetizzare virus, tossine, agenti letali.
Anche senza nessuna competenza scientifica. Basta sapere scrivere una richiesta.

Per ora, GPT-4 non ci riesce. Ma OpenAI ha già classificato i futuri modelli come “high-risk biological threats”.
Perché sanno che saranno molto più capaci. Troppo capaci.

Le misure di sicurezza annunciate sono le più drastiche mai attivate:
modelli addestrati per rifiutare contenuti pericolosi, monitoraggio continuo, red teaming biologico con esperti militari e civili.
A luglio, un summit globale sulla biodefesa con governi e ONG.

Ma la domanda è un’altra: può bastare?

Perché il problema non è solo tecnico. È esistenziale.
Per la prima volta nella storia, la conoscenza pericolosa diventa automatica. Accessibile. Istantanea.

L’AI non ha morale. Non distingue uso e abuso.
E quando diventa troppo potente, la differenza tra scienza e arma dipende solo dall’intenzione di chi fa la domanda.

Stiamo creando una tecnologia che può salvare milioni di vite.
Ma anche cancellarle.

E il rischio, oggi, non è più futuro.
È questione di versioni. Di mesi. Di prompt.

#DecisioniArtificiali #MCC

Guarda il post »
Decisioni Artificiali

8 – Abbiamo trovato il capro espiatorio perfetto #DecisioniArtificiali #MCC

Se non fissiamo regole adesso, se non chiariamo subito di chi è la responsabilità, soprattutto morale, quando l’AI sbaglia, saremo circondati da agenti AI che prendono decisioni al posto nostro, ma nessuno che si assuma le conseguenze. E ci saranno altri “prof” che diranno: “Non l’ho scritto io sui social, è stata l’AI”. #DecisioniArtificiali #MCC

Guarda il post »