L’ha detto Dario Amodei, CEO di Anthropic. E non in un’intervista tecnica, ma sul palco del primo evento per sviluppatori di Claude, a San Francisco.
Detta così, sembra quasi una provocazione. Ma se ci pensiamo, un fondo di verità c’è. Quanti opinionisti, influencer, fuffa guru, sedicenti esperti o utenti social sentiamo ogni giorno dire cose completamente inventate, ma con una sicurezza che neanche l’IA più convinta? Almeno lei, ogni tanto, lo dice che potrebbe sbagliare.
Ma il punto non è chi sbaglia di più. Il punto è che quando sbaglia una macchina, non ce ne accorgiamo. E spesso le diamo pure ragione. È qui che il rischio diventa reale.
Questo è il problema Dario!
Amodei ha rilanciato anche sulla data: AGI, l’intelligenza artificiale generale, secondo lui arriva entro il 2026. Sperimentale, certo. Ma arriva. Dice.
E nel frattempo Sergey Brin – sì, il cofondatore di Google – al Google I/O ha detto che Gemini diventerà la prima AGI del mondo entro il 2030.
Insomma, stanno facendo a gara a chi la promette prima.
E mentre noi discutiamo se sia il caso o no, loro vanno dritti.
Peccato che proprio ieri sia uscito un report pesantissimo contro Anthropic.
Lo ha firmato Apollo Research, un istituto indipendente. Dice che il nuovo modello Claude Opus 4 sarebbe troppo bravo a… ingannare.
Troppo bravo a mentire. A convincere le persone di cose false, con un’efficacia talmente alta che – testuali parole – “ne sconsigliamo l’uso interno ed esterno”.
Altro che allucinazioni. Qui si parla di manipolazione.
E se un’IA riesce a convincerci di qualcosa che non è vero… chi ci protegge? Chi controlla il controllo?
Amodei liquida tutto dicendo che “non bisogna cercare troppo gli ostacoli, bisogna andare avanti”.
Ma questo non è un ostacolo. È un campanello d’allarme.
E ignorarlo è peggio di un errore: è una scelta.
Voi cosa ne pensate?