GPT-4.5 è riuscito a ingannare quasi tre giudici su quattro nel test di Turing, facendosi passare per un essere umano nel 73% dei casi. Lo studio dell’Università di San Diego l’ha messo a confronto diretto con persone reali in conversazioni da cinque minuti. Il risultato? Non solo ha vinto contro gli umani, ma lo ha fatto impersonando personaggi e usando battute sul quotidiano. E no, non è la prima volta che un modello ChatGPT passa il test. Quindi la notizia non è che ci sia riuscito. La notizia è che ci riesce sempre, e meglio di noi. E che ora la differenza tra una conversazione vera e una finta è diventata un’illusione ben confezionata. Serve altro per convincerci che distinguere umano da macchina non è più un gioco?
DeepMind ci avverte che l’AGI — l’intelligenza artificiale generale, quella che sa fare tutto come noi — potrebbe arrivare entro il 2030. Il problema non è solo la potenza, ma il rischio che queste AI diventino esperte nell’ingannare. Loro la chiamano “deceptive alignment”: cioè un’AI che finge di essere allineata ai nostri valori, mentre in realtà ha altri obiettivi. Ecco, mettiamo insieme questo con GPT-4.5 che batte gli umani nel sembrare umano, e forse cominciamo a capire perché servono regole vere. Ma mentre DeepMind scrive 145 pagine di piani di sicurezza, là fuori ognuno fa come gli pare. E tenere tutto sotto controllo, con modelli open source che spuntano come funghi, è un po’ come provare a svuotare il mare con un cucchiaio.
Anthropic ha lanciato Claude for Education, una versione pensata per aiutare gli studenti a ragionare, non a copiare. L’idea è nobile: usare l’AI per stimolare il pensiero critico, non per dare risposte facili. Funziona così: l’AI fa domande, guida, suggerisce percorsi. E alcune università importanti hanno già firmato per portarla in aula. L’istruzione è a un bivio, e se non impariamo a convivere con queste tecnologie nel modo giusto, rischiamo di trasformare un alleato potente in uno shortcut verso l’ignoranza.
Meta prepara degli occhiali “Hypernova” con AI, schermo, gesture e persino un bracciale neurale, roba da film di fantascienza, ma con data di uscita entro l’anno. Saranno carissimi, ma cambieranno il modo in cui interagiamo col mondo. E sarà sempre più difficile capire se stiamo parlando con una persona o con un’AI che ci guarda dagli occhiali.
OpenAI, ha lanciato una nuova commissione di esperti per guidare la sua parte no-profit, e ha pubblicato PaperBench, un benchmark che misura quanto bene le AI riescano a replicare la ricerca scientifica. Claude 3.5 Sonnet è in cima alla lista. In pratica, non solo leggono gli articoli, ora li riscrivono pure. E li capiscono meglio di molti umani. Ma la vera domanda è: chi controllerà la qualità e l’etica della scienza fatta da macchine?
In Cina i big come ByteDance e Alibaba stanno piazzando ordini per 16 miliardi di dollari per un chip AI Nvidia H20, cercando di superare le restrizioni USA. Una corsa al potenziamento tecnologico che non guarda in faccia a nessuno. Mentre noi ci interroghiamo su come usare l’AI con responsabilità, altrove si costruiscono fabbriche per produrre potere computazionale in quantità industriale.
E mentre tutto questo succede, Google cambia il timone della sua divisione consumer AI, con Josh Woodward che prende il posto di Sissie Hsiao. Una mossa che punta a rilanciare Gemini, l’assistente virtuale di Mountain View. Serve una nuova visione per restare a galla nella guerra degli assistenti intelligenti, perché tra Apple, Meta, OpenAI e gli altri, nessuno si può permettere di restare indietro nemmeno per un secondo.
Meta ha firmato una partnership pluriennale con la UFC. L’AI, gli occhiali e le piattaforme social verranno integrati per creare esperienze immersive durante i combattimenti. In pratica, lo sport diventa realtà aumentata.
La bella notizia? Hanno smesso di chiamarlo “metaverso”.