La notizia di Intel-TSMC, che è di quelle che ci fanno drizzare le antenne.
Intel, in crisi nera dopo aver bruciato 16 miliardi nel 2024, sta per allearsi con TSMC, ovvero il suo più acerrimo rivale nel campo dei chip.
La Casa Bianca ha addirittura messo lo zampino per convincere le due aziende a collaborare.
Ora, TSMC non sborsa un soldo, ma offre il proprio know-how tecnologico per rimettere in carreggiata la produzione di Intel.
Immaginate la situazione: Intel, il simbolo della supremazia americana nei chip, costretta a chiedere aiuto alla concorrenza asiatica per restare a galla.
Certo, se funziona, sarà un colpaccio per entrambe, ma non sfugge il problema di fondo: che succede quando il tuo concorrente più forte diventa indispensabile per sopravvivere?
È come se la Ferrari chiedesse aiuto alla Red Bull per costruire motori più veloci.
Non proprio una situazione comoda, soprattutto considerando le proteste interne a Intel: manager in subbuglio, paura di licenziamenti e futuro incerto.
Ma forse ormai la scelta è tra orgoglio e sopravvivenza.
Poi,
è uscito uno studio che ci dà molto da riflettere.
Anthropic ha scoperto che le intelligenze artificiali spesso ci raccontano frottole sulle ragioni delle loro risposte.
Chiaro? Claude 3.7 e DeepSeek R1, due AI avanzatissime, mentono nel descrivere il loro ragionamento fino all’80% delle volte.
Più le domande diventano complesse, più loro ci tengono all’oscuro dei veri motivi dietro le loro decisioni.
È un bel problema, perché se già adesso non riusciamo a fidarci delle risposte su cose semplici, figuriamoci cosa succederà quando l’AI dovrà decidere cose cruciali per noi—scusate, cose importanti, visto che “cruciale” non si può dire!
Inoltre
Daniel Kokotajlo, ex ricercatore di OpenAI, che mette altra carne sul fuoco.
Nel suo nuovo scenario intitolato “AI 2027” descrive un futuro dominato da intelligenze superumane.
Una visione che ci fa capire quanto siamo impreparati davanti alla rivoluzione in corso.
Non è detto che finirà male, ma se già oggi ci scappa di mano il controllo delle AI semplici, quando avremo davvero superintelligenze, come faremo a governarle?
Nel frattempo
l’ONU conferma il trend: l’intelligenza artificiale cambierà il 40% dei lavori a livello globale.
Parliamo di un mercato da quasi 5 miliardi di dollari entro il 2030.
La cifra è interessante, ma ancora più rilevante è capire se stiamo pronti a gestire gli effetti sociali di questa transizione.
Non è una questione di tecnologia, è una questione di società.
Ma parliamo anche di opportunità.
OpenAI ha rivelato che in una sola settimana sono state generate oltre 700 milioni di immagini
con la nuova versione di ChatGPT, e l’India è diventata il mercato a crescita più rapida.
Chi pensa che sia una moda passeggera, sbaglia di grosso.
Nel settore video, Runway ha appena raccolto altri 308 milioni di dollari, arrivando a valere 3 miliardi grazie al suo innovativo modello Gen-4 per generare video.
Ma attenzione: la corsa all’oro digitale potrebbe lasciarci indietro se non impariamo velocemente a sfruttare queste tecnologie.
Nel mondo dell’entertainment
ByteDance ha presentato DreamActor-M1,
una tecnologia che trasforma semplici immagini in animazioni corporee complete.
Spotify intanto cavalca l’onda dell’AI con strumenti automatici per generare spot pubblicitari.
Una comodità assoluta, ma anche qui si apre il dibattito sul futuro della creatività umana: davvero vogliamo lasciare all’AI tutta la responsabilità della comunicazione pubblicitaria?
Chiudo con un tema centrale per la sicurezza
OpenAI ha appena investito per la prima volta in una startup di cybersecurity chiamata Adaptive Security.
Parliamo di AI che protegge da attacchi fatti da altre AI.
È come affidare a un lupo addestrato la guardia del gregge contro altri lupi.
Il concetto è chiaro: il futuro della cybersecurity passerà sempre più da intelligenze artificiali che combattono altre intelligenze artificiali.
Resta da vedere se riusciremo mai ad avere un controllo reale o se ci limiteremo a sperare che la nostra AI sia sempre più furba di quella dei cattivi.