Hai già scaricato la mia app?

L’ossessione per i modelli sempre più grandi ha un costo e altre news

L’ossessione per i modelli sempre più grandi ha un costo. Ma non parliamo solo di denaro: la vera moneta è la verità. Secondo valutazioni indipendenti e test interni, i nuovi modelli o3 e o4-mini di OpenAI “allucinano” molto di più dei precedenti. Tradotto: inventano, sbagliano, confondono. Più potenza, meno affidabilità. E nel frattempo OpenAI presenta “Flex”, una nuova opzione per usare le stesse IA a metà prezzo. Ma attenzione: in cambio le risposte arrivano più lentamente. Insomma, il futuro è personalizzabile… ma o costa di più, o ci fa aspettare.

Google risponde con Gemma 3, la versione da 27 miliardi di parametri ottimizzata con un approccio chiamato “Quantization-Aware Training”, che permette di farla girare anche su GPU consumer senza sacrificare le performance. Un bel colpo per democratizzare l’AI, almeno a livello tecnico. Ma se pensiamo che sia gratis… beh, ci sbagliamo di grosso. Sam Altman, il boss di OpenAI, ha dichiarato che hanno già speso “decine di milioni di dollari” solo per far dire alla gente “per favore” e “grazie” ai chatbot. Educazione costosa.

E mentre i big si tirano i dati addosso, Wikipedia fa muro. Ha stretto un’alleanza con Google Kaggle per offrire dataset puliti e ufficiali a chi vuole allenare IA, cercando così di disincentivare lo scraping selvaggio della piattaforma. In pratica: se proprio volete usare i nostri contenuti, almeno chiedetecelo con garbo. Magari dicendo “per favore” e “grazie”, anche se costa caro.

Intanto dal MIT arriva una lezione di efficienza: un nuovo metodo di programmazione AI chiamato “Sequential Monte Carlo” permette a modelli piccoli di battere quelli più grandi. Il trucco? Scartare presto le ipotesi meno promettenti. Una sorta di “non farmi perdere tempo”, che in un mondo dove tutto è calcolo, diventa oro. Forse la vera rivoluzione non è fare di più, ma scegliere meglio cosa non fare.

Condividi su: