Hai già scaricato la mia app?

166 – ChatGPT rischia di vendere la verità al miglior offerente

ChatGPT rischia di vendere la verità al miglior offerente.

Se le risposte dell’IA iniziano a dipendere da chi paga, smettiamo di cercare la verità e iniziamo a comprare una versione comoda della realtà. Seguitemi fino alla fine che vi spiego perché questa cosa riguarda i nostri soldi, il nostro lavoro e quello che penseremo tra dieci anni senza nemmeno accorgercene.

Negli ultimi mesi sono spuntati riferimenti alla pubblicità dentro il codice di ChatGPT, e alcuni utenti hanno già visto risposte con marchi commerciali citati in modo un po’ troppo “spontaneo”. È il normale tentativo di una grande azienda di trovare un modello di business stabile su uno strumento che costa moltissimo da tenere acceso. Qui negli Stati Uniti la corsa è chiara: IA generativa per tutti, gratis o quasi, e poi monetizzazione attraverso abbonamenti, accordi con partner e, sempre più spesso, pubblicità.

Il punto è cosa succede quando la pubblicità smette di stare “accanto” alle risposte e comincia a stare “dentro” le risposte. Con Google siamo abituati a vedere la scritta “sponsorizzato” sopra certi risultati. Sappiamo, almeno in teoria, dove finisce l’annuncio e dove inizia il resto. Già oggi quella linea è meno chiara di qualche anno fa, perché la grafica segnala sempre meno la differenza. Ma con i chatbot la situazione cambia ancora di più, perché noi non vediamo una lista di link: vediamo una frase che sembra un consiglio neutrale. Se dentro quella frase ci finiscono i prodotti o i servizi di chi ha pagato, capire dove sta l’interesse economico diventa quasi impossibile.

Immaginiamoci tra qualche anno. Chiediamo all’IA che software usare per la nostra azienda, che università scegliere per nostro figlio, che contenuti studiare per aggiornarci sul lavoro. Se il modello è addestrato, spinto o “ottimizzato” per favorire chi paga, la risposta che riceviamo non sarà più una sintesi ragionevole di fonti diverse, ma un mix costruito a tavolino da accordi commerciali. Noi continueremo a pensare di stare “informandoci”, in realtà saremo dentro un catalogo con i prezzi coperti.

Il rischio non riguarda solo cosa compriamo. Riguarda cosa scriviamo e cosa produciamo noi stessi usando l’IA. Se un giornalista, un insegnante, un medico, un avvocato usano ogni giorno strumenti di questo tipo per preparare testi, documenti, email, presentazioni, e quei testi sono anche solo un po’ orientati da chi paga, nel giro di pochi anni la cultura che ci circonda viene spostata di millimetri ogni giorno. Non ci sarà un grande complotto, ci sarà una somma di piccole spinte. Il manuale scolastico, la brochure della banca, la guida medica, la risposta del chatbot del comune: tutte influenzate a monte dalla logica commerciale di pochi soggetti privati.

Qui negli Stati Uniti lo abbiamo già visto con i social. Algoritmi pensati per massimizzare il tempo sullo schermo hanno finito per favorire i contenuti più estremi, più divisivi, perché tengono incollate le persone. Ora lo schema si sposta dalla bacheca social alla risposta dell’IA. Se l’obiettivo diventa massimizzare il valore per gli inserzionisti, il modello non deve solo “informare”, deve guidare verso certi click, certi servizi, certi partner. È pubblicità che indossa il vestito del consiglio amichevole.

Il problema è che i big dell’IA stanno correndo molto più veloci delle regole. I regolatori discutono, noi esperti li aiutiamo a scrivere linee guida e a imporre trasparenza, ma i modelli si aggiornano ogni poche settimane e i test su nuove forme di monetizzazione partono subito, spesso su gruppi di utenti ristretti. Se aspettiamo di intervenire quando il sistema sarà già ovunque, sarà molto difficile tornare indietro, perché intere filiere economiche dipenderanno da quel modo di fare profitti.

Cosa possiamo pretendere? Innanzitutto una forte separazione tra risposte e annunci, visibile, comprensibile a chiunque, non nascosta dentro il testo. Poi il divieto di usare la nostra memoria conversazionale per costruire profili pubblicitari: se io confido all’IA le mie paure sulla salute o sui soldi, quelle frasi non devono diventare materiale per venderci assicurazioni o investimenti. E poi fare verifiche indipendenti sui modelli, per capire se e quanto i suggerimenti sono influenzati da accordi commerciali.

Perché noi non vogliamo che le risposte dell’IA siano guidate da chi paga, perché questo significa accettare, in qualche modo, che anche la nostra cultura venga scritta da chi può permettersi la fattura più alta. E rischiamo di accorgercene troppo tardi.

#DecisioniArtificiali #MCC #Documentario #AI

Condividi su: