Il primo ministro e l’oracolo digitale: quando l’AI entra in Parlamento
Il primo ministro svedese Ulf Kristersson ha ammesso pubblicamente di usare spesso strumenti di intelligenza artificiale come ChatGPT e il francese LeChat per avere un “secondo parere” nel suo lavoro. Non per prendere decisioni, dice, né per gestire informazioni riservate, ma per confrontarsi con altri punti di vista e mettere in discussione le proprie idee.
Peccato che l’AI non abbia opinioni. Ha solo pattern.
Quei modelli non ragionano, non conoscono il contesto politico, non capiscono l’ironia, non vedono le tensioni sociali. E soprattutto: non sono neutri. Riflettono, e amplificano, la cultura di chi li ha progettati. Quando un leader cerca confronto in una macchina come queste, non trova pluralismo. Trova conferme.
Il problema non è usare l’AI. Il problema è non sapere cosa c’è dentro.
Un premier che chiede consiglio a ChatGPT accetta, anche inconsapevolmente, un filtro ideologico opaco, costruito altrove, allenato su dati selezionati da chi ha accesso, potere, visibilità. E se ci si fida ciecamente, si rischia di trasformare l’AI in un oracolo digitale a cui si delega il dubbio, il confronto, il pensiero critico.
Kristersson dice che il suo uso è “limitato e sicuro”. Ma non basta. Ogni volta che un leader politico interagisce con l’AI, dovremmo chiederci: con quale modello? Addestrato dove? Da chi? Con quali filtri? Per fare cosa?
Non possiamo nemmeno accettare che ChatGPT partecipi, in silenzio, alle decisioni politiche…
#DecisioniArtificiali #MCC