Hai già scaricato la mia app?

168 – L’AI non è neutra. Chi la controlla davvero?

L’AI non è neutra. Chi la controlla davvero?

A volte ce lo dimentichiamo. Sullo schermo sembra una cosa che abbia vita propria, quasi più affidabile di noi perché sbaglia meno dell’essere umano. Seguitemi fino alla fine che vi spiego perché questa sensazione è pericolosa, e perché dietro a ogni sistema di Intelligenza Artificiale c’è sempre qualcuno in carne e ossa che prende decisioni per noi.

Quando apriamo un’app, chiediamo una diagnosi automatica, usiamo un chatbot o un sistema di traduzione, ci sembra di parlare con una “cosa”. Un oggetto tecnico, neutro, freddo, imparziale. In ospedale ti dicono che il software riduce gli errori, in banca che l’algoritmo di rischio è più preciso di qualunque analista, nelle carceri americane alcuni sistemi di valutazione della recidiva vengono presentati come più oggettivi dei giudici. Tutto questo costruisce un’idea molto forte: se lo decide l’AI, allora è giusto.

Il problema è che ogni sistema di Intelligenza Artificiale nasce da scelte umane precise. Quali dati usare, quali casi considerare “positivi”, quale errore accettare. In molti ospedali degli Stati Uniti, per anni, algoritmi di triage hanno sottovalutato i pazienti neri perché i dati storici riflettevano discriminazioni già presenti nella sanità. L’AI ha solo amplificato un’ingiustizia statistica, ma chi la usava si fidava di più del software che dei segnali del paziente.

Stesso discorso con i social. Gli algoritmi che decidono cosa vediamo non inseguono la qualità del dibattito pubblico, seguono il tempo di permanenza e il numero di clic. Una clip di odio o complotto che genera molta attenzione viene premiata rispetto a un contenuto informativo più noioso. Qui negli Stati Uniti lo si è visto bene negli scandali che hanno riguardato le campagne elettorali: i sistemi erano “neutrali” solo in apparenza, in realtà ottimizzati per obiettivi commerciali.

Le aziende che sviluppano e gestiscono l’AI non hanno come lavoro difendere i diritti fondamentali. Il loro compito è fare profitti, crescere sul mercato, tenere buoni gli investitori. Niente di male, ma bisogna saperlo. L’etica entra in gioco solo quando diventa un obbligo legale, un rischio reputazionale oppure una buona operazione di immagine. Finché una pratica discutibile non esplode sui giornali o in tribunale, rimane nel sistema come parte del modello.

Per questo è pericoloso parlare di “AI che decide”. L’Intelligenza Artificiale non decide da sola: esegue una logica scritta da qualcuno, su infrastrutture di qualcuno, con dati raccolti da qualcuno. Quando un modello di scoring nega un mutuo, quando un sistema di riconoscimento facciale segnala una persona al controllo di polizia, quando un algoritmo di moderazione cancella un post, c’è sempre una responsabilità umana.

Esistono leggi in merito, ma fanno fatica a entrare. E allora resta una domanda da farsi ogni volta che un’AI entra in una decisione che ci riguarda: chi controlla questo sistema, quali interessi sta servendo, chi risponde quando sbaglia.

Perché l’AI non ha vita propria. Ha la forma che le diamo noi. Se ci dimentichiamo questo, smettiamo di guardare in faccia chi tiene davvero le mani sul volante.

#DecisioniArtificiali #MCC #Documentario #AD #AI

✅ Questo video è offerto da: https://www.ethicsprofile.ai

👉 informazioni su come sponsorizzare i microdocumentari: [email protected]

👉 Ora che vivo a New York, stiamo definendo le settimane in cui sarò in Italia nei prossimi mesi. Chi vuole ingaggiarmi per eventi è pregato di contattare il mio team al più presto, perché stiamo finalizzando le date dei viaggi e dei giorni disponibili: [email protected]

Condividi su: