Hai già scaricato la mia app?

L’AI si è inventata una policy. Da sola. Con tono sicuro, come se fosse tutto vero.

Un utente di Cursor, la piattaforma per scrivere codice assistiti dall’intelligenza artificiale, cambia dispositivo e viene disconnesso. Chiede spiegazioni al supporto. Risponde l’AI. Ma invece di chiarire, peggiora tutto: si inventa che è una scelta di sicurezza, una regola voluta dall’azienda.

Non esiste nessuna regola del genere. L’ha generata l’AI, con convinzione.

Fioccano cancellazioni e proteste. Alla fine interviene il co-fondatore di Cursor: ammette che è stato un errore, spiega che si trattava di un aggiornamento tecnico e che la policy era una pura allucinazione dell’AI.

Ora promettono rimborsi per gli utenti coinvolti e chiarimenti più visibili nei messaggi: bisognerà distinguere bene se a parlare è un umano o un bot.

Ma qui il punto è un altro.

Stiamo affidando la relazione con le persone a sistemi che non hanno idea di cosa sia vero e cosa no. E il rischio non è solo che dicano qualcosa di sbagliato, ma che lo facciano con l’autorevolezza di chi sembra sapere tutto.

In un’epoca in cui l’AI viene usata ovunque, serve una regola semplice: se una risposta può avere conseguenze serie, deve passare da un umano. Sempre.

Link

Condividi su: