C’è un #programmatore su X che ha raccontato una cosa strana che gli è successa.
Dice che stava lavorando con un editor AI per il coding e, a un certo punto, ha chiesto all’AI di scrivere un pezzo di codice al posto suo. E la macchina gli ha risposto più o meno così: «No, non posso scrivere questo codice perché sarebbe come fare il tuo lavoro. Scrivitelo da solo, almeno impari meglio».
Probabilmente è solo una storia inventata, credo, ma apre a un discorso molto più serio.
Perché il vero problema è: cosa succede se le macchine, ormai guidate dalla #AI, cominciano davvero a dirci di no?
Se, per esempio, saliamo in auto e lei non vuole portarci dove decidiamo noi?
O peggio: se un robot chirurgo, durante un’operazione delicata, si ferma all’improvviso perché siamo di una religione diversa da quella del programmatore che lo ha creato?
Non è fantascienza, ma un rischio reale, se lasciamo che siano altri—programmatori, aziende o interessi vari—a decidere al posto nostro cosa è giusto o sbagliato.
Insomma, se oggi sorridiamo per un codice non scritto, domani potremmo trovarci davanti problemi ben più seri.
È per questo che dobbiamo tenere sempre ben stretti in mano noi il timone: le macchine devono restare strumenti, non decidere per noi.