Hai già scaricato la mia app?

65 – I robot guardano YouTube e imparano #DecisioniArtificiali #MCC

I robot guardano YouTube e imparano a fare tutto meglio di noi.

👉 Questo video è offerto da: https://www.trendevice.com/

Avrete presente i LLM, tipo ChatGPT? Quei Large Language Model che leggono miliardi di testi e imparano a scrivere, parlare e interagire con noi come se fossero persone. Ecco, nei robot sta accadendo la stessa cosa, ma invece delle parole c’è il corpo. Si chiamano LBM, Large Behavior Model: modelli che imparano osservando miliardi di esempi di azioni, e poi li trasformano in movimenti coordinati, fluidi, precisi.

Il meccanismo è identico. Un LLM non conosce il mondo, ma lo ricostruisce partendo dai dati testuali. Un LBM non ha esperienza fisica, ma la ottiene guardando dimostrazioni: video, sensori, istruzioni. E da lì costruisce una sorta di grammatica dei movimenti. Così un robot con un LBM non ha più bisogno di un programmatore che scriva riga per riga ogni gesto. Gli basta “vedere”.

Immaginiamo la portata: miliardi di tutorial già disponibili su YouTube che insegnano a cucinare, piegare una camicia, montare una mensola, annodare una corda. Per un LBM questo è carburante puro. Lo assimila, lo struttura e lo replica, senza errori, senza improvvisazioni. E la cosa che spiazza è che, una volta imparato, il robot esegue meglio di chi glielo ha insegnato: più rapido, più stabile, più preciso.

Boston Dynamics con il loro robot Atlas ha mostrato cosa significa: un LBM che gestisce l’intero corpo come un sistema unico, mani e piedi intercambiabili, movimenti continui e non più a blocchi. È come se un robot imparasse la logica di muoversi da sé, trattando il corpo come un’unica macchina, non come pezzi separati.

Questa è la vera svolta. Se ieri un robot era una marionetta di codice, oggi diventa un apprendista universale. Ogni azione umana registrata diventa un’istruzione che può imparare e perfezionare. Non è più fantascienza: i robot possono prendere l’intero sapere pratico umano già riversato online e farlo proprio.

La domanda è semplice e scomoda: cosa resta a noi, quando una macchina può guardare quello che sappiamo fare, copiarlo all’istante e farlo meglio?

#DecisioniArtificiali #MCC #sponsored

Condividi su: