Hai già scaricato la mia app?

umano si piega per raccogliere un oggetto e il robot lo imita

C’è una scena, nel video, in cui l’umano si piega per raccogliere un oggetto e il robot lo imita con una precisione che fa impressione. Non è una coreografia. È controllo in tempo reale, millisecondo dopo millisecondo, con una fluidità che fino a poco fa era impensabile.

Si chiama TWIST, ed è l’ultimo lavoro dei ricercatori di Stanford per far muovere gli umanoidi esattamente come noi.

Non simile. Proprio come noi.

E per riuscirci, hanno usato un sistema a due fasi: prima addestrano una rete neurale con i movimenti futuri (quindi prevedendo come ci muoveremo), poi la semplificano per permettere al robot di reagire in diretta, basandosi solo sui dati del presente. Il risultato è una specie di “telepatia biomeccanica”: noi ci muoviamo, lui ci segue. Senza scatti. Senza ritardi. Senza passare da comandi preimpostati.

Funziona su piattaforme come il robot Unitree G1 e permette di compiere azioni complesse: afferrare oggetti, calciare, accovacciarsi. Tutto sotto il controllo diretto di un essere umano, grazie a sensori di motion capture ad alta fedeltà. Altro che videocamere RGB come quelle usate da altri sistemi come H20. Qui si va molto più in profondità.

Certo, ci sono ancora limiti. Non c’è feedback visivo o tattile per l’operatore. E il robot si surriscalda se lo si usa troppo a lungo. Ma la strada è segnata. TWIST non è solo una demo tecnica. È un cambio di paradigma: invece di programmare robot che “provano” a capire cosa fare, ci stiamo muovendo verso macchine che ci imitano mentre agiamo. E questa cosa apre uno scenario enorme.

La domanda, ora, non è più “come insegniamo a un robot a muoversi”, ma “cosa succede quando può imparare da ogni nostro movimento?”.

Condividi su: