Root NationNotiziaGiornale informaticoI robot umanoidi 1X Eve hanno mostrato piena autonomia nelle attività domestiche

I robot umanoidi 1X Eve hanno mostrato piena autonomia nelle attività domestiche

-

"Il video non contiene telemontaggio, - dire Produttore norvegese di robot umanoidi 1X. “Niente grafica computerizzata, nessun taglio, nessuna accelerazione del video, nessuna riproduzione della traiettoria secondo la sceneggiatura. Tutto è controllato da reti neurali, tutto è autonomo, tutto a velocità 1X”.

Si tratta di un produttore di umanoidi su cui OpenAI ha messo i suoi chip l'anno scorso in un round di finanziamento di 25 milioni di dollari di serie A. Un successivo round di finanziamento di 100 milioni di dollari di serie B ha mostrato quanto l'attenzione di OpenAI, così come l'hype generale sui robot umanoidi universali, sia un concetto che è è sempre sembrato un futuro lontano, ma negli ultimi due anni è diventata un'esplosione termonucleare assoluta.

1X vigilia

I robot umanoidi di 1X sembrano stranamente sottostimati rispetto a ciò su cui, ad esempio, stanno lavorando Tesla, Figure, Sanctuary o Agility. L'Eva umanoide non ha ancora nemmeno le gambe o le mani agili. Si muove su un paio di ruote motrici, in equilibrio su una terza piccola ruota posteriore, e le sue mani sono rudimentali artigli. Sembra che sia vestito per lo slittino e ha una faccina sorridente a LED fioca e lampeggiante.

L'1X ha una versione bipede chiamata Neo, anch'essa dotata di bracci ben articolati, ma forse questi dettagli non sono troppo importanti in questi primi giorni di sviluppo di robot per scopi generali. La stragrande maggioranza dei primi casi d'uso sarà simile a questa: "prendi questa cosa e mettila lì" - è improbabile che ciò richieda dita in grado di suonare un pianoforte. E il luogo principale in cui verranno utilizzati sarà nei magazzini con pavimenti in cemento e nelle fabbriche dove probabilmente non avranno bisogno di salire le scale o scavalcare nulla.

Non solo, molti gruppi hanno risolto il problema della camminata bipede e di bellissime attrezzature manuali. Ma non è questo l’ostacolo principale. L’ostacolo principale è far sì che queste macchine imparino rapidamente i compiti e poi li svolgano in modo autonomo, come sta facendo Toyota con i robot manipolatori desktop. Quando Figure 01 "ha capito" come lavorare da sola con una macchina da caffè, è stato un grande evento. Quando l'Optimus di Tesla ha piegato la maglietta nel video e si è rivelato essere sotto il controllo di un operatore umano, l'effetto è stato molto meno impressionante.

I compiti di cui sopra non sono eccessivamente difficili, non riguardano piegare camicie o azionare una macchina da caffè. Ma ci sono una serie di robot a tutti gli effetti che svolgono una serie di compiti, sollevando e mettendo a posto gli oggetti. Li afferrano ad un'altezza dalla caviglia alla vita. Li diffondono in scatole, contenitori e vassoi. Raccolgono i giocattoli dal pavimento e li mettono via.

Inoltre aprono le porte, corrono verso le stazioni di ricarica e si collegano, usando quella che sembra una manovra accovacciata inutilmente complicata per collegare la spina alle caviglie.

In breve, fanno più o meno la stessa cosa che dovrebbero fare nei primi casi d'uso di umanoidi generici, addestrati, secondo 1X, "puramente sulla base dei dati". In sostanza, l’azienda ha addestrato 30 robot Eve a eseguire una serie di compiti individuali ciascuno, apparentemente utilizzando l’addestramento simulato tramite video e teleoperazioni. Hanno poi utilizzato questo comportamento appreso per addestrare un “modello base” capace di un’ampia gamma di azioni e comportamenti. Questo modello di base è stato poi perfezionato per tenere conto delle capacità specifiche dell’ambiente – compiti di magazzino, manipolazione generale delle porte, ecc. – e infine i robot sono stati addestrati sui compiti specifici che avrebbero dovuto svolgere.

È probabile che questo passaggio finale avvenga in loco presso le sedi dei clienti una volta che i bot avranno svolto le loro attività quotidiane e 1X afferma che ci vorranno "solo pochi minuti di raccolta dati e formazione su una GPU desktop". Presumibilmente, in un mondo ideale, ciò significherebbe che qualcuno in piedi con un casco VR svolge un compito, quindi il software di deep learning combina quel compito con le abilità chiave del bot, lo esegue diverse migliaia di volte in una simulazione per testare vari fattori e risultati casuali. dopodiché i bot saranno pronti a funzionare.

“Nell'ultimo anno”, scrive Eric Jang, vicepresidente dell'intelligenza artificiale presso 1X, nel suo blog, “abbiamo sviluppato un motore di dati per risolvere compiti comuni di manipolazione mobile in modo completamente end-to-end. L’abbiamo visto funzionare, quindi ora stiamo assumendo ricercatori di intelligenza artificiale nell’area della Baia di San Francisco per aumentare di 10 volte il numero di robot e operatori televisivi”.

Mi chiedo quando queste cose saranno pronte per la prima serata.

Leggi anche:

Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti