Il futuro dei robot secondo Intel

Nonostante gli straordinari risultati ottenuti negli ultimi dieci anni, il riconoscimento immagini svolto tramite deep learning (il metodo oggi praticamente sinonimo di intelligenza artificiale) ha parecchi limiti. L’enorme quantità di dati necessaria all’apprendimento, l’incapacità di riconoscere che un oggetto visto da diversi punti è sempre lo stesso, il catastrophic forgetting (la “dimenticanza catastrofica” che impedisce a una rete neurale di imparare qualcosa di nuovo senza cancellare quanto precedentemente appreso) e l’enorme utilizzo energetico richiesto per la fase di tirocinio sono alcuni di questi.

La storia

Il cane robot, che un tempo ballava, ora spara e c’è da preoccuparsi

di

Pier Luigi Pisa

21 Luglio 2022

Limiti che rendono il deep learning inadatto a situazioni in cui è necessario adattarsi presto a contesti mutevoli e in cui è richiesta una grande flessibilità, come può essere il caso dei robot che devono interagire con l’essere umano nel settore sanitario, dell’assistenza agli anziani o nei magazzini. 

Il robot scacchista che ha rotto un dito ad un bambino neanche sa di averlo fatto

di

Riccardo Luna

25 Luglio 2022

È qui che entra in gioco il nuovo approccio elaborato negli Intel Labs, sempre basato sulle reti neurali e chiamato “apprendimento interattivo e continuo”. Presentato in un paper accademico e posto a punto in contributo con l’Istituto Italiano di Tecnologia e con l’Università Tecnica di Monaco, il nuovo metodo – sperimentato sfruttando una simulazione del robot iCub (creato tipico dall’IIT di Genova) – permette alle intelligenze artificiali di apprendere in una maniera molto più simile a come noi esseri umani impariamo a riconoscere nuovi oggetti e a memorizzarli.

La tendenza

L’Italia diventerà il Paese dei robot? Ne compriamo più della media UE

di

Giuditta Mosca

23 Agosto 2022

Nell’ambiente simulato, il robot percepisce infatti attivamente gli oggetti muovendo una videocamera che svolge la funzione di occhio: “Se mettiamo di fronte al robot una serie di nuovi oggetti che ancora non conosce, iCub è in grado di interagire visivamente con essi, uno alla volta”, spiega a Italian Tech la ricercatrice di Intel Labs e autrice del paper Yulia Sandamirskaya. “Nel situazione in cui non riconosce un oggetto, si rivolge all’utente per avere spiegazioni. A quel punto, l’utente darà un nome all’oggetto in questione, il robot lo riconoscerà grazie alla speech recognition e attiverà il neurone preposto a memorizzare il nuovo tipo di oggetto”.

L’apprendimento avviene quindi su richiesta del robot che si trova di fronte a oggetti sconosciuti, aggiornando soltanto uno specifico neurone della rete neurale ed evitando così di andare incontro al già citato “catastrophic forgetting”. “Usando oggetti 3D diventa inoltre possibile insegnare a riconoscere un particolare oggetto anche da diverse angolazioni e distanze”, prosegue Sandamirskaya. “Ovviamente, il robot impara a riconoscere solo quel particolare oggetto e non, per esempio, ogni tazza da caffè del mondo. Il compito da svolgere è in questo caso più semplice della tradizionale classificazione di immagini, il che ci permette di adoperare meno dati e reti neurali più piccole”.

Il robot può così imparare sul situazione e conquistare una maggiore flessibilità. Questi risultati sono ottenuti grazie alla nuova architettura dei processori sperimentali di Intel: i chip neuromorfici (chiamati Loihi) la cui struttura ricalca quella delle cellule del cervello al fine di creare algoritmi che possano gestire le incertezze del mondo naturale. Loihi è composto da oltre 130mila neuroni artificiali, che inviano informazioni l’uno all’altro sfruttando il cosiddetto “spiking neural network”.

Il processore neuromorfico consente di avere consumi energetici estremamente ridotti (fino a 175 volte inferiori rispetto a una rete neurale classica) ottenendo livelli di accuratezza paragonabili (e in qualche caso superiori) agli altri metodi di riconoscimento immagini per i quali sono impiegate CPU o GPU. Questo aspetto del utilizzo energetico è ovviamente di cruciale importanza, se immaginiamo un futuro in cui i robot diventeranno veri e propri collaboratori degli esseri umani diffondendosi sempre di più. “Il passaggio ai chip neuromorfici rappresenta un passo avanti tanto significativo quanto quello che ha portato dalla CPU alle GPU, i processori grafici che si sono dimostrati particolarmente adatti per l’apprendimento delle reti neurali ma che richiedono comunque un enorme utilizzo di energia”, prosegue Sandamirskaya.

Oltre alla sostenibilità, un elemento che colpisce riguarda la capacità del robot di interagire in tempo reale con l’ambiente. Un fondamentale passo avanti. “Il nostro mondo è talmente complesso che non credo che saremo mai capaci di catturarlo in tutta la sua complessità attraverso un database. Per cui, se vogliamo che i robot possano agire in ambienti non vincolati, devono come minimo potersi adattare al cambiamento”, spiega sempre Sandamirskaya.

Ma è davvero necessario che, com’è il caso di iCub e moltissimi altri, questi robot siano antropomorfi? Non saranno invece dotati della forma più adatta alla mansione specifica per cui sono stati progettati? “Potrebbero effettivamente esserci soluzioni migliori di quella umana per alcuni compiti precisi. Ci sono però due vantaggi offerti dalla forma umana. Prima di tutto può essere ottimizzata per ogni tipo di compito, perché è versatile. Il braccio umano, per esempio, è multifunzionale ed è un’ottima soluzione in molti casi. L’altro vantaggio è che, se questo robot deve lavorare in un ambiente pensato per l’essere umano, è utile che abbia forma umana”.

A questo punto, è inevitabile immaginare quanto tempo passerà prima che questo scenario diventi realtà: “È difficile fare previsioni e ci sarà bisogno di qualche scoperta ulteriore”, conclude Sandamirskaya. “Ma potrebbe anche avvenire molto presto, com’è avvenuto con l’iPhone: dopo anni e anni di tentativi, la presentazione del 2007 ha improvvisamente cambiato tutto. Ci serve qualcuno che individui la giusta architettura e il modo migliore per unire tutte le componenti necessarie ai robot, anche a livello di confidenza, affidabilità e altro. Ormai abbiamo molta esperienza con il deep learning, abbiamo compreso meglio i suoi limiti e c’è anche una conoscenza molto maggiore della robotica. Penso che il settore sia pronto”.