Un guanto tattile per i robot del futuro

Negli ultimi anni la robotica ha fatto passi da gigante, fornendo strumenti autonomi sempre più tesi al confronto con l’uomo. Tra le varie capacità sensoriali umane che fino ad oggi non erano ancora state perfettamente replicate vi era il tatto. Anche questa barriera sembra però ormai superata.

Un articolo pubblicato nei giorni scorsi sulla rivista Nature presenta un guanto equipaggiato con reti di sensori, in grado di imparare a identificare i singoli oggetti, stimare i pesi e utilizzare il feedback tattile mentre si manipolano gli oggetti stessi. Questa strategia potrebbe aiutare in futuro la progettazione di protesi, strumenti robotici e interazioni uomo-robot.

Un feedback sensoriale determinante

Gli esseri umani possono afferrare e sentire oggetti mentre contemporaneamente applicano la giusta quantità di forza. Questo feedback sensoriale è difficile da ingegnerizzare nei robot. Negli ultimi anni, le strategie volte ad afferrare gli oggetti, basate sulla visione artificiale, sono progredite con l’aiuto di strumenti di apprendimento automatico emergenti. Tuttavia, mancavano piattaforme basate su informazioni tattili.

Il guanto tattile

Subramanian Sundaram e colleghi hanno progettato un semplice guanto tattile dal costo estremamente contenuto (circa 10 dollari) che copre completamente la mano con 548 sensori e 64 elettrodi a filo conduttore. La serie di sensori consiste in una pellicola sensibile alla forza, indirizzata da una rete di fili conduttori.

Ogni punto di sovrapposizione tra gli elettrodi e il film che ricopre il guanto è sensibile alle forze perpendicolari e misura la resistenza elettrica attraverso il film. Gli autori hanno registrato un set di dati su larga scala di mappe tattili indossando il guanto durante la manipolazione degli oggetti con una sola mano. Il set di dati includeva le correlazioni spaziali e la corrispondenza tra le regioni delle dita, che rappresentano le firme tattili della presa umana.

Usando il guanto, gli autori hanno registrato video tattili mentre interagivano con un set di 26 oggetti con una sola mano per più di cinque ore. Quindi hanno addestrato una rete di deep learning per identificare queste immagini usando i dati registrati, e hanno scoperto che era in grado di identificare vari oggetti dal modo in cui erano tenuti nella mano.

 

 

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

quattordici + cinque =