LEARN - muLtimodal Edge computing-bAsed weaRable exoskeletoNs for assistance in daily life

Titolo del Progetto: LEARN - "muLtimodal Edge computing-bAsed weaRable exoskeletoNs for assistance in daily life" 

Principal Investigator: Prof. Claudio Loconsole 

UNDER 40 

Discipline STEM 

Bando PRIN 2022 PNRR 

Contributo MUR al Progetto: 245.657,00 Euro 

Partner: Università degli Studi di Genova, Scuola Superiore Sant’Anna

Settore ERC: PE7_4 

Descrizione: Il progetto LEARN si concentra su dispositivi di assistenza che, sotto forma di sistemi robotici indossabili, possono potenziare o ripristinare le funzioni motorie in lavoratori sani o in pazienti con disabilità motorie. L'obiettivo principale è sfruttare l'apprendimento automatico (Machine Learning - ML) come tecnologia abilitante per lo sviluppo della prossima generazione di tali dispositivi di assistenza. A tal fine, il progetto si basa fortemente sulla ricerca interdisciplinare. Le tre unità di ricerca coinvolte in LEARN apportano le proprie competenze sui diversi temi oggetto del progetto di ricerca: machine learning, sistemi embedded, edge computing, computer vision, sistemi robotici per l'interazione uomo-macchina, robotica indossabile.

Il principale risultato del progetto è lo sviluppo di prototipi di esoscheletro indossabili nuovi e avanzati per l'assistenza motoria, in cui il machine learning svolge un ruolo fondamentale nell'aumentare in modo significativo la controllabilità e l'usabilità da parte degli utenti finali. Le funzionalità avanzate da aggiungere agli esoscheletri indossabili sono: maggiore controllabilità da segnali di controllo efferenti danneggiati o limitati da parte dell'utente, consapevolezza operativa e autonomia condivisa tra l'utente e il dispositivo per aumentare l'usabilità in attività di manipolazione più complesse. 

L'integrazione di ML e edge computing, poi, è davvero un fattore principale in LEARN. Gli esoscheletri indossabili avanzati trarranno vantaggio da due innovazioni tecnologiche in questo settore. In primo luogo,  l'implementazione della visione artificiale per Affordance Segmentation (AS) su dispositivi edge, in secondo luogo, lo sviluppo di un sistema di controllo a bassa potenza basato su ML per la classificazione di segnali  elettromiografici di superficie (sEMG) e segnali biometrici. 

La prima attività di ricerca prevede la progettazione di un nuovo sistema AS RGB-D (cioè RGB + Depth) che adotti architetture deep learning (DL) leggere. Come risultato principale, il dispositivo di assistenza sarà dotato di sensori ed elaborazione di tipo cognitivo che consentiranno azioni semi-autonome (ad esempio, preformatura automatica). 

La seconda attività di ricerca sfrutta reti superficiali e lifelong ML per implementare su un microcontrollore un sistema di controllo in grado sia di rilevare l'intento di movimento basandosi su segnali biometrici, sia di migliorarne le prestazioni giorno dopo giorno adattandosi all'utente. 

Il progetto affronta due diversi scenari applicativi: dispositivi di assistenza medica e dispositivi indossabili nel settore industriale e dei servizi. 

Nel primo scenario, gli esoscheletri supportano attivamente i movimenti del paziente. Qui, l'embedded ML consentirà operazioni semi-autonome che possono migliorare significativamente l'usabilità del dispositivo, riducendo la complessità del canale di comunicazione tra l'utente e il dispositivo in termini di numero di gradi di libertà e controllo continuo rispetto a quello basato sugli eventi. 

Nel secondo scenario, gli esoscheletri e i dispositivi di assistenza indossabili supportano i movimenti dell'operatore, riducendo così in modo significativo il carico applicato al corpo. In questo caso, l'embedded  ML migliorerà la doppia modalità (trasparenza contro assistenza modulata), che ha un forte impatto sull'usabilità finale del dispositivo e sulla sua accettabilità da parte dell'utente finale.