E’ ancora in fase sperimentale. Un affascinante connubio tra realtà aumentata, virtuale e telepresenza robotica. Eppure osservando quei primi esoscheletri, in costruzione nel Laboratorio di Robotica percettiva dell’Istituto Tecip della Scuola Superiore Sant’Anna di Pisa, il pensiero inevitabilmente vola alle suggestioni fantascientifiche di Avatar e ai «surrogati», quei cloni capaci di rappresentare l’umanità in modo completamente diverso. Embodiment Station, la «macchina» in costruzione, è un sistema complesso che nasce da un progetto europeo e, come dicono gli stessi ricercatori della scuola d’eccellenza pisana, affievolisce i confini tra reale e virtuale. In che modo? «Catturando attraverso un robot o di un qualsiasi avatar immerso in qualunque contesto le sensazioni e trasformandole in percezioni», spiegano i ricercatori.

In altre parole un clone robotico, a distanza di migliaia di chilometri, potrà dare l’impressione a qualunque umano di essere nel luogo dove la macchina si muove. Il dono dell’ubiquità hi-tech. Allo stesso modo anche l’avatar immerso nel cyberspazio invierà all’umano navigatore sensazioni tattili come se quell’universo di bit, infinito e imponderabile, fosse un mondo di atomi e le illusioni sensoriali ricreate in maniera artificiale «verità assolute». «Un’esperienza resa sempre più realistica e possibile grazie al coinvolgimento contestuale di diversi sensi – spiegano i ricercatori pisani –. E che apre un grande scenario di applicazioni. Utilizzando un avatar remoto si potrà viaggiare in un mondo ricreato in realtà virtuale senza muoversi da casa oppure sarà possibile camminare avendo la sensazione di essere presenti all’interno del corpo di un robot fisico remoto ed interagire con le persone presenti nell’ambiente circostante. L’esperienza virtuale diventa più realistica indossando un esoscheletro robotico, simulando addirittura interazioni fisiche, anche con l’aiuto di un sistema avanzato di proiezione in tre dimensioni».

L’ideatore della Embodiment Station è il professor Massimo Bergamasco, ordinario di meccanica, uno dei più geniali ricercatori del settore a livello internazionale. «La nostra piattaforma di realtà virtuale fornirà all’utente una stimolazione multi sensoriale – spiega – che includerà quella vestibolare, di movimento, propriocettiva, di contatto, nonché visiva e acustica, in modo tale da simulare l’esperienza di trovarsi in un corpo che può essere virtuale o in un corpo come quello di un robot che interagisce con un ambiente reale». Ma come funziona il sistema-avatar di acquisizione del reale che diventa virtuale (o viceversa)? Lo spiegano Antonio Frisoli, professore associato di Meccanica e il ricercatore Daniele Leonardis: «Il sistema è composto da due telecamere per la registrazione video in tre dimensioni, un sensore accelerometrico e un giroscopio per la registrazione delle vibrazioni e delle velocità angolari della testa, nonché un doppio microfono per una registrazione audio, sempre in tre dimensioni». Sensazioni che poi vengono trasformati in bit, inviate alla stazione centrale e riformulate in simulazioni percettive grazie a un sistema meccanico di altissima sensibilità.

Leggi l’articolo su: Corriere.it