Arriva dal MIT un sistema integrato per la mappatura digitale degli edifici. Un congegno che è possibile indossare mentre ci si muove nello spazio circostante. Il prototipo è stato ideato con lo scopo di venire in aiuto durante le fasi di coordinamento in seguito a distastri ambientali o di altra natura.
Il progetto è stato descritto in uno studio messo a punto per la Conferenza Intelligent Robots and Systems che si terrà in Portogallo il mese prossimo. Gli esperimenti finora condotti riguardano le prove fatte da uno studente che si è aggirato all'ingresso del campus del MIT. I dati raccolti dal suo peregrinare per l'università sono stati inviati in tempo reale ad un computer collegato nell'aula conferenze. E proprio da qui, i ricercatori hanno potuto osservare i movimenti dello studente su di una mappa digitale che segnalava il posto esatto in cui si trovava.
“Lo scenario prefigurato per questo progetto è la situazione in cui la gente indossa lo strumento e cammina ed esplora l'ambiente circostante”, spiega Maurice Fallon, scienziato del MIT's Computer Science and Artificial Intelligence Laboratory ed autore dello studio. “L'approccio è quello di riassumere fedelmente quel che le persone hanno visto, tipo 'Sono andato in quella stanza a sinistra, ho visto questo, sono andato nella stanza successiva', e così via”.
Il sistema integrato di mappatura digitale era prerogativa, almeno fino a qualche tempo fa, dei robot. Oggi, si estende l'esperimento anche agli esseri umani. Sebbene ciò comporti delle modifiche. Per esempio, i sensori utilizzano un raggio laser in grado di misurare il tempo che occorre alla luce per tornare alla sua fonte.
Questo è ben definito nei movimenti di un robot, ma cosa ben diversa è l'andatura umana. Inoltre, i sensori posti nelle ruote dei robot forniscono accurate informazioni sull'orientamento e le distanze, ma ciò manca negli umani. E chi si dovesse trovare ad agire nelle situazioni di emergenza deve essere pronto ad affrontare qualsiasi tipo di altezza e di terreno.
I dati vengono raccolti dai sensori a distanza di pochi metri. La telecamera incorporata riprende le immagini circostanti e il software sceglie tra quelle idonee a costituire una visione tridimensionale di insieme . “In genere riteniamo che un robot viva su di una superficie piana”, spiega Wolfram Burgard, professore di Scienza dei computer presso l'Università di Freiburg in Germania. “Quello su cui ci si deve concentrare è il problema dell'altezza e dei gradini, visto che gli esseri umani camminano, salgono e scendono”.
Ci sono, dunque, ancora delle accortezze che si devono considerare. Tuttavia, il progetto è in fase di sviluppo e di presentazione. Un lavoro che è stato supportato dall'U.S. Air Force e dall'Office of Naval Research.
Federica Vitale