Sixth sense: verso l’immersione
di BlackHoleSun

Un gruppo di studenti del MIT crea un prototipo per interfacciare la navigazione Web con gli oggetti reali.

Con 300 euro di budget il gruppo Fluid Interfaces del MIT Media Lab nel Massachusetts ha messo a punto un dispositivo in grado di dare informazioni su ciò che si vede in tempo reale, e attraverso il riconoscimento gestuale dei comandi, a effettuale richieste semplici e ricerche di informazioni in Rete.

Ne dà notizia Vito D’Eri su Repubblica.it:

La fotocamera legge le informazioni di partenza dalla superficie inquadrata; il telefonino, tramite uno speciale software, le elabora con l'ausilio del web, e proietta sempre sulla stessa superficie il risultato delle proprie ricerche. Questo prototipo, frutto di quattro mesi di lavoro, è la versione finale di una soluzione inizialmente basata su un braccialetto in grado di leggere i codici a barre dei prodotti, evolutosi poi in un dispositivo più sofisticato, da indossare a tracolla sopra il petto. Grazie a quattro tappi colorati sulle dita di una mano, i gesti effettuati dall'utente vengono riconosciuti dal dispositivo che li "vede" tramite la webcam e li interpreta come comandi. Ad ogni movimento delle dita, è possibile far corrispondere un diverso comando.

Mettere assieme tecnologia già esistente, rendendola operativa con un software ad hoc: eccezionale per la sua semplicità. Avere il massimo delle informazioni con pochi e semplici gesti, come ad esempio conoscere l’origine di un prodotto al supermercato mentre lo si ha sottomano o controllare lo stato di un volo aereo direttamente sul biglietto.

È disponibile anche un video su alcune applicazioni del prototipo.

Difficile immaginare una sua commercializzazione in tempi brevi, anche se il trend futuro delle multinazionali della tecnologia pare proprio essere quello di una maggiore fisicità nell’utilizzo delle interfacce.

.
.