Onderzoekers van de universiteit van Nevada hebben een draagbare camera ontwikkeld die blinden assisteert met het verkennen van hun nabije omgeving. De in het systeem ingebouwde Kinect-sensor herkent objecten en geeft feedback via spraak. Het systeem wordt bediend met handgebaren.  Het Gestural Interface for Remote Spatial Perception (GIST) systeem is gebaseerd op de augmented reality-technologie uit het Sixth Sense-project van het MIT. Die techniek zetten onderzoekers Eelke Folmer en Vinitha Khambadkar in om blinden via gebaren te laten interacteren met hun omgeving. Als de gebruiker bijvoorbeeld een V-teken maakt, vertelt het systeem wat de overheersende kleur is van de omgeving. Op het moment dat een vuist naar voren wordt gestoken zegt het systeem of er iemand in het verlengde van je arm staat en hoe ver die persoon ongeveer van je vandaan is. De techniek wordt momenteel verder ontwikkeld, zodat het mogelijk wordt om vragen te stellen aan de camera, zoals “Waar is mijn theekopje?”. Het systeem vertelt dan waar het kopje precies staat. Ook is het in theorie mogelijk om andere personen automatisch te herkennen op basis van hun gezichtskenmerken of postuur. Het huidige systeem is gebaseerd op de Kinect 2.0 sensor van Microsoft, die om de hals gedragen moet worden. Op termijn denken de onderzoekers dat dergelijke sensoren klein genoeg worden om ingebouwd te kunnen worden in bijvoorbeeld een smartphone. (bron: MIT Technology Review)