ATAP, eine Forschungsabteilung von Google, will eine Technik entwickeln, mit der einzelne Bewegungen der Finger und Hände interpretiert und zur Steuerung mobiler Geräte genutzt werden können ohne dabei einen Touchscreen berühren zu müssen.
Fingererkennung über Radarsystem
Da Kameras für die Erfassung der einzelnen Bewegungen zu unpräzise sind, hat sich ATAP dazu entschlossen, auf eine andere Technik zu setzen. Google nutzt zur Erkennung die Radio-Detection-and-Ranging-Technik. Dabei werden durch ein präzises Echo-Verfahren feinste Handbewegungen erfasst. Letztlich ist es somit nichts anderes als ein Radar-System wie es auch bei Flugzeugen zum Einsatz kommt.
https://www.youtube.com/embed/0QNiZfSsPc0?rel=0 showinfo=0
Gerät erkennt Aneinanderreiben der Finger
Die Gestensteuerung kann etwa erkennen, wenn der Anwender Daumen und Zeigefinger berührt und dies als Knopfdruck interpretieren. Ein Aneinanderreiben der Fingerspitzen könnte genutzt werden, um auf dem mobilen Gerät die Lautstärke regulieren zu können. Darüber hinaus werden auch noch andere Gesten interpretierbar sein.
Zunächst einmal setzt Project Soli bei der Radartechnik auf maschinelles Lernen. Für später ist vorgesehen, dass Entwicker über API Zugriff erhalten, um die Technik in ihre Apps einbinden zu können. Ob und wann die Fingererkennung über Radar zum Einsatz kommt, ist bislang unbekannt.
Alternative zum Touchscreen und zur Spracheingabe
Die Herausforderung für die Forscher ist es jedoch, die Technik so zu verfeinern, dass sie auf die Größe eines Chips komprimiert werden kann, der in Smartwatches, Smarphones und Tablets platz findet. Die alternative Eingabemethode bietet sich für Geräte an, die nur einen sehr kleinen oder gar keinen Touchscreen haben. Die Technik stellt auch eine Alternative zur Spracheingabe da, denn gerade in der Öffentlichkeit ist es vielen Nutzern unangenehm, zu einem Gerät in oder an der Hand zu sprechen..