von Robert Klatt •
Die App soll Blinden im Alltag mehr Freiheit geben, indem sie Gegenstände erkennt und Texte vorliest. Sie funktioniert jedoch nur mit Pixel-Smartphones.
Google hat heute die neue Smartphone-App Lookout vorgestellt, die blinde Personen im Alltag unterstützen soll. Die App kann mithilfe der Smartphone-Kamera in der direkten Umgebung Gegenstände und Texte erkennen und diese in Echtzeit dem Nutzer weitergeben. Damit Blinde sich besser orientieren können wird nicht nur der Gegenstand angesagt, sondern auch die Richtung in der er sich befindet wie beispielsweise „Tasse auf zwei Uhr“. Dies soll es Blinden ermöglichen ein autonomeres Leben zu führen als bisher. Die wurde während der hauseigenen Entwicklerkonferenz Google I/O erstmalig öffentlich präsentiert.
Die App wurde vor allen für die dauerhafte Nutzung im Alltag entwickelt. Wie Patrick Clary, Produktmanager in Googles Barrierefreiheits-Team mitteilte, „bietet Lookout Sprachausgabe und ist auf minimale Interaktion mit dem Anwender ausgerichtet, damit sich die Leute auf ihre Aktivitäten konzentrieren können“. Damit die App ständig aktiv sein und die Kamera die Umgebung erfasst, soll das Smartphone während der Nutzung vom Anwender in einem Etui um den Hals getragen werden. Alternativ gibt es noch eine Brusttasche. Google hat auf " target="_blank">YouTube ein Video veröffentlicht, das die App näher zeigt.
Clary fügte hinzu, dass "es ihr Ziel ist, wichtige Gegenstände im Realraum hervorzuheben." Was genau als wichtig erachtet wird, hängt von der aktuellen Aktivität des Nutzers ab. Lookout hat aus diesem Grund vier verschiedene Modi zwischen denen der Nutzer wählen kann.
Im Modus Text konzentriert sich die App auf das Vorlesen, sind Arbeit und Spiel ausgewählt werden dafür nötige Gegenstände in der Umgebung erkannt und im Modus Zuhause liegt der Fokus auf üblichen Arbeiten die im Haushalt anfallen. Die App könnte im Modus Zuhause also beispielsweise einer blinden Person beim Kochen helfen, indem die App verschiedene Zutaten erkennt und weitergibt. Der experimentelle Modus dient dazu vor allem Gegenstände zu erkennen, die in den anderen Modi keine Beachtung finden.
Google weist jedoch darauf hin, dass die App keine Hinderniserkennung hat. Sie kann also Blinden nicht bei der Navigation durch den Straßenverkehr helfen.
Die Technologie wurde teilweise aus der Bilderkennungs-App Lens übernommen. Google nutzt die bereits vorhandenen Algorithmen um Bilder und Texte zu erkennen. Der Konzern betonte jedoch, dass die Funktionen und die Zielgruppe der Apps grundlegend verschieden sind. Lens richtet sich ausschließlich an Sehende und verfügt daher nicht über die Assistenzfunktionen, die Blinde im Alltag durch Lookout zur Verfügung gestellt bekommen.
Die Bedienung der App ist simple. Die App kann durch Klopfen auf das Smartphone gestartet werden. Das Verdecken der Kamera sorgt dafür, dass die App ihre Arbeit einstellt. Der Fingerabdrucksensor kann dazu genutzt werden, um zwischen den verschiedenen Modi zu wechseln. Aktuell wird die App bereits in einer geschlossenen Beta getestet. Bereits im Sommer soll die App in den USA für Blinde mit Pixel-Handy freigegeben werden.