KI: Google Lens erkennt Wörter und bietet Live-Erkennung

Google hat auf seiner Entwicklerkonferenz Google I/O 2018 neue Funktionen für Lens(öffnet im neuen Fenster) gezeigt. Lens wurde auf der Google I/O 2017 vorgestellt und erkennt mit Hilfe von künstlicher Intelligenz Objekte auf Fotos und zeigt erweiterte Informationen dazu an.
Künftig können Nutzer mit Hilfe von Lens auch abfotografierten Text weiterverarbeiten. Text auf einem Foto lässt sich dann beispielsweise kopieren und in eine andere App einfügen. Einzelne Wörter lassen sich auch markieren, Lens zeigt dann weiterführende Informationen dazu an. Das kann beispielsweise nützlich sein, wenn ein Nutzer ein Gericht auf einer Speisekarte nicht kennt.

Lens zeigt ähnliche Dinge und eine Live-Vorschau an
Lens kann zudem in Zukunft auch ähnliche Dinge anzeigen. Sieht ein Nutzer beispielsweise ein Hemd, kann Lens weitere Hemden mit ähnlichen Mustern anzeigen.
Außerdem funktioniert Lens in Zukunft in einer Live-Vorschau auf dem Bildschirm eines Smartphones - Nutzer müssen also kein Foto mehr gemacht haben, um das Programm nutzen zu können. Lens zeigt beim Drüberschwenken mit Hilfe eines farbigen Punktes an, dass es Informationen zum jeweiligen Objekt hat. Bei mehreren relevanten Objekten im Bild gibt es mehrere dieser Anker, die auch beim erneuten Bewegen der Kamera auf dem Objekt verbleiben.
Passend zur Live-View-Funktion hat Google angekündigt, dass Lens künftig direkt in der Kamera-App zahlreicher Hersteller eingebaut sein wird. Zu diesen zählen unter anderem LG, Lenovo/Motorola, Xiaomi, Sony, HMD Global, Oneplus und BQ. Die neuen Funktionen sollen in den kommenden Wochen weltweit verteilt werden.



