Original-URL des Artikels: https://www.golem.de/news/adobe-sensei-hundebilder-suchen-per-ki-1911-144932.html    Veröffentlicht: 21.11.2019 09:15    Kurz-URL: https://glm.io/144932

Adobe Sensei

Hundebilder suchen per KI

Adobes künstliche Intelligenz kann Personen aus Bildern ausschneiden, Sprachaufnahmen verbessern, das Verhalten von Nutzern vorhersagen und vieles mehr. Wir haben mit einem der Entwickler über Vorhersagen von Nutzerverhalten, Datenschutz und einen Berliner Chatbot gesprochen.

Es ist heiß in Los Angeles. Auch im November steigen die Temperaturen mitunter auf fast 30 Grad. Von Sonnenschein und blauem Himmel ist auf Adobes Hausmesse Max 2019 aber nichts zu sehen - jedenfalls nicht in der riesigen Halle, in der wir uns mit dem technischen Leiter für Softwareentwicklung, Brett Butterfield, verabredet haben. Hier stehen einige Stände fast verloren auf dunklen, tiefen Teppichen in klimatisierter Umgebung. Trotzdem hat Butterfield sehr gute Laune, denn sein Projekt für die diesjährige Messe ist pünktlich fertig geworden: In nur 30 Tagen haben sein Team und er eine Sprachsuche für das Stockfoto-Portal von Adobe entwickelt. Der Name: Hey Sensei.

Die Suche nutzt einen Chatbot, der von der Berliner Firma Rasa programmiert wurde und kontextbasiert reagiert. Wenn Butterfield sagt: "Fotos von Kindern", sehen wir erwartungsgemäß viele glückliche Kinder. Sagt er dann: "Füge einen Hund hinzu" und "Bewege den Hund nach links" verändert sich die Fotoauswahl entsprechend. Die glücklichen Kinder sind jetzt rechts, der Hund links im Bild. Die zugrundeliegende Technologie heißt intern Concept Canvas und basiert auf der Analyse der Anordnung der Bildinhalte.

All diese Funktionen sind Teil von Adobe Sensei - der konzerneigenen Plattform für maschinelles Lernen.

"Es ist ein ganzes Bündel von neuronalen Netzwerken", sagt Brett Butterfield. "Die Teams können individuell entscheiden, für welche Plattform sie entwickeln. Die meisten nehmen Pytorch, manche nutzen Tensorflow oder Caffe." Es sei im Grunde genommen Grid Computing. "Wir haben eine große Zahl an Cloud-Servern, die verschiedene Plattformen bieten und eine gemeinsame API haben. Man kann sie zusammenschließen und verkettete Analysen durch alle laufen lassen."

Häufig würden 70 Millionen Fotos und mehr auf einen Schlag verarbeitet, so Butterfield weiter. Diese Fotos würden mit fünf oder sechs Merkmalen klassifiziert. "Das erzeugt schon eine ziemliche Last auf den Servern, aber die Architektur skaliert automatisch."

Trotzdem hat das System Grenzen. Bei aufwendigen Merkmalen braucht ein Einzelrechner bis zu einer Sekunde. Adobe Stock hat 175 Millionen Fotos, da kämen insgesamt viele Jahre Rechenzeit zusammen. Die einfachen Klassifikationen können jedoch in Sekundenbruchteilen durchgeführt werden - als Beispiel nennt Butterfield die Analyse von Geschlecht, Alter und Emotionen. Das funktioniert inzwischen sogar bei Videodaten in Echtzeit. Wenn Fotos neu zur Datenbank hinzugefügt werden, erfolgt die Klassifikation auf den Rechnerclustern verteilt im Hintergrund.

Sensei soll Muster im Workflow erkennen

Butterfield hat jedoch schon neue Ideen. Sein aktuelles Projekt hat weniger mit der Serverseite zu tun als mit den Anwendern. "Ich arbeite gerade an Assistenzsystemen", sagt er. Er möchte damit Muster im Workflow erkennen. "Wenn ein Nutzer ein paar Suchanfragen an Adobe Stock gestellt hat, wollen wir fragen können: Oh, du willst vermutlich dies und das tun, soll es automatisiert werden?"

Das bezieht sich momentan noch rein auf die Suche, aber in Zukunft könnte auch die Bildbearbeitung mit Sprachbefehlen erfolgen. Ein Beispiel: Wenn die Software erkennt, dass der Nutzer oft seine Fotos für Instagram optimiert, könnte das Programm ihm vorschlagen, das in Stapelverarbeitung für weitere Bilder zu erledigen. Das würde viele zeitraubende, ständig wiederkehrende Arbeitsabläufe stark vereinfachen.

Wie bei allen cloudbasierten Programmen spielt natürlich die Frage nach dem Datenschutz eine große Rolle. Zumindest bei der eingangs erwähnten Sprachsuche beruhigt Brett Butterfield: "Das ist einer der Gründe, warum wir den Rasa-Chatbot verwenden - weil wir ihn selbst hosten können." Man habe einige Lösungen evaluiert, habe sich Google, Microsoft und Amazon angesehen. "Aber den Ausschlag hat dann gegeben, dass wir Rasa selbst hosten können."

Die Sprachsuche über "Hey Sensei" ist noch ein Prototyp - wie so vieles, was Adobe in diesem Jahr in Los Angeles hinter verschlossenen Türen gezeigt hat. Aber der Kurs ist klar: Sensei soll in möglichst alle Produkte Einzug halten. Brett Butterfield hat nach der Präsentation von Hey Sensei übrigens unvermittelt einen neuen Job bekommen. Er ist jetzt technischer Leiter im Team für Software-Agenten, die mit den Nutzern interagieren.

Offenlegung: Golem.de hat auf Einladung von Adobe an der Adobe Max in Los Angeles teilgenommen. Die Reisekosten wurden zur Gänze von Adobe übernommen. Unsere Berichterstattung ist davon nicht beeinflusst und bleibt gewohnt neutral und kritisch. Der Artikel ist, wie alle anderen auf unserem Portal, unabhängig verfasst und unterliegt keinerlei Vorgaben seitens Dritter.  (mwo)


Verwandte Artikel:
Elasticsearch: Datenleak bei Conrad   
(19.11.2019, https://glm.io/145091 )
Sayspring-Übernahme: Der Nutzer spricht künftig mit Photoshop   
(17.04.2018, https://glm.io/133877 )
Google Photos: Klage gegen Sammeln von Gesichtsinformationen wird verworfen   
(02.01.2019, https://glm.io/138457 )
Gesetzentwurf: Gaffer- und Spannerfotos sollen strafbar werden   
(14.11.2019, https://glm.io/144980 )
Riversimple Rasa: Brennstoffzellenauto mit Superkondensatoren fährt 480 km   
(19.02.2016, https://glm.io/119242 )

© 1997–2020 Golem.de, https://www.golem.de/