Deep Learning bei der Bildersuche
Um den Bildsuchmaschinen auch die inhaltliche Dimension zu erschließen, kommen seit einigen Jahren verstärkt Techniken des maschinellen Lernens und insbesondere Deep-Learning-Netzwerke zum Einsatz. Die Herausforderung bestehe darin, so Barthel, diese neuronalen Netzwerke mit vielen Beispielbildern und den dazu gehörigen Schlagwörtern zu trainieren, so dass sie unbekannten Bildern automatisch Schlagwörter zuordnen können.
Grundsätzlich liegt den Analyseverfahren laut Barthel das Vektorraummodell zugrunde, bei dem ein Bild mit mehreren Millionen Werten auf einen Vektor mit deutlich weniger Dimensionen abgebildet wird.
Interessant wird es, wenn diese 64D-Bilddeskriptoren wiederum auf nur zwei Dimensionen abgebildet werden. Die gefundenen Bilder werden dann nach ihrer Ähnlichkeit sortiert und wie auf einer Landkarte angeordnet, durch die der Nutzer wie bei Google Maps navigieren kann: Er sucht sich zunächst einen Bereich, in dem Bilder zusammengefasst sind, die dem gesuchten Bild möglichst nahekommen. Durch das Hineinzoomen in diesen Bereich erschließt sich eine größere Auswahl ähnlicher Bilder.
Für den auf dieser Grundlage entwickelten Bildbrowser Picsbuffet haben Barthel und seine Mitarbeiter an der HTW wie auch in der von ihm mitgegründeten Firma Pixolution bei der Multimedia Modeling Conference 2015 die Best Demonstration Competition gewonnen.
Trotz der Anordnung nach Ähnlichkeit sind gelegentliche harte Brüche auf der Bilderlandkarte unvermeidlich. Die Suche nach dem Begriff Apfel etwa kann auf die Frucht, den Apfelbaum, vielleicht aber auch auf Apfelsaft verweisen. Neben dem Apfelsaft könnte als ähnliches Bild wiederum Orangensaft aufgelistet werden. Die Berliner Forscher arbeiten daher an Verfahren, die anstelle der 2D-Sortierung ein hierarchisches Bildernetzwerk verwenden und in der Lage sein sollen, in Echtzeit dreidimensionale Ansichten zu generieren.
Die Sache mit den Suchkriterien
Mit dem System Akiwi haben Barthel und seine Mitarbeiter zudem das Suchverfahren gewissermaßen in die andere Richtung entwickelt: Hier werden durch den Vergleich eines unbekannten Bildes mit bekannten und verschlagworteten Bildern Schlagworte vorgeschlagen. Durch das Eliminieren einzelner Vorschläge und Hinzufügen neuer Schlagworte kann der Nutzer die Suche gezielt verfeinern und rasch eine Bildauswahl zusammenstellen, die den Suchkriterien entspricht.
Damit zeigt sich: Ein Bild mag zwar mehr mitteilen können als tausend Worte. Aber wenn Bilder und Worte effektiv zusammenwirken, sind sie unschlagbar. Jedenfalls vorerst. Barthel sieht in der "intelligenten bildbasierten Datenexploration" jedenfalls "ein riesiges Potenzial für das zukünftige Gesicht des Internet: bild- und symbolträchtig, textbefreit, dreidimensional und holistisch selbstorganisierend".
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Picsbuffet: Forscher erschaffen ein neues Verfahren zur Bildersuche |
- 1
- 2
Na solange die Braut nicht unter "Elefanten" einsortiert wurde, sollte kein großer...
Unter anderem aus der Einleitung: "Suchbegriffe werden mit Dateinamen, Schlüsselwörtern...
2007-... HTW Projekt Revamped ImageSorter: http://imi-bachelor.htw-berlin.de/studium...
Das hätte ich lustig gefunden.