Abo
  • Services:
Anzeige
Marcia Cross (l.) und Felicity Huffman: Was passiert als Nächstes?
Marcia Cross (l.) und Felicity Huffman: Was passiert als Nächstes? (Bild: Mark Mainz/Getty Images)

Deep Learning: Algorithmus sagt menschliche Verhaltensweisen voraus

Marcia Cross (l.) und Felicity Huffman: Was passiert als Nächstes?
Marcia Cross (l.) und Felicity Huffman: Was passiert als Nächstes? (Bild: Mark Mainz/Getty Images)

Umarmung oder high-five? Kuss oder Handschlag? Ein Algorithmus soll anhand eines Bildes erkennen, was darauf abgebildete Menschen als Nächstes machen. Er lernte das durch Fernsehgucken.

Zwei Menschen stehen sich gegenüber. Was passiert als Nächstes? Werden sie sich die Hand reichen, abklatschen, umarmen? Forscher des Massachusetts Institute of Technology (MIT) haben einen Deep-Learning-Algorithmus entwickelt, der das vorhersagen soll. Dazu haben sie ihn mit Fernsehserien gefüttert.

Handlungen vorherzusehen, bevor sie passieren, sei ein schwieriges Problem beim Computersehen, schreiben die Forscher um Carl Vondrick. Die Aufgabe sei schwierig, weil sie ein umfangreiches Wissen über die Welt erfordere. Es sei aber schwierig, das aufzuschreiben. "Wir glauben, dass ohne weiteres verfügbare, nicht gekennzeichnete Videos ein gutes Mittel sind, um sich dieses Wissen effizient anzueignen."

Anzeige

Algorithmus schaute 600 Stunden lang Serien

Die Forscher ließen den Algorithmus rund 600 Stunden lang bekannte Fernsehserien analysieren, darunter beispielsweise Big Bang Theory, Desperate Housewives oder The Office. Er lernte, was Händeschütteln, eine Umarmung oder ein Kuss bedeuten und wie es dazu kommt: Welche Interaktion führt dazu, dass zwei Menschen sich umarmen, welche dazu, dass sie abklatschen?

Nach dieser langen Lernphase musste der Algorithmus zeigen, was er draufhat: Die Forscher des Computer Science and Artificial Intelligence Laboratory (Csail) legten ihm ein Einzelbild aus einem Video vor, das er vorher noch nicht gesehen hatte. Daraus sollte er schließen, was als Nächstes passiert.

Der Mensch erkennt besser

Noch ist das Ergebnis nicht sehr überzeugend: In 43 Prozent, also nicht einmal der Hälfte der Fälle, lag der Algorithmus richtig. Zum Vergleich: Ein Mensch sagt eine solche Situation in 71 Prozent der Fälle richtig vorher, eine Gruppe von Menschen sogar in 85 Prozent der Fälle. Aber immerhin ist der MIT-Algorithmus besser als die Konkurrenten, deren Trefferquote bei etwa 36 Prozent liegt.

Ziel des Projekts ist, einen Algorithmus zu entwickeln, der unmittelbar bevorstehende Handlungen erkennen kann. Das soll es beispielsweise Robotern vereinfachen, sich zwischen Menschen zu bewegen und mit ihnen zu interagieren. Eine andere Anwendung wären Kameras, etwa in öffentlichen Plätzen, die erkennen, wenn ein Mensch fällt und dann den Krankenwagen alarmieren.

Vondrick will den Algorithmus auf der International Conference on Computer Vision and Pattern Recognition vorstellen, die derzeit in Las Vegas stattfindet.


eye home zur Startseite
twil 28. Jun 2016

wir glauben an einen freien Willen.

omtr 28. Jun 2016

you made my day :D

ha00x7 28. Jun 2016

Dachte ich mir auch. Als dann auch noch "the big bang theory" als Serie genannt wurde...

Milber 27. Jun 2016

Als ich Prinzeumel gelesen hatte wusste ich sofort, das was jetzt kommt ist gespickt mit...

attitudinized 27. Jun 2016

Und zwar hier: https://www.youtube.com/playlist?list=PL2-dafEMk2A4ut2pyv0fSIXqOzXtBGkLj



Anzeige

Stellenmarkt
  1. Melitta Professional Coffee Solutions GmbH & Co. KG, Minden
  2. Robert Bosch Power Tools GmbH, Leinfelden-Echterdingen
  3. Joke Technology GmbH, Bergisch-Gladbach
  4. Daimler AG, Stuttgart


Anzeige
Top-Angebote
  1. 147,89€ (Vergleichspreis ab 219€)
  2. 79,90€

Folgen Sie uns
       


  1. Megaupload

    Dotcom droht bei Auslieferung volle Anklage in den USA

  2. PC-Markt

    Unternehmen geben deutschen PC-Käufen einen Schub

  3. Ungepatchte Sicherheitslücke

    Google legt sich erneut mit Microsoft an

  4. Torus

    CoreOS gibt weitere Eigenentwicklung auf

  5. Hololens

    Verbesserte AR-Brille soll nicht vor 2019 kommen

  6. Halo Wars 2 im Test

    Echtzeit-Strategie für Supersoldaten

  7. Autonome Systeme

    Microsoft stellt virtuelle Testplattform für Drohnen vor

  8. Limux

    Die tragische Geschichte eines Leuchtturm-Projekts

  9. Betriebssysteme

    Linux 4.10 beschleunigt und verbessert

  10. Supercomputer

    Der erste Exaflops-Rechner wird in China gebaut



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Kernfusion: Angewandte Science-Fiction
Kernfusion
Angewandte Science-Fiction
  1. Kernfusion Wendelstein 7-X funktioniert nach Plan

MX Board Silent im Praxistest: Der viel zu teure Feldversuch von Cherry
MX Board Silent im Praxistest
Der viel zu teure Feldversuch von Cherry
  1. Patentantrag Apple denkt über Tastatur mit Siri-, Emoji- und Teilen-Taste nach
  2. Kanex Faltbare Bluetooth-Tastatur für mehrere Geräte gleichzeitig
  3. Surface Ergonomic Keyboard Microsofts Neuauflage der Mantarochen-Tastatur

Der große Ultra-HD-Blu-ray-Test (Teil 2): 4K-Hardware ist nichts für Anfänger
Der große Ultra-HD-Blu-ray-Test (Teil 2)
4K-Hardware ist nichts für Anfänger
  1. Der große Ultra-HD-Blu-ray-Test (Teil 1) 4K-Filme verzeihen keine Fehler
  2. Deutsche Verkaufszahlen Unberechtigter Jubel über die UHD-Blu-ray
  3. 4K Blu-ray Sonys erster UHD-Player kommt im Frühjahr 2017

  1. Nur mit Controller wirklich spielbar

    Dampfplauderer | 02:14

  2. Re: Verzicht

    Sasayakana | 02:12

  3. Re: Es gab Sackgassen

    jungundsorglos | 02:07

  4. Re: richtig so!

    Eheran | 01:36

  5. Re: Wirklich witzig

    laserbeamer | 01:34


  1. 18:33

  2. 17:38

  3. 16:38

  4. 16:27

  5. 15:23

  6. 14:00

  7. 13:12

  8. 12:07


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel