Abo
  • Services:
Anzeige
Marcia Cross (l.) und Felicity Huffman: Was passiert als Nächstes?
Marcia Cross (l.) und Felicity Huffman: Was passiert als Nächstes? (Bild: Mark Mainz/Getty Images)

Deep Learning: Algorithmus sagt menschliche Verhaltensweisen voraus

Marcia Cross (l.) und Felicity Huffman: Was passiert als Nächstes?
Marcia Cross (l.) und Felicity Huffman: Was passiert als Nächstes? (Bild: Mark Mainz/Getty Images)

Umarmung oder high-five? Kuss oder Handschlag? Ein Algorithmus soll anhand eines Bildes erkennen, was darauf abgebildete Menschen als Nächstes machen. Er lernte das durch Fernsehgucken.

Zwei Menschen stehen sich gegenüber. Was passiert als Nächstes? Werden sie sich die Hand reichen, abklatschen, umarmen? Forscher des Massachusetts Institute of Technology (MIT) haben einen Deep-Learning-Algorithmus entwickelt, der das vorhersagen soll. Dazu haben sie ihn mit Fernsehserien gefüttert.

Handlungen vorherzusehen, bevor sie passieren, sei ein schwieriges Problem beim Computersehen, schreiben die Forscher um Carl Vondrick. Die Aufgabe sei schwierig, weil sie ein umfangreiches Wissen über die Welt erfordere. Es sei aber schwierig, das aufzuschreiben. "Wir glauben, dass ohne weiteres verfügbare, nicht gekennzeichnete Videos ein gutes Mittel sind, um sich dieses Wissen effizient anzueignen."

Anzeige

Algorithmus schaute 600 Stunden lang Serien

Die Forscher ließen den Algorithmus rund 600 Stunden lang bekannte Fernsehserien analysieren, darunter beispielsweise Big Bang Theory, Desperate Housewives oder The Office. Er lernte, was Händeschütteln, eine Umarmung oder ein Kuss bedeuten und wie es dazu kommt: Welche Interaktion führt dazu, dass zwei Menschen sich umarmen, welche dazu, dass sie abklatschen?

Nach dieser langen Lernphase musste der Algorithmus zeigen, was er draufhat: Die Forscher des Computer Science and Artificial Intelligence Laboratory (Csail) legten ihm ein Einzelbild aus einem Video vor, das er vorher noch nicht gesehen hatte. Daraus sollte er schließen, was als Nächstes passiert.

Der Mensch erkennt besser

Noch ist das Ergebnis nicht sehr überzeugend: In 43 Prozent, also nicht einmal der Hälfte der Fälle, lag der Algorithmus richtig. Zum Vergleich: Ein Mensch sagt eine solche Situation in 71 Prozent der Fälle richtig vorher, eine Gruppe von Menschen sogar in 85 Prozent der Fälle. Aber immerhin ist der MIT-Algorithmus besser als die Konkurrenten, deren Trefferquote bei etwa 36 Prozent liegt.

Ziel des Projekts ist, einen Algorithmus zu entwickeln, der unmittelbar bevorstehende Handlungen erkennen kann. Das soll es beispielsweise Robotern vereinfachen, sich zwischen Menschen zu bewegen und mit ihnen zu interagieren. Eine andere Anwendung wären Kameras, etwa in öffentlichen Plätzen, die erkennen, wenn ein Mensch fällt und dann den Krankenwagen alarmieren.

Vondrick will den Algorithmus auf der International Conference on Computer Vision and Pattern Recognition vorstellen, die derzeit in Las Vegas stattfindet.


eye home zur Startseite
twil 28. Jun 2016

wir glauben an einen freien Willen.

omtr 28. Jun 2016

you made my day :D

ha00x7 28. Jun 2016

Dachte ich mir auch. Als dann auch noch "the big bang theory" als Serie genannt wurde...

Milber 27. Jun 2016

Als ich Prinzeumel gelesen hatte wusste ich sofort, das was jetzt kommt ist gespickt mit...

attitudinized 27. Jun 2016

Und zwar hier: https://www.youtube.com/playlist?list=PL2-dafEMk2A4ut2pyv0fSIXqOzXtBGkLj



Anzeige

Stellenmarkt
  1. Heraeus infosystems GmbH, Hanau bei Frankfurt am Main
  2. Rohde & Schwarz Cybersecurity GmbH, Berlin
  3. AKDB, München
  4. ETAS GmbH & Co. KG, Stuttgart


Anzeige
Top-Angebote
  1. (u. a. Sony Xperia L1 für 139€)
  2. 139€
  3. 499,99€ - Wieder bestellbar. Ansonsten gelegentlich bezügl. Verfügbarkeit auf der Bestellseite...

Folgen Sie uns
       


  1. Bundestagswahl 2017

    Ein Hoffnungsschimmer für die Netzpolitik

  2. iZugar

    220-Grad Fisheye-Objektiv für Micro Four Thirds vorgestellt

  3. PowerVR

    Chinesen kaufen Imagination Technologies

  4. Zukunftsreifen

    Michelin will schwammartiges Rad für fahrerlose Autos bauen

  5. Bundestagswahl 2017

    Union und SPD verlieren, Jamaika-Koalition rückt näher

  6. IFR

    Zahl der verkauften Haushaltsroboter steigt stark an

  7. FTTH

    CDU für Verkauf der Telekom-Aktien

  8. Konkurrenz

    Unitymedia gegen Bürgerprämie für Glasfaser

  9. Arduino MKR GSM und WAN

    Mikrocontroller-Boards überbrücken weite Funkstrecken

  10. Fahrdienst

    London stoppt Uber, Protest wächst



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
E-Paper-Tablet im Test: Mit Remarkable machen digitale Notizen Spaß
E-Paper-Tablet im Test
Mit Remarkable machen digitale Notizen Spaß
  1. Smartphone Yotaphone 3 kommt mit großem E-Paper-Display
  2. Display E-Ink-Hülle für das iPhone 7

Parkplatz-Erkennung: Bosch und Siemens scheitern mit Pilotprojekten
Parkplatz-Erkennung
Bosch und Siemens scheitern mit Pilotprojekten
  1. Community based Parking Mercedes S-Klasse liefert Daten für Boschs Parkplatzsuche

Optionsbleed: Apache-Webserver blutet
Optionsbleed
Apache-Webserver blutet
  1. Apache-Sicherheitslücke Optionsbleed bereits 2014 entdeckt und übersehen
  2. Open Source Projekt Oracle will Java EE abgeben

  1. Ich frag mich eh, warum sich die CDU in Zukunft...

    Klausens | 08:25

  2. Re: Wie konnte die Menschheit nur solange Überleben

    StaTiC2206 | 08:25

  3. Re: Erfahrungen mit LoRa?

    gadthrawn | 08:23

  4. Re: Jamaika wird nicht halten

    Markus08 | 08:21

  5. Re: Ich feier das Ergebnis der AfD!

    Ispep | 08:20


  1. 07:52

  2. 07:33

  3. 07:25

  4. 07:17

  5. 19:04

  6. 15:18

  7. 13:34

  8. 12:03


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel