Abo
  • Services:
Anzeige
Marcia Cross (l.) und Felicity Huffman: Was passiert als Nächstes?
Marcia Cross (l.) und Felicity Huffman: Was passiert als Nächstes? (Bild: Mark Mainz/Getty Images)

Deep Learning: Algorithmus sagt menschliche Verhaltensweisen voraus

Marcia Cross (l.) und Felicity Huffman: Was passiert als Nächstes?
Marcia Cross (l.) und Felicity Huffman: Was passiert als Nächstes? (Bild: Mark Mainz/Getty Images)

Umarmung oder high-five? Kuss oder Handschlag? Ein Algorithmus soll anhand eines Bildes erkennen, was darauf abgebildete Menschen als Nächstes machen. Er lernte das durch Fernsehgucken.

Zwei Menschen stehen sich gegenüber. Was passiert als Nächstes? Werden sie sich die Hand reichen, abklatschen, umarmen? Forscher des Massachusetts Institute of Technology (MIT) haben einen Deep-Learning-Algorithmus entwickelt, der das vorhersagen soll. Dazu haben sie ihn mit Fernsehserien gefüttert.

Handlungen vorherzusehen, bevor sie passieren, sei ein schwieriges Problem beim Computersehen, schreiben die Forscher um Carl Vondrick. Die Aufgabe sei schwierig, weil sie ein umfangreiches Wissen über die Welt erfordere. Es sei aber schwierig, das aufzuschreiben. "Wir glauben, dass ohne weiteres verfügbare, nicht gekennzeichnete Videos ein gutes Mittel sind, um sich dieses Wissen effizient anzueignen."

Anzeige

Algorithmus schaute 600 Stunden lang Serien

Die Forscher ließen den Algorithmus rund 600 Stunden lang bekannte Fernsehserien analysieren, darunter beispielsweise Big Bang Theory, Desperate Housewives oder The Office. Er lernte, was Händeschütteln, eine Umarmung oder ein Kuss bedeuten und wie es dazu kommt: Welche Interaktion führt dazu, dass zwei Menschen sich umarmen, welche dazu, dass sie abklatschen?

Nach dieser langen Lernphase musste der Algorithmus zeigen, was er draufhat: Die Forscher des Computer Science and Artificial Intelligence Laboratory (Csail) legten ihm ein Einzelbild aus einem Video vor, das er vorher noch nicht gesehen hatte. Daraus sollte er schließen, was als Nächstes passiert.

Der Mensch erkennt besser

Noch ist das Ergebnis nicht sehr überzeugend: In 43 Prozent, also nicht einmal der Hälfte der Fälle, lag der Algorithmus richtig. Zum Vergleich: Ein Mensch sagt eine solche Situation in 71 Prozent der Fälle richtig vorher, eine Gruppe von Menschen sogar in 85 Prozent der Fälle. Aber immerhin ist der MIT-Algorithmus besser als die Konkurrenten, deren Trefferquote bei etwa 36 Prozent liegt.

Ziel des Projekts ist, einen Algorithmus zu entwickeln, der unmittelbar bevorstehende Handlungen erkennen kann. Das soll es beispielsweise Robotern vereinfachen, sich zwischen Menschen zu bewegen und mit ihnen zu interagieren. Eine andere Anwendung wären Kameras, etwa in öffentlichen Plätzen, die erkennen, wenn ein Mensch fällt und dann den Krankenwagen alarmieren.

Vondrick will den Algorithmus auf der International Conference on Computer Vision and Pattern Recognition vorstellen, die derzeit in Las Vegas stattfindet.


eye home zur Startseite
twil 28. Jun 2016

wir glauben an einen freien Willen.

omtr 28. Jun 2016

you made my day :D

ha00x7 28. Jun 2016

Dachte ich mir auch. Als dann auch noch "the big bang theory" als Serie genannt wurde...

Milber 27. Jun 2016

Als ich Prinzeumel gelesen hatte wusste ich sofort, das was jetzt kommt ist gespickt mit...

attitudinized 27. Jun 2016

Und zwar hier: https://www.youtube.com/playlist?list=PL2-dafEMk2A4ut2pyv0fSIXqOzXtBGkLj



Anzeige

Stellenmarkt
  1. BG-Phoenics GmbH, Hannover
  2. MEMMERT GmbH + Co. KG, Schwabach (Metropolregion Nürnberg)
  3. über Mentis International Human Resources GmbH, Nordbayern
  4. BG-Phoenics GmbH, München


Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)
  2. (Core i5-7600K + Asus GTX 1060 Dual OC)
  3. 543,73€

Folgen Sie uns
       


  1. Heiko Maas

    "Kein Wunder, dass Facebook seine Vorgaben geheim hält"

  2. Virtual Reality

    Oculus Rift unterstützt offiziell Roomscale-VR

  3. FTP-Client

    Filezilla bekommt ein Master Password

  4. Künstliche Intelligenz

    Apple arbeitet offenbar an eigenem AI-Prozessor

  5. Die Woche im Video

    Verbogen, abgehoben und tiefergelegt

  6. ZTE

    Chinas großes 5G-Testprojekt läuft weiter

  7. Ubisoft

    Far Cry 5 bietet Kampf gegen Sekte in und über Montana

  8. Rockstar Games

    Waffenschiebereien in GTA 5

  9. Browser-Games

    Unreal Engine 4.16 unterstützt Wasm und WebGL 2.0

  10. Hasskommentare

    Bundesrat fordert zahlreiche Änderungen an Maas-Gesetz



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Debatte nach Wanna Cry: Sicherheitslücken veröffentlichen oder zurückhacken?
Debatte nach Wanna Cry
Sicherheitslücken veröffentlichen oder zurückhacken?
  1. Sicherheitslücke Fehlerhaft konfiguriertes Git-Verzeichnis bei Redcoon
  2. Hotelketten Buchungssystem Sabre kompromittiert Zahlungsdaten
  3. Onlinebanking Betrüger tricksen das mTAN-Verfahren aus

Sphero Lightning McQueen: Erst macht es Brummbrumm, dann verdreht es die Augen
Sphero Lightning McQueen
Erst macht es Brummbrumm, dann verdreht es die Augen

Quantencomputer: Nano-Kühlung für Qubits
Quantencomputer
Nano-Kühlung für Qubits
  1. IBM Q Mehr Qubits von IBM
  2. Quantencomputer Was sind diese Qubits?
  3. Verschlüsselung Kryptographie im Quantenzeitalter

  1. Re: Siri und diktieren

    Iomegan | 23:33

  2. Re: Es ist übrigens das erste Far Cry, das in den...

    wasabi | 23:29

  3. Re: Machen wir doch mal die Probe aufs Exempel

    itza | 23:29

  4. Re: Horizon zero dawn

    genussge | 23:28

  5. Re: Anbindung an Passwortmanager

    Vanger | 23:26


  1. 12:54

  2. 12:41

  3. 11:44

  4. 11:10

  5. 09:01

  6. 17:40

  7. 16:40

  8. 16:29


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel