Egocentric Video Biometrics: Biometrisches Verfahren erkennt Videofilmer am Wackeln

Verräterische Bewegungen: Zwei israelische Wissenschaftler haben eine Methode entwickelt, um einen Videofilmer zu identifizieren. Voraussetzung ist, dass die Kamera auf dem Kopf getragen wird.

Artikel veröffentlicht am ,
Filmen aus der Ego-Perspektive mit Google Glass: optischer Fluss wird analysiert
Filmen aus der Ego-Perspektive mit Google Glass: optischer Fluss wird analysiert (Bild: Google/Screenshot:Golem.de)

Videos aus der Ego-Perspektive sind beliebt. Sie zeigen allerlei spektakuläre Aktionen, etwa von Extremsportlern. Und ermöglichen es dem Filmer dabei, bei nicht legalen Aktionen anonym zu bleiben. Das wird allerdings nicht mehr lange so sein: Eine neue Methode ermöglicht es, einen Filmer zu identifizieren, auch wenn er gar nicht im Video auftaucht - an seinen Bewegungen.

Stellenmarkt
  1. Trainee Softwareentwicklung (m/w/d)
    andagon people GmbH, Köln
  2. Teamleiter Chassis Controls (m/w / divers)
    Continental AG, Frankfurt
Detailsuche

Jeder Mensch hat eine typische Art und Weise, sich zu bewegen. Wir erkennen manchmal eine Person von hinten daran, wie sie geht oder sich bewegt. Das machen sich Yedid Hoshen und Shmuel Peleg von der Hebräischen Universität von Jerusalem zunutze, um einen Videofilmer zu erkennen. Egocentric Video Biometrics, egozentrische Video-Biometrie, nennen sie ihre Entwicklung. Sie beschreiben sie in einem Aufsatz, der als Preprint auf dem Dokumentenserver Arxiv abrufbar ist.

Bilder verraten den Filmer

Bilder, die mit einer Kamera auf dem Kopf oder einem Helm aufgenommen wurden, verrieten mehr über den Filmer, als diesem meist bewusst sei, sagen die Entwickler. Der Aufnahmewinkel etwa lässt Rückschlüsse auf die Größe des Kameraträgers zu. Hinzu kommen die Bewegungsmuster, die Hoshen und Peleg mit Hilfe eines neuronalen Netzes analysieren.

Dazu wird zunächst eine Videoaufnahme, deren Autor bekannt ist, analysiert. Der Algorithmus untersucht dabei den optischen Fluss: Wie verändert sich die Position von Objekten von einem Einzelbild zum nächsten. Daraus errechnet das System ein Bewegungsmuster für diesen Filmer.

Die Trefferquote ist hoch

Golem Karrierewelt
  1. Angular für Einsteiger: virtueller Zwei-Tage-Workshop
    26./27.09.2022, Virtuell
  2. Cloud Competence Center: Strategien, Roadmap, Governance: virtueller Ein-Tages-Workshop
    26.07.2022, Virtuell
Weitere IT-Trainings

Wird dem System nun ein anderes Video dieses Filmers vorgelegt, erkennt der Algorithmus ihn an dem Muster seiner Bewegungen. Die Wahrscheinlichkeit ist recht hoch: Die Trefferquote liegt nach Angaben der Entwickler bei 88 Prozent. Ein zwölf Sekunden langes Video reicht aus.

Anwendungen dafür gibt es genug: Straßenrowdys filmen sich etwa bei halsbrecherischen Manövern. Auch manche Straftäter dokumentieren ihre Aktionen aus der Ego-Perspektive. Einige Strafverfolgungsbehörden haben Kameras eingeführt, um die Einsätze von Polizisten festzuhalten. Mit dem Verfahren lässt sich mit hoher Wahrscheinlichkeit feststellen, wer ein Video aufgenommen hat.

Algorithmus erkennt Glassholes

Natürlich gilt das auch für Videos, die mit Datenbrillen wie Google Glass aufgenommen wurden. Das von Hoshen und Peleg entwickelte Verfahren könnte also auch dazu genutzt werden, sogenannte Glassholes zu identifizieren - Besitzer von Datenbrillen, die ihre Mitmenschen ohne deren Wissen und Einverständnis filmen.

Die Egocentric Video Biometrics könnten aber auch als Diebstahlsicherung für die Kamera eingesetzt werden, sagen die Israelis: Erkenne die Kamera, dass das Bewegungsmuster nicht das ihres rechtmäßigen Besitzers ist, könne sie sich abschalten. Eine derart gesicherte Kamera wäre, wenn sie gestohlen ist, nutzlos.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Der Andere 21. Dez 2014

.. nur noch mit Bildstabilisator und Entzerrung nachbearbeitete Videos hochladen. https...

AlexanderSchäfer 15. Dez 2014

Also manchmal habe ich das Gefühl, dass als Anfangsverdacht auch schon ein...

b1n0ry 15. Dez 2014

Ist sowas ähnliches wie Bildfotograf, Softwareprogrammierer, Malkünstler usw. Du weißt ja...

jude 15. Dez 2014

... die beiden nicht soffort unter Vertrag nimmt sollten sich Kryptokundige mal für die...



Aktuell auf der Startseite von Golem.de
Machine Learning
Die eigene Stimme als TTS-Modell

Mit Machine Learning kann man ein lokal lauffähiges und hochwertiges TTS-Modell der eigenen Stimme herstellen. Dauert das lange? Ja. Braucht man das? Nein. Ist das absolut nerdig? Definitv!
Eine Anleitung von Thorsten Müller

Machine Learning: Die eigene Stimme als TTS-Modell
Artikel
  1. US-Streaming: Abonnenten immer unzufriedener mit Netflix
    US-Streaming
    Abonnenten immer unzufriedener mit Netflix

    Wenn Netflix-Abonnenten das Abo kündigen, wird vor allem der hohe Preis sowie ein schlechtes Preis-Leistungs-Verhältnis als Grund dafür genannt.

  2. Krypto-Gaming: Spieleentwickler wollen nichts mit NFT zu tun haben
    Krypto-Gaming
    Spieleentwickler wollen nichts mit NFT zu tun haben

    Die Gamesbranche wehrt sich bislang vehement gegen jedes neue Blockchain-Projekt. Manager und Entwickler erklären warum.
    Von Daniel Ziegener

  3. Mojo Lens: Erster Tragetest mit Augmented-Reality-Kontaktlinse
    Mojo Lens
    Erster Tragetest mit Augmented-Reality-Kontaktlinse

    Ein winziges Micro-LED-Display, ein Funkmodem, ein Akku - und kein Kabel: Der Chef von Mojo Lens hat seine AR-Kontaktlinse im Auge getragen.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • MindStar (G.Skill Trident Z Neo 32 GB DDR4-3600 149€) • The Quarry + PS5-Controller 99,99€ • Alternate (Acer Nitro QHD/165 Hz 246,89€, Acer Predator X28 UHD/155 Hz 1.105,99€) • Samsung GU75AU7179 699€ • Kingston A400 480 GB 39,99€ • Top-PC mit Ryzen 7 & RTX 3070 Ti 1.700€ [Werbung]
    •  /