Abo
  • IT-Karriere:

Augmented Reality: Das AR-Fabrikgelände aus dem Smartphone

Derzeit ist viel von einer Augmented Reality Cloud die Rede. Golem.de hat mit dem Berliner Startup Visualix über den Stand der Technik und künftige Projekte für Unternehmenskunden gesprochen - und darüber, was die Neuerungen für Pokémon Go bedeuten könnten.

Ein Interview von veröffentlicht am
Darius Pajouh, Mitgründer und CEO, Henriette Humprecht, Head of Business Operations und Michael Bucko, Mitgründer und CTO  (v.l.n.r.)
Darius Pajouh, Mitgründer und CEO, Henriette Humprecht, Head of Business Operations und Michael Bucko, Mitgründer und CTO (v.l.n.r.) (Bild: Visualix/Steve Bergmann)

Eine Zeit lang wurde Augmented Reality von Medien und Nutzern vor allem mit Pokémon Go assoziiert. Der Hype ist inzwischen abgeebbt, AR-Entwickler widmen sich ohnehin eher praktischen Anwendungsformen der Technologie. Der nächste große Schritt könnte eine AR Cloud sein, die komplette Geo-Informationen weltweit bereitstellt: Ein Gitter, an das AR-Anwendungen zum Beispiel über Smartphones andocken können.

Stellenmarkt
  1. Hornbach-Baumarkt-AG, Bornheim bei Landau Pfalz
  2. arxes-tolina GmbH, Berlin

Tatsächlich sind wir von einer Realisierung der AR Cloud noch weit entfernt. Doch Startups tüfteln bereits an entsprechenden Lösungen auf lokaler Ebene. Zum Beispiel die Firma Visualix aus Berlin, die im März 2018 gegründet wurde und derzeit zwölf Mitarbeiter hat. Golem.de sprach mit CEO Darius Pajouh und Henriette Humprecht, Head of Business Operations, über Technik und Anwendungsfälle ihrer persistenten AR Cloud.

Golem.de: Herr Pajouh, was ist die Geschäftsidee von Visualix?

Darius Pajouh: Wir haben eine Indoor-Location-Technologie entwickelt, die zentimetergenau ist und ohne Beacons oder Marker auskommt. Daraus ergeben sich viele Anwendungen im Bereich Augmented Reality und Asset Tracking in den Industriezweigen Logistik, Retail und Manufacturing. Unsere Lösung für 3D-Mapping und 3D-Positionierung erlaubt es, mit einem gängigen Smartphone einen Bereich einzuscannen und daraus ein 3D-Modell zu erzeugen, das in verschiedenen Fällen zum Einsatz kommen kann.

Golem.de: Welche Anwendungsfälle sind das?

Pajouh: Der erste ist 'Augmented Reality at Scale': Nachdem wir das 3D-Modell erzeugt haben, können wir in das Modell augmentierte Inhalte einfügen. Der zweite Anwendungsfall ist Asset Tracking - also zum Beispiel die genaue Positionsbestimmung eines Gabelstaplers in einer Lagerhalle. Das ist sehr wichtig für Logistik und für die Optimierung von Picking.

Im dritten Use Case nutzen wir die 3D Point Cloud als Basis für Raumplanung. Beispielsweise möchten eine Maschinenbaufirma und ihr Kunde herausfinden, ob eine Maschine in einen bestimmten Raum passt. Sie können ihr eigenes 3D-Modell in diese Point Cloud einfügen, um den Kunden zu zeigen: Schaut mal, unsere Maschine passt genau da rein. Oder: Ihr müsst das und das abbauen, damit die Maschine da reinpasst.

Golem.de: Wie wird diese 3D Point Cloud erzeugt?

Pajouh: Wir kombinieren das Beschleunigungs- und das Gyroskop-Signal eines Smartphones mit dem visuellen Input. Was wir machen, ist erst ab ARKit 2 möglich, weil es relatives Tracking beherrscht. Wir nutzen das relative Tracking und erstellen dann aus den gestreamten Bildinformationen die 3D Point Cloud auf dem Server. Für das Smartphone selbst wäre das viel zu rechenintensiv.

ARKit 2 hat zwar eine Lösung für die 3D Point Cloud, die sich aber nicht für diesen Anwendungsfall eignet. Aber wenn man wirklich Mapping und Lokalisierung betreiben will, besonders mit großen Abständen, dann braucht man eine Lösung mit starken GPUs dahinter. Und da kommen wir ins Spiel. Wir nutzen ARKit für das relative Tracking, verwenden also das Beschleunigungs- und das Gyroskop-Signal.

Außerdem nutzen wir den visuellen Input des Smartphones. Jedes Bild ist mit Euler-Winkeln und der relativen Position aus der aufgenommenen Session versehen. Wir kombinieren dann die Bilder und die Signale, das Verfahren nennt sich Visual-Inertial Slam. Auf dem Server machen wir die ganze schwere Arbeit, zum Beispiel Loop Closure und Bundle Adjustment, um die Genauigkeit der Punktwolke zu optimieren.

Golem.de: Worum geht es da?

Pajouh: Wenn ich hier im Kreis um den Messestand gehe, ihn einscannen und wieder an den Anfang zurückkomme, ist das Modell möglicherweise verschoben. Dann ist die Ausgangsposition nicht gleich der Endposition. Das liegt am Drift: Der Accelerator des Smartphones ist nicht perfekt, nach 30 oder 40 Metern ist es nicht mehr synchron und weicht einen halben oder einen ganzen Meter ab. Unsere Lösung schließt den Kreis und optimiert die Genauigkeit auf großen Distanzen.

Golem.de: Funktioniert das auch unter freiem Himmel?

Pajouh: Das ist indoor und outdoor möglich. In der Dämmerung funktioniert es auch. Für die Nacht sind in naher Zukunft Tests geplant.

Golem.de: Wo liegt die Grenze beim Outdoor-Scanning?

Pajouh: Bisher haben wir die Lösung bei einer Ortungsdistanz von rund 15 Metern getestet. Die Abweichung liegt bisher bei einem Prozent, bei 50 Metern Entfernung beträgt sie also 50 Zentimeter. Da ist natürlich akzeptabel, wenn man zum Beispiel Häuser augmentieren will.

Golem.de: Ist das Verfahren auch für Navigationslösungen geeignet?

Henriette Humprecht: Ja. Bei unseren ersten zahlenden Kunden ist das auch der erste Anwendungsfall.

Golem.de: Klingt nach einer guten Basis für Outdoor-Games ...

Humprecht: Bei bisherigen Outdoor-Games - etwa bei Pokémon Go - basierte die Location Information auf GPS. Mit einer Genauigkeit von plus 5 Metern lassen sich daraus jedoch keine Shared Experiences machen. Aber mit unserer Technologie könnten alle User wirklich dasselbe Pokémon an derselben Stelle sehen.

Golem.de: Arbeitet ihr auch an Spielen?

Humprecht: Das war schon Thema bei uns, denn wir hatten Kontakt zu potenziellen Kunden aus dem Social-Gaming-Bereich. Games wären schon sehr spannend für uns. Unser Fokus liegt jedoch im Unternehmenssegment, da in Deutschland einfach der Kundenstamm sehr gut vertreten ist.

Viele Kunden sind sehr an Indoor Navigation interessiert

Golem.de: Welcher der drei Anwendungsfälle (Augmented Reality at Scale, Asset Tracking, Point-Cloud-Visualisierung) ist für Sie am wichtigsten?

Humprecht: Aus der Kommunikation mit Kunden haben wir gelernt, dass viele sehr an Indoor Navigation interessiert sind. Unser Vorteil gegenüber der Konkurrenz ist, dass wir keine spezielle Hardware benötigen. Wir brauchen keine Marker oder Beacons - und sind zentimetergenau.

Golem.de: Werden damit Beacons im Einzelhandel obsolet?

Humprecht: Auf lange Sicht schon. Wir hatten ein Pilotprojekt bei einem großen Elektronikmarkt. Als Kunde betritt man den Laden, wählt aus einer Liste das gewünschte Produkt - zum Beispiel einen Fernseher - und die Navigationspfeile führen einen dann zu diesem Produkt. Vor Ort erhält man dann auch zusätzliche Produktinformationen und kann auch gleich die Kaufentscheidung treffen.

Golem.de: Wird die nächste Generation von Smartphones Dinge können, die Ihrem Verfahren zugutekommen?

Pajouh: Unser Server benötigt etwa die 500-fache Rechenleistung eines modernen iPhones. Den Backend-Server werden wir also erst mal nicht ersetzen können. Für uns wäre eine 5G-Infrastruktur sehr hilfreich, da hier Latenzen minimiert werden könnten.

Golem.de: Experten betonen, wie wichtig eine globale, persistente AR Cloud wäre. Wie weit sind wir davon noch entfernt?

Pajouh: Es wird erstmal nicht DIE globale AR Cloud geben. Zunächst werden sich anwendungsspezifische AR Clouds entwickeln, die in der Zukunft zusammengefügt werden können. Im öffentlichen Bereich kann es auch mehrere AR Clouds geben, die gleichzeitig nebeneinander existieren. Andere Startups arbeiten gerade daran, dafür einen visuellen AR-Browser zu einwickeln.



Anzeige
Top-Angebote
  1. (u. a. Inno3D Geforce RTX 2070 X2 OC für 399,00€, Zotac Gaming Geforce RTX 2080 AMP Extreme...
  2. 199,90€ (Bestpreis!)
  3. ab 794,99€ und damit günstiger als bei Apple (Release am 20.09.)
  4. ab 1.144,99€ und damit günstiger als bei Apple (Release am 20.09.)

quineloe 29. Okt 2018

Ich dachte, dadurch dass die Pokemon serverseitig kontrolliert werden ist doch genau das...


Folgen Sie uns
       


Asus Studiobook Pro X (Ifa 2019)

Das Studiobook Pro X ist mit Xeon-Prozessor, Quadro GPU und einem Preis von 4300 Euro eindeutig auf professionelle Anwender ausgerichtet.

Asus Studiobook Pro X (Ifa 2019) Video aufrufen
Mobile-Games-Auslese: Superheld und Schlapphutträger zu Besuch im Smartphone
Mobile-Games-Auslese
Superheld und Schlapphutträger zu Besuch im Smartphone

Markus Fenix aus Gears of War kämpft in Gears Pop gegen fiese (Knuddel-)Aliens und der Typ in Tombshaft erinnert an Indiana Jones: In Mobile Games tummelt sich derzeit echte und falsche Prominenz.
Von Rainer Sigl

  1. Mobile-Games-Auslese Verdrehte Räume und verrückte Zombies für unterwegs
  2. Dr. Mario World im Test Spielspaß für Privatpatienten
  3. Mobile-Games-Auslese Ein Wunderjunge und dreimal kostenloser Mobilspaß

TVs, Konsolen und HDMI 2.1: Wann wir mit 8K rechnen können
TVs, Konsolen und HDMI 2.1
Wann wir mit 8K rechnen können

Ifa 2019 Die Ifa 2019 ist bezüglich 8K nüchtern. Wird die hohe Auflösung wie 4K fast eine Dekade lang eine Nische bleiben? Oder bringen kommende Spielekonsolen und Anschlussstandards die Auflösung schneller als gedacht?
Eine Analyse von Oliver Nickel

  1. Kameras und Fernseher Ein 120-Zoll-TV mit 8K reicht Sharp nicht
  2. Sony ZG9 Erste 8K-Fernseher werden bald verkauft
  3. 8K Sharp schließt sich dem Micro-Four-Thirds-System an

Sonos Move im Test: Der vielseitigste Lautsprecher von Sonos
Sonos Move im Test
Der vielseitigste Lautsprecher von Sonos

Der Move von Sonos überzeugt durch Bluetooth und ist dank Akku und stabilem Gehäuse vorzüglich für den Außeneinsatz geeignet. Bei den Funktionen ist der Lautsprecher leider nicht so smart wie er sein könnte.
Ein Test von Ingo Pakalski

  1. Update für Multiroom-Lautsprecher Sonos-App spielt keine lokalen Inhalte mehr vom iPhone ab
  2. Smarter Lautsprecher Erster Sonos-Lautsprecher mit Akku und Bluetooth
  3. Soundbars Audiohersteller Teufel investiert in eigene Ladenkette

    •  /