Abo
  • IT-Karriere:

Augmented Reality: Das AR-Fabrikgelände aus dem Smartphone

Derzeit ist viel von einer Augmented Reality Cloud die Rede. Golem.de hat mit dem Berliner Startup Visualix über den Stand der Technik und künftige Projekte für Unternehmenskunden gesprochen - und darüber, was die Neuerungen für Pokémon Go bedeuten könnten.

Ein Interview von veröffentlicht am
Darius Pajouh, Mitgründer und CEO, Henriette Humprecht, Head of Business Operations und Michael Bucko, Mitgründer und CTO  (v.l.n.r.)
Darius Pajouh, Mitgründer und CEO, Henriette Humprecht, Head of Business Operations und Michael Bucko, Mitgründer und CTO (v.l.n.r.) (Bild: Visualix/Steve Bergmann)

Eine Zeit lang wurde Augmented Reality von Medien und Nutzern vor allem mit Pokémon Go assoziiert. Der Hype ist inzwischen abgeebbt, AR-Entwickler widmen sich ohnehin eher praktischen Anwendungsformen der Technologie. Der nächste große Schritt könnte eine AR Cloud sein, die komplette Geo-Informationen weltweit bereitstellt: Ein Gitter, an das AR-Anwendungen zum Beispiel über Smartphones andocken können.

Stellenmarkt
  1. Melitta Professional Coffee Solutions GmbH & Co. KG, Minden
  2. Süwag Energie AG, Frankfurt am Main

Tatsächlich sind wir von einer Realisierung der AR Cloud noch weit entfernt. Doch Startups tüfteln bereits an entsprechenden Lösungen auf lokaler Ebene. Zum Beispiel die Firma Visualix aus Berlin, die im März 2018 gegründet wurde und derzeit zwölf Mitarbeiter hat. Golem.de sprach mit CEO Darius Pajouh und Henriette Humprecht, Head of Business Operations, über Technik und Anwendungsfälle ihrer persistenten AR Cloud.

Golem.de: Herr Pajouh, was ist die Geschäftsidee von Visualix?

Darius Pajouh: Wir haben eine Indoor-Location-Technologie entwickelt, die zentimetergenau ist und ohne Beacons oder Marker auskommt. Daraus ergeben sich viele Anwendungen im Bereich Augmented Reality und Asset Tracking in den Industriezweigen Logistik, Retail und Manufacturing. Unsere Lösung für 3D-Mapping und 3D-Positionierung erlaubt es, mit einem gängigen Smartphone einen Bereich einzuscannen und daraus ein 3D-Modell zu erzeugen, das in verschiedenen Fällen zum Einsatz kommen kann.

Golem.de: Welche Anwendungsfälle sind das?

Pajouh: Der erste ist 'Augmented Reality at Scale': Nachdem wir das 3D-Modell erzeugt haben, können wir in das Modell augmentierte Inhalte einfügen. Der zweite Anwendungsfall ist Asset Tracking - also zum Beispiel die genaue Positionsbestimmung eines Gabelstaplers in einer Lagerhalle. Das ist sehr wichtig für Logistik und für die Optimierung von Picking.

Im dritten Use Case nutzen wir die 3D Point Cloud als Basis für Raumplanung. Beispielsweise möchten eine Maschinenbaufirma und ihr Kunde herausfinden, ob eine Maschine in einen bestimmten Raum passt. Sie können ihr eigenes 3D-Modell in diese Point Cloud einfügen, um den Kunden zu zeigen: Schaut mal, unsere Maschine passt genau da rein. Oder: Ihr müsst das und das abbauen, damit die Maschine da reinpasst.

Golem.de: Wie wird diese 3D Point Cloud erzeugt?

Pajouh: Wir kombinieren das Beschleunigungs- und das Gyroskop-Signal eines Smartphones mit dem visuellen Input. Was wir machen, ist erst ab ARKit 2 möglich, weil es relatives Tracking beherrscht. Wir nutzen das relative Tracking und erstellen dann aus den gestreamten Bildinformationen die 3D Point Cloud auf dem Server. Für das Smartphone selbst wäre das viel zu rechenintensiv.

ARKit 2 hat zwar eine Lösung für die 3D Point Cloud, die sich aber nicht für diesen Anwendungsfall eignet. Aber wenn man wirklich Mapping und Lokalisierung betreiben will, besonders mit großen Abständen, dann braucht man eine Lösung mit starken GPUs dahinter. Und da kommen wir ins Spiel. Wir nutzen ARKit für das relative Tracking, verwenden also das Beschleunigungs- und das Gyroskop-Signal.

Außerdem nutzen wir den visuellen Input des Smartphones. Jedes Bild ist mit Euler-Winkeln und der relativen Position aus der aufgenommenen Session versehen. Wir kombinieren dann die Bilder und die Signale, das Verfahren nennt sich Visual-Inertial Slam. Auf dem Server machen wir die ganze schwere Arbeit, zum Beispiel Loop Closure und Bundle Adjustment, um die Genauigkeit der Punktwolke zu optimieren.

Golem.de: Worum geht es da?

Pajouh: Wenn ich hier im Kreis um den Messestand gehe, ihn einscannen und wieder an den Anfang zurückkomme, ist das Modell möglicherweise verschoben. Dann ist die Ausgangsposition nicht gleich der Endposition. Das liegt am Drift: Der Accelerator des Smartphones ist nicht perfekt, nach 30 oder 40 Metern ist es nicht mehr synchron und weicht einen halben oder einen ganzen Meter ab. Unsere Lösung schließt den Kreis und optimiert die Genauigkeit auf großen Distanzen.

Golem.de: Funktioniert das auch unter freiem Himmel?

Pajouh: Das ist indoor und outdoor möglich. In der Dämmerung funktioniert es auch. Für die Nacht sind in naher Zukunft Tests geplant.

Golem.de: Wo liegt die Grenze beim Outdoor-Scanning?

Pajouh: Bisher haben wir die Lösung bei einer Ortungsdistanz von rund 15 Metern getestet. Die Abweichung liegt bisher bei einem Prozent, bei 50 Metern Entfernung beträgt sie also 50 Zentimeter. Da ist natürlich akzeptabel, wenn man zum Beispiel Häuser augmentieren will.

Golem.de: Ist das Verfahren auch für Navigationslösungen geeignet?

Henriette Humprecht: Ja. Bei unseren ersten zahlenden Kunden ist das auch der erste Anwendungsfall.

Golem.de: Klingt nach einer guten Basis für Outdoor-Games ...

Humprecht: Bei bisherigen Outdoor-Games - etwa bei Pokémon Go - basierte die Location Information auf GPS. Mit einer Genauigkeit von plus 5 Metern lassen sich daraus jedoch keine Shared Experiences machen. Aber mit unserer Technologie könnten alle User wirklich dasselbe Pokémon an derselben Stelle sehen.

Golem.de: Arbeitet ihr auch an Spielen?

Humprecht: Das war schon Thema bei uns, denn wir hatten Kontakt zu potenziellen Kunden aus dem Social-Gaming-Bereich. Games wären schon sehr spannend für uns. Unser Fokus liegt jedoch im Unternehmenssegment, da in Deutschland einfach der Kundenstamm sehr gut vertreten ist.

Viele Kunden sind sehr an Indoor Navigation interessiert

Golem.de: Welcher der drei Anwendungsfälle (Augmented Reality at Scale, Asset Tracking, Point-Cloud-Visualisierung) ist für Sie am wichtigsten?

Humprecht: Aus der Kommunikation mit Kunden haben wir gelernt, dass viele sehr an Indoor Navigation interessiert sind. Unser Vorteil gegenüber der Konkurrenz ist, dass wir keine spezielle Hardware benötigen. Wir brauchen keine Marker oder Beacons - und sind zentimetergenau.

Golem.de: Werden damit Beacons im Einzelhandel obsolet?

Humprecht: Auf lange Sicht schon. Wir hatten ein Pilotprojekt bei einem großen Elektronikmarkt. Als Kunde betritt man den Laden, wählt aus einer Liste das gewünschte Produkt - zum Beispiel einen Fernseher - und die Navigationspfeile führen einen dann zu diesem Produkt. Vor Ort erhält man dann auch zusätzliche Produktinformationen und kann auch gleich die Kaufentscheidung treffen.

Golem.de: Wird die nächste Generation von Smartphones Dinge können, die Ihrem Verfahren zugutekommen?

Pajouh: Unser Server benötigt etwa die 500-fache Rechenleistung eines modernen iPhones. Den Backend-Server werden wir also erst mal nicht ersetzen können. Für uns wäre eine 5G-Infrastruktur sehr hilfreich, da hier Latenzen minimiert werden könnten.

Golem.de: Experten betonen, wie wichtig eine globale, persistente AR Cloud wäre. Wie weit sind wir davon noch entfernt?

Pajouh: Es wird erstmal nicht DIE globale AR Cloud geben. Zunächst werden sich anwendungsspezifische AR Clouds entwickeln, die in der Zukunft zusammengefügt werden können. Im öffentlichen Bereich kann es auch mehrere AR Clouds geben, die gleichzeitig nebeneinander existieren. Andere Startups arbeiten gerade daran, dafür einen visuellen AR-Browser zu einwickeln.



Anzeige
Spiele-Angebote
  1. 1,12€
  2. 1,19€
  3. 4,99€
  4. 2,19€

quineloe 29. Okt 2018

Ich dachte, dadurch dass die Pokemon serverseitig kontrolliert werden ist doch genau das...


Folgen Sie uns
       


Bose Frames im Test

Die Sonnenbrille Frames von Bose hat integrierte Lautsprecher, die den Träger mit Musik beschallen können. Besonders im Straßenverkehr ist das offene Konzept praktisch.

Bose Frames im Test Video aufrufen
In eigener Sache: Neue Workshops zu agilem Arbeiten und Selbstmanagement
In eigener Sache
Neue Workshops zu agilem Arbeiten und Selbstmanagement

Wir haben in unserer Leserumfrage nach Wünschen für Weiterbildungsangebote gefragt. Hier ist das Ergebnis: Zwei neue Workshops widmen sich der Selbstorganisation und gängigen Fehlern beim agilen Arbeiten - natürlich extra für IT-Profis.

  1. In eigener Sache ITler und Board kommen zusammen
  2. In eigener Sache Herbsttermin für den Kubernetes-Workshop steht
  3. Golem Akademie Golem.de startet Angebote zur beruflichen Weiterbildung

iPad OS im Test: Apple entdeckt den USB-Stick
iPad OS im Test
Apple entdeckt den USB-Stick

Zusammen mit iOS 13 hat Apple eine eigene Version für seine iPads vorgestellt: iPad OS verbessert die Benutzung als Tablet tatsächlich, ein Notebook-Ersatz ist ein iPad Pro damit aber immer noch nicht. Apple bringt aber endlich Funktionen, die wir teilweise seit Jahren vermisst haben.
Ein Test von Tobias Költzsch

  1. Tablets Apple bringt neues iPad Air und iPad Mini
  2. Eurasische Wirtschaftskommission Apple registriert sieben neue iPads
  3. Apple Es ändert sich einiges bei der App-Entwicklung für das iPad

Radeon RX 5700 (XT) im Test: AMDs günstige Navi-Karten sind auch super
Radeon RX 5700 (XT) im Test
AMDs günstige Navi-Karten sind auch super

Die Radeon RX 5700 (XT) liefern nach einer Preissenkung vor dem Launch eine gute Leistung ab: Wer auf Hardware-Raytracing verzichten kann, erhält zwei empfehlenswerte Navi-Grafikkarten. Bei der Energie-Effizienz hapert es aber trotz moderner 7-nm-Technik immer noch etwas.
Ein Test von Marc Sauter

  1. Navi 14 Radeon RX 5600 (XT) könnte 1.536 Shader haben
  2. Radeon RX 5700 (XT) AMD senkt Navi-Preise noch vor Launch
  3. AMD Freier Navi-Treiber in Mesa eingepflegt

    •  /