Zum Hauptinhalt Zur Navigation

Big Data: Daten sind wie Baumwolle

Google tut es, Bisnode tut es auch und Facebook erst recht: Sie verdienen Geld mit den Informationen ihrer Nutzer. Viele andere Unternehmen wissen dagegen gar nicht, wie sie ihre Daten verwerten sollen. Sie sollten Daten wie Baumwolle betrachten.
/ Alexander Löser
47 Kommentare News folgen (öffnet im neuen Fenster)
Computeranlagen in der Schweiz (Bild: Fabrice Coffrini/AFP/Getty Images)
Computeranlagen in der Schweiz Bild: Fabrice Coffrini/AFP/Getty Images

Baumwolle anbauen und pflücken, das Design entwerfen, weben, Shops beliefern und die Sachen verkaufen: Bekleidungshersteller wissen seit vielen Jahren, wie sie eine Wertschöpfung mit Naturprodukten erzielen können. Die Unternehmen wandeln vorhandene Güter in wertvollere um. Was viele Unternehmer noch nicht verstanden haben: Diese Wertschöpfung funktioniert nicht nur mit Naturprodukten, sondern auch digital. Daten lassen sich genauso umwandeln. Für die Datenwertschöpfung gibt es mehrere Modelle.

Seit vielen Jahren speichern Unternehmen im Rahmen der gesetzlichen Möglichkeiten Rohdaten. Einerseits oft aus Gründen der Nachweispflicht wie Mobilfunkprovider(öffnet im neuen Fenster) , andererseits aber oft auch mit der Hoffnung, einen Informationsvorsprung gegenüber den Mitbewerbern zu erhalten, neue Geschäftsmodelle früh zu erkennen und industrielle Prozesse zu verbessern.

Dieser Trend wird verstärkt durch neue Technologien wie zum Beispiel das Apache Projekt Hadoop oder Distributions von Cloudera, IBM, Hortonworks oder MAPR. Sie ermöglichen es den Unternehmen, Massen an Transaktionsdaten vorzuhalten und zu verarbeiten – zu teilweise viel geringeren Kosten als beispielsweise mit herkömmlichen verteilten RDBMS.

Diese Technologien erleichtern es Unternehmen, die Grundlagen für ihre Geschäfte zu verbessern, beispielsweise zeitnah und genau zu verstehen, was der Kunde will. Datengetriebene Technologien helfen Unternehmen, noch mehr Kunden (idealerweise n=alle), noch genauer einen Kunden (n=1) und noch zeitnaher (jetzt) das Bedürfnis des Kunden zu verstehen. Bekannte Dienste für das Messen von Kundenverhalten im Web sind Google Analytics, Alexa.com, Nugg.ad oder Zanox.

Data Scientists und Unternehmensexperten müssen zusammenarbeiten

Noch benötigen Unternehmen die – gefühlt 100.000 zusätzlichen – Data Scientists, um die vielen in der Vergangenheit gewachsenen Datensilos aus der Digitalisierung zu integrieren und auszuwerten. Diese Data Scientists werden häufig als Mittler benötigt, um für die "Jedermanns", also die Prozesseigner, Marktforscher und Kaufleute, die Augen zu sein.

Oft haben diese Domänenexperten zwar viel Erfahrung oder ein Bauchgefühl dafür, welche betriebswirtschaftlichen Muster relevant sein können. Es fehlt ihnen aber an der Fähigkeit, diese Muster zu formalisieren, die Daten zu integrieren und systematisch Muster in einem iterativen Data-Mining-Prozess abzuleiten. Data Scientists wiederum haben zwar hohe Fähigkeiten in der Verarbeitung von (Roh-) Daten und im Mining von Mustern. Oft fehlt ihnen aber genau das über Jahre gesammelte Erfahrungswissen der etablierten Experten im Unternehmen.

Die nächsten Jahre werden zeigen, welche Unternehmen diesen Prozess des Wechsels zu interdisziplinären Teams am besten bei der Entscheidungsfindung umsetzen können. Idealerweise sind die Teams aus erfahrenen Mitarbeitern der alten Schule und aus Mitarbeitern mit einer datengetriebenen Sicht zusammengesetzt. Doch nicht in allen Unternehmen gibt es Data Scientists.

Arbeitskräfte sparen, Ressourcen besser nutzen

Eine kurzfristige Option ist es für Unternehmen, Data Scientists über Wettbewerbsplattformen wie Kaggle.com zu mieten. Hier können Unternehmen die Lösung von Optimierungsproblemen in einem breiten Wettbewerb ausschreiben. Ein weltweites Publikum von Data Scientists wetteifert dann im Rahmen einer Zeitspanne um die beste Lösung. Auf mittlere und lange Sicht wird bessere datenverarbeitende Technologie dann den Jedermanns helfen, auch ohne den Data Scientist die nützlichen Muster zu erkennen.

Sind die Muster erkannt, kann in verschiedenen Bereichen optimiert werden. Die Wichtigsten sind: das Erkennen des Bedürfnisses des Kunden, der Einsatz von menschlicher Arbeitskraft, der Einsatz natürlicher Ressourcen und die Optimierung bei der Entwicklung von Technologien.

Neue Berufsbilder entstehen, andere verschwinden

Datengetriebene Verfahren machen Routinetätigkeiten teilweise obsolet oder verlagern die Tätigkeit auf die Kunden (B2C). Eine Software für die Steuererstellung ersetzt zum Beispiel den teuren Berater. Kunden kaufen Bekleidung und Bücher über das Web, die Beratung wird so auf unser Freunde-Netzwerk verlagert. Mittels Onlinebanken informieren sich Kunden selbst über die besten Kurse.

Auch B2B, also zwischen Unternehmen, werden datenbasierte Technologien verwendet, beispielsweise im Supply Chain Management, in der Produktwartung und im Vertrieb. So werden etwa die Fragen beantwortet: Welche Lieferkette müssen die Mitarbeiter demnächst optimieren? Fällt der OP-Saal eventuell bald aus und muss durch teure Spezialisten repariert werden? Welcher Kunde wird unser Produkt wahrscheinlich kaufen und benötigt noch Hilfe durch teure Experten im Sales Team?

Dadurch entstehen neue Berufsbilder, und andere verschwinden. Beispielweise werden derzeit verstärkt gerade Data Scientists gesucht, die Spezialisten im Unternehmen im Vertrieb, Einkauf, dem Controlling oder der Logistik unterstützen. Nicht immer ist der Arbeitsmarkt elastisch genug, allen Berufsbildern eine neue Perspektive zu bieten.

Infrastrukturen werden besser genutzt

Durch Analyse vorhandener Daten können auch natürliche Ressourcen, etwa die Infrastrukturen des Landes, die Natur und die Energie besser genutzt werden. Ein typisches Beispiel ist die optimale Platzierung von Windkraftwerken. Wo? Wie hoch? Wie viel Energie pro Stunde? Ein anderes Beispiel sind Dienste zur besseren Planung der Kapazität in der Logistik und einer häufig damit verbundenen Preisoptimierung.

Dazu gehören auch neue Mietmodelle für Autos. Diese bieten Mobilität als Dienstleistung an. Der Kunde besitzt kein Auto mehr, das 90 Prozent der Zeit ungenutzt bleibt, sondern mietet ein Nutzungsrecht an einer gut ausgenutzten Autoflotte. Im Idealfall würden in Zukunft weniger Autos die gleiche Logistikdienstleistung ermöglichen, wie sie derzeit erreicht wird.

Data Mining ermöglicht Einsparungen bei der Produktion von Technik

Früher benötigten Datenbanken noch teure Spezialisten – ähnlich den Data Scientists heute. Heutzutage optimieren sich Datenbanken von selbst. Sie beobachten dazu die eigenen Daten und ihr Verhalten mit dem Ziel, eine Anfrage in möglichst kurzer Zeit auszuführen. Viele Projekte in der Softwareentwicklung oder im Bereich der semantischen Technologien versuchen ebenfalls, menschliche Routinetätigkeiten bei der Programmierung zu automatisieren. Durch die Optimierung bei der Technologieentwicklung kann die Technologie kostengünstiger produziert werden.

Doch die Möglichkeit, bisher getrennt betrachteten Daten aus Silos neu zu kombinieren, erbringt nicht immer pünktlich zum nächsten Quartalsbericht eine Wertschöpfung für das Unternehmen. Erst die ökonomische Bewertung der schier unendlichen Möglichkeiten der Datenrekombination kann, in oft mühevoller Kleinarbeit, eine Marktnische oder eine Möglichkeit der Prozessoptimierung offenbaren.

Das Paradigma "The Winner takes all" ist dabei besonders wichtig: Daten sind erst nach der mühevollen Anfertigung der ersten Kopie leicht kopierbar. Nur derjenige, der als Erster den Geschäftsprozess dann auch wirklich umsetzt, gewinnt. Für die Umsetzung ist aber immer wieder die Fähigkeit des mutigen und schnellen Unternehmers gefragt, der nicht unbedingt der Data Scientist ist. Er muss Feedbackschleifen mit dem Kunden drehen und die Idee im Immunsystem des Unternehmens durchboxen, das ja häufig Innovationen zunächst eher als störend empfindet und ablehnt. Oft sind kleinere Unternehmen und Startups dabei flexibler und können schneller aus Fehlern lernen.

Die Überraschungen werden weniger

Datenanalyse kann Unternehmern helfen, das Risiko für die Zukunft zu minimieren. Das bedeutet aber auch möglicherweise: weniger Varianz, weniger Überraschungen. Das heißt auch für die zukünftige Generation an Informatikern, dass sie mehr Verantwortung bei der Anwendung der neuen Werkzeuge übernehmen und die Grenzen der Datenanalyse gut erkennen. Und dass wir gesellschaftliche und politische Rahmenbedingungen für die empirische Datenauswertung und Forschung bereitstellen müssen. Schaffen wir diese Rahmenbedingungen nicht, werden die Menschen eventuell das Vertrauen verlieren und sehr wahrscheinlich ihre Daten nicht mehr bereitstellen.

Dies ist der erste von drei Beiträgen, die sich mit wichtigen Fragestellungen zu Big oder Smart Data beschäftigen. Sie beleuchten die Frage, wie Datenwertschöpfungsketten aufgestellt werden, die von exklusiven Informationen profitieren. Dieser Informationsvorsprung ermöglicht den Unternehmen die Einführung neuer Geschäftsmodelle und die Revolutionierung industrieller Prozesse noch vor den Mitbewerbern. Diese forschungsintensive Zielstellung trifft auf eine hohe Nachfrage, nicht nur bei industriellen Anwendern am Standort Deutschland. Der nächste Beitrag wird sich mit den erheblichen Kosten für die Umsetzung exklusiver Muster in Geschäftsideen mit teilweise beträchtlichem Aufwand im Wechsel der Unternehmenskultur und mit Kosten in den einzelnen Prozessen beschäftigen.

Über den Autor: Prof. Dr.-Ing. habil. Alexander Löser lehrt und forscht an der Beuth-Hochschule für Technik in Berlin im Fachgebiet Datenbanken und textbasierte Informationssysteme (DATEXIS)(öffnet im neuen Fenster) . Mit seinen Kollegen vertritt er dort auch den Forschungs- und Lehrschwerpunkt Data Science(öffnet im neuen Fenster) . Er berät Konzerne und mittelständische Unternehmen, das BMWi sowie die EU zum Thema "Digitale Wertschöpfung". Sein aktueller Forschungsschwerpunkt ist das In-Database-Text-Mining.


Relevante Themen