Microsoft Azure Solution Summit: Microsoft entwirrt die Cloud

Was Microsoft auf seinem Azure Solution Summit (öffnet im neuen Fenster) am 27. und 28.9. als Innovationen präsentiert hat, zeigt drei wesentliche Strategien: Alles soll in die Azure Cloud, KI wird überall integriert und die vielen Einzelfunktionen sollen zu einem großen Gesamtkonzept vereinigt werden.
Gerade letzteres ist auch dringend nötig, denn der ewige Kampf, den Microsoft mit sich selbst führt, besteht aus zu vielen Einzelfunktionen, zu vielen verwirrenden Namen, zu wenig Einheitlichkeit und viel zu wenig Beständigkeit. Die Ursache liegt in zahlreichen Zukäufen und separat angestoßenen Entwicklungen, bei denen erst später entschieden wird, wie diese strategisch in ein Konzept gebettet werden - und das kann viele Jahre dauern.
Microsoft Fabric soll bekannte Funktionen vereinheitlichen
Aktuell wird Microsoft Fabric (öffnet im neuen Fenster) eingeführt, das eine Vereinheitlichung schon bekannter Funktionen wie Azure Synapse, Azure Data Factory, Power BI darstellt und darauf abzielt, große Datenmengen auf Enterprise Level zu speichern und zu verarbeiten. Analog zum Begriff Onedrive, der im Office-Bereich für einen universellen Datenspeicher steht, wird für Azure Fabric hier Onelake eingeführt. Darauf sollen alle weiteren Funktionen homogen aufsetzen und andere etablierte Begriffe wie Event Grid oder Synapse ersetzen oder verdrängen.
Wann Fabric als unternehmensweiter Cloud-Speicher für Analysedaten in Deutschland voll verfügbar wird, ist noch offen. In der EU steht die Funktion bisher nur für Kunden in Belgien zur Verfügung und befindet sich ansonsten noch in einer Preview mit eingeschränkten Möglichkeiten.
SaaS statt PaaS
Bislang ist Microsoft dringend auf Partner angewiesen, die Kunden beraten, wie sie die funktionale Vielfalt wirklich sinnvoll nutzen können. Das wird sich auch in naher Zukunft sicherlich nicht ändern, wenngleich Microsoft vom Image des Plattformanbieters wegkommen will.
Das bisherige Plattform-as-a-Service-Konzept (PaaS) soll durch Software as a Service (SaaS) ersetzt werden. Dabei wird eine Abstraktionsebene auf den Unterbau gepackt. Kunden müssen sich so nicht darum kümmern, welche Server und Container die von ihnen geforderten Aufgaben erfüllen und wie diese untereinander zusammenspielen, um das Gewünschte zu erreichen.
Das zeigt sich auch in Windows 365 als Cloud-PC-Lösung(öffnet im neuen Fenster) . Sie ist als einfache, aber weniger flexible Alternative zu Azure Desktop gestartet, könnte diese aber langfristig ersetzen. Windows 365 bedarf keinerlei Wissen über zugrundeliegende Server und lässt sich einfacher verwalten.
Microsoft kommt damit auf das früher verbreitete Konzept von Thin Clients und großen Mainframe-Rechnern zurück, nur dass jetzt nicht ein großer Zentralserver die Dienste bereitstellt, sondern eine ganze Cloud-Infrastruktur. Der Desktop läuft in dieser Cloud und der Zugriff ist von verschiedensten Betriebssystemen aus möglich, die selbst nicht mehr tun müssen, als die Interaktion mit der Cloudinfrastruktur zu realisieren.
Ob sich das auf Dauer bewährt, bleibt abzuwarten. Seit Anbeginn der Computer gab es immer wieder ein Hin und Her, zwischen Thin-Client- und Thick-Client-Paradigma. Microsoft selbst ist als Firma mit dem erklärten Ziel gestartet, einen PC in jeden Haushalt zu bringen. Elementar für die Nutzung der Cloud-PCs ist eine omnipräsente Konnektivität, die wir in Deutschland im mobilen Bereich aber noch längst nicht erreicht haben - und genau daran könnte der Ansatz in der Praxis scheitern.
Endlich Anwendungsfälle für die Hololens
Interessant dabei ist, dass Microsofts eigene Hololens 2, sich zwar für einige Funktionen mit Cloud-Diensten verbindet, aber alle Kernfunktionen direkt im Gerät realisiert, das eigentlich ein Windows PC ist, den man auf dem Kopf trägt. Die zweite Version der Hololens hat einen deutlich besseren Tragekomfort als der Vorgänger und die gleiche beeindruckend stabile räumliche Orientierung des Gerätes in seiner Umgebung. Virtuelle Objekte, die man im Raum platziert hat, bleiben dort stabil, selbst wenn man den Bereich verlässt und später zurückkehrt.
Nachdem es für die erste Version der Hololens beim Start des Produktes noch kaum klare Anwendungsfälle gegeben hatte, existieren diese für den Nachfolger. Interaktive Tutorials ermöglichen die Interaktion mit realen Gegenständen, die mit graphischen Anweisungen überlagert werden. Daneben stehen vor allem Kollaborationsmöglichkeiten in Teams im Vordergrund, bei denen mehrere Nutzer mittels Hololens 2 in gemeinsamen virtuellen und augmentierten Räumen an Projekten arbeiten können.
Dabei erfüllt die Hololens 2(öffnet im neuen Fenster) genauso wenig wie viele Konkurrenzprodukte, sämtliche Wünsche und Anforderungen der Kunden ( Hands-on von Golem.de ). Erwartet wird hier eher, dass auch in den nächsten Jahren spezialisierte Virtual-Reality- und Augmented-Reality-Brillen die verschiedenen Nischen besetzt halten und je nach Bedarf zum Einsatz kommen.
Kommt eine Hololens 3?
Statt einer Hololens 3 könnten deshalb auch bei Microsoft eher verschiedene Spezialversionen - wie sie etwa beim Militär zum Einsatz kommen - einer verbesserten Hololens 2 folgen, um erfolgreichen Konkurrenten gezielt in spezifischen Bereichen entgegenzutreten.
Microsoft nutzt für die Brille konsequent den Begriff Mixed Reality und betont damit den Anspruch, verstärkt auf eine bidirektionale Interaktion zwischen realer und virtueller Welt hinzuarbeiten. Für Endverbraucher ist das Produkt mit gut 3.800 Euro (öffnet im neuen Fenster) nicht gedacht und deutlich zu teuer. Hier gibt es sinnvollere Optionen von Konkurrenten.
KI: Überall außer in der Hololens
Das große Thema KI, an dem aktuell niemand vorbeikommt, spiegelt sich bisher in der Hololens 2 kaum wider, dafür aber konsequent in allen anderen Bereichen. Mit den Investitionen in OpenAI (öffnet im neuen Fenster) hat sich Microsoft ein starkes Standbein gesichert und baut nun Funktionen von Large Language Models und weiteren KI-getriebenen Lösungen an allen Ecken und Enden in seine Produkte und Dienste ein.
Ursprünglich liefen viele KI-zentrierte Funktionen in Azure unter dem Begriff Cognitive Services. Inzwischen wurde dies teilweise umstrukturiert und umbenannt - ein weiteres Beispiel für das dynamische Wirrwarr bei Microsoft. Im Moment findet man unter der Rubrik Azure AI services, sowohl einige von früher bekannte Funktionen wie etwa die Speech Services, aber auch neue Funktionen und eben auch Azure OpenAI. Ein Zugriff ist noch nicht für alle Microsoft-Azure-Kunden direkt möglich und muss gesondert beantragt werden.
GPT und Dall-E für Unternehmen
Microsoft will hier Funktionalität wie GPT und Dall-E für Unternehmen verfügbar machen, mit passenden SLAs und der Zusicherung, dass verarbeitete Daten nicht in das Training zukünftiger KI Modelle einfließen und dadurch eventuell an Dritte exponiert werden. Die beeindruckenden neuen Funktionen von ChatGPT 4 , die von OpenAI für die nächsten Wochen angekündigt wurden und die Integration von gesprochener Sprache und Bildverstehen beinhalten, sind für die Azure-OpenAI-Dienste bislang nicht angekündigt, dürften aber irgendwann sicher folgen.
Unter der Bezeichnung Copilot(öffnet im neuen Fenster) baut Microsoft die Funktionalität von Azure OpenAI aktuell an vielen Stellen ein. Sie sollen Anwendern und Entwicklern ein integriertes Werkzeug an die Hand geben, um Aufgaben schneller lösen zu können. Insbesondere Github Copilot (öffnet im neuen Fenster) dient hier als leuchtendes Beispiel. Es soll die in IDEs integrierte Codevervollständigung auf eine völlig neue Ebene heben.
Chat with your own data!
In Kombination mit der Zielrichtung von Microsoft Fabric dienen die Azure-OpenAI-Funktionen dazu(öffnet im neuen Fenster) , den Bereich chat with your own data voranzutreiben. Statt manuell zu recherchieren oder SQL-Anfragen von Hand zu entwickeln, wird es damit möglich, natürlichsprachliche Anfragen an die eigene Datenbasis zu stellen, um schnell und gezielt Ergebnisse zu erhalten.
Notwendige SQL-Statements werden dabei im Hintergrund erzeugt und Visualisierungen automatisch umgesetzt. Noch ist vieles davon nur in speziellen Umsetzungen für einzelne Unternehmen realisiert, in Zukunft soll es aber für mehr Unternehmen einfacher zugänglich werden.
Dabei kommt zwar GPT zum Einsatz, allerdings werden Unternehmensdaten nicht direkt in das Large Language Model integriert, da der horrende Aufwand bezüglich Zeit und Kosten nicht darstellbar wäre. Soll GPT nicht nur per SQL-Schnittstelle auf einer Datenbank operieren, kann auch ein sogenanntes Embedding Model (öffnet im neuen Fenster) benutzt werden, das die Unternehmensdaten semantisch mit den GPT-Daten verknüpft und die Ergebnisse in einer Vektordatenbank ablegt. Diese dient dann bei Anfragen dazu, die spezifischen Unternehmensdaten GPT im Prompt mit zu übergeben, um es darauf arbeitsfähig zu machen. Hier gibt es allerdings noch keine schlüsselfertigen Lösungen und der ganze Technologiebereich ist gerade in einer hochdynamischen Entwicklung.
Ein durchaus beeindruckender, aber auch etwas irritierender Anwendungsfall, den Microsoft selbst in Einzelprojekten mit Businesskunden vorantreibt, ist der digitale Kollege, der Aufgaben von Menschen übernimmt.
Der digitale Kollege verbindet Cloud und Office
Hier zeigt sich der klare Vorteil von Microsoft gegenüber Konkurrenten. Microsoft hat nicht nur eine umfassende Cloudumgebung, sondern beherrscht auch die Welt der Officeanwendungen in vielen Unternehmen und verzahnt diese, um aus den Einzelteilen etwas Größeres zu erschaffen. Ein solcher digitaler Kollege kann damit nicht nur auf die zahlreichen Azure-Funktionen zugreifen, sondern ebenso auf die Microsoft-365-Welt. Alles, in diesem weiten Bereich lässt sich dadurch automatisieren. Das klappt umso besser, je umfassender Unternehmen ihre Daten und Funktionen bereits in Azure abgebildet haben.
Zwar betont Microsoft, dass es nicht darum gehe, Menschen zu ersetzen, sondern kooperativ mit diesen zusammenzuarbeiten und dem Fachkräftemangel entgegenzutreten. Vermutlich werden diese neuen Möglichkeiten aber dazu führen, dass Unternehmen versuchen, Kosten durch solche Lösungen einzusparen und es ist nicht unwahrscheinlich, dass künftig Team- und Abteilungsleiter weniger humane Ressourcen und vielmehr digitale Ressourcen unter sich haben könnten.
Digitale Industrialisierung
Was wir hier gerade erleben, ist somit nichts anderes als eine Form von digitaler Industrialisierung, bei der die Arbeitnehmerrechte ausgehebelt werden könnten, indem virtuelle Kollegen einspringen. Diese haben keine Stimme im Betriebsrat, streiken nicht, kündigen nicht, zahlen keine Sozialabgaben und werden nicht krank, sondern fallen allenfalls ab und zu aus und können dann leicht durch Redundanz ersetzt werden.
Microsoft ist hier zwar ein großer und gewichtiger Treiber, aber Amazon, Google, Apple und andere sind genauso in der Lage, ähnliche Funktionen in den nächsten Jahren zu etablieren, sodass man sich auch völlig unabhängig von Microsoft mit dem Thema auseinandersetzen muss. Für den Moment gilt sicherlich noch der wichtige Gedanke, dass Menschen derzeit nicht zwingend durch KI ersetzt werden, sondern durch einen Kollegen, der eine KI zu benutzen weiß. Ob das aber auf Dauer ein Mensch sein wird, diese Frage wird gern vermieden.
Denn auch Programme und KIs selbst können andere KI-Funktionen nutzen. Der Begriff, der hier auch bei Microsoft verwendet wird, lautet AI Orchestration(öffnet im neuen Fenster) . Er folgt der Strategie, aus vielen Einzelkomponenten etwas Abstraktes, Größeres zu bauen, das weit mehr ist als seine Einzelteile. AI Orchestration kombiniert - mehr oder minder automatisiert - verschiedene, heute noch oft getrennte KI-Funktionen zu einem Gesamtanwendungsfall und folgt damit dem Prinzip von SaaS. So wie heute große Fabrikationsanlagen schon weitgehend automatisiert funktionieren, können auch datengetriebene Produktionen künftig weitgehend automatisiert in der Cloud erfolgen.
Noch ist einiges davon Zukunftsmusik, aber die Trends sind klar und in wenigen Jahren werden wir deutlich sehen, wohin uns das führt.
Mathias Küfner(öffnet im neuen Fenster) hat an der Technischen Universtität München Informatik mit Nebenfach Psychologie studiert. Er koordiniert und begleitet seit 2019 die Einführung von Microsoft 365, Teams und Sharepoint im Unternehmen.



