• IT-Karriere:
  • Services:

Confidential Computing: Vertrauen ist schlecht, Kontrolle besser

Die IT-Welt zieht in die Cloud und damit auf fremde Rechner. Beim Confidential Computing sollen Daten trotzdem während der Nutzung geschützt werden, und zwar durch die Hardware - keine gute Idee!

Ein IMHO von veröffentlicht am
Beim Confidential Computing sollen speziell abgesicherte Bereiche Daten in der Cloud schützen.
Beim Confidential Computing sollen speziell abgesicherte Bereiche Daten in der Cloud schützen. (Bild: Will Folsom, Flickr.com/CC-BY 2.0)

Daten verschlüsselt abzulegen oder bei der Übertragung zwischen zwei Punkten zu verschlüsseln, ist eigentlich nicht schwierig. Ein großes Problem ist allerdings, Daten während der Benutzung vor einem Zugriff von Dritten zu schützen, vor allem beim Cloud Computing. Für die Lösung dieses Problems haben große Anbieter das Confidential Computing Consortium gegründet. Das Projekt setzt dabei sein volles Vertrauen in die Schutzfunktionen von Hardware - ein wirklich irrwitziger Gedanke.

Stellenmarkt
  1. Information und Technik Nordrhein-Westfalen (IT.NRW), Düsseldorf
  2. Hays AG, Ulm

Denn seit Jahren kümmern sich Hacker darum, aufzuzeigen, wie angreifbar und auch wie kaputt die Grundlagen unserer heutigen Rechner sind, da Hardware eben nicht so funktioniert, wie wir es von ihr erwarten. Das gilt insbesondere für zwei Ebenen der Hardware: für die Firmware der Geräte und für die Recheneinheiten selbst, also die Prozessoren.

Die Initiative des Confidential Computing setzt auf die Verwendung einer sicheren Enklave oder auch Trusted Execution Environment (TEE). Das sind spezielle, voneinander und vor allem vom restlichen System abgeschirmte Bereiche, in denen nur signierter Code laufen können soll. Damit sollen sich dann eben sicherheitskritische Daten verarbeiten lassen. Überwacht und forciert wird das dabei von der CPU.

TEEs sind kaputt

Das Konsortium verlässt sich vor allem auf Intels Software Guard Extensions (SGX), künftig dürften wohl alternativ auch ARMs Trustzone oder AMDs SEVs genutzt werden. Die Hardware-Bugs Spectre und Foreshadow zeigen jedoch deutlich, dass SGX massiv angreifbar ist. So können unter Ausnutzung dieser Hardwarefehler etwa kryptografische Schlüssel oder andere vertrauliche Daten aus den eigentlich besonders geschützten Bereichen ausgelesen werden. In den vergangenen zwei Jahren hat es einige solcher Lücken gegeben und es werden wohl noch sehr viel mehr Fehler dieser Art gefunden werden.

Ebenso hat Google in der Vergangenheit der Umsetzung von ARMs Trustzone in den CPUs verschiedener Hersteller klare Vertrauensprobleme bescheinigt. Darüber hinaus wurden mehrfach weitere Angriffe auf ARMs Trustzone demonstriert, etwa die fehlerhafte Nutzung der Technik auf der Nintendo Switch. In diesem Fall wurden die eigentlich vertraulichen Inhalte aus dem Trustzone-Bereich kurzzeitig unverschlüsselt im Userspace des Betriebssystems gespeichert. Derartiges führt die Nutzung der Sicherheitstechnik ad absurdum.

Weniger Komponenten, mehr Vertrauen?

Warum die Initiative dennoch auf ihr sogenanntes Confidential Computing setzt, zeigt sich schnell an den Erläuterungen zu dem Enarx-Projekt von Red Hat, das der Open-Source-Spezialist in die Initiative eingebracht hat. Dieses Projekt soll als eine Art allgemein verfügbare Middleware für Endanwendungen dienen und eben in einer Enklave laufen. Zu der Ankündigung von Enarx schreibt dessen Hauptentwickler Mike Bursell, dass mit der Technik auf sehr viele Schichten des bisher üblichen Software-Stapels des Cloud Computings verzichtet werden könne und damit eben viel potentielle Angriffsfläche einfach entfiele. Nutzer müssten mit der Technik nur noch ihrer eigenen Anwendung, der Middleware wie Enarx und eben der CPU vertrauen statt dem gesamten Software-Stapel des Cloud-Anbieters.

Hinzu kommt, das Enarx auf der Bytecode-Technik Webassembly aufbaut, was einige Sicherheitsversprechen für die Anwendungen selbst bietet, etwa eine Flusskontrolle. Auf dem vergangenen Open Source Summit in Lyon sagte Bursell im Gespräch mit Golem.de, dass das Ziel von Enarx und auch Confidential Computing sei, Anwendungen etwa aus dem Gesundheitswesen oder auch von Versicherungen mit der Technik in das öffentliche Cloud Computing verschieben zu können.

Das ist auch das offensichtliche Ziel der Initiative: Eine Umgebung zu schaffen, in der die Entscheider in diesen Geschäftsbereichen einem Wechsel in die Cloud trotz Datenschutzbedenken zustimmen. Es scheint, als ob alles ganz sicher und vor externen Zugriffen geschützt sei. Aber die zahlreichen Hardware-Bugs zeigen, dass dem eben nicht so ist. Unter diesen Umständen sicherheitskritische Daten in fremde Obhut zu geben, ist schlicht unverantwortlich.

Als einzige Lösung bleibt nur, weiterhin auf ein eigenes Hosting zu setzen. Denn sobald die Daten abgegeben werden, können diese mit genügend krimineller Energie auch von externen Angreifern abgeschöpft werden. Das Confidential Computing hilft dagegen nicht.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Spiele-Angebote
  1. (-79%) 5,99€
  2. 29,99€
  3. 52,99€
  4. 4,32€

smc 02. Dez 2019 / Themenstart

Das kommt ganz auf den Anwendungsfall an. 5 min für einen Zugriff sind aber auch schon...

tom.stein 20. Nov 2019 / Themenstart

Und diese Fragen liefern sehr schnell die Antworten, die nun überhaupt nicht mit der...

kendon 19. Nov 2019 / Themenstart

So ganz wird nicht klar wie dein Setup aussieht, ich habe aber etwas das Gefühl dass Du...

kendon 18. Nov 2019 / Themenstart

Es geht hier nicht um die Verbindung, sondern um die Daten in der Cloud. Du kannst sie...

Kommentieren


Folgen Sie uns
       


Hallo Magenta und Alexa auf dem Smart Speaker der Telekom

Wetter, Allgemeinwissen, sächsische Aussprache - wir haben den Magenta-Assistenten gegen Alexa antreten lassen.

Hallo Magenta und Alexa auf dem Smart Speaker der Telekom Video aufrufen
Threadripper 3970X/3960X im Test: AMD wird uneinholbar
Threadripper 3970X/3960X im Test
AMD wird uneinholbar

7-nm-Fertigung, Zen-2-Architektur und dank Chiplet-Design keine Scheduler-Probleme unter Windows 10: AMDs Threadripper v3 überzeugen auf voller Linie, die CPUs wie die Plattform. Intel hat im HEDT-Segment dem schlicht nichts entgegenzusetzen. Einzig Aufrüster dürften sich ärgern.
Ein Test von Marc Sauter

  1. Via Technologies Centaur zeigt x86-Chip mit AI-Block
  2. Nuvia Apples Chip-Chefarchitekt gründet CPU-Startup
  3. Tiger Lake Intel bestätigt 10-nm-Desktop-CPUs

Mikrocontroller: Sensordaten mit Micro Python und ESP8266 auslesen
Mikrocontroller
Sensordaten mit Micro Python und ESP8266 auslesen

Python gilt als relativ einfach und ist die Sprache der Wahl in der Data Science und beim maschinellen Lernen. Aber die Sprache kann auch anders. Mithilfe von Micro Python können zum Beispiel Sensordaten ausgelesen werden. Ein kleines Elektronikprojekt ganz ohne Löten.
Eine Anleitung von Dirk Koller

  1. Programmiersprache Python verkürzt Release-Zyklus auf ein Jahr
  2. Programmiersprache Anfang 2020 ist endgültig Schluss für Python 2
  3. Micropython Das Pyboard D ist ein Steckbausatz für IoT-Bastler

Core i9-10980XE im Test: Intel rettet sich über den Preis
Core i9-10980XE im Test
Intel rettet sich über den Preis

Nur wenige Stunden vor AMDs Threadripper v3 veröffentlicht Intel den i9-10980XE: Der hat 18 Kerne und beschleunigt INT8-Code für maschinelles Lernen. Vor allem aber kostet er die Hälfte seines Vorgängers, weil der günstigere Ryzen 3950X trotz weniger Cores praktisch genauso schnell ist.
Ein Test von Marc Sauter

  1. Prozessoren Intel meldet 14-nm-Lieferprobleme
  2. NNP-T und NNP-I Intel hat den T-1000 der künstlichen Intelligenz
  3. Kaby Lake G Intels AMD-Chip wird eingestellt

    •  /