Zum Hauptinhalt Zur Navigation Zur Suche

Cloud Storage: Beta von Google Storage, Bigquery und Prediction API

Mit Google Storage macht Google Amazons S3 Konkurrenz und startet einen Webservice zum Speichern von Binärdaten, der über ein REST-Interface angesprochen werden kann. Mit Bigquery und dem Prediction API gibt Google zudem eine Vorschau auf Zusatzdienste, die sich Google Storage zunutze machen.
/ Jens Ihlenfeld
1 Kommentare undefined News folgen (öffnet im neuen Fenster)

Googles neuer Cloud-Storage-Dienst Google Storage(öffnet im neuen Fenster) steht ab sofort in einer Betaversion bereit und kann kostenlos getestet werden. Der Speicherdienst ist in der Betaphase auf 100 GByte Speicherplatz und 300 GByte Traffic pro Monat und Entwickler beschränkt. Die Größe der hochgeladenen Dateien ist dabei nicht beschränkt: Eine Datei mit 99 GByte wird angeblich problemlos akzeptiert.

Für die manuelle Verwaltung hochgeladener Dokumente existiert eine Oberfläche, mit der auch die Sichtbarkeit der Dateien eingestellt werden kann. Uploads finden direkt gegen Google Storage statt und es können Completion-URLs mit angegeben werden, die nach erfolgreichem oder erfolglosem Upload aufgerufen werden.

Zugriffsbeschränkungen können auf Basis von Einzelberechtigungen, Access Control Lists oder in Zukunft auch auf Gruppen vergeben werden. Die Standardeinstellung lautet "private".

Als Beispiel zeigte Google neben der Backup-Applikation Syncplicity(öffnet im neuen Fenster) ein Projekt des Navy Visual News Service, das Google Storage verwendet, um bis zu 20 TByte an Videodaten pro Monat auszuspielen.

Analyse großer Datenmengen

Zudem gewährt Google eine Vorschau auf die Dienste Bigquery und Prediction API, die ihrerseits Google Storage nutzen. Bigquery(öffnet im neuen Fenster) soll eine schnelle und interaktive Analyse großer Datenmengen erlauben. Mit Hilfe von SQL-Kommandos können die Daten über ein REST-API untersucht werden. Gedacht ist dies beispielsweise zur Analyse von Logfiles oder zum Erkennen von saisonalen Trends in Verkaufszahlen.

Über das Prediction API(öffnet im neuen Fenster) stellt Google lernende Algorithmen über ein REST-API bereit. Damit sollen sich Entscheidungen in Echtzeit auf Basis großer Mengen historischer Daten treffen lassen, beispielsweise um Nutzer von Blogs bestimmte Produkte zu empfehlen, verdächtige Aktivitäten aufzuspüren oder Nachrichten zu routen.

Offen gegenüber Amazon S3

Google versucht mit seinen Werkzeugen dabei möglichst offen gegenüber Amazon S3 zu sein und so kann das Commandline-Tool gsutil(öffnet im neuen Fenster) zum Beispiel Daten aus Google Storage und S3 Buckets gleichzeitig auflisten und unterstützt die unter Unix üblichen Befehle, darunter ls und cp.

Betaaccounts können unter code.google.com(öffnet im neuen Fenster) beantragt werden. [von Jan Ulbrich und Jens Ihlenfeld]


Relevante Themen