Google: Bigquery zur schnellen Analyse großer Datenmengen
Google startet mit Bigquery einen Dienst zur Analyse großer Datenmengen. Erstmals vorgestellt wurde Bigquery bereits im Mai 2010 zusammen mit Google Storage, ab sofort kann ihn jeder nutzen.

Bigquery soll eine schnelle und interaktive Analyse großer Datenmengen erlauben. Mit Hilfe von SQL-Kommandos können die Daten über ein REST-API untersucht werden. Gedacht ist dies beispielsweise zur Analyse von Logfiles oder zum Erkennen von saisonalen Trends in Verkaufszahlen.
Der Analysedienst nutzt Googles Serverinfrastruktur und wird nach Nutzung abgerechnet. Google verspricht, so auch große Datenmengen in Sekunden verarbeiten zu können. Die Daten werden per CSV-Datei von Bigquery importiert und können in mehreren einfachen Tabellen gespeichert werden, die keinerlei Relationen aufweisen. Der Zugriff ist über das User Interface und ein REST-API möglich, wobei eine Untermenge von SQL unterstützt wird. Die Befehle Update und Delete beherrscht Bigquery beispielsweise nicht.
Bis zu 100 GByte an Daten können monatlich kostenlos mit Bigquery analysiert werden. Darüber hinaus berechnet Google für das Speichern von Daten bis zu 2 TByte einen Preis von 12 US-Cent pro GByte und Monat. Hinzu kommen 35 US-Cent pro GByte an Daten, die mit Bigquery verarbeitet werden. Allerdings begrenzt Google den Dienst derzeit auf 1.000 Abfragen pro Tag und die Verarbeitung von täglich maximal 20 TByte an Daten.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed