AUSBLICK 2013

Hadoop und Big Data dürften 2013 mit relationalen Daten koexistieren

Jack Vaughan

Im Jahr 2011 stieß Big Data auf Interesse, 2012 aber hob es richtig ab – und könnte so wichtige Bereiche des Daten-Managements auf dramatische Weise verändern. So bringen Systeme für Big Data Neuerungen beim Umgang mit Maschinen-Daten, bei Funktionen für kontinuierliches Extract, Transform und Load (ETL), bei operativer Business Intelligence, Daten „in motion“, Cloud-basiertem Data Warehousing und anderswo.

Zunächst aber steht 2013 an, und nirgendwo gibt es in Bezug auf Big Data mehr Aktivität als bei NoSQL-Datenbanken und dem Hadoop-Framework – und wie es aussieht, werden diese Trends noch anhalten. Allein der Markt für Hadoop und MapReduce soll mit einer jährlichen Rate von 58 Prozent wachsen und 2018 ein Volumen von 2,2 Milliarden Dollar erreichen, sagt eine Studie von MarketAnalysis.com von August 2012 voraus.

NoSQL und Hadoop sind beliebte Hilfsmittel, um mit unstrukturierten Daten wie Text und Web-Logs zurechtzukommen. Wie Apache Hadoop selbst entstammen viele der Technologien in diesem Bereich dem Open-Source-Umfeld und haben erst eine kurze Geschichte als kommerzielle Produkte.

Jetzt werden Sachen möglich, die früher nicht möglich waren. Für Daten wird es ungemütlicher.

Judith Hurwitz, Analystin

Big-Data-Architekturen und massiv parallele Verarbeitung verändern die Daten-Landschaft dramatisch, sagt Judith Hurwitz, President und CEO von Hurwitz and Associates Inc. im US-Bundesstaat Massachusetts. „Daten waren für Unternehmen schon immer sehr wichtig, aber sie waren nicht in der Lage, derart große Mengen davon zu erfassen und sie in Echtzeit zu analysieren“, erklärt sie. „Jetzt werden Sachen möglich, die früher nicht möglich waren. Für Daten wird es ungemütlicher.“

SQL steckt ein und schlägt zurück

Zu Beginn des Jahres 2012 wurde mehrfach vorausgesagt, dass gewöhnliche relationale Datenbanken Probleme bekommen würden. Zum Teil kam es wirklich so. Nachdem relationale SQL-Datenbanken vorher mehrere Jahre lang verschiedene Ersatz-Technologien abwehren konnten, bekamen sie echte Konkurrenz für den Umgang mit großen Datenmengen.

Hinter diesem Trend steht der Wunsch von Unternehmen, mehr unstrukturierte Daten schneller aufnehmen zu können, um zu stärker Daten-getriebenen Entscheidungen zu kommen. Altbewährte Ansätze wurden überarbeitet, um das Beste der neuen Technologien nutzen zu können. Viele Schritte von etablierten Anbietern für Daten-Management zeigen, welche Auswirkungen auf den Status Quo bei relationalen Datenbanken Big Data und Hadoop schon hatten. Eine kleine Auswahl:

- IBM nahm weitere kleine Daten- und Analytik-Firmen in sein Portfolio auf, wenn auch langsamer als 2011. Die Produkt-Aktivitäten von Big Blue reichten von kleineren Erweiterungen wie NoSQL Graph Store for DB2 10 und InfoSphere Warehouse 10 bis zu der ausgesprochen großen Appliance PureData System, die Big Data in Unternehmen zähmen soll.

- Oracle brachte zu Beginn des Jahres seiner Big-Data-Appliance heraus. Dieser Ankündigung folgte Oracle NoSQL Database 2.0 mit automatischem Rebalancing, neuen APIs für den Umgang mit sehr großen Objekten und engerer Integration mit der Oracle-Datenbank, die Abfragen von Einträgen in der NoSQL-Datenbank direkt von SQL aus erlaubt.

- Microsoft zeigte Vorschauen auf Hadoop-Unterstützung für Windows Azure und Windows Server. Teradata Corp. brachte seine Aster Big Analytics Appliance heraus. Und Informatica Corp. veröffentlichte eine Big Data Edition seiner PowerCenter-Suite; diese soll händisches Programmieren für Hadoop unnötig machen, indem sie die Code-Arbeit in die Entwicklungsumgebung von Informatica bringt.

SQL hat 2012 also einige Schläge einstecken müssen, weigert sich aber, K.O. zu gehen. Denn auf der anderen Seite haben auf NoSQL und Hadoop spezialisierte Unternehmen auch an ihrer SQL-Kompetenz gearbeitet. Ein Musterbeispiel dafür ist das Hadoop-Startup Cloudera Inc.: Seine neue Hadoop-Software Impala unterstützt interaktive Abfragen in Standard-SQL.

Vom heißen Thema zum Produkt

Entscheidungen wie diese zeigen eine gewisse Dynamik: SQL und NoSQL werden zunehmend häufig gemeinsam erwähnt. Auf gewisse Weise wurde SQL in der ersten Aufregung um Big Data auch zu wenig beachtet: „In den letzten Jahren war SQL wegen Big Data nicht mehr in aller Munde“, sagt Ronnie Beggs, Vice President für Marketing beim Datenbank-Anbieter SQLStream aus San Francisco. Big Data und NoSQL hätten die gesamte Aufmerksamkeit auf sich gezogen.

2013 dürfte sich das wieder ändern, sagt Beggs voraus. Denn es habe zuletzt zunehmende Bemühungen gegeben, in NoSQL-Datenbanken Entwicklung nach SQL-Art zu ermöglichen. „Es geht einfach weiter. Wir erwarten für das kommende Jahr die Rückkehr von SQL als ein Interface für all die Big-Data-Plattformen“, so Beggs.

Was ist Big Data?

Mit Big Data werden große Mengen an strukturierten, unstrukturierten und semi-strukturierten Daten bezeichnet, die in einem Unternehmen anfallen. In vielen Fällen würde es einen zu hohen Zeit- und Kostenaufwand bedeuten, solche Daten für Analysen in eine konventionelle relationale Datenbank zu laden.

Diese Entwicklung in Richtung einer Koexistenz von Hadoop, NoSQL und SQL könnte ein Zeichen für einen großen Schritt von Big Data in Richtung Reife sein. Vielleicht also wird 2013 das Jahr, in dem Big Data von einem heißen Thema zu einer praktischen Realität wird.

„Die Leute wollen den Hype hinter sich lassen und verstehen, wo der Geschäftswert von Big Data wirklich liegt“, bestätigt Colin White, President und Gründer von BI Research aus dem US-Bundesstaat Oregon. „2013 werden wir wohl gute Beispiele sehen, wie Leute mit Big Date echten geschäftlichen Wert erreichen. Es geht nicht um Big Data, es geht darum, was man mit den Daten macht.“

Das Interesse an den neuen Technologien ist zwar weiter groß, doch das heißt nicht, dass alle Unternehmen gleich schnell auf komplette Big-Data-Systeme umsteigen werden. Dies zeigen auch die Aussagen eines Managers für Integrationsdienste bei einer großen Bank: In der Finanzbranche seien einige, aber nicht alle der Grundlagen für Big Data zu finden, sagt er. So gebe es hier wie anderswo zwar große Mengen an Daten, zumindest bislang aber nicht in unstrukturierter Form.

„Wenn man sich die Grundpfeiler von Big Data ansieht, gibt es zwei Aspekte. Erstens muss man Massen an Daten haben, und zweitens müssen sie unstrukturiert sein“, sagt der Manager. „Wir sammeln aber keine Twitter-Nachrichten, jedenfalls noch nicht. Wir beobachten und warten erst einmal ab, was der Markt für Daten-Dienste im Finanzbereich hier an Angeboten entwickelt.“

Ähnliche Themen: Hadoop, SEHEN SIE ALLE THEMEN

Ihre Meinung zum Artikel Kommentar

Teilen
Kommentare

    Ergebnisse

    Tragen Sie zu dem Gespräch bei

    Alle Felder sind erforderlich. Kommentare werden unterhalb des Artikels erscheinen.