Die Kosten für In-Memory-Datenbanken müssen gerechtfertigt sein

In-Memory-Datenbanken verbessern die Performance von Analysen und Transaktionsverarbeitungen. Die hohe Investition muss aber gerechtfertigt sein.

Noch vor zehn Jahren wäre die Vorstellung undenkbar gewesen, dass Enterprise Datenbank-Management-Systeme (DBMS)...

komplett im Arbeitsspeicher laufen. In den letzten Jahren sind die Preise für RAM allerdings immer weiter gesunken. Wir sind an einem Punkt angelangt, an dem In-Memory nicht mehr extrem teuer ist. Die gefallenen Preise haben neue Möglichkeiten eröffnet, wie man Datenbanksysteme konfigurieren kann, um die Vorteile des Hauptspeichers zu nutzen.

Es sind nicht mehr nur Startup-Unternehmen, die In-Memory-Datenbanken entwickeln, um damit den hohen Performance-Ansprüchen der Datenverarbeitung gerecht zu werden. Auch führende Datenbank- und Softwarehersteller bewerben Datenbank-Technologien, die In-Memory-Datenverarbeitung unterstützen. Große Firmen wie IBM, Oracle, SAP und Teradata setzen viel Geld darauf, dass etablierte Unternehmen mit dem Gedanken spielen, In-Memory-Datenbanken in die eigenen IT-Systeme zu integrieren.

In-Memory-Datenbanken beschleunigen die Performance von Applikationen auf zweifache Weise. In erster Linien minimiert das Vorhalten der Daten im Arbeitsspeicher gegenüber den langsameren Festplatten die Latenz der Datenbank-Abfragen, wenn diese nicht sogar komplett eliminiert wird. Zweiten nutzt die Datenbank-Architektur den verfügbaren Speicher effizienter. Zum Beispiel verwenden viele In-Memory-Technologien ein spaltenbasiertes statt einem reihenbasierten Layout. In Spalten angeordnete Werte eignen sich besser für die Komprimierung und die Abfragen werden dadurch beschleunigt, dass sich alle Spaltenwerte schneller scannen lassen.

Bringt In-Memory einen hohen Gewinn?

Man kann eigentlich schlecht gegen Applikations-Beschleuningung und optimierte Organisationen argumentieren. Doch wann sollten IT- und Datenmanagement-Berater eigentlich die Empfehlung aussprechen, dass Transaktionsverarbeitung und Business-Analysen das Investment in Technologie, Ressourcen und neues Fachwissen für ein In-Memory-Framework rechtfertigen?

Die praktischen Aspekte dieser Frage beinhalten, dass man die Notwendigkeit für verbesserte Datenbank-Performance gegen die damit verbundenen Kosten einer Implementierung der In-Memory-Plattform aufwiegen muss. Auch wenn die Kosten für RAM signifikant gesunken sind, kann man Systeme mit viel Arbeitsspeicher nicht als Schnäppchen bezeichnen. Das bezieht sich auf den Vergleich mit Datenbank-Servern, die in erster Linie auf Festplatten setzen. Die Geschäftsleitung wird wahrscheinlich überrascht sein, wenn Sie die Rechnung für In-Memory-Technologie sieht. Damit sich In-Memory-Datenbanken auszahlen, müssen Sie Applikationen mit Charakteristiken finden, die diese Technologie optimal ausnutzen.

Die Antwort finden Sie, indem Sie bewerten, ob es im Unternehmen die Notwendigkeit für die Verarbeitung höherer Datenmengen gibt. Zusätzlich spielt der Business-Wert eine Rolle, der sich aus reduzierten Antwortzeiten der Datenbanken ergibt. Betrachten Sie folgendes Supply-Chain-Beispiel aus Sicht von In-Memory-Software: die Echtzeit-Analysen einer Vielfalt von Datenströmen kann schnellere Entscheidungen über die Routen und Auslieferung bedeuten, so dass die Güter zur richtigen Zeit am richtigen Ort sind. Dazu gehören beispielsweise Inventur-Daten eines Lagers und der Standorte der Einzelhändler, Informationen über sich auf dem Weg befindliche Güter in Lastwagen oder Zügen und Verkehrs-Updates sowie Wettervorhersagen. Steigt dadurch der Umsatz, kann das eine Investition in In-Memory rechtfertigen.

Vor dem Kauf genau hinsehen

Sie sollten unbedingt die allgemeinen Charakteristiken Ihres Unternehmens unter die Lupe nehmen. In-Memory-Datenbanken lohnen sich, wenn eine oder mehrere der folgenden Aussagen Ihre Arbeitsumgebung beschreiben:

Offen für neue IT-Investitionen: Die Geschäftsleitung muss überzeugt sein, Geld in Hardware mit genügend Arbeitsspeicher zu investieren, die die Datenverarbeitungs-Ansprüche der Applikation abdecken. Selbst das Skalieren von Systemen, um damit In-Memory-Computing unterstützen zu können, kostet mehr als ein Datenbank-Server mit vielen Festplatten.

Analytisch agil: In-Memory-Systeme unterstützen Reporting- und Analyse-Applikationen, die den Business-Prozessen und -Ergebnissen dienen. Endanwender können schneller Entscheidungen treffen. Sind Sie zum Beispiel in der Lage, die Absatz-Prognosen von einer wöchentlichen auf eine stündliche Basis umzustellen, könnten Sie dadurch Produkt-Preis-Modelle in Echtzeit erstellen, was sich wiederum positiv auf die Rentabilität auswirkt. Das gilt aber nur, wenn sich die geänderten Preise auch schnell kommunizieren lassen.

Unterstützung von gemischten Umgebungen: Können Transaktions- und Analyse-Anwendungen auf dieselbe Datenbank zugreifen, ist somit ebenfalls eine Echtzeit-Analyse möglich. Allerdings können Ressourcen-Konflikte zu Performance-Problemen bei einer konventionellen relationalen Datenbank führen. In erster Linie hängt das mit den Latenzen zusammen, die durch den Zugriff der auf Festplatten gespeicherten Daten auftreten. Bei einer In-Memory-Konfiguration ist die Latenz ein geringeres Problem.

Die Daten kennen: In-Memory-Technologie kann ebenso ein wertvolles Tool sein, wenn ein Großteil der Datenbank-Abfragen nur einen kleinen Teil einer Datenbank betreffen. Laut eines Whitepapers des Data-Warehouse- und Datenbank-Anbieters Teradata betreffen 43 Prozent der Abfragen lediglich ein Prozent der verfügbaren Daten. 92 Prozent der Abfragen greifen nur auf 20 Prozent der Daten zu. Identifiziert man häufig benutzte und sogenannte „heiße“ Daten und behält diese im Arbeitsspeicher, lassen sich damit die entsprechenden Antwortzeiten drastisch verkürzen.

Profitieren die Business-Prozesse der Unternehmen von den Echtzeit-Möglichkeiten, von Misch-Applikationen und signifikant schnellerem Reporting sowie entsprechenden Analysen, ist die Firma ein Kandidat für den Einsatz einer In-Memory-Datenbank. In den meisten Fällen sollten Sie aber die Investition in In-Memory-Software mit dem IT-Budget und den Geschäftszielen des Unternehmens in Relation setzen. Das beinhaltet die Erkenntnis, inwieweit sich Schlüsselbereiche der Unternehmens-Performance durch schnellere Transaktionsprozesse verbessern lassen. Das gilt auch für die Berichte und kurzfristigen Query-Resultate, die sich durch In-Memory-Datenverarbeitung realisieren lassen.

Über den Autor: David Loshin ist Präsident der Consulting- und Entwicklungs-Firma Knowledge Integrity. Das Unternehmen erarbeitet mit Kunden Initiativen in den Bereichen Big Data, Business Intelligence und Datenmanagement. Lohsin ist Autor und Co-Autor mehrerer Bücher. Dazu gehört unter anderem “The Practitioner's Guide to Data Quality Improvement”. Sie erreichen Ihn unter loshin@knowlegde-integrity.com.

Folgen Sie SearchEnterpriseSoftware.de auch auf Facebook, Twitter und Google+!

Artikel wurde zuletzt im Juni 2014 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über SAP-Management

0 Kommentare

Älteste Beiträge 

Passwort vergessen?

Kein Problem! Tragen Sie Ihre E-Mail-Adresse unten ein. Wir werden Ihnen eine E-Mail mit Ihrem Passwort schicken.

Ihr Passwort wurde an die folgende E-Mail-Adresse gesendet::

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchDataCenter.de

Close