SAP HANA: Echtzeitprozesse brauchen Datenqualität in Echtzeit

Beim Echtzeitreporting mit SAP HANA muss die Datenqualität auch in Echtzeit bereitgestellt werden. Nur so führt eine Abfrage zu korrekten Ergebnissen.

Unternehmen, die der SAP-Echtzeitvision nahekommen wollen, müssen bei der Datenqualität die zeitliche Latenz in den Geschäftsprozessen beseitigen. Von daher sind Prozesse zu implementieren, die die Qualität von Geschäftsdaten bereits zu dem Zeitpunkt prüfen, an dem die Daten erzeugt werden.

Die Überwachung und Kontrolle der Datenqualität haben seit jeher eine hohe Bedeutung für Unternehmen, was dazu führt, dass in diese Tätigkeiten viel Zeit und Geld investiert wird. Sobald eine neue Technologie wie die In-Memory-Plattform SAP HANA die Bühne betritt, erhält die Datenqualität jedoch mehr Bedeutung als je zuvor. 

Mithilfe von SAP HANA lassen sich Abfragen direkt und in Echtzeit auf die Quelldaten, etwa in einem SAP-ERP-System, ausführen. Damit entfallen die bislang zeitaufwendige Prozesse wie Extraktion und Transformation sowie das Laden und Verarbeiten von Daten in den verschiedenen Schichten eines Business Warehouse (BW).

Das Echtzeit-Reporting direkt auf Daten in einem Aufzeichnungssystem wie SAP ERP ist hocheffizient und ermöglicht als „transformativer Faktor“ den Aufbau neuer Prozesse und Geschäftsmodelle in Unternehmen. Allerdings, und das ist der Haken, wird bei Echtzeitanalysen bisher die Qualität der Daten im jeweiligen Quellsystem noch nicht in Echtzeit geprüft, sondern zeitverzögert im Rahmen des ETL-Prozesses in einem Data Warehouse oder einer Business-Intelligence-Lösung (BI).

Wie in jedem anderen Bereich hängt auch beim Echtzeitreporting das Vertrauen in die Ergebnisse von der Qualität der zugrundeliegenden Geschäftsdaten ab. Das gilt insbesondere dann, wenn eine SAP Business Suite, die auf der SAP-HANA-Plattform installiert und betrieben wird, als primäres Aufzeichnungssystem fungiert. Da die In-Memory-Technologien von SAP HANA Abfragen bis hinunter auf jeden einzelnen Datensatz erlauben, müssen die Informationen im Quellsystem von Haus aus eine sehr hohe Qualität aufweisen.

Bisher hohe Datenqualität nur auf Kosten hoher Latenzzeit

In der Vergangenheit kam es durch die Performancebeschränkungen häufig zu Datenredundanzen, was in den jeweiligen Quellsystemen zu Problemen mit der Datenqualität führte. Einige dieser Probleme konnten gelöst werden, indem Daten zwischen dem Quellsystem und den Schichten einer BI-Lösung ständig ausgetauscht wurden. Die Qualität der Quelldaten konnte auf diese Weise zwar erhöht werden, aber nur um den Preis einer hohen Latenzzeit.

Die hohe Verarbeitungs- und Abfragegeschwindigkeit wird in SAP HANA erreicht, weil in der In-Memory-Plattform das Problem der redundanten Datenhaltung in verschiedenen Datenbankschichten und BI-Konstruktionen gelöst ist. Das führt zu Performancesteigerungen. Wer hierbei jedoch zu wenig auf die Datenqualität sowie die ordnungsgemäße Verwaltung und Überwachung der Quelldaten achtet, dem liefert auch SAP HANA nach dem Prinzip „garbage in, garbage out“ fehlerhafte oder falsche Daten.

Die meisten Unternehmen sind noch nicht reif genug und in der Lage, die Datenqualität in Echtzeit zu prüfen und zu überwachen.

Glücklicherweise haben Firmen bereits Pläne und Verfahren entwickelt, mit denen sich Datenqualitätsprobleme umgehen lassen, deren Ursache die latenzgetriebenen ETL-Prozesse in ihren BI-Systemen sind. Diese Verfahren, die bisher aufgrund der Latenzzeiten bei der Datenverarbeitung erst nachträglich angewendet werden konnten, müssen in einen Prozess übertragen werden, bei dem einzelne Verarbeitungsschritte parallel und in Echtzeit erfolgen. 

Nur so lässt sich ein angemessenes Verständnis dafür entwickeln, was es mit einem Echtzeitunternehmen auf sich hat, denn werden die bisherigen Performancelücken mit SAP HANA geschlossen, kann die In-Memory-Plattform im Unternehmen ihre verändernde Kraft entfalten. War es früher ein „nice-to-have"-Kriterium, wenn bei Echtzeitdaten auch die Datenqualität in Realtime sichergestellt werden konnte, so wird es in post-SAP-HANA-Landschaften zur Notwendigkeit.

Warum ist das so? Ganz offensichtlich findet die Echtzeitverarbeitung der Daten auch in Echtzeit statt. Das erfordert Änderungen im Datenqualitätsprozess. Beim Stammdatenmanagement finden Aktivitäten und Maßnahmen häufig reaktiv statt. Bei Vorgängen wie dem Datenabgleich oder der Datenbereinigung gibt es eine transaktionale Latenzzeit. 

Das bedeutet: Die Daten müssen erst gesammelt und verarbeitet werden, bevor sie bereinigt, dedupliziert und in hoher Qualität in einem Datentopf abgelegt werden können. Durch die Echtzeitverarbeitung von Daten mit SAP HANA werden diese Abläufe nicht hinfällig; zugleich entstehen neue Lücken bei der Datenqualität. Diese müssen geschlossen werden, so dass Daten bei einem SAP-HANA-basierten Reportingprozess auch in der gewünschten Qualität vorliegen.

Dieser Aspekt ist besonders zu beachten, da die Korrekturen an Daten bisher nur „reaktiv“, das heißt mit einer gewissen Zeitverzögerung erfolgten. Der Übergang zum Echtzeitunternehmen wird sich aber nicht über Nacht und auf einen Schlag vollziehen. 

Zudem lässt sich allein mit einer hohen Geschwindigkeit bei der Datenverarbeitung und -analyse noch lange nicht mehr aus den Quelldaten herausholen als zuvor. Auch eine Geschwindigkeit, die eine Prüfung von Daten im Google-Stil ermöglicht, wird nicht die richtigen Antworten liefern, wenn die abgefragten Datensätze fehlerhaft sind.

SAP Data Services bieten Lösungen

Eine Antwort auf die Herausforderung der Datenqualität im Echtzeitunternehmen bieten die SAP Data Services, die Werkzeuge für das Datenqualitätsmanagement in Echtzeit beinhalten. Dazu zählen IT-Tools zur Datendeduplizierung und verschiedene Möglichkeiten für die Adressbereinigung, ob im Batch-Verfahren oder in Echtzeit.

Die SAP Data Services stellen Echtzeit-Services zur Datenqualitätsprüfung bereit, die automatisch aufgerufen werden, sobald in einer SAP Business Suite, die auf SAP HANA läuft, Daten generiert werden. 

Zum Beispiel kann mit Hilfe der Data-Profiling-Funktionen die Qualität von Datensätzen zeitnah analysiert und dadurch Probleme frühzeitig identifiziert und bewertet werden.

SAP Data Services sind nicht die einzige Möglichkeit, mit der in Echtzeitunternehmen eine hohe Datenqualität gewährleistet werden kann. Die Komponente bietet aber wertvolle Unterstützung, um Lücken oder Defizite bei der Datenqualität schnell zu schließen. 

Sobald Daten in der Business Suite erzeugt werden, können mit den SAP Data Services auch Probleme, die Ad-hoc auftreten, sofort behoben werden. 

Komplexe Matchingprozesse oder die Extraktion neuer Daten aus einer Vielzahl von Quellsystemen lassen sich im Batch-Verfahren ausführen.

Echtzeitlösungen für die Datenqualität

Wie bereits erwähnt, kommen auf Firmen mit der Einführung von SAP HANA neue Herausforderungen zu. Bestehende Data-Quality-Lösungen, die reaktiv arbeiten, müssen dabei auf den Prüfstand gestellt werden. Es liegt auf der Hand, dass in einem Echtzeitunternehmen auch die Datenqualität zu dem Zeitpunkt geprüft wird, wenn ein Ereignis eintritt oder ein Transaktion ausgeführt wird. 

Aber diese Ziel ist noch (zu) hoch gesteckt. Die meisten Unternehmen sind noch nicht reif genug und in der Lage, die Datenqualität in Echtzeit zu prüfen und zu überwachen. 

Diesen Firmen bieten die SAP Data Services die Möglichkeit, den Übergang zu einem Datenqualitätsmanagement in Echtzeit zu organisieren, bei dem die Daten bereits zum Zeitpunkt ihres Entstehens oder Auftretens geprüft und berichtigt werden.

SAP Data Services stellen für diese Aufgaben diverse Kernfunktionen bereit.

  • Adressbereinigung für weltweit über 200 Länder;
  • Adressvorschläge;
  • Bereinigung von Personen- und Firmendaten mit länderspezifischen Lösungspaketen für das Data Cleansing;
  • Geocoding;
  • Bestätigung der Straßenseite für eine Adresse;
  • Komplexes Matching bei der Datenumwandlung zur flexiblen Deduplizierung.

Diese Data-Quality-Funktionen können direkt über die SAP Business Suite aufgerufen werden, so dass auch jede Reporting-Applikation in Echtzeit davon profitiert, denn die Qualität bei der operativen Berichterstattung wird deutlich erhöht. 

Bestehende Lösungen für das Master Data Management (MDM) oder eine Data-Hub-Software werden hierbei nicht ersetzt, sondern durch die Data-Quality-Funktionen sinnvoll ergänzt. Sie bieten Techniken, mit denen man schneller an bessere Daten kommen kann. Am ehesten lassen sich die SAP Data Services daher mit einer abgespeckten MDM-Lösung vergleichen – quasi ein „MDM-lite“.

SAP HANA bricht zwar mit traditionellen Denkmustern, wenn es um die Sicherstellung einer hohen Datenqualität geht, doch gleichzeitig stellt die In-Memory-Plattform mit den SAP Data Services Lösungen bereit, um die damit verbundenen Herausforderungen bei der Datenqualität in den Griff zu bekommen.

Über den Autor:
Don Loden ist Principal Consultant für die Bereiche Data Warehouse und Information Governance. Er ist SAP-zertifiziert für die SAP Data Services und sehr aktiv in der SAP Community, zum Beispiel mit Vorträgen auf Konferenzen und Veranstaltungen. Loden hat mehr als 14 Jahre IT-Erfahrung in folgenden Bereichen: ETL-Architektur, Entwicklung und Optimierung sowie logische und physische Datenmodellierung. Er berät Unternehmen über Data Warehouses, Datenqualität, Information Governance und ETL-Konzepte. Sie können Don Loden per E-Mail über don.loden@decisionfirst.com und Twitter @donloden kontaktieren.

Folgen Sie SearchEnterpriseSoftware.de auch auf Facebook, Twitter und Google+!

Artikel wurde zuletzt im November 2014 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Essential Guide

SAP HANA: Die In-Memory-Lösung von SAP verstehen und nutzen

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchDataCenter.de

Close