Software für Datenqualität mit Dashboards für Technikfremde gewinnt an Schwung

Die Datenqualität wird für Unternehmen immer wichtiger. Nur mit hochwertigen aufbereiteten Daten läuft das Geschäft.

Nicht einmal die weltweite Rezession kann den Markt für Software und Tools für Datenqualität bremsen: Immer mehr Organisationen erkennen, wie wichtig Datenqualität für Stammdaten-Verwaltung, Business Intelligence und andere Initiativen zum Informationsmanagement sind. Deshalb kaufen sie die entsprechenden Produkte, wie aus dem neuesten „Magic Quadrant“-Bericht von Gartner hervorgeht.

Ebenfalls kommen mehr Organisationen zu der Erkenntnis, dass schlechte Datenqualität ein übergreifendes Thema darstellt, das sich negativ auf Performance, Umsätze und Gewinne auswirkt. Das sagt Andreas Bitterer, Analyst bei Gartner im US-Bundesstaat Connecticut, der den Bericht zusammen mit seinem Kollegen Ted Friedman geschrieben hat. „Es gibt kein einziges Unternehmen auf dieser Welt, das keine Probleme mit Datenqualität hat“, so Bitterer.

Dabei läuft auch ein Trend weiter, den Gartner schon im „Magic Quadrant“-Bericht des Vorjahres identifiziert hatte: Die Märkte für Datenqualität und Datenintegration konvergieren, wenn auch nicht so schnell, wie von Bitterer erwartet. Nach seinen Worten wird es noch einige Jahre dauern, bis Software für Datenqualität und Datenintegration routinemäßig als Teil derselben Plattform angeboten wird. Aber der Markt bewege sich eindeutig in diese Richtung.

„Wann immer Sie Daten bewegen, sollten Sie darauf achten, dass das, was am anderen Ende ankommt, konsistent und vollständig ist“, sagt Bitterer.

Das Volumen des Marktes für Datenqualität beziffert Gartner auf 400 bis 500 Millionen Dollar Ende 2008. Er ist weitgehend aufgeteilt zwischen großen, etablierten Anbietern, die einen breiten Funktionsumfang bieten – einschließlich Daten-Profilierung, Standardisierung, Säuberung, Matching und Anreicherung. Auf der anderen Seite stehen laut dem Bericht kleine Nischen-Anbieter, die sich mit zielgenaueren, aber weniger umfassenden Möglichkeiten abheben.

Zu den großen Anbietern zählen etwa SAP BusinessObjects und IBM. Diese „betrachten Datenqualität zunehmend als Ergänzung zu den unterschiedlichen Komponenten in ihren Portfolios“, schreiben Bitterer und Friedman in ihrem Bericht. Zwar würden Werkzeuge für Datenqualität auch noch einzeln verkauft, zunehmend aber als Teil von größeren Transaktionen mit verwandten Produkten wie Werkzeugen zur Datenintegration oder MDM-Lösungen.

Auch bei Analyse-Werkzeugen zur Datenqualität wie Dashboards und Anwendungen zur Visualisierung läuft laut Bitterer ein wichtiger Trend weiter: Diese sind zunehmend für nicht-technisches Personal ausgelegt, weil Organisationen wie IT-Anbieter erkennen, dass Datenqualität kein reines IT-Problem mehr ist, sondern ein geschäftliches.

DataFlux-Software an der Spitze der Rangliste

An die Spitze der Gartner-Rangliste für Anbieter im Bereich Datenqualität schaffte es in diesem Jahr DataFlux, eine Tochtergesellschaft des SAS Institute aus dem US-Bundesstaat North Carolina. Laut dem Bericht bietet DataFlux breite Möglichkeiten in diesem Bereich, die sich leicht mit anderen Anwendungen integrieren lassen und einfach zu bedienen sind, vor allem für Nicht-Techniker. „Mit 1200 Kunden ist DataFlux bei vielen großen Anwendern zum Standard für unternehmensweite Datenqualität geworden“, schreiben dazu Bitterer und Friedman. Das Unternehmen habe bei der Reinvestition von Umsätzen in Forschung und Entwicklung mit die höchste Quote und komme bei Wartungsverträgen auf eine Verlängerungsrate von mehr als 95 Prozent.

Neben DataFlux schafften es auch Trillium Software, IBM, Informatica und SAP BusinessObjects in den Spitzen-Quadranten. Nach der Gartner-Methode werden Anbieter nach den Kriterien „Vollständigkeit der Vision“ und „Fähigkeit zur Umsetzung“ in einen von vier Quadranten eingeteilt. Deren Bezeichnungen lauten „Spitze“, „Visionäre“, „Herausforderer“ und „Nischen-Anbieter“.

Trillium Software wurde gelobt für „vielfältige Anwendungsfälle, darunter solche innerhalb von BI-Aktivitäten, MDM-Lösungen und als Unterstützung für Programme zur Daten-Governance“. Informatica kam durch die Stärke seiner Funktionen für Daten-Profilierung in den Spitzen-Quadranten, außerdem durch Möglichkeiten für Daten-Parsing unabhängig von Domänen, Standardisierung und Matching.

Auch der Quadrant der Nischen-Anbieter ist in diesem Jahr mit sechs Anbietern gut gefüllt: DataLever, Uniserv, Innovative Systems, Datamentors, Netrics und Datactics. Diese Anbieter haben ebenso wie andere kleinere Firmen reife, wenn auch enger zugeschnittene Lösungen für Datenqualität im Programm. Doch laut dem Bericht werden sie es schwer haben, Marktanteile von den großen, etablierten Konkurrenten zu gewinnen.

„Funktionen für Datenqualität werden zunehmend in Geschäftsanwendungen, Werkzeuge für Datenintegration und andere Software-Produkte der großen Anbieter integriert“, heißt es in dem Bericht. „Deshalb gibt es für diese kleinen Wettbewerber erhebliche Herausforderungen in Bezug auf Wachstum und Überlebenschancen.“

Als Visionäre bei Datenqualität nennt Gartner Human Inference und Datanomic. Den einzigen Herausforderer stellt in diesem Jahr Pitney Bowes Business Insight.

Datenqualität ist nicht mehr nur ein Problem der IT-Abteilung

Laut Bitterer ist Datenqualität heutzutage ein IT- ebenso sehr wie ein geschäftliches Thema. Unternehmen, die hier das Angebot unterschiedlicher Hersteller evaluieren, sollten deshalb sehr auf die leichte Anwendbarkeit vor allem für nicht-technische Mitarbeiter achten. „Die Inhalte gehören der geschäftlichen Seite“, sagt Bitterer, und die verstehe in den meisten Fällen auch am besten die Feinheiten der Daten und die für die Datenqualität wichtigsten Aspekte.

Aus diesem Grund müsse die Geschäftsseite eine erhebliche Rolle bei jeder Initiative für Datenqualität spielen, und die gewählten Werkzeuge müssten ihren Fähigkeiten und Kenntnissen entsprechen. Die Anbieter haben auf diesen Zusammenhang zumeist schon reagiert: Laut Bitterer bieten sie Dashboards zur Datenqualität und andere Werkzeuge zur Visualisierung, mit denen auch Nicht-Techniker Projekte zur Datenqualität überwachen und steuern können. Viele Organisationen machen davon schon Gebrauch.

Bei der Entscheidung für einen Anbieter sollten Unternehmen auch den Standort beachten, rät Bitterer: Viele seien eher in den europäischen Märkten stark als in den USA und umgekehrt. Dabei spielten für Datenqualität oft auch regionale Unterschiede eine Rolle, etwa die Art, wie Adressen formatiert werden. Ein Anbieter, der seinen Sitz in derselben Region hat wie der Kunde, sei eher in der Lage, solche Unterschiede zu verstehen.

Bitterers letzter Punkt: Jeder, der Angebote für Datenqualität evaluiere, solle dabei sowohl die großen, etablierten Anbieter berücksichtigen als auch die kleineren Nischen-Anbieter. Denn in manchen Fällen sei die für eine zielgenaue Lösung von Problemen bei der Datenqualität nötige Funktionalität von kleineren Anbietern viel günstiger zu bekommen als von den großen.

„Die Unternehmen in der oberen rechte Ecke des Magischen Quadranten sind viel teurer als die in der unteren linken Ecke“, erklärt Bitterer, „und nicht jeder braucht gleich einen 40-Tonner.“

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Datenqualität und Datenbereinigung

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchDataCenter.de

Close