Big Data öffnet den BI-Markt für weitere Anbieter wie Splunk

Die Idee hinter Splunk ist die Bereitstellung einer Suchmaschine für Daten aus IT-Systemen, analog zu Google als Suchmaschine für Daten aus dem World Wide Web.

Die Idee hinter Splunk ist die Bereitstellung einer performanten Suchmaschine für Daten aus IT-Systemen, analog...

zu Google als Suchmaschine für Daten aus dem World Wide Web.

Splunk sammelt maschinell erzeugte Daten aus IT-Systemen und Applikationen (zum Beispiel Server-Logs, Netzwerk-Traces, Event-Logs, Click-Stream- sowie E-Commerce-Daten, RFID- und GPS-Daten) und stellt diese vornehmlich IT-Anwendern zur Verfügung um Probleme, Risiken und Chancen schneller zu identifizieren. Splunk nennt dies Operational Intelligence.

Unternehmen

Splunk hat als 2004 in San Francisco gegründetes Unternehmen nach eigenen Angaben bereits 3500 Kunden mit 80.000 Anwendern in 78 Ländern. 2010 wurde ein veröffentlichter Umsatz von 66 Mio. US-Dollar erzielt, für 2011 schätzt BARC ca. 150 Mio US-Dollar Umsatz, was die Wachstumsraten in diesem relativ kurzen Zeitraum zeigt. Im deutschsprachigen Raum ist Splunk bereits seit rund zwei Jahren aktiv und weist bereits 160 lizenzierte Kunden auf.

Produkt

Hauptdisziplin des Produktangebotes ist die Entgegennahme und Indizierung von Rohdaten um diese nutzbar zu machen. Splunk übernimmt die Rolle eines Intelligence Layer, der Originaldaten aus unterschiedlichen Quellen verarbeitet und korreliert.

Mehrwert der Applikation gegenüber Systemmanagementwerkzeugen wie Tivoli oder CA liegt laut Splunk uunter anderem in der Vermeidung des „Early Binding“ einer frühen Informationsverdichtung, die keine Rückschlüsse auf die Originaldaten zu einem späteren Zeitpunkt mehr zulässt. Ein zweiter Vorteil der Software liegt in der Möglichkeit Log-Daten aus unterschiedlichen Systemen als ein Ganzes zu durchsuchen. Letztere Punkt ist zudem differenzierendes Merkmal zur direkten Konkurrenz wie ArcSite oder LogLogic.

Als Data Transportation Layer kann u.a. auch syslog genutzt werden. Ein Forwarder ist nicht in allen Fällen von Nöten, beziehungsweise möglich, zum Beispiel auf proprietären Netzwerkgeräten.

Technisch betrachtet werden Rohdaten über sog. Splunk Forwarder gesammelt und an einen Splunk Indexer gesendet, der die Daten in einem beliebigen File-System komprimiert und verteilt abgelegt und indiziert. Das erzeugte Indexfile ist Basis der Suchanfragen und Auswertungen der Anwender im Splunk Search Head. Das Nutzerinterface ist demnach zunächst eine Suchoberfläche. Die Schlüsselwortsuche wird ergänzt um mehr als 50 Befehle, die auf das Suchergebnis angewendet werden können. Hier können grafische Aufbereitungen, Kalkulationen weiterer Werte und Filter definiert und angewendet werden.

Das Produkt steht frei zum Download bereit und ist für eine Nutzung bis 500MB/Tag (inkrementell) kostenlos nutzbar. Fertige Applikationen bestehend aus den eben beschriebenen Komponenten sind kostenlos für den Nutzer in einer Art App Store erhältlich. Das beinhaltet technische Applikationen wie Windows- oder Netzwerküberwachungen bis hin zu fachlicheren Webseiten Tracking und Nutzerauswertungen. Eine stärkere Orientierung auf fachliche Themen durch Apps und/oder Ergänzung von Funktionen wie Trend Analysen ist bei Splunk zu erwarten.

Einschätzung

Aus den verschiedenen Big Data Facetten adressiert Splunk die Erschließung und den ad-hoc Zugriff auf Datenquellen und Datenstrukturen im Umfeld maschinengenerierter Daten. Gewisse Korrelierungs- und Vorstrukturierungsmöglichkeiten ermöglichen neben des reinen ad-hoc Zugriffs auf diese Daten im Sinne von Suchanfragen auch zum Beispiel den Aufbau von Dashboards. Recht schnelle Verarbeitungsmöglichkeiten unterstützen dabei vor allem Monitoring-Lösungen, die mit kurzer Zeitverzögerung aktuelles Geschehen in IT-Systemen oder Applikationen darstellen können.

Über den Autor:

Dr. Carsten Bange ist geschäftsführender Gesellschafter des Business Application Research Centers (BARC). Er ist seit mehr als 10 Jahren für nationale und internationale Unternehmen verschiedenster Branchen und Größen im Rahmen der Strategie- und Architekturberatung, Werkzeugauswahl und Qualitätssicherung in Business-Intelligence- und Datenmanagement-Projekten tätig. Als neutraler Beobachter des Softwaremarktes ist er ein häufiger Redner bei Tagungen und Seminaren sowie Autor zahlreicher Fachpublikationen und Marktstudien.

Artikel wurde zuletzt im Mai 2012 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Big Data

0 Kommentare

Älteste Beiträge 

Passwort vergessen?

Kein Problem! Tragen Sie Ihre E-Mail-Adresse unten ein. Wir werden Ihnen eine E-Mail mit Ihrem Passwort schicken.

Ihr Passwort wurde an die folgende E-Mail-Adresse gesendet::

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchDataCenter.de

Close