lutya - Fotolia

Fünf Wege zur Vermeidung üblicher Fallstricke in Big-Data-Analytics-Projekten

Die Bedeutung der Daten und ihre Funktion nimmt weiter zu, denn sie helfen Firmen, komplexe Probleme zu lösen. Fünf Wege, den Datenberg zu erklimmen.

Die Bedeutung der Daten und ihre Funktion im Unternehmen nimmt immer mehr zu. Von der Eindämmung finanzieller Risiken durch die Aufdeckung von Betrug bis hin zum Einsatz von Empfehlungssystemen zur Optimierung der Kundenzufriedenheit helfen Daten Unternehmen dabei, immer komplexere Probleme zu lösen.

Was haben wir in den letzten Jahren, als die Daten der Organisationen in den Vordergrund gerückt sind, gelernt? Mit Optionen, die von proprietärer über Cloud-basierte Software bis hin zu Open-Source-Tools reichen, verfügen die heutigen Entwickler, Architekten und IT-Profis über eine große Auswahl, wenn es um großangelegte Analytics-Projekte geht. Einige erfordern teure Vorabinvestitionen, andere erfordern viele Ressourcen. Und dann gibt es Werkzeuge, die optimal geeignet sind: Sie sind einfach zu implementieren und bieten umfangreiche Features, um Prototypen für verschiedene Größenordnungen zu entwerfen und zu skalieren.

Es ist entscheidend, die Tools zu finden, die den Projekterfolg steigern und Ihnen dabei helfen, häufige Fallstricke zu vermeiden. Hier sind fünf Tipps für die Wahl der richtigen Produkte für ein Analytics-Projekt.

1. Klein und einfach starten

Einer der größten Fehler, den Unternehmen bei einem Analytics-Projekt machen, ist zu früh zu groß zu werden. Vor allem, wenn Projekte von oben nach unten vorangetrieben werden, besteht häufig die Versuchung, zunächst mit dem Bau einer komplexen Lösung zu beginnen, ohne ein klar definiertes Ergebnis vorzugeben. Das führt zu teuren und zeitintensiven Projekten.

Man sollte stattdessen klein starten und sich auf schnelle, einfach erreichbare Ziele konzentrieren, um Vertrauen bei den Anwendern aufzubauen. Der Einsatz moderner Open-Source-Technologien, die keine großen finanziellen Engagements im Voraus benötigen und die es Entwicklern ermöglichen, schnell zu starten, ist ebenfalls empfehlenswert. Ein erwünschtes Ergebnis ist dabei der Bau einer Anwendung oder eines Prototyps im Zeitraum von Tagen oder Wochen.

2. Frühzeitig Skalierbarkeit modellieren

Auch wenn man nur einen Prototypen erstellt, ist es wichtig, dass so früh wie möglich die Skalierbarkeit getestet wird. Viele Projekte scheitern, weil die Anwendung nicht im Hinblick auf Skalierbarkeit erstellt oder getestet wurde oder weil die gewählten Technologien nicht für die Verarbeitung großer Datenmengen ausgelegt waren.

Wichtig ist, dass Performance-Tests nicht als nebensächlich betrachtet werden und dass die gewählten Technologien passend zur erforderlichen Größenordnung sind. Dabei sollte man modellieren, wie viele Daten im Laufe der Zeit erfasst werden und es sollte die richtige Architektur erstellt werden, um die horizontale Skalierung bei gleichbleibender Performance zu ermöglichen, wenn das Datenvolumen wächst.

3. Verfügbarkeit von Echtzeitdaten priorisieren

Wir haben alle erlebt, was passiert, wenn eine Anwendung oder eine Website gar nicht oder nur langsam reagiert. Heute gilt alles, was nicht unmittelbar in Echtzeit auf Kundenanfragen reagiert, als unzumutbar. Wenn die Antwort einer Abfrage verzögert wahrgenommen wird, ist die Geduld der Benutzer schnell am Ende, und in vielen Fällen führt dies zu Umsatzeinbußen und Kundenverlusten.

Ein Unternehmen sollte sicherstellen, dass die verwendete Software nicht nur große Datenmengen verarbeiten kann, sondern auch schnelle Abfragen ausführt und Ergebnisse in Echtzeit zurückgibt. Außerdem sollte die Anwendung analytische Funktionen wie Aggregationen und Geofähigkeiten kombiniert mit Echtzeit-Suche integrieren.

Mehr zum Thema Big Data:

Big Data Frameworks: Sicherer Einsatz in Unternehmen.

Big Data Analytics Tools: Braucht man die Vielzahl an Werkzeugen wirklich?

Big Data Analyse versagt 2016 bei der Wahl Donald Trumps zum US-Präsidenten.

Wie Apache Hadoop beim Big Data Management helfen kann.

Essential Guide Big Data: Anwendung, Datenschutz und Technologie.

4. Flexible Datenmodelle verwenden

Heutige Systeme enthalten unstrukturierte und strukturierte Daten. Man sollte sich aber nicht durch relationale Datenbanken einschränken lassen, die für eine strukturierte Tabelle aus Spalten und Zeilen gebaut wurden. Diese machen es schwierig, große Datenmengen, die im Laufe der Zeit gesammelt wurden, zu indizieren, zu parsen, zu durchsuchen und zu analysieren.

Daher empfiehlt sich der Einsatz einer Software mit einer vielseitigen Datenstruktur. Viele moderne Technologien für Analytics-Projekte wie NoSQL-Datenbanken und Elasticsearch verwenden JSON, das sowohl strukturierte als auch unstrukturierte Datentypen wie Text, Zahlen, Strings, boolesche Werte, Arrays und Hashes unterstützt.

5. Entwicklerfreundliche Tools wählen

Bei den Datenmengen, die heute gesammelt werden, ist es schwierig, große analytische Projekte mit Software zu implementieren, die nicht über offene Programmierschnittstellen (APIs) verfügt. APIs werden verwendet, um Daten, die oft aus mehreren Quellen oder Systemen stammen, aufzunehmen, zu indizieren und zu analysieren.

„Auch wenn man nur einen Prototypen erstellt, ist es wichtig, dass so früh wie möglich die Skalierbarkeit getestet wird.“

Steve Mayzak, Elastic

Unternehmen sollten Ihre Entwickler mit Software unterstützen, die über eine reiche Auswahl an offenen und gut dokumentierten APIs verfügt. Diese ermöglichen es, das Problem und/oder den vorliegenden Anwendungsfall schnell und effizient zu lösen beziehungsweise zu bearbeiten. Zu gegebener Zeit sind die Entwickler dann auch in der Lage, die Anwendung kontinuierlich und innovativ zu verbessern sowie zu skalieren.

Fazit

Diese fünf Kriterien sollen bei der Auswahl der richtigen Werkzeuge für ein groß angelegte Analytics-Projekt helfen und damit die Time-to-Value des Projekts verbessern, und sicherstellen, dass eine Organisation auf langfristigen Erfolg ausgerichtet ist. Viele Unternehmen wie Otto, Netflix und Goldman Sachs haben diesen Ansatz gewählt, indem sie Open-Source-Software wählten, um kritische Anwendungsfälle zu lösen. Mit dem richtigen Ansatz lassen sich Daten gemäß den Anforderungen einer Organisation schneller, einfacher und günstiger als gedacht bearbeiten.

Über den Autor:
Steve Mayzak leitet das Team von Systemingenieuren bei Elastic. In den 15 Jahren in der Softwarebranche hat Herr Mayzak als Entwickler, Architekt und seit kurzem als Sales-Engineer Teamleiter gearbeitet.

Folgen Sie SearchEnterpriseSoftware.de auch auf Twitter, Google+, Xing und Facebook!

Artikel wurde zuletzt im April 2017 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Big Data

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchDataCenter.de

Close