Ein Kommentar von Christian Löhnert, Pre-Sales Consultant und Christian Friese, Account Manager, bei der Consol Software GmbH in München.
Zu teuer, zu kompliziert, nur was für große Konzerne, nur für extrem große Datenmengen: So oder so ähnlich lauten übliche Vorurteile bei mittelständischen Unternehmen, wenn es um Big Data geht. Doch die Realität sieht gänzlich anders aus und ein Ignorieren des Themas wird für viele Unternehmen zwangsläufig in einem Wettbewerbsnachteil münden.
Das gängigste Missverständnis ist, dass Big Data mit sehr großen Datenmengen gleichgesetzt wird – selbst erfahrene IT-Leiter vertreten oft diese Auffassung. Sie spiegelt aber höchstens eine eindimensionale Sicht der Dinge wider. Die Kernpunkte für die Relevanz des Einsatzes von Big-Data-Technologien sind die drei Vs der ersten Big-Data-Definition, die mittlerweile eine hohe Bekanntheit erlangt hat: Volume für große Datenmengen, Variety für die Vielfalt an Daten, die in jeder Form anfallen können, und Velocity für die in unterschiedlichen und vor allem hohen Geschwindigkeiten anfallenden Daten. Ist auch nur einer dieser Bereiche im eigenen Unternehmen mit herkömmlichen Technologien schwer bedienbar, sollte der Einsatz von Big-Data-Technologien in Erwägung gezogen werden.
Mit Big-Data-Technologien können die genannten Herausforderungen (drei Vs) bewältigt werden. Mit traditionell genutzten Business-Intelligence-Tools lassen sich diese Daten entweder überhaupt nicht oder nur mit einem erheblichen Zeitaufwand analysieren. Big-Data-Lösungen hingegen bieten technische Möglichkeiten, mit denen sich umfangreiche Analysen viel schneller durchführen lassen. Zudem ermöglicht es die Big-Data-Technologie, Datenmengen aus der Vergangenheit und Gegenwart und aus den unterschiedlichsten internen und externen Quellen in Beziehung zueinander zu setzen und Korrelationen sowie Muster zu erkennen. Dadurch können auch Auswirkungen und Ergebnisse rechnerisch prognostiziert werden.
Best Practices bei der Big-Data-Umsetzung
Für eine erfolgreiche und schnelle Big-Data-Implementierung sind schon das richtige Aufsetzen des Projekts und die ersten Schritte entscheidend. Generell empfiehlt sich ein iteratives Vorgehen. Zunächst sollte ein dreistufiger Ansatz gewählt werden: mit einer Ermittlung der Daten, einer Analyse der Daten und einer Definition von Anwendungsfällen.
In einem ersten Schritt ist das „Informations-Ökosystem“ des Unternehmens zu untersuchen, um alle für die Geschäftsprozesse relevanten Daten zu ermitteln.
Dabei sind vor allem Fragen zu klären wie:
♦ Welche Daten liegen wo und in welcher Form vor?
♦ Welches Datenvolumen existiert?
♦ Wie häufig werden Daten erzeugt und/oder geändert?
♦ Welche bekannten Beziehungen haben die Daten zueinander?
♦ Gibt es Einschränkungen bei der Nutzung und Speicherung der Daten?
♦ Welche Schnittstellen gibt es für den Datenzugriff
Die gesammelten Informationen müssen im nächsten Schritt einer Analyse unterzogen werden. Ziel dabei ist, Daten und Zusammenhänge aufzuzeigen, zu clustern und eine System-Daten-Matrix zu erstellen. Die Analyse ist meist der aufwändigste Teil, da ein externer Big-Data-Consultant hierfür ein umfassendes Verständnis der branchentypischen Daten und Zusammenhänge mit sich bringen muss. Aus der Analyse ergibt sich in der Regel ein Bild von definierten Datendomänen. Eine Datendomäne kapselt dabei verschiedene Daten und Datentöpfe in generische Cluster mit ähnlichen Inhalten, zum Beispiel Kundendaten, Interaktionsdaten, Marketinginformationen oder Finanzdaten. Um eine Einordnung und Bewertung im Big-Data-Kontext zu erleichtern, müssen die Domänen und Daten weiter klassifiziert werden. Kriterien hierfür sind zum Beispiel das Volumen, die Häufigkeit und Art des Auftretens, der Typ (strukturiert oder unstrukturiert) und die Qualität beziehungsweise der Informationsgehalt. Auf dieser Basis kann dann eine System-Daten-Matrix erstellt werden.
In einem dritten Schritt sollten aus der Vielzahl potenzieller Anwendungsmöglichkeiten ein oder zwei konkrete Szenarien ausgewählt werden. Anhand dieser Anwendungsfälle kann dann schnell überprüft werden, ob und wie durch Big Data in kurzer Zeit ein realer Mehrwert für das Business generiert werden kann.
Generell hat sich gezeigt, dass bei Big-Data-Projekten nicht von Anfang an der große Wurf gewagt werden sollte. Das Motto muss lauten „Klein anfangen, groß wachsen“. Es ist immer ein schrittweises Vorgehen angebracht. So sollte mit einem Pilotprojekt gestartet und erst anschließend das Lösungsszenario sukzessive ausgeweitet werden. Der Grund: die Möglichkeiten, die ein Big-Data-Ansatz durch die Verknüpfung aller verfügbaren Datenquellen mit sich bringt, sind komplex. Die Charakteristika eines ersten Szenarios sollten daher eine geringe Komplexität, schnelle Realisierbarkeit und ein erkennbarer Mehrwert sein.
Technische Umsetzung muss nicht kostspielig sein
Nach Erfahrungen von Consol vertreten rund 90 Prozent aller mittelständischen Unternehmen beim Thema Big Data die Auffassung „dafür sind wir zu klein“; damit sind vor allem die Kosten der technischen Umsetzung gemeint. Zutreffend ist diese Einschätzung aber nicht unbedingt. Denn Big-Data-Technologien ermöglichen es auch kleinen und mittelständischen Unternehmen, sehr kostengünstig in ein Projekt einzusteigen – teilweise sogar Open-Source-basiert, zumindest im Hinblick auf die Software und Plattform.
Hinsichtlich der zentralen Big-Data-Aufgaben, möglichst viele unterschiedliche Datenquellen miteinander zu verknüpfen und Daten schnell zu analysieren, bieten sich vor allem Systeme an, die hochgradig verteil- und skalierbar sind. Dabei sind nicht nur Datenbanken relevant, sondern auch verteilte Dateisysteme. Dazu kommt eine sehr effiziente Nutzung des Arbeitsspeichers (Memory) für die Datenzugriffe und für Berechnungen auf den Daten (Caching). So setzen NoSQL-Datenbanken im Hadoop-Ökosystem (wie Apache HBase) hochgradig auf Verteilung und Memory-Optimierung und können so auf Terabytes von Daten extrem schnellen Zugriff bieten. Technologien wie Apache Spark setzen bei der Datenverarbeitung ebenfalls auf Verteilung und Memory-Optimierung, um Geschwindigkeitsvorteile zu erzielen.
Die Vorteile sind weitreichend
Mit Big-Data-Lösungen können auch größte, unstrukturierte Datenvolumina effizient bewältigt werden – sowohl im Hinblick auf die steigende Datenmenge und -vielfalt als auch hinsichtlich der erforderlichen Abfragegeschwindigkeit. Unter anderem kann Big Data die folgenden vier Vorteile bieten:
- Identifizierung von Optimierungspotenzialen
- Agile Reaktion auf Veränderungen am Markt, beim Kunden und im eigenen Unternehmen
- Ermöglichung fundierter strategischer Management-Entscheidungen
- Gewinnung von Wettbewerbsvorteilen
Jedes Unternehmen – durchaus auch ein mittelständisches – sollte auf jeden Fall überprüfen, inwieweit die Big-Data-Nutzung zusätzliche oder neue Marktchancen eröffnen kann. Denn eines darf nicht übersehen werden: Daten und Informationen sind die „neue Währung“. Ein besseres Marktverständnis bedeutet gleichzeitig einen Informationsvorsprung – und dieser lässt sich leicht in einen Wettbewerbsvorteil ummünzen.
Das Big-Data-Vorgehensmodell von Consol
- Risikoarmes Vorgehen und leichtgewichtiger Start auf dem Weg zu Big Data
- Von kurzen Workshops mit Potenzialidentifizierung zu überschaubaren Projekten
- Nutzung von Fachexpertise im gesamten Apache-Hadoop-Ökosystem und im Umfeld von Cloudera und Hortonworks
- Verknüpfung von Big Data mit Datenanalyse und Business Intelligence zur Schaffung eines maximalen Mehrwerts
By accepting you will be accessing a service provided by a third-party external to https://archiv.report.at/