Digital Wave, Big Data
- Written by Karin Legat
- font size decrease font size increase font size
In den letzten zehn Jahren hat das monatliche Datenvolumen, das durch die globalen Netze strömt, um den Faktor 750 zugenommen. Ein Ende dieses Trends ist nicht in Sicht.
2013 war Österreich von einem historischen Hochwasser betroffen. Eine Flut meldet auch die IT. Bis 2015 könnten global bereits knapp fünf Zettabyte Datenmaterial vorliegen. Die Menge der gespeicherten Daten soll 40 Zettabyte erreichen, anders gesagt: 40.000.000.000.000 Gigabyte. Einflussfaktoren dieses nicht alltäglichen Datenvolumens sind mobile Geräte und Apps, Cloud Services, mobile Breitbandnetze und Social Media. Die Vernetzung und Ausrüstung mit elektronischen Schaltkreisen und Kleinstcomputern nimmt rasant zu. »Die Datenflut wird intensiver, es wird gar nicht anders gehen«, blickt SAP-Geschäftsführer Klaus Sickinger in die nächsten Jahre. Jedes Gerät wird zur Datenquelle. VW definiert das Auto der Zukunft bereits als mobile Plattform, nicht mehr als Fortbewegungsmittel. Auch der Mensch wird zur Datenquelle. 96 % aller weltweiten Daten sind laut SAP bereits digital, nur mehr 4 % analog. Was über tausende Jahre entstanden ist und Bibliotheken füllt, bildet nur mehr einen Bruchteil der Daten. »Die Verarbeitung großer Datenmengen betrifft heute alle Wirtschaftsbereiche«, betont Georg Droschl, Product Marketing Manager im Bereich Server bei Microsoft Österreich. Laut SAP selektieren Firmen künftig nicht während der Datenaufnahme, sondern setzen Daten zuerst in Beziehung und gewinnen daraus Informationen.
Zeitsprung
In den letzten 15 bis 20 Jahren fand ein Auseinanderdriften der Datenwelten statt. Daten konnten verarbeitet oder ausgelesen bzw. analysiert werden. »Mit der Datenexplosion nahmen Verzögerungen zu«, so Sickinger. Ein Problem für jede Branche, egal ob Health Care, Public Sector, Industrie- oder Dienstleistungsbetriebe. Daten müssen schnell aufgerufen werden können und strukturiert sein. »Durch die Datenflut ist zwar eine hohe Komplexität entstanden, aber heute kann diese mit weit verbreiten Standard-Tools einfach verarbeitet werden«, informiert Microsoft-Manager Georg Droschl. Anstatt ein zusätzliches System einzuführen, ist In-Memory-Computing direkt in Microsoft SQL Server verfügbar.
Im Zusammenhang mit der Datenflut fällt oft der Begriff SAP HANA. SAP hat als bislang einziges Unternehmen die beiden Datenwelten, d.h. transaktionale und analytische Daten, kombiniert. »Bei HANA liegen die Daten gesammelt im Arbeitsspeicher«, informiert Sickinger. Die In-Memory Technologie ermöglicht die rasche Analyse riesiger Datenmengen, eine Steigerung der Performance, Transaktions- sowie Analyseverarbeitung werden optimiert. Zwar wächst der Speicherbedarf, das stellt heute aber laut SAP kein Problem dar. Speicher ist günstig und verfügbar.
Datenflut
Der Großteil der Daten entsteht heute unstrukturiert, über Plattformen wie Twitter oder mobil. Es handelt sich um einzelne Beiträge, die in keiner formalisierten Struktur vorliegen und auf die nicht über Schnittstellen zugegriffen werden kann. Strukturierte Daten liegen dagegen in Datenbanken oder Dateien und weisen eine gleichartige Struktur auf. »In wenigen Jahren spricht keiner mehr von dieser Zweiteilung«, ist sich Robert Kurz, Global Services Lead Central and Eastern Europe bei EMC, sicher. »Es wird nur mehr eine Gesamtheit an Daten geben, die lesbar zu machen sind, um am Markt zu reüssieren.« Aktuell bietet EMC mit Pivotal HD eine hochperformante Big-Data-Analyseplattform. SQL-Abfragen werden sehr viel schneller ausgeführt als bei SQL-ähnlichen Abfragen anderer Distributionen. Mit EMC Isilon sind ein skalierbares Speichersystem sowie ein leistungsstarkes Analyse-Tool am Markt. Eine wichtige Distributed-Data-Processing-Plattform zur Verarbeitung großer Datenmengen ist Hadoop. Microsoft bietet mit StreamInsight – als Teil von SQL Server – eine leistungsstarke Plattform für die Entwicklung und Bereitstellung von Anwendungen zur komplexen Ereignisverarbeitung, schafft eine Möglichkeit zur Verarbeitung von Streaming-Daten und dadurch Vorteile im Bereich der Benutzerschnittstellen, aber auch der Infrastruktur.
Ein Gewinn, wenn richtig genutzt
In der Natur sind Flut und Überschwemmung ein Maß für Vernichtung, Tod und Ausfall. Im Business bedeutet Datenflut genau das Gegenteil, nämlich Erfolg, Wachstum und Entfaltung. Die gewonnenen Informationen lassen sich von der Mitarbeitereinsatzplanung über die Verbesserung der Absatzprognose, für Verhaltensanalysen, die Anpassung des Produktangebotes, Produktoptimierungen, besseren Service, mehr Unterstützung in den operativen Abläufen und beim Aufbau neuer Geschäftsfelder u.v.m. nutzen. »Master Data Management wird in Unternehmen immer wichtiger«, so Georg Droschl. Vor allem im Retailsegment mit Millionen Kunden ergeben sich laut SAP enorme Geschäftsmöglichkeiten. IT-Manager müssen Daten als eine Ressource ansehen wie Wasser, Öl oder Gold, so die Branche. Daten müssen dabei aber richtig genutzt werden. Hier muss noch einiges aufgeholt werden. »Notwendig ist ein europäisches Datenschutz- bzw. Datenrechtgesetz. Der aktuelle Datenschutz stammt noch aus der analogen Welt. Wir müssen den Sprung ins digitale Zeitalter schaffen«, so Sickinger. Wenn das nicht gelingt, sind Firmen eingeschränkt und müssen im Graubereich arbeiten. Das kann eine geringere Investitionsbereitschaft zur Folge haben.
Wie es sein wird …
Gigabyte, Exabyte, Zettabyte – Daten bestimmen das heutige Leben. »Durch die intelligente Verarbeitung von Daten gehören Entscheidungen aus dem Bauch weitestgehend der Vergangenheit an«, betont Georg Droschl überzeugt. »Unternehmen sind in der Lage, Unsicherheiten zu reduzieren und können Entscheidungen auf Grundlage einer Vielzahl von miteinander vernetzten Informationen treffen.« Hier hakt Robert Kurz ein. »Künftig wird sich die Unterscheidung in Big und Fast Data auftun. Nicht alles, was Big ist, bedeutet Fast. Ich muss personalisierte Daten schaffen und meine Zielgruppe zum richtigen Zeitpunkt kontaktieren«, betont er und bringt das klassische Beispiel der personalisierten Werbebotschaft, die ein Kunde bei Betreten des Shoppingcenters erhält. »Damit investiert er mehr Zeit und Geld vor Ort«, berichtet er aus eigener Erfahrung. Big Data und Fast Data – Garant für Umsatzplus.
Himmlische Datenflut
Wolken stehen für Regen, Regen speist die Flut. Auch in der IT besteht ein unmittelbares Verhältnis zwischen Cloud und Datenflut. Kein Unternehmen verzichtet in Produktion oder Bereitstellung von Dienstleistungen auf IT. Doch nicht für jedes System, z.B. für Logistik oder HR, werden eigene Abteilungen aufgebaut. »Cloud wird zum wichtigen Bestandteil der IT Landschaft, wobei manche Prozesse im Unternehmen gehalten, andere ausgelagert werden. Dafür braucht es Datenklassifizierung. Der Zugriff muss definiert werden, ebenso, ob ich ihn schnell oder langsam benötige«, zeigt Robert Kurz auf und zitiert abschließend aus dem EMC-Buch »The Human Face of Big Data«: »›During the first day of a baby’s life, the amount of data generated by humanity is equivalent to 70 times the information contained in the library of congress.‹ Wir sind noch lange nicht am Daten-Plafonds angekommen.«
INFO
Wacker Neuson, ein weltweit tätiges Bauunternehmen mit Sitz in München, setzt seit August letzten Jahres auf SAP HANA. »Entscheidend sind die Geschwindigkeit der Ladeprozesse und der Reports. Wir haben eine wesentliche Performancesteigerung erreicht«, berichtet Anton Müchler, Director of Corporate IT. »Wir hatten bei den Auswertungen Laufzeiten von einer halben Stunde. Mit SAP HANA haben wir eine Beschleunigung um den Faktor 75 erreicht.«