Gut für das Datengeschäft aufgestellt Featured
- Written by Martin Szelgrad
- font size decrease font size increase font size
Werner Höger, Geschäftsführer der IT-Power Services (IT-PS), und Michael Petroni, Head of Data Science, über Projekte für Datenanalysen und neue Chancen für die Industrie daraus.
Der Begriff des „Data Science“ ist eine kleine Wissenschaft für sich. Eine scharfe Definition gibt es nicht. Jeder definiert es etwas anders. „Wenn man es wortwörtlich nimmt, ist es die Anwendung von wissenschaftlichen Methoden, um Wissen aus Daten zu ziehen“, erklärt Michael Petroni.
Gemeinsam mit weiteren Kollegen wurde Petroni vor einem Jahr in ein Data-Science-Team an Bord des IT-Dienstleisters IT-PS (Link) geholt. Petroni leitet die neue geschaffene Einheit, die vor allem dem Mittelstand helfen soll, geschäftsbezogene Fragestellungen zu lösen. Mit dem persönlichen Hintergrund seiner langjährigen Arbeit mit IT-Architekturen und Cloudservices sieht er sich gut für das in Österreich noch relativ junge Datengeschäft aufgestellt.
Bild: Michael Petroni, IT-PS: „Explorativer Ansatz bei Data Science - die Projekte laufen agiler ab.“
Was ist nun der Unterschied von Data Science zu den klassischen Reporting-Werkzeugen, mit denen Unternehmen seit Jahren arbeiten? Zum einen, so der Experte, ist es eine Weiterentwicklung von Datenanalysen in Richtung Machine Learning. Machine Learning erkennt beispielsweise Zustände eines Systems „predictive“ – vorausschauend. Zum anderen spricht Petroni von einem „explorativen Ansatz: Projekte laufen agiler ab.“ Was er damit meint: Durch den forschungs- und innovationsgetriebenen Ansatz sind sowohl die Arbeit mit den Daten als auch die Ergebnisräume flexibler. „Natürlich ist es wichtig, am Anfang eine Zielsetzung und Fragestellung festzulegen – ebenso klare Messkriterien für den Erfolg eines Projekts.“ Doch die Agilität in der wissenschaftlichen Arbeit bedeute, auf der Forschungsreise ein anderes Ziel als ursprünglich geplant, erreichen zu können. Manches würde oft erst mitten im laufenden Projekt erkannt werden. Daraus können sich neue und bessere Fragestellungen ergeben.
Hürde mit vorhandener Technik gesenkt
Das IT-PS-Team zieht bewusst die Arbeit mit Open-Source-Werkzeugen vor, die auf den gängigen Machine-Learning-Plattformen der IT-Branche relativ gut verfügbar sind. Vorteil ist, auf diesem Weg lediglich laufende IT-Services verrechnet zu bekommen, nicht aber Lizenzkosten. „Die Eintrittskosten sind gerade bei Unternehmen in Österreich eine Hürde. Man müsste mehrere 100.000 Euro investieren, noch bevor man weiß, ob überhaupt etwas Sinnvolles herauskommt“, so Petroni.
Der Wiener IT-Dienstleister fokussiert seit Jahren auf die Midrange-Architektur der IBM-Power-Plattform, die in vielen Unternehmen im Einsatz ist. Auch moderne Data Science kann auf der Power-Plattform betrieben werden. Die Kunden haben die Möglichkeit, ihre Hardware der System-i-Serie zu nutzen – früher unter dem Namen AS/400 bekannt. „Viele aus dem Produktionsumfeld und der Industrie haben ihre Kerndaten immer noch auf AS/400-Maschinen laufen. Diese könnten aber ebenso gut für zumindest erste Data-Science-Projekte genutzt werden – schnell und günstig, ohne zusätzliche Investitionskosten“, verspricht IT-PS-Geschäftsführer Werner Höger.
Es ist von Unternehmen zu Unternehmen unterschiedlich: Mit rund zwei bis vier Monaten sollte bei einem Minimum Viable Product (MVP) gerechnet werden. Gibt es überhaupt noch keine Vorstellung über eine konkrete Zielsetzung, sollte diese zunächst in einem Workshop gefunden werden. Anschließend, in den Wochen darauf, legen es die Experten von IT-PS hemdsärmelig an – man versucht, aus den Daten möglichst schnell Erkenntnisse zu gewinnen. In einer „Profiling Phase“ werden dann ein gemeinsam mit den Fachabteilungen gewählter Anwendungsfall beleuchtet sowie Projektumfang, Risikofaktoren und Aufwände eingeschätzt.
Auch wenn generell Unternehmen von der Qualität ihrer vorhandenen Daten überzeugt sind – 80 Prozent der Arbeit bestehen typischerweise in der Beschaffung und Aufbereitung das Materials. „Man kann niemandem einen Vorwurf machen. Es ist völlig klar, dass mit einer Sicht von außen, völlig andere Anforderungen an Daten entstehen“, erklärt Petroni. Zudem werden in der wachsenden Vernetzung haufenweise unstrukturierte Daten generiert, die zusammengeführt werden müssen. Das ist beispielsweise ein Strom von Sensordaten, der gemeinsam mit anderen Quellen, den „Data Lake“ in der Unternehmens-IT speist.
Eine für Data Science typische Disziplin, in der die Wiener bereits Projekte umgesetzt haben, ist „Predictive Maintenance“. Es setzt auf Sensordaten auf, um etwa Vorhersagen bei beweglichen Maschinenteilen zu treffen. So kann eine Veränderung der Schwingungs-Charakteristik eines Lagers auf die Notwendigkeit einer Wartung oder Reparatur deuten. Durch die Analyse der Sensordaten wird rechtzeitig einem kostspieligen Ausfall entgegengewirkt.
Ein weiteres Einsatzfeld ist „Quality Management“. Mit Sensoren an Extrudern in der Kunststoffproduktion – Maschinen, die unter Druck eine zu verarbeitende Masse aus einer Öffnung pressen – kann die Qualität des Endprodukts vorhergesagt werden. Ein frühzeitiges Eingreifen vermeidet Fehlchargen und schont Ressourcen.
Bild: Werner Höger, IT-PS: "Die Anwender wissen selbst am besten, was sie benötigen.“
Zusammenarbeit auf allen Ebenen
Wem gehören eigentlich die Sensordaten in Maschinen? Das wird sehr unterschiedlich gehandhabt. Mancher Hersteller gibt keine oder bestenfalls einen Teil der generierten Daten für eine Nutzung durch die Anwender frei. Im Anlagenbereich wiederum sind Prozessdaten Betriebsgeheimnis der Unternehmenskunden. Die IT-PS-Experten arbeiten in der Regel direkt mit den Unternehmen vor Ort. „Die Anwender der Prozesssteuerungssoftware wissen am besten, was sie benötigen“, betont Höger. Er ist aktuell aber mit einem Hersteller im Gespräch, um Problemstellungen bei Anlagen gemeinsam zu servicieren.
Dass sich bereits die meisten Unternehmen mit dem Thema beschäftigen und erste Schritte setzen, steht für Höger und Petroni außer Frage. Doch in den produktiven Einsatz gehen in Österreich Projekte noch kaum. Industrieunternehmen in Deutschland sind da den Österreichern gut drei bis vier Jahre voraus. Die F&E-Budgets der heimischen mittelständischen Player sind kleiner als beim Nachbarn, vor allem dann, wenn Innovationsprojekt nicht das Kerngeschäft des Unternehmens betreffen.
Keine Wünsche lässt jedenfalls die Bandbreite der Methoden hinsichtlich Sensorik, Machine Learning und Data Science für das Erkennen von Anomalien offen: Da werden Schienen über Hochgeschwindigkeitskameras erfasst und für das menschliche Auge nicht erkennbare Risse mit Bildanalyse erkannt. Mit den Bewegungssensoren in den Smartphones der Straßenbahnbenutzer werden frühzeitig Weichenschäden erkannt. Drohnen ersetzen heute die gefährliche Kletterei an Windkraft-Anlagen, Schornsteine oder Brücken, um Materialermüdung zu detektieren. Und natürlich sind auch Finanztransaktionen und personenbezogene Daten Teil der Analysen, um Betrugsfälle zu verhindern oder – wesentlich harmloser, aber kommerziell wichtig – einer Vertragskündigung durch einen Kunden proaktiv mit Angeboten entgegenzusteuern. Auch die Analyse von Bewegungsströmen auf Verkaufsflächen oder die Optimierung von Logistikketten und Lieferwegen sind vielversprechende Betätigungsfelder.
Die Datenexperten setzen ihre Werkzeugkiste mit Bedacht ein: die herkömmlichen Algorithmen der alten Data-Analytics-Welt ebenso wie KI- und ML-Plattformen aus der Cloud. „Die Unternehmen haben in den vergangenen Jahren Riesenmengen an Daten gesammelt und aufgebaut. Jetzt sollte man etwas daraus machen.“