Michael Kienle, Geschäftsführer it-novum, analysiert Big-Data-Technologien für die Industrie.
In welchen Bereichen kann Big-Data-Analysesoftware im Produktionsumfeld von Großunternehmen sinnvoll eingesetzt werden?
Michael Kienle: Ich sehe da vor allem die Optimierung von Produktionsprozessen durch die Nutzung von Sensor- und Maschinendaten und eine umfassendere Analyse von Kundenbedarfen zur besseren Vorhersage von Produktionsbedarfen, bspw. indem man Social Media-Daten auswertet oder weitgehende Informationen entlang der Supply Chain integriert. Auch das Produktdesign lässt sich optimieren, weil sich Kundenbedürfnisse besser ermitteln lassen. Im Qualitätsmanagement lassen sich Verbesserungen durch tiefere Analysen der Produktion erreichen.
Welche Daten spielen in der Produktion generell eine besonders wichtige Rolle, welche können eher vernachlässigt werden?
Kienle: Maschinen- und Sensordaten spielen eine herausgehobene Rolle, besonders in Kombination mit den Daten aus den Bestandssystemen.
Können Sie uns bitte ein konkretes Beispiel für den Big-Data-Einsatz im Produktionsumfeld von Großunternehmen beschreiben?
Kienle: Der Pharmahersteller Merck nutzt Hadoop für die schnellere Entwicklung von Impfstoffen. Durch den Schema-on-Read-Ansatz von Hadoop kann das Unternehmen riesige Datenmengen aus 16 Datenquellen sofort für Analysen bereitstellen, ohne sie vorher über ETL-Prozesse in ein relationales Datenbankschema übertragen zu müssen. Die Zeit- und Ressourceneinsparungen bei der Impfstoffentwicklung sind dabei erheblich.
Auf welche Art und Weise könnten Big Data-Plattformen fehlende Transparenz im Produktionsgeschehen wettmachen?
Kienle: Zum einen können Daten entlang der Produktionsprozesse bzw. der Supply Chain schnell eingesammelt und ausgewertet werden. Das hilft, um einen Überblick über Produktion und Logistik zu bekommen, bessere Vorhersagen zu treffen und evtl. Probleme schneller erkennen zu können. Zum anderen können Daten ausgewertet werden, die bislang aus wirtschaftlichen Gründen (Kosten für Speicher etc.) keine Beachtung fanden. Produktionsabläufe werden dadurch transparenter und nachvollziehbarer.
Inwieweit würden sich die Aufgaben der Produktionsmitarbeiter durch den Einsatz von Big-Data-Technologien verändern?
Kienle: Informationen stehen schneller und umfänglicher zur Verfügung, sodass besser reagiert werden kann.
Welche Hürden sehen Sie für eine flächendeckende Nutzung von Big-Data-Lösungen in der Produktion?
Kienle: In den operativen Bereichen muss erst eine Akzeptanz der neuen Lösungen hergestellt werden. Ungewohnt kann es sicher erstmal für Mitarbeiter sein, dass Entscheidungen nicht mehr aus dem Bauch, sondern faktenbasiert getroffen werden. Zudem muss man sich erstmal über die relevanten Datenquellen und zu messenden Kennzahlen klar werden – was will ich wissen und wie will ich es aufbereiten? Das Top Management muss bereit sein, in die neuen Technologien zu investieren. Bei der Einführung von Big Data-Anwendungen geht es in erster Linie nicht um Technologien, sondern um Business-Szenarien. Das heißt, das Management muss zuerst die organisatorischen Rahmenbedingungen schaffen, damit die Projekte erfolgreich sein können und Optimierungspotentiale tatsächlich realisiert werden können.
Wie lassen sich sämtliche Datenquellen (Maschinen, Prozesse, Produkte) und Systeme (ERP, SCM, BI) am besten integrieren? Auf welche Standards sollten die IT-Verantwortlichen hier vor allem achten?
Kienle: Abhängig von den konkreten Anforderungen gibt es viele Technologien. Mit einer Hadoop-Plattform lassen sich z.B. Daten aus den unterschiedlichsten Quellen integrieren und auch sehr große Datenvolumen performant verarbeiten. Die Ergebnisse dieser Verarbeitung können über entsprechende Schnittstellen auch an bestehende Systeme, wie z.B. die Business Intelligence-Anwendung, zurückgegeben werden. Leistungsstarke ETL-Werkzeuge helfen, moderne Big Data-Architekturen zu bewirtschaften. Häufig gibt es nicht nur ein Hadoop-Cluster oder eine NoSQL-Datenbank, sondern ein Zusammenspiel unterschiedlicher Technologien. So hat es sich auch bewährt, verdichtete Informationen aus den Big Data Stores in analytischen Datenbanken zu speichern und sie dadurch den Anwendern schnell und einfach verfügbar zu machen. Moderne ETL-Werkzeuge bieten Schnittstellen zu diesen Systemen und ermöglichen den Betrieb solcher Lösungen. Ein großer Vorteil von Big Data-Technologien ist, dass fast alle von ihnen Open Source sind, sodass sie Standards unterstützen und eine offene Architektur besitzen.
Zur Person
Michael Kienle ist Geschäftsführer der it-novum GmbH. Er gehört zu den führenden Köpfen in der Business Open Source-Welt. Michael Kienle hat Open Source-Projekte wie openATTIC und openITCOCKPIT gegründet und den Gedanken von Business Open Source maßgeblich vorangetrieben. Bevor Michael Kienle zu it-novum kam, hatte er verschiedene Managementposten in der IT-Branche inne.
By accepting you will be accessing a service provided by a third-party external to https://archiv.report.at/