Menu
A+ A A-

Do more with less

Von Daniela Hoffmann

Im Rahmen des Kundenbeziehungsmanagements haben Unternehmen in den letzten Jahren Datenbestände aufgebaut, die sich ab einigen Terabyte aufwärts bewegen und jährlich im Schnitt verdoppeln. Die Kosten der aufwendigen Datenhaltung in Data Warehouses und Data Stores stehen im direkten Verhältnis zur Nutzung der Daten. Hier bieten analytische Funktionen und Business Intelligence neben dem verbesserten Informationsgrad der Mitarbeiter im Kontakt zum Kunden ein breites Einsatzfeld. Besonders am Herzen liegen den meisten Unternehmen Fragen nach dem Abwanderungsverhalten der Kunden (Churn Management) aber auch das Thema Betrugsabwehr (Fraud Detection). Allein, die hohe Schule der Analyse, das Data Mining, erforderte bisher ein entsprechendes Maß an Statistik- und Informatik-Wissen. Ausgebildetete Experten entwickeln Datenmodelle und Algorithmen, die im Anschluss getestet und modifiziert werden - Erfahrung und Geduld gelten dabei als wichtige Ingredenzien. Nur wenige Modelle entstehen so jährlich, die sich ressourcenbedingt lediglich mit ausgewählten Kernthemen des Geschäfts befassen können.

Bei teilweise monatlich wechselnden Preismodellen und Geschäftsprozessen stößt das klassische Data Mining daher rasch an Grenzen - und viele Entscheidungen bleiben weiterhin dem Bauchgefühl vorbehalten. Der Bedarf an prädiktiven (vorausschauenden) Datenmodellen liegt heutzutage jedoch zwischen mehreren hunderten und rund tausend pro Jahr. Diese Lücke füllt der amerikanische Softwarehersteller KXEN, der seinen Ansatz dann auch \"Extreme Data Mining\" nennt.

Datenausgrabung mal anders. Das Unternehmen mit Hauptsitz in San Francisco hat in den letzten 10 Jahren die in den Neunzigern entstandenen mathematischen Ansätze des Wissenschaftlers Vladimir Vapnik aufgegriffen. Vapnik befasste sich mit statistischen Eigenschaften des Lernverhaltens und übertrug diese auf das maschinelle Lernen. Dabei geht es darum, einen theoretischen Rahmen für das Problem der Inferenz zu bieten, also für das Problem, aus einem Datensatz Wissen über zugrunde liegende Muster zu erlangen. Die Idee von KXEN ist im Grunde die Fortsetzung der künstlichen Intelligenz (KI) mit den Mitteln der Business Intelligence (BI). Statt auf statistischen Ansätzen fußt die Software auf Mathematik. Zu den Vorteilen des selbstlernenden Systems zählt insbesondere, dass sich die Mitarbeiter nicht mit der Datenqualität und der Auswahl von Variablen \"per Hand“ - einschließlich der überprüfung ihrer Properties - zu befassen brauchen. Hier liegt ein beträchtliches zeitliches Einsparungspotential. Fehlwerte oder Ausreißer wertet das System aus, ohne Mittelwerte zu bilden - dabei wird davon ausgegangen, dass diese Phänomene analytische Relevanz besitzen (beispielsweise wenn Alter oder Verdienst nicht angegeben wurden). Der amerikanische Hersteller arbeitet kontinuierlich mit einem aktiven wissenschaftlichen Beirat, dem zwölf Wissenschaftler aus Mathematik und Statistik angehören. Ziel ist, regelmäßig neue Forschungsergebnisse in den Entwicklungsprozess einzubeziehen.

Die Lösung grenzt sich klar zu ETL-Tools ab, auch wenn über Schnittstellen auf unterschiedliche Datentöpfe zugegriffen werden kann. Als Grundlage benötigt das analytische Framework ein bereits bestehendes Data-Warehouse-System, aus dem zum Beispiel via ODBC sogenannte analysefähige Datensätze (ADS) zur Weiterbearbeitung generiert werden können. Diese Datensätze liest das Analytic Framework ein und wertet sie aus, ohne sie redundant zu speichern.

back to top