Praxistag-Online: Hybride Cloud Data Warehouses mit SAP und Microsoft
Hybride Cloud Data Warehouses – wie das Zusammenspiel von SAP und Microsoft in der Cloud gelingen kann.
In einer zunehmend vernetzten Welt spielt die Integration von Datenplattformen eine entscheidende Rolle. Wie können Unternehmen SAP und Microsoft optimal kombinieren, um ihre Cloud-Datenstrategie auf ein neues Niveau zu heben? Unser Webinar liefert Antworten!
Im Rahmen unseres Praxistag-Online zeigen wir Ihnen, wie die Zusammenarbeit von SAP und Microsoft eine flexible und leistungsstarke Dateninfrastruktur ermöglicht. Dabei beleuchten wir, wie moderne Schnittstellen und Architekturen eine effiziente Integration gewährleisten, welche Trends die Business Intelligence der nächsten Jahre prägen und wie die Produktentwicklungen von SAP und Microsoft darauf abgestimmt sind.
Machen Sie Ihre Datenplattform zukunftssicher und entdecken Sie mit uns die Potenziale hybrider Cloud Data Warehouses.
Wir freuen uns auf Ihre Teilnahme!
Die Praxistage-Online-Reihe ist ein gemeinsames Veranstaltungsformat der affinis Gruppe (affinis, INFORMATION WORKS, Collogia, enerhym).
Weitere spannende Events:
Data Driven Marketing SummitKundenevent
SAP Business Data Cloud – eine neue Entwicklungsstufe der SAP Data & Analytics-Plattform
SAP hat Anfang Februar 2025 die SAP Business Data Cloud (BDC) vorgestellt – eine Plattform, die bestehende und neue SAP Data & Analytics-Komponenten in einer einheitlichen Cloud-Umgebung vereint. Sie verspricht weniger Administrationsaufwand, nahtlose Analyseprozesse und mehr Effizienz für Unternehmen. Mit der SAP Business Data Cloud betritt SAP eine neue Ära der Datenverarbeitung und -analyse. SAP betont dabei, dass die Business Data Cloud nicht als Ersatz für SAP Datasphere oder SAP BW zu verstehen ist, sondern als eine zusätzliche Abstraktionsschicht, die bestehende Komponenten orchestriert.
Welche Auswirkungen hat die Einführung der SAP Business Data Cloud? Wie verändert sie bestehende Systemlandschaften? Welche Vorteile ergeben sich für Unternehmen, die bereits auf SAP setzen oder eine Migration in Betracht ziehen? Dieser Beitrag gibt einen Überblick über die wichtigsten Funktionen der Business Data Cloud und mögliche Auswirkungen auf bestehende Datenstrategien.
Was ist die SAP Business Data Cloud?
Die SAP Business Data Cloud ist eine Software-as-a-Service (SaaS)-Plattform, die eine einheitliche Benutzeroberfläche für unterschiedliche SAP Data- & Analytics-Produkte bietet. Die Integration vereinfacht die Administration und den Betriebsaufwand. Eines der wesentlichen Merkmale der Business Data Cloud besteht in der zentralen Verwaltung. Durch das SaaS-Modell entfallen komplexe Lifecycle-Management-Prozesse und regelmäßige Updates, da sich die Plattform kontinuierlich aktualisiert. Zudem zeichnet sie sich durch eine konsolidierte Lizenzierung aus: SAP plant, die analytische Nutzung von Daten verschiedener Komponenten wie SAP Datasphere, SAP Analytics Cloud, SAP BW und SAP Databricks in einem gemeinsamen Lizenzmodell zu bündeln. Auch die Hinweise auf ein mögliches verbrauchsabhängiges Preismodell verdichten sich. Das gemeinsame Lizenzmodell setzt außerdem die Verknüpfung unterschiedlicher Technologien voraus. Bestehende Lösungen wie SAP BW können mit neuen Technologien wie SAP Databricks kombiniert und in eine zentrale Datenstrategie eingebunden werden.
Vielfältige und innovative Kernfunktionen
1. Insight Applications – vorgefertigte Berichte & Echtzeit-Analysen
Die SAP Business Data Cloud enthält standardisierte Berichte und Dashboards für verschiedene Geschäftsbereiche wie Finance, Sales, HR und Procurement. Die Integration von Machine Learning unterstützt die datengetriebene Entscheidungsfindung.
2. One Domain Model – zentrale und redundanzfreie Datenhaltung
Das One Domain Model sorgt für eine konsistente Speicherung von Daten ohne Redundanzen. Darüber hinaus ermöglicht es die zentrale Datenhaltung zur Verbesserung von Governance und Compliance, Cross-System-Queries für Echtzeitanalysen über verschiedene Datenquellen und virtuelle Datenabfragen ohne physische Duplikationen.
3. KI-Integration mit Joule & KI-Agents für Prozessautomatisierung
Die SAP Business Data Cloud integriert Joule, SAPs generative KI, und schafft den Raum, KI-Agents zur Prozessautomatisierung zu nutzen. Unternehmen können somit vorgefertigte KI-Modelle für SAP-Anwendungen einbinden oder eigene KI-Agents trainieren, um spezifische Geschäftsprozesse zu optimieren. Die neue Lösung hilft auch dabei, automatisierte Analysen und Handlungsempfehlungen für operative Prozesse zu generieren.
4. SAP Databricks – native Integration für Data Science & AI
Die Plattform verbindet SAP Databricks mit SAP-Datenquellen, was sich positiv auf die direkte Einbindung von SAP-Daten in Databricks-Objekten auswirkt. Skalierbare Machine Learning-Modelle für unternehmensspezifische Analysen und die hochperformante Verarbeitung großer Datenmengen mit Apache Spark bieten einen zusätzlichen Mehrwert für jedes Unternehmen.
5. Offenes Ökosystem & Drittanbieter-Integration
Die SAP Business Data Cloud unterstützt nicht nur die Integration SAP-eigener Lösungen, sondern auch die Anbindung externer Plattformen. Multi-Cloud-Umgebungen wie Microsoft Azure, Google Cloud und AWS oder Data Governance-Tools wie Collibra und Alation lassen sich problemlos mit der Data Cloud vereinen. Die Integration von Metadaten kann erfolgen, ohne die Datenpersistenz in externen Datenquellen zu gefährden.
6. Data Fabric & Data Mesh – dezentrale Datenarchitektur
SAPs neue Plattform eignet sich für die Anwendung einer Data Fabric- oder Data Mesh-Architektur. Innerhalb dieser Struktur verwaltet und organisiert ein Unternehmen seine Daten über sogenannte „Spaces“. Die Fachbereiche erhalten autonome Kontrolle über ihre Datenprodukte. Gleichzeitig fungieren die IT-Teams als Enabler, anstatt zentrale Kontrollinstanzen darzustellen.
SAP Business Data Cloud: Die Brücke zwischen Bestand und Innovation
Die genaue Betrachtung des neuen Tools zeigt: Die SAP Business Data Cloud erweitert bestehende SAP-Analytics-Lösungen und ermöglicht eine stärkere Integration moderner Cloud- und KI-Technologien. Unternehmen können bestehende Systeme nahtlos einbinden und profitieren von einer verbesserten Skalierbarkeit und Automatisierung. Die Business Data Cloud stellt dabei keine Ablösung bestehender Produkte dar, sondern fungiert als Plattform zur Optimierung und Harmonisierung von Analyse- und Datenprozessen.
Die Auswirkungen der Lösung auf bestehende IT-Landschaften und Geschäftsprozesse werden sich erst in den kommenden Monaten konkretisieren. Darum ist es für Unternehmen elementar, frühzeitig zu prüfen, welche Anknüpfungspunkte sich für ihre individuellen Anforderungen ergeben.
Sollten Sie Hilfe bei der Analyse Ihrer aktuellen SAP Data & Analytics-Umgebung benötigen, um die besten Ansätze für Ihre digitale Transformation zu identifizieren, kontaktieren Sie uns gerne!

Digitale Transformation beginnt mit dem richtigen Partner
Wir begleiten Sie auf dem Weg zu einer zukunftsfähigen IT – mit Fokus auf messbaren Mehrwert für Prozesse, Menschen und Ihr Business.
Was ist ein intelligentes Unternehmen?
Ein intelligentes Unternehmen, auch „Intelligent Enterprise“ genannt, zeichnet sich durch die Integration von zukunftsfähigen Technologien in allen Unternehmensbereichen sowie durch die dadurch abgeleitete Intelligenz aus. Intelligente Unternehmen schöpfen ihr Wissen aus Echtzeitdaten und nutzen diese, um datenbasierte Entscheidungen zu treffen. Der signifikante Mehrwert eines intelligenten Unternehmens liegt darin, die Rentabilität zu sichern, die Resilienz zu steigern und nachhaltiges Wirtschaften zu ermöglichen. Das „Intelligent Enterprise“ ist mehr als ein Digitalisierungstrend – es ist eine neue Denkweise und ein konkretes zukunftsorientiertes Konzept.
Was zeichnet ein Intelligentes Unternehmen aus und warum ist es wichtig?
In unserer ständig wandelnden Welt tendieren Märkte immer mehr dazu, sich schneller zu ändern und volatiler zu sein. Aufgrund der zunehmenden Anzahl von Unternehmen und neuen Technologien, ist Disruption eher zum Regelfall geworden als zur Ausnahme. Zusätzlich fordert die heutige Gesellschaft immer mehr von Unternehmen – so sind hohe Kundenerwartungen heutzutage der Normalfall.
Intelligente Unternehmen können, dank ihrer technologischen Tools und Prozesse, auf diese schnellen Veränderungen eingehen und dem Markt standhalten. Die Bereitstellung von Echtzeitdaten, Insight-to-Action-Analysen, End-to-End-Prozessen, Partnernetzwerken und die Integration von Drittanbietern bringt intelligente Unternehmen in die Lage, schneller fundierte Entscheidungen zu treffen und Geschäftsprozesse flexibel anzupassen.
Wer mit Produkten und Dienstleistungen innerhalb kürzester Zeit an den Markt gehen kann und schnell mit Geschäftspartnern interagiert, ist in einem volatilen Markt widerstandsfähig. Genau wie in der Evolution – wer sich anpassen kann, der überlebt. In der Lage zu sein, durch Krisen zu manövrieren sowie handlungs- und anpassungsfähig zu bleiben, ist hierbei essenziell. Diese Kompetenzen werden in Zukunft immer stärker gefragt sein. Ein intelligentes Unternehmen schafft sich mit diesen Fähigkeiten Wettbewerbsvorteile und eine langfristige Profitabilität. So sagte auch Stephen Hawkings bereits „Intelligenz ist die Fähigkeit, sich dem Wandel anzupassen“.
Was muss ein Unternehmen tun, um intelligent zu werden und welche Grundlagen sind dafür nötig?
Jedes Unternehmen ist unterschiedlich, daher sind die Wege zum intelligenten Unternehmen genau so individuell. Es gibt keine Blaupause, wie ein Unternehmen zu einem intelligenten Unternehmen wird. Eine Vielzahl von Faktoren beeinflussen die Digitalisierung und den Change eines Unternehmens. Auf der einen Seite muss der Ist-Zustand aufgenommen werden – der Ausgangspunkt auf dem Weg zum intelligenten Unternehmen. Auf der anderen Seite muss die zukünftige Zielsetzung des Unternehmens ermittelt werden. Denn Start und Ende sind auf dem Weg zu einem Intelligenten Unternehmen entscheidend.
Cloud-basierte Technologien, wie Machine Learning (ML), künstliche Intelligenz (KI), Internet of Things (IoT), Robotics Process Automation (RPA), und Data Analytics, ermöglichen Unternehmen, den Sprung zum intelligenten Unternehmen zu verwirklichen. Solche Technologien werden allerdings nicht von heute auf morgen eingeführt. Selbstlernende Prozesse sowie die dafür benötigte Infrastruktur aufzubauen, braucht Zeit und ist Teil eines umfassenden Unternehmens-Change.
Wie starte ich so einen Veränderungsprozess? Mit welchen Prozessen fange ich an? Welche Technologien werden dafür benötigt? Wie kann mein Unternehmen zu einem intelligenten Unternehmen werden? Nehmen Sie gerne Kontakt mit unseren Experten auf, wir helfen Ihnen gerne Ihren persönlichen Weg zum Intelligenten Unternehmen zu gestalten.

Digitale Transformation beginnt mit dem richtigen Partner
Wir begleiten Sie auf dem Weg zu einer zukunftsfähigen IT – mit Fokus auf messbaren Mehrwert für Prozesse, Menschen und Ihr Business.
Projektrückblick: Churn-Analyse bei einem Energieversorger
Gerade haben wir ein Predictive Analytics Projekt bei einem Energieversorger erfolgreich abgeschlossen. Wir berichten über die Herausforderungen in diesem Projekt, über Annahmen und deren Richtigkeit, unser angepasstes CRISP-DM-Vorgehen und welche Ergebnisse unsere Churn-Analyse bei diesem Energieversorger zu Tage gebracht hat.
Ausgangssituation
Bei unserem Auftraggeber handelt es sich um ein Energieversorgungsunternehmen (EVU), das regionale Produkte für die Bereiche Strom, Gas, Wasser, Wärme und Kommunikation liefert. Durch seine regionale Auslegung ist das Unternehmen im Hinblick auf seine Preisgestaltung nicht in der Lage, mit großen Discountanbietern zu konkurrieren. Das EVU beobachtet in den Bereichen Strom und Gas eine hohe Fluktuation der eigenen Kunden (ca. 10 – 20 % pro Jahr). Darüber hinaus liegen keine Einsichten über das Kündigungsverhalten der eigenen Kunden vor.
Arbeitsauftrag
Das EVU beauftragte affinis für eine Kundenabwanderungsanalyse (auch Churn-Analyse genannt).

Herangehensweise der Churn-Analyse
Die gewählte Herangehensweise orientierte sich stark am „Cross Industry Standard Process for Data Mining“ (CRISP-DM). Im Rahmen der Datenbeschaffung aus dem Abrechnungssystem identifizierten wir, dass eine Reihe hilfreicher Daten wie z. B. „Alter“, „Geschlecht“, „Kunde seit“ und „Zeitpunkt der Kündigung“ fehlten. Im Zuge dessen erstellte affinis einen Datenkatalog als Übersicht darüber, welche Daten vorhanden sind und welche Informationen für eine leistungsstärkere Analyse nötig wären.
Die Modellierungsphase verlief zweigeteilt. Auf der einen Seite bedienten wir uns Data Mining- und Regressionstechniken, um wichtige Einflussfaktoren, die für die Kundenbindung hinderlich bzw. förderlich sind, zu identifizieren. Im zweiten Schritt wurde ein prädiktives Modell erstellt, das für jeden individuellen Kunden angibt, ob eine unmittelbare Kündigungsgefahr besteht.
Ergebnisse der Churn-Analyse
Das Data Mining zeigte uns, dass die Anzahl der Produkte (Verbundprodukte) sich im vorliegenden Fall signifikant vermindernd auf die Kündigungsquote auswirkt. Die Analyse möglicher Kündigungstreiber wie z. B. die Anzahl der Preisänderungsschreiben lieferte kein einheitliches Bild und lässt systematische Fehler in den vorliegenden Daten vermuten.
Unser prädiktives Modell zur Kündigungsvorhersage ist in der Lage in den Segmenten Strom und Gas über ein Viertel der tatsächlichen Kündiger zu identifizieren. Wird eine Kündigungswarnung ausgesprochen, dann ist diese relativ sicher, da das Modell eine hohe statistische Genauigkeit (Gas: 71,86% und Strom: 83,17%) aufweist.

Maßnahmenempfehlung
Ziel unserer Empfehlungen ist es,
- die gewonnenen Erkenntnisse im Rahmen der Kundenbearbeitung sinnvoll einzusetzen und
- die Prognosequalität nachhaltig zu steigern.
Datenqualität
- Zur Verbreiterung der Datenbasis und Erhöhung der Datenqualität ist die Einführung eines CRM-Systems zu empfehlen.
Cross-Selling
- Kunden mit Verbundprodukten neigen deutlich weniger zu einer Kündigung. Cross-Selling Maßnahmen sollten eingesetzt werden, um die Kundenloyalität zu erhöhen. Diese Maßnahmen müssen anschließend auf den gewünschten Effekt hin überprüft werden.
Kündigungs-Frühwarnsystem
- Durch Erweiterung der Variablenbasis wäre sicherlich eine bessere präventive Erfassung der Kündiger möglich, aber bereits mit dem bestehenden Modell ist die Reduzierung der Kündigungsquoten durch Kampagnenmaßnahmen möglich. Im ersten Schritt geht es darum, die möglichen Maßnahmen monetär zu bewerten und auf Wirtschaftlichkeit zu untersuchen. Sollte Wirtschaftlichkeit gegeben sein, folgt die Validierung der aufgestellten Thesen durch Testkampagnen mit sog. Kontrollgruppen.
Fazit
Predictive Analytics-Projekte sind nicht ausschließlich darauf ausgerichtet die Güte der Prognosen in einem Unternehmen zu verbessern. Derartige Projekte sind darüber hinaus hervorragend dafür geeignet, Datenqualitätsprobleme oder prozessuale Missstände aufzudecken. Ein sehr wichtiger Erfolgsfaktor in diesem Zusammenhang ist die enge Einbindung des Auftraggebers und seiner Fachanwender. Nur wenn für diese Stakeholder die Intention des Projektes klar ist und Vertrauen in die Ergebnisse gegeben ist, besteht die Chance auf langfristiges Umdenken. Dies ist auch der Grund, warum affinis in kommenden Projekten eine abgewandelte Form des CRISP-DM nutzen wird. Im Standardvorgehen nach CRISP-DM fehlt unserer Meinung nach die benötigte Interaktion mit den Stakeholdern auf Kundenseite.
Ohne Wenn und Aber helfen prädiktive Analysemethoden Erkenntnisse über das wahrscheinliche Kundenverhalten zu gewinnen. Auf der Grundlage der Analyseergebnisse können Maßnahmen getroffen werden, um die Prognosequalität kontinuierlich zu steigern und analog dazu in der Kundenbindung besser zu werden.

Digitale Transformation beginnt mit dem richtigen Partner
Wir begleiten Sie auf dem Weg zu einer zukunftsfähigen IT – mit Fokus auf messbaren Mehrwert für Prozesse, Menschen und Ihr Business.
Advanced Predictive Analytics – Wenn traditionelle BI nicht genug ist
Einführung in Predictive Analytics: So setzen Sie auf ihre bestehende IT-Landschaft auf um Mehrwerte zu generieren
Advanced Analytics geht einen Schritt weiter als traditionelle BI. Dabei sind wissenschaftliche Methoden aus der angewandten Mathematik und Statistik im Einsatz. Dazu gehören z. B. Data Mining, Modellierung, Simulation und maschinelles Lernen. Diese werden herangezogen, um die Wahrscheinlichkeit zukünftiger Ereignisse zu bestimmen oder Korrelationen aufzudecken, die durch andere Methoden unentdeckt blieben. Mit Hilfe von Advanced Analytics werden Fragen beantwortet wie
- „Was wird wahrscheinlich als nächstes passieren?“ (Vorhersage)
- „Warum ist das passiert?“ (Korrelation)
- „Was ist das Beste was passieren kann?“ (Optimierung)
Advanced Analytics Methoden sind daher meist vorhersagend (predictive) oder vorschreibend (prescriptive), während traditionelle BI Analysen wie OLAP oder Reporting & Dashboards fast ausschließlich beschreibender Natur (descriptive) sind und Fragen beantworten wie „Was ist passiert?“.
In unserer neuen Serie soll das Thema „Predictive Analytics“ in den Fokus gerückt werden. Nach der Definition des Analystenhauses Forrester® kann zu Predictive Analytics jede Lösung gezählt werden,
- mit deren Hilfe sich aussagekräftige Muster und Abhängigkeiten in Datenbeständen identifizieren lassen,
- und auf diese Weise mögliche zukünftige Ereignisse vorhersagen sowie potenzielle Handlungsmöglichkeiten bewerten lassen.
Damit umfasst Predictive Analytics eine Vielzahl von computergestützten Methoden, die historische oder aktuelle Daten analysieren, um Vorhersagen über die Zukunft zu geben. Frei nach dem Motto „Insight not Hindsight“ handelt es sich bei Predictive Analytics um ein sehr vielschichtiges Thema. Die Anwendung komplexer Methoden auf riesige Datenmengen bringt aber enorme Wertschöpfungspotenziale mit sich.
Sind in die bestehende IT-Landschaft eines Unternehmens bereits CRM- oder BI-Systeme integriert, so können Predictive Analytics-Anwendungen direkt darauf aufbauen. Im Zeitalter von Big Data werden bestehende Infrastrukturen vor neue Herausforderungen gestellt. Die passenden Werkzeuge zu besitzen, um strukturierte und unstrukturierte Daten aus einer Vielzahl unterschiedlicher Datenquellen zusammenzubringen ist zwar auf der einen Seite ein Problem, auf der anderen Seite aber auch eine Chance, neue Erkenntnisse durch die Verknüpfung unterschiedlichster Datentöpfe zu gewinnen.
Mathematisch betrachtet basiert ein Großteil von Predictive Analytics auf der Erfassung von Beziehungen zwischen erklärenden Variablen und den abhängigen Variablen aus vergangenen Ereignissen. Dabei gilt es diese Beziehungen aufzudecken, um prädiktive Scores (Wahrscheinlichkeiten) für Ereignisse zu erstellen. Im Gegensatz zu Forecasts können mit Predictive Analytics Vorhersagen für das Verhalten eines Individuums erstellt und damit ein detaillierterer Grad an Granularität erreicht werden. Zu beachten ist, dass die Genauigkeit und Brauchbarkeit der Vorhersagen stark von der gewählten Methode und der Qualität der zu Grunde liegenden Annahmen abhängen.
Phasen und Methoden von Predictive Analytics: Schritt für Schritt zum Wettbewerbsvorteil

Für die Durchführung von Predictive Analytics Projekten hat sich in den letzten Jahren mit dem „Cross Industry Standard Process for Data Mining“ (kurz: CRISP-DM) ein Standard etabliert, der laut Umfragen in den meisten Projekten im Predictive Analytics und Data Mining Umfeld zum Einsatz kommt. Die Entstehung dieses Ansatzes ist auf das Jahr 1996 zurückzuführen, als ein Konsortium im Bereich Data Mining führender Unternehmen (unter ihnen z. B. Daimler und Teradata) eine Arbeitsgemeinschaft gründete und bis zum Jahr 1999 die erste Version des danach mehrfach optimierten Ansatzes entwickelte.
Der äußere Kreis der Grafik von oben verdeutlicht den zyklischen Charakter von Predictive Analytics. Ein Data Mining Prozess hört nach der Inbetriebnahme nicht auf:
Auch nach der Inbetriebnahme ist es essenziell, die Geltung der getroffenen Annahmen zu überprüfen und gegebenenfalls anzupassen. Die Verantwortlichen sollten sich stets darüber im Klaren sein, auf welchen Annahmen sie ihr Modell aufgebaut haben und unter welchen Voraussetzungen diese nicht mehr zuträfen. Ebenso ist darauf zu achten, dass keine wichtigen Einflussvariablen bei der Modellierung vergessen wurden. Derartige Lessons Learned machen eine kontinuierliche Anpassung der Modelle notwendig.
Das Innere der Grafik zeigt, dass nach CRISP-DM 6 Phasen unterschieden werden, die im Folgenden näher beleuchtet werden sollen.
Business Understanding – Vor der Antwort kommt die Frage
In dieser Phase gilt es die Rahmenbedingungen zu verstehen und die wirtschaftlichen Ziele des Projektes zu klären. Anschließend sind die wirtschaftlichen Fragestellungen in Predictive-Analytics-Problemstellungen zu transferieren. Hierbei handelt es sich um den wahrscheinlich wichtigsten Schritt im Predictive Analytics/ Data Mining Prozess. Ohne gut durchdachte Problemstellungen ist es so gut wie unmöglich die richtigen Daten zu sammeln und die richtigen Algorithmen anzuwenden.
Data Understanding – Den Wald vor lauter Bäumen sehen
In dieser Phase steht die initiale Datensammlung am Anfang. Daraufhin macht man sich mit dem Datenbestand vertraut und macht sich auf die Suche nach Problemen in der Datenqualität.
Data Preparation – Was nicht passt, wird passend gemacht
Hat man in der Phase zuvor einen Überblick über die Rohdaten erlangt, gilt es nun diese Daten in eine Form zu bringen, mit der unsere Predictive-Analytics-Modelle arbeiten können. Neben der Auswahl der benötigten Tabellen, Attribute und Einträge, gehören hierzu auch die Datenbereinigung (Cleansing) und die Transformation der Daten in die benötigten Formate.
Modeling – Viele Wege führen nach Rom
Diese Phase beinhaltet die Anwendung der ausgewählten Modellierungstechniken. Frei nach dem Motto „viele Wege führen nach Rom“ wird es in der Regel eine Vielzahl von Ansätzen für die gleiche Problemstellung geben. In diesem Zusammenhang besteht die Herausforderung, die beste Modellierungsmethode für das vorliegende Predictive-Analytics-Problem zu identifizieren. Da unterschiedliche Modellierungsmethoden unter Umständen andere Anforderungen an die Form der Daten haben, ist es nicht unüblich, die Data Preparation anzupassen, bevor man mit der eigentlichen Modellierung eines Alternativansatzes fortfährt.
Die Vielzahl an Modellen abzuhandeln, die in diesem Rahmen einsatzfähig sind, würde bei Weitem den Rahmen sprengen. Wir möchten hier nur einen kurzen Auszug der riesigen Bandbreite an Modellen widerspiegeln:
- Klassifikationsmethoden
- Entscheidungsbäume
- Künstliche Neuronale Netze
- Bayessche Netze
- Support Vector Maschinen
- Ensemble Modelle
- Regressionsmethoden
- Assoziationsanalysen (z. B . Warenkorbanalysen)
- Zeitreihenanalysen
Alle Techniken vereint eins: Der Ansatz die vorhandenen Daten in Trainingsdaten und Testdaten aufzuteilen (partitionieren). Dem zu Grunde liegt die Annahme, dass die vorhandenen Daten adäquat die Voraussetzungen repräsentieren, die sowohl in der Vergangenheit als auch in der Zukunft vorherrschen. Dabei ist darauf zu achten, dass die Partitionierung zufällig (in einem zuvor definierten Verhältnis z. B. 70% zu 30%) erfolgt, um zu verhindern, dass die Zusammensetzung einer oder beider Gruppen in Teilen einem Muster folgt. Die Trainingsdaten (auch als Lerndaten bezeichnet) werden zu der Erstellung des Modells herangezogen. Durch die Masse an Daten „lernt“ das Modell dazu bzw. „trainiert“ seine Effektivität. Die Testdaten dienen der Evaluierung und schließlich der Auswahl der Modelle (Welches der betrachteten Modelle liefert statistisch die besten Ergebnisse?). Insgesamt stellt die Partitionierung der Daten eine wichtige Voraussetzung dar, um gewährleisten zu können, dass das schließlich ausgewählte Modell akkurate und verlässliche Vorhersagen liefert.
Evaluation – Vertrauen ist gut, Kontrolle ist besser
Auf die Phase der Modellierung folgt die Evaluation. In dieser Phase soll die Frage beantwortet werden, ob das ausgewählte Modell in angemessener Art und Weise die dem Projekt zu Grunde liegenden wirtschaftlichen Fragestellungen beantworten.
Für Klassifikationsmethoden sind oft Wahrheitsmatrizen (auch Konfusionsmatrizen genannt) im Einsatz. Aus ihnen werden Kennzahlen wie Sensitivität, Spezifität, Genauigkeit oder Trefferquote errechnet. Für weitergehende Analysen sind sog. ROC-Kurven (Receiver-Operating-Characteristic-Kurve) und Lift-Charts beliebt.
Deployment – Nicht reden sondern handeln
Hat das Modell auch der Evaluation standgehalten, so gilt es die erlangten Erkenntnisse in die Entscheidungsprozesse des Unternehmens zu integrieren. Das Ausmaß dieser Phase kann dabei sehr unterschiedlich sein und von der Erstellung eines einfachen Reports bis hin zur automatisierten Umsetzung der bewerteten Handlungsoptionen (Prescriptive Analytics) gehen.
Im nächsten Teil unserer Serie werden wir unseren Fokus auf Use Cases, also dem Einsatz von Predictive Analytics in der Praxis verlagern.
Analytics Use Cases in allen denkbaren Bereichen
Analytics Use Cases lassen sich entlang der gesamten Wertschöpfungskette finden. Um einen groben Überblick zu geben, orientieren wir uns an der Wertkette:
Einkauf
Im Bereich des Einkaufs können, z. B. Absatz- oder Preisprognosen dafür sorgen, dass bestmögliche Einkaufsstrategien entwickelt werden und kostspielige Über- und Unterbestände vermieden werden. Dies ist vor allem im Falle von stark schwankenden Rohstoffpreisen und hohen Einkaufsvolumina zu empfehlen.
Produktion
Als Beispiele für Analytics Use Cases in der Produktion wollen wir Losgrößenoptimierung, Predictive Maintenance und Personaleinsatzplanung nennen. Hierbei geht es darum, Kapazitäten besser auszulasten, Ausschuss zu verringern bzw. mögliche Produktionsausfälle frühzeitig zur prognostizieren. Auf der Grundlage von Analysetechniken und der Visualisierung der Ergebnisse (z. B. in Form von Dashboards) können Mitarbeiter schnellere und besser fundierte Entscheidungen treffen.
Distribution
Analytics in der Distribution besteht hauptsächlich aus der Optimierung von Logistikprozessen, vor allem von Transport- und Lagerprozessen.
Marketing/Vertrieb
Customer Churn, Dynamic Pricing, Customer Value, Up-&Cross-Selling u. v. m. – Die Liste von Analytics Use Cases in den Bereichen Marketing und Vertrieb ist lang. Die Use Cases haben das Ziel das gesammelte Wissen über die Kunden zu bündeln und gezielt nutzbar zu machen. Gelingt dadurch eine individuellere Kundenansprache und eine Verbesserung der Kundenerfahrung, stärkt dies die Kundenbindung und damit den Unternehmenserfolg.

(Kunden-) Service
Fortgeschrittene Analysen können auch helfen individualisierte Kundeninteraktion, Tarife und Service-Level sowie optimierte Antwortzeiten zu bewirken.
Besseres Kundenverständnis durch Predictive Analytics: Gezielte Kündigungsprävention durch individuelle Kundenansprache
Am Beispiel der Kundenabwanderungs-Prävention, dem sog. Churn-Management wollen wir uns folgendes im Detail ansehen:
- Welche Motivation/Leitfragen stecken hinter diesem Use Case?
- Welche Methoden kommen zur Anwendung?
- In welcher Form stiftet dieser Use Case Nutzen?
Motivation/Leitfragen
Neukundengewinnung ist um ein vielfaches teurer als Kundenbindung.
- Wie erkenne ich potentielle Kündiger?
- Was kann ich tun die Loyalität meiner Kunden zu erhöhen?
- Was biete ich einem Kunden an, damit er seine Kündigung zurückzieht?
Methodik
- Einsatz von Klassifikations- und Regressionsmethoden
- Mit Hilfe meiner beschrifteten, historischen Daten trainiere und teste ich den Algorithmus
- Erst wenn der Algorithmus eine zufriedenstellende Güte aufweist, verwende ich ihn dafür die Kündigungsneigung meiner aktiven Kunden individuell vorherzusagen
- Regelmäßige Aktualisierung (Closed Loop Ansatz)
- Darüber hinaus können Kundenwertberechnungen helfen die Kunden, die auf Grund eines hohen Werts für das Unternehmen unbedingt gehalten werden sollten, zu identifizieren
Nutzen von Predictive Analytics
- Durch Kündigungsprävention Kundenabwanderung (von profitablen Kunden) vermeiden
- Rückgewinnung von Kunden die bereits gekündigt haben
- Einen neuen Kunden gewinnen ist für Unternehmen 5-10 mal so teuer, als einen bestehenden Kunden zu halten
Eine individuelle Kundenansprache ist die Chance sich von der Konkurrenz abzuheben und Wettbewerbsvorteile zu generieren. Ihre Kunden werden es Ihnen danken.
Quellen

Digitale Transformation beginnt mit dem richtigen Partner
Wir begleiten Sie auf dem Weg zu einer zukunftsfähigen IT – mit Fokus auf messbaren Mehrwert für Prozesse, Menschen und Ihr Business.