Blog Post

KI Note veröffentlicht Bericht zu Data Analytics in der Sparkasse KölnBonn

Tobias Schlüter • 26. Mai 2021

Artikel ursprünglich veröffentlicht auf: KINOTE


Mit dem Einsatz von Data Analytics bzw. datengetriebener Algorithmen lassen sich erhebliche Verbesserungen in der individualisierten Kundenansprache erzielen. Verbraucher erhalten von ihrem Kreditinstitut genau die Lösungen, die ihren Bedürfnissen entsprechen – und auch die Institute profitieren.

Mit der voranschreitenden Digitalisierung verändert sich der Kontaktweg Kunde-Bank. Für alltägliche Bankgeschäfte suchen Verbraucher immer seltener persönliche Gespräche, sondern nutzen zunehmend andere Kanäle wie etwa Apps oder Online Banking. Für Banken und Sparkassen stellt sich daher die Frage, wie sie Kunden mit finanziellen Bedürfnissen auf ihren Kanälen optimal erreichen können.

Ein vielversprechender Ansatz zur Optimierung der kanalübergreifenden Kundenansprache stellt dabei der Einsatz von Data Analytics bzw. Algorithmen des Maschinellen Lernens (ML) dar. Die Institute können ihre Kunden bereits sehr gut anhand ihrer Daten kennenlernen und erfassen somit potenzielle Bedürfnisse, noch bevor die jeweilige Person diese in einem persönlichen Beratungsgespräch oder einem Chat äußert. So bieten zum Beispiel Vertragsdaten, Produktnutzungen, Kreditengagements oder Analysen des Zahlungsverkehrs Anknüpfungspunkte, Verbraucher individuell in ihrer eigenen persönlichen Finanzsituation zu beraten. 

Hierfür werden mithilfe von Algorithmen Muster in Kundenprofilen sichtbar gemacht, die typisch für einen sich anbahnenden Baufinanzierungsabschluss oder für den Abschluss eines Vorsorgeprodukts sind. Im Ergebnis werden mit sogenannten Affinitätsmodellen genau diejenigen Kunden identifiziert, bei denen eine besonders hohe Abschluss¬wahrscheinlichkeit besteht. 

So kann eine Sparkasse genau mit solchen Menschen sprechen, die aktuell einen bestimmten Bedarf haben, und diese gleichermaßen auf dem für sie relevantesten Kanal mit dem entsprechenden Content erreichen. Mit der datenbasierten Ansprache gelingt es, Personen individualisiert auf das für sie passende Produkt zum richtigen Zeitpunkt und auf dem richtigen Kanal mit der richtigen Botschaft anzusprechen.
 


Kampagnenbasis: Expertenselektion im Vergleich zu algorithmisch-basierter Kundenansprache. (Quelle: Sparkasse KölnBonn)



Welche Algorithmen geeignet sind, Kundenpräferenzen zu erkennen, wird in den folgenden Abschnitten skizziert.


Algorithmen und Methoden 

Für das Trainieren der Prognosemodelle werden vor allem historische Kundendaten als Merkmale herangezogen, die einen Einfluss auf die Produktaffinität haben können. Merkmale sind etwa: Alter, Salden und bereits vorhandene Produkte des Kunden. Es werden aber auch Informationen aus den Zahlungsverkehrsdaten genutzt, sofern dies unter Datenschutz-Gesichtspunkten möglich ist. Im Ergebnis nutzt das Modell einen Merkmalsvektor mit sämtlichen Informationen, die zur Prognose eines Produktkaufs benötigt werden. 


Die relevante Zielgröße für das Training sind sogenannte Kauf-Kennzeichen: Alle Kunden, die im Trainingszeitraum das Zielprodukt abschließen, werden codiert. Mit diesem aufbereiteten Datensatz wird das Modelltraining durchgeführt. Dabei werden nichtlineare Zusammenhänge zwischen den Merkmalen und der Zielgröße abgeleitet und nur diejenigen Merkmale einer Person berücksichtigt, die einen positiven Beitrag zur Prognosegüte liefern.


So kommen etwa Entscheidungsbäume zum Einsatz, die den Datensatz entlang binärer Splits der Kundenmerkmale trennen. Splits können so zum Beispiel anhand der folgenden Entscheidungsfragen charakterisiert werden: „Ist der Kunde älter als 45 Jahre?“ oder „Wohnt der Kunde zur Miete?“. Am Ende dieser Fragenkette wird jeder Verbraucher einem Segment zugeteilt, das eine bestimmte Abschlusswahrscheinlichkeit für das untersuchte Produkt aufweist. 


Ein einzelner Entscheidungsbaum müsste sehr groß werden, um die vorliegen de Komplexität hinreichend abzubilden. Zudem wäre das Modell auf Basis eines einzigen komplexen Baumes anfällig für das Erlernen von zufälligen Fluktuationen der Stichprobe, die für das Training zur Verfügung steht. 



Boosted Trees

Das bedeutet: Während ein einzelner komplexer Entscheidungsbaum die Charakteristika des zugrundeliegenden Trainings-Datensatzes mit einer hohen Detailtiefe abbildet, könnte er für die Prognose zu einem zweiten Kundendatensatz ungeeignet sein, da der Entscheidungsbaum etwaige Besonderheiten des Trainingsdatensatzes zu stark gewichtet. Diese Problematik wird gelöst, indem die maximale Tiefe des Entscheidungsbaums stark begrenzt wird. Die Zahl an Fragen, die zu einem Kunden gestellt werden, kann zum Beispiel auf fünf beschränkt werden. Die damit einhergehende Verringerung der Modellqualität wird anschließend durch eine weitere Methode, das Boosting, verbessert.


Die Idee des Boosting ist es, eine Vielzahl einfacher Modellen in ein starkes Ensemble-Modell zu überführen. Das heißt, dass in einem iterativen Prozess eine Vielzahl an Bäumen erzeugt wird. Bei der Erzeugung wird jeder neue Baum darauf optimiert, die Schwächen des bisherigen „Waldes“ zu korrigieren. Jeder einzelne Baum besitzt zwar nur eine geringe Prognosefähigkeit, in der Summe liefern alle Bäume jedoch sehr gute Resultate.



Methodischer Ausblick

Boosted Trees erlauben keine intuitive Interpretation, wie die jeweilige Affinität des Kunden bestimmt worden ist. Anders als bei einfachen Entscheidungsbäumen oder bei linearen Modellen kann aufgrund der Vielzahl an Bäumen der Grund, weshalb der Kunde affin ist, nicht ohne Weiteres erkannt werden. Mit der Nutzung eines darauf aufbauenden Modells können wesentliche Treiber der Modellklassifikation erkannt werden und so den Kundenberatern auch die richtigen Schlagwörter an die Hand gegeben werden, die für die Kundenansprache nutzbar sind. 


Eine weitere Entwicklung ist das Schließen des Closed Loops. Dazu werden die Reaktionen der Verbraucher auf die Ansprache nicht nur zuverlässig erfasst, sondern auch zurückgespielt. Zum einen kann dadurch eine vereinheitlichte Erfolgsmessung der Kampagnen für alle Institute erfolgen. Zum anderen wird es möglich sein, die Affinitätsmodelle kontinuierlich zu verbessern. 


Wurde die Kundenansprache um im Zentrum stehende Data-Analytics-Modelle herum aufgebaut, lassen sich rasch bemerkenswerte Verbesserungen realisieren. Als Beispiel dient die Sparkasse KölnBonn (SKB), die nur noch auf Data-Analytics-basierte Kampagnenansprachen setzt. In allen Ansprachen, die teils über mehrere Kanäle wie App, Online Banking, CallCenter oder Berater bis hin zu E-Mail und Brief gesendet wurden, zeigen sich zusammenfassend zwei positive Effekte: Verbraucher spiegeln viel häufiger zurück, dass das von der Sparkasse angesprochene Thema für sie passt – die Ansprache ist für Kunden also relevant und nicht störend. Schließlich kann das Institut durch die passende Ansprache seine Ressourcen deutlich besser einsetzen und somit viel häufiger Produktabschlüsse realisieren.

Verbesserung der Kundenansprache durch Data Analytics. (Quelle: Sparkasse KölnBonn)Verbesserung der Kundenansprache durch Data Analytics. (Quelle: Sparkasse KölnBonn)



Fazit

Mit Data Analytics, also der Algorithmus-basierten Kundenansprache, lassen sich rasch Erfolge erzielen und die Relevanz der Schnittstelle Kunde-Bank erheblich aufwerten. Nach den Ersterfolgen ist es für ein Institut von zentraler Bedeutung, seine Touchpoints, also die Kanäle, auf denen es seine Kunden erreichen kann, optimal aufeinander abzustimmen und die Kundenansprache zu orchestrieren. Innerhalb des Instituts wird es im Laufe der Data-Analytics-Nutzung zunehmend wichtig, kontinuierlich Transparenz über die neuen Vorgehensmodelle und das Erreichte zu gewährleisten. 


Auch das Stakeholdermanagement darf nicht vernachlässigt werden, da die Umstellung eines Kampagnenmanagements auf Data Analytics einem Change Prozess entspricht, in dem teils jahrelange, wenn nicht sogar jahrzehntelang gelebte Praxis der Experten-basierten Kundenansprache auf moderne datenanalytische Methoden trifft. Über den abschließenden Erfolg einer Data-Analytics-Integration wird daher nicht die Modellgüte von Algorithmen entscheiden, sondern vielmehr, wie der organisatorische Wandel in einem Institut begleitet wird. 



Hier die Diskussion des Artikels auf LinkedIn

Teilen

Auf dem neuesten Stand bleiben

Registrieren Sie sich und Sie werden stets über Neuigkeiten informiert.



von Tobias Schlüter 29. Mai 2024
Wie werden #Analytics & #AI -Einheiten #erfolgreich ?
von Tobias Schlüter 15. Januar 2024
 Welcher Mitarbeiter kündigt als nächstes? - Wie People Analytics den Recruitingbedarf frühzeitig erkennt "Wie können wir vorhersagen, welcher Mitarbeiter als nächstes kündigen wird?" - Eine scheinbar einfache Frage, die meine Studierenden im Mastermodul #DataAnalytics dieses Wintersemester tiefgehend erforscht haben. Durch 📊 Datenexploration, effektive 🖼️ Visualisierungstechniken und den Einsatz vielfältiger 🤖 Vorhersage- und Segmentierungsmodelle haben sie gelernt, dass datenbasierte Analysen oft zuverlässigere Ergebnisse liefern als bloße Intuition. Ein Highlight des Semesters war der heutige #Vortrag von Christian Richter und Alexander Gerhardts , Experten im Bereich 🧑‍💼 #PeopleAnalytics bei der DHL Group. Sie gaben faszinierende Einblicke, wie dieser spezifische Use Case in der Praxis bei einem der weltweit führenden #Logistikkonzerne umgesetzt wird. Alexander erläuterte eindrucksvoll, wie #DataEngineers Daten für Vorhersagemodelle aufbereiten. Christian verdeutlichte anschließend, wie DHL 🔄 #Turnover Forecasts nutzt, um den #Personalbedarf frühzeitig und präzise zu identifizieren. Ein inspirierender Tag, der die Brücke zwischen akademischem Lernen und realer Anwendung von Data Analytics schlug!
von Tobias Schlüter 12. Dezember 2023
Spannende Einblicke in die Welt der Datenanalytik: Analytics @ REWE!
von Tobias Schlüter 2. Juni 2023
DATA STORIES | JOB MARKET ANALYTICS | KNIME ANALYTICS PLATFORM Job Market Analytics: Findings from the Data Science for Business Challenge at TH Köln My Data Guest — An Interview with TH Köln Challenge Winners
von Tobias Schlüter 22. Mai 2023
Dr. Ann-Christine Brunen zu Conjoint Analysis an der TH Köln
von Tobias Schlüter 10. Januar 2023
Customer Profiles als Self Service BI Dashboard
von Tobias Schlüter 10. Januar 2023
HR Analytics in einem Großkonzern
7. Dezember 2022
 At universities of applied sciences, our teaching focus is coupled with a highly practical business orientation. I’d like to outline how, in my role as professor, this influences how I teach data science to master students in business administration. Tobias Schlüter is Professor at TH Köln in the Faculty of Business, Economics and Law. His teaching disciplines include data science for business, and applied analytics in banking while his research concentrates on analytics an data science for business and pricing for financial institutions. My students will work in a quickly developing business world after graduation. More data will be available, while decisions will have to be made ever faster. In topics like marketing, HR, and product management, there is rarely a single correct course of action. Hence my goal is to teach how to best evaluate different approaches. I’m guided by these questions: How can I prepare my students to make good, meaningful, data-based decisions in their future positions, instead of just going with their guts? How can I enable them to become effective managers in their respective domains — ones who both understand the possibilities of more available data and modern data analytics and can also apply it? My Teaching Objectives and why I chose KNIME In the area of tension between specializations in business and data science, three aspects were important for me. The first mainly impacts the structure and design of my lectures, while the other two have led me to adopt KNIME for my lectures. The Do It Yourself Approach and Real Challenges Students have to learn data science practically. Instead of me flipping through PowerPoint slides, they have to work with data and design algorithmic workflows. They should also preferably learn about challenges in a business context, with real data sets, project structures, deadlines, and ideally with managers from the field. Get Productive Fast Students need easy access to tools. Whether they have previous experience with creating analyses or not, with KNIME, I only need about 90 minutes to introduce the basic concepts of the platform and enable them to create their first predictive models or apply a variety of analytics methods. From there they can choose from the available materials to continue their learning. Using an Industry-Relevant Tool Students should be exposed to software that is used by actual companies, to support their transition to working in the industry. In the case of KNIME, they use exactly the same software (with no artificial limitations) that many companies already use, and which all can use. The Data Science Journey in the Master Program Laying the Foundations To provide students with the skills to discern which technique is best to solve the problem at hand, we lay a solid foundation for assessing and evaluating challenges in the first semester course “ Data Analytics .” The initial weeks are regular front-of-class teaching. What opportunities and potentials does Big Data offer? What classes of algorithms are there? What distinguishes descriptive statistics from modern machine learning algorithms? How does the CRISP-DM work? And so on. Applying Lessons to Business Problems Students are then given a seemingly simple problem: The board of directors at your company is concerned about employees quitting. Can you help the board assess which employees are at risk of quitting? Every student immediately has a sense of why they would quit a job. Over the rest of the term, we work with these perceptions to find insights from HR data, and leverage the benefits modern data analytics can offer.
12. Oktober 2022
ISACA Fokus Event am 10. November 2022 in Eschborn
von Tobias Schlüter 22. Juli 2022
Die FaRis & DAV Symposien
Show More
Share by: