In Data we trust? Die Herausforderungen der Finanzbranche in der Welt der Analytics


Daten, so liest man immer wieder, sind das neue Öl. Die Notwendigkeit, sich mit Dateninhalten auseinanderzusetzen – entstanden durch den enormen Wettbewerbsdruck – gilt für viele Bereiche. Doch vor allem die Finanzbranche verspricht sich ganz neue Möglichkeiten – das Thema Data Analytics wird immer präsenter. Dabei werden Daten unterschiedlicher Art und aus verschiedenen Perspektiven ausgewertet, um bisher unbekannte Informationen freizulegen. Wir haben mit Principal Consultant Brian Lyons über die Möglichkeiten, aber auch Herausforderungen von Data Analytics für den Bankensektor gesprochen.

Brian Lyons, Principal Consultant, GFT

Brian, wie setzen Banken Data Analytics heute denn überhaupt schon ein?

Brian: „Analytics“ an sich ist eigentlich kein neues Thema für Finanzdienstleister. Bereits seit einigen Jahren versucht man in verschiedenen Bereichen aus historischen Daten Rückschlüsse für zukünftige Entscheidungen zu ziehen: So basieren beispielsweise Lösungen für die Betrugsprävention- und Betrugserkennung oder auch die Darstellung einer gesamtheitlichen Sicht des Kunden (Customer 360) auf der Analyse von Daten unterschiedlicher Art. Auch Risikomodelle lassen sich mithilfe von Data Analytics verbessern, indem Erfahrungen aus der Vergangenheit für exaktere Prognosen herangezogen werden.

Warum ist das Thema Data Analytics unter Finanzdienstleistern dann gerade jetzt so gefragt?

Brian: Das hat meines Erachtens zwei wesentliche Gründe. Zum einen wurde mit der Geburtsstunde von „Big Data“ der potentielle Umfang und Anwendungsbereich von Analytics deutlich vergrößert. Mehr Daten bedeuten bessere Erkenntnisse, was wiederum Interesse weckt, sowohl im Vertrieb als auch in nachgelagerten Bereichen. Zum anderen ist die Technologie rund um die Datenhaltung und Datenauswertung in den letzten Jahren immer weiter ausgereift, denn vereinfachte Zugriffe auf große Datenmengen und bessere Visualisierungswerkzeuge ermöglichen bisher nicht da gewesene Möglichkeiten. Organisationen können heute vielmehr zu vertretbaren Kosten mit den eigenen Daten „spielen“, sie mit anderen Daten kombinieren und die daraus resultierenden Erkenntnisse gewinnbringend einsetzen. Gerade Vertriebsmitarbeiter bzw. die Vertriebssteuerung kann davon beispielsweise in den Bereichen cross-selling, up-selling, Lead Management & Lead Penetration profitieren.

Das klingt tatsächlich nach einem „Kinderspiel“, ist aber sicher noch immer leichter gesagt als getan?

Brian: Die Crux an der Sache ist: Erkenntnisse, die aus Daten abgeleitet werden, können nur dann zu verwertbaren Aussagen führen, wenn die Personen, die mit den Informationen arbeiten, Rückschlüsse zum eigenen Geschäft und den dahinterliegenden Produkten herstellen können. Dieses Wissen liegt in der Regel bei erfahrenen Mitarbeitern, die daher zur Analyse, allerspätestens aber zur Bewertung der Erkenntnisse hinzugerufen werden müssen. Im Idealfall wären sogar sie es, die von Beginn an die Analytics durchführen – oftmals fehlen ihnen dafür jedoch die notwendigen Datenskills und die Zeit, sich intensiv damit auseinanderzusetzen. Es gibt zwar Tools, beispielsweise im Bereich Self-Service Data Analytics, die dabei helfen können, doch letzten Endes muss jede Organisation ihre eigenen Prozesse festlegen.

Du sagst, Data Analytics und Data Science müssen die vom Unternehmen vorgegebenen Rahmenbedingungen berücksichtigen.

Brian: Richtig! Das „Spielen“ mit den Daten muss im Gesamtkontext des Datenmanagements, insbesondere der Data Governance, betrachtet werden. Die Bereitstellung und auch Nutzung von (Produktions-)Daten müssen nach wie vor einer Governance unterliegen. Man muss Kernthemen wie Datenschutz, Datensicherheit und Verbraucherschutz im Blick haben. Voraussetzung dafür ist eine gewisse Transparenz, die zeigt, welche Erkenntnisse mit welchen Daten zu welchen Maßnahmen führen. Auch die Datenqualität sollte an dieser Stelle nicht unerwähnt bleiben: Ist die Datenbasis von mangelnder Qualität, sind auch die Erkenntnisse daraus qualitativ schlecht zu bewerten. Das bedeutet, bekannte Qualitätsdimensionen wie beispielsweise Vollständigkeit, Aktualität und Konsistenz müssen verifiziert werden. Letztlich bedeutet das: Falls vorhanden, sollte ein zentrales Datenmanagement Office (DMO) mit einbezogen werden, um die Richtlinien und Policies der Organisation in Bezug auf Datenmanagement zu berücksichtigen.

Ein spannendes Thema – wir freuen uns schon auf das nächste Update! Vielen Dank für das Interview, Brian!