Blogpost

Big Data – Nutzenpotentiale strategisch erschließen

KEY FACTS

  • Big Data als Herausforderung und Potential

  • Nutzenpotentiale derzeit in Kostensenkung, Prozessbeschleunigung und Analyse der Kundenbedarfe

  • Big Data zugleich als Investition in zukünftig zu erschließende Potentiale

  • Entwicklung einer umfassenden Big Data-Strategie notwendig

  • Big Data-Architektur und -Technologie als Basis der Strategie

1. HERAUSFORDERUNGEN UND POTENTIALE

Finanzinstitute stehen vor der Herausforderung, das Potential von Big Data zu heben. Sie sind einerseits getrieben durch sinkende Margen und erhöhten Wettbewerbsdruck in einem Niedrigzinsumfeld mit steigenden regulatorischen Anforderungen. Andererseits geht es für die Institute darum, die aus der Digitalisierung erwachsenden Potentiale zu adressieren und sie in eine umfassendere Digitalisierungsstrategie zu integrieren. Mit Blick auf beide Seiten “ die erhöhten Anforderungen an Effizienz genauso wie das Heben von Geschäftspotentialen “ können Finanzinstitute Big Data einsetzen, um sich Kosten- und Geschwindigkeitsgewinne zu verschaffen und Big Data so als Wettbewerbsvorteil zu operationalisieren.

Derzeit binden Banken Big Data-Technologien nur in spezifischen Bereichen ein, obwohl sie “ auch durch den Einsatz von Multikanalstrategien “ stetig wachsende Mengen und Arten von Daten aus unterschiedlichen Quellen sammeln. Diese Daten finden aktuell nur begrenzt Verwendung, da die Analyse und Auswertung großer Datenmengen “ eben “Big Dataœ “ eine erhebliche Herausforderung für alle Organisationen darstellt. Gleichzeitig erhöht die wachsende Bedeutung von Big Data den Handlungsdruck gerade auf etablierte Marktteilnehmer. Manche sprechen von einem Strukturwandel in der digitalen Welt, durch den die Bedeutung von Daten im Vergleich zu Hard- und Software deutlich steigt.

Doch obwohl Big Data in verschiedenen Industrien zunehmend Verwendung findet, handelt es sich zumindest im derzeitigen Entwicklungsstadium primär um eine innovative Technologie, deren Nutzen eher partiell realisiert wird und die eine Investition in die Zukunft ist. Um aktuell in Richtung einer Integration von Big Data agieren zu können, bedarf es daher einer umfassenden Big Data-Strategie.

2. INDUSTRIEBEISPIELE

Notwendige Voraussetzung für den umfassenden Einsatz von Big Data ist eine Strategie, die technologische Möglichkeiten konsequent für das Unternehmen in unterschiedlichen Bereichen nutzbar macht. Sie erhöht die Datentransparenz, erleichtert den Zugang zu relevanten Daten und erhöht Vorhersehbarkeit in konkreten Anwendungsfällen. Diese Anwendungsfälle von Big Data mit direkt zu hebendem Nutzen für die Akteure liegen derzeit insbesondere in drei Bereichen:

  • Kostensenkung
  • Prozessbeschleunigung
  • Analyse von Kundenbedarfen

 

Abbildung 1: Geschäftspotentiale aus der Nutzung von Big Data

Kostensenkung

TESCO, multinational agierender Händler von Lebensmitteln und Waren, nutzt interne und externe Daten, um Vorhersagen für die Nachfrage in einzelnen Supermärkten zu erstellen. Die auf einem 100 Terabyte Datawarehouse basierende Modellierungssoftware kalkuliert das gesamte Spektrum der Daten mit ein, vom Kundenbindungsprogramm bis zur lokalen Wettervorhersage. Im Ergebnis wird eine Reduktion der Warenverschwendung im Wert von ungefähr £100m pro Jahr erreicht.

Prozessbeschleunigung

Die in Singapur beheimatete Bank UOB (United Overseas Bank) nutzt In-Memory-Technologie in Verbindung mit einer Analyselösung von SAS für ihre bankenweite Risikokalkulation. Die Software, welche die Risiken von über 45.000 unterschiedlichen Finanzinstrumente und über 100.000 Marktparameter mit einbezieht, kalkuliert das Gesamtrisiko basierend auf über 8,8 Milliarden individuellen Value at Risk (VaR)-Kalkulationen. Früher dauerte die Kalkulation der Auswirkungen von sich verändernden Marktparameter auf das Risiko der Bank ungefähr 18 Stunden. Dank der Big Data-Analyse findet dieser Vorgang nun innerhalb von Minuten statt. Die Bedeutung der Ergebnisse erlaubt der Bank, schneller auf Marktveränderungen zu reagieren und verschiedene Szenarien und ihre jeweiligen Risiken direkt auszuwerten.

Analyse von Kundenbedarfen

Otto, größter Versandhändler und eines der größten Online-Handelsunternehmen weltweit, nutzt Big Data, um Rücksendungsraten für Produkte vorherzusagen basierend auf prognostischer Analysetechnologie vom Softwarehersteller Blue Yonder (an dem Otto einen Anteil von 50% hält). Durch eine Verbesserung von Inventarvorhersagen um bis zu 30% und ein auf die Kundenbedürfnisse abgestimmtes Warenangebot hat das Unternehmen eine Verringerung von Rücksendungsraten und übermäßiger Lagerhaltung erreicht. Die Software wird pro Woche mit 300 Millionen Datensätzen beliefert und produziert ungefähr eine Milliarde Vorhersagen für Produktnachfragen und Umsatz pro Jahr. Das Ergebnis ist ein auf die Kundenbedürfnisse abgestimmtes Warenangebot.

3. ELEMENTE DER BIG DATA-STRATEGIE

Um vorhandene Potentiale zu nutzen und für die genannten und weitere Anwendungsbereiche den Grundstein zu legen, ist die Entwicklung einer spezifischen Big Data-Strategie notwendig. Ganz allgemein besteht diese Strategie aus fünf Elementen:

  1. Big Data-Technologie und -Architektur
  2. Datenmanagement und Data Governance
  3. Sicherheits- und Konformitätsmanagement
  4. Skills und Qualifikationen
  5. Optimierung von Geschäftsprozessen

 

Abbildung 2: Die 5 Elemente der Big Data-Strategie

3.1 Big Data-Technologie und -Architektur

Von besonderer Relevanz sind Big Data-Technologie und -Architektur als Basis der Big Data-Strategie. Die Datenmengen wachsen exponentiell. Sprach man Mitte der 90er Jahren bei Speichergrößeneinheiten von GigaByte, so waren es zur Jahrtausendwende bereits TeraByte. Heute summieren sich die Datenbestände in den Unternehmen im Bereich von mehreren Peta-Bytes, und auch diese Einheit wird man bald hinter sich lassen. Die immer tiefer greifende Digitalisierung der Produkte und Abläufe beschleunigt gleichzeitig die Geschäftsabläufe, sodass der Bedarf nach einer schnellen Auswertung der Daten aus Geschäftssicht immer größer und zu einem differenzierenden Wettbewerbsvorteil wird. Klassische Datawarehouse-Ansätze sind nicht mehr in der Lage, die steigenden Datenmengen aufzunehmen und der Geschäftsseite gleichzeitig eine flexible Auswertung der Daten in Echtzeit zu ermöglichen. Hierzu bedarf es neuer IT-Technologien und -Konzepte “ einer neuen Architektur für Big Data.

Enterprise Data Layer

Unternehmensdaten werden heute typischerweise in strukturierter Form in den einzelnen Sparten des Unternehmens direkt in den Anwendungen gespeichert. Um eine übergreifende Sicht auf diese Datenbestände zu generieren, werden die für die Auswertung relevanten Teile dieser Daten aus den operativen Systemen extrahiert, normiert und in spezialisierten Auswertesystemen erneut gespeichert. Hierbei werden Informationen für eine spezielle Auswertung verdichtet, sodass ein Teil des Informationsgehalts verloren geht. Zusätzlich entstehen durch die Verteilung der Daten auf mehrere Systeme erhebliche Transport- und Konsolidierungsaufwände, die sich vor allem negativ auf die Verarbeitungsgeschwindigkeit auswirken.

 

Abbildung 3: Enterprise Data Layer (EDL) als zentraler Bestandteil der Big Data-Architektur

Das Konzept eines Enterprise Data Layers (EDL) bietet eine Lösung für diese Probleme an. Anstatt die Daten spartenbezogen in Silos zu speichern, verfolgt der EDL den Ansatz, alle Daten “ sowohl strukturierte als auch unstrukturierte “ in einem einzigen logischen System zu speichern. Dieses logische System muss dabei sowohl technisch als auch ökonomisch sehr skalierbar und fehlertolerant sein. Während bei klassichen Warehousesystemen die Struktur der Daten schon bei der Abspeicherung der Daten feststehen muss, erfolgt dieser Schritt im EDL erst beim Lesen der Daten. Liefersysteme müssen sich also nicht um Zielformate kümmern, und die Daten werden so gespeichert, wie sie sind. Keine Information geht verloren, und es ist Aufgabe der auswertenden Komponenten, für die Strukturierung der Daten zu sorgen. Eine weitere Stärke moderner EDL-Konzepte liegt in der Kolokation von Verarbeitungslogik und Daten. Nicht die Daten werden zur Verarbeitungslogik transportiert, sondern eine massiv parallel arbeitende Logik wird zu den Daten transportiert. Somit können die Verarbeitungsschritte extrem beschleunigt werden. Durch das Prinzip eines einheitlichen Datenspeichers stehen die ausgewerteten Ergebnisse sofort wieder den Nachfolgeprozessen zur Verfügung und müssen nicht erst in ein anderes System transferiert werden.

Innovative analytische Applikationen

Wertschöpfend für das Unternehmen werden die Daten aber erst dann, wenn aus der Verknüpfung verschiedener Datenquellen ein geschäftlicher Nutzen gezogen werden kann. Um dieses Potential zu heben, bedarf es neuer analytischer Applikationen. In klassischen Warehousesystemen erfordern schon kleine Änderungen Entwicklungsaufwände. Definierte Dashboards und Reports stehen oft erst nach Wochen zur Verfügung und die bereitgestellte Information ist dann schon nicht mehr entscheidungsrelevant. Neue analytische Applikationen ermöglichen es dem Analysten, auch große Datenmengen in Echtzeit auszuwerten. Ermöglicht wird diese durch hochskalierende verteilte Datenbanken und In-Memory-Technologien, die enorme Datenbestände in Sekunden verarbeiten können. Hier verschmelzen klassische BI-Lösungen immer mehr mit statitischen Werkzeugen. Ferner gewinnt für viele Unternehmen der predektive Teil der Datenauswertung immer größere Bedeutung. Hier entstehen in den Unternehmen immer mehr Daten, die für eine Verfeinerung der Prognosemodelle genutzt werden können. Durch die heute zur Verfügung stehende Rechenkapazität können die Rechenmodelle zudem immer feiner gerastert werden, was in eine Verbesserung der Prognoseergebnisse mündet.

3.2 Data Management und Data Governance

Die Einführung einer klar definierten Struktur für Datenmanagement und Data Governance ist ein Schlüsselfaktor, um Nutzen aus Unternehmensdaten zu ziehen und gleichzeitig das dafür notwendige Sicherheits- und Konformitätsmanagement zu gewährleisten. Dazu ist die Etablierung eines zentralen Teams über alle Geschäftsbereiche einer Organisation notwendig. Besonders in der stark regulierten Bankenindustrie zeugt ein nachweisbares Datenmanagement mit eindeutig zugewiesenen Verantwortlichkeiten von vertrauensvoller Datenverwaltung.

3.3 Sicherheits- und Konformitätsmanagement

Ein geeignetes Sicherheits- und Konformitätsmanagements wird bezüglich Datenzugang und Datenspeicherung innerhalb einer Big Data-Umgebung benötigt. An dieser Stelle müssen neue Herausforderungen berücksichtigt werden. Die Komplexität von Big Data-Umgebungen macht es zunehmend schwierig zu wissen, wer auf welche Daten zu welchem Zeitpunkt Zugriff hat und wie genau diese Daten genutzt werden. Darüber hinaus werden Daten oft an mehreren Orten gespeichert, wodurch es noch schwieriger wird, Nutzerrechte zu definieren und nachzuverfolgen. Aus diesem Grund sind Tool-basiertes Monitoring und angemessene Zugangsrechte notwendig. Diese müssen den Mitarbeitern den Zugriff auf für die Arbeit notwendige Daten gewähren und gleichzeitig Datenmissbrauch verhindern.

3.4 Skills und Qualifikationen

Der effektive Umgang mit Big Data erfordert neue Qualifikationen und Fähigkeiten, die sich mit Datenverarbeitung, -modellierung, -analyse und Outputmanagement im Big Data-Umfeld beschäftigen. Die Nachfrage an Experten hinsichtlich Platform Management, Multivariate Statistics, Data Mining, Predective Analysis und Modelling, Natural Language Processing, Content-, Text- und Social Media-Analyses steigt ständig. Unternehmen sind gefordert, ihre spezifischen Anforderungen zu identifizieren und das entsprechende Wissen durch Training und Anwerbestrategien aufzubauen.

3.5 Optimierung von Geschäftsprozessen

Für die Anwendung von Big Data-Analysen zur Optimierung von Geschäftsprozessen ist es notwendig, die Schritte für den Einsatz von Big Data innerhalb der Organisation anhand geeigneter Anwendungsfälle (Use cases) zu bestimmen. Da die meisten Finanzinstitute eine schrittweise Einführung einer Big Data-Architekturplattform verfolgen, kommt der Auswahl dieser Anwendungsfälle erhebliche Bedeutung zu. Sie ermöglichen es vor dem Hintergrund einer begleitenden und abgestimmten Priorisierung, die Umsetzung der Big Data-Strategie zu strukturieren und sie gezielt in Richtung spezifischer Prozesse zu lenken.

4. FAZIT

 

Finanzinstitute “ wie andere Akteure auch “ können Big Data gezielt einbinden, um im Rahmen konkreter Anwendungen spezifische Nutzenpotentiale zu realisieren. Mindestens genauso zentral wie die sofortige Effizienzsteigerung ist jedoch, Big Data als Investition in die Zukunft zu verstehen. Die aktuell nicht absehbaren Anwendungs- und Querverbindungsmöglichkeiten “ etwa durch grundsätzlich andere Vorgehensweise in der Analyse unstrukturierter Daten “ werden durch den frühzeitigen Aufbau eines entsprechenden strategischen Rahmens mit erschlossen. Banken entscheiden sich daher zunehmend, mit dem zeitigen Aufbau von Big Data-Elementen einen Grundstein für ihre zukünftige Handlungsfähigkeit zu legen. Die Herausforderung besteht weniger darin, überhaupt in Richtung Big Data aktiv zu werden, sondern diese technologische Innovation von Anfang an strategisch zu denken.

QUELLEN

TESCO
http://www.retail-week.com/topics/analysis-how-tesco-and-otto-are-using-data-to-forecast-demand/5053784.article

United Overseas Bank (UOB)
http://www.t-systems.de/news-media/examples-of-successes-companies-analyze-big-data-in-record-time-l-t-systems/1029702

Otto
http://www.retail-week.com/topics/analysis-how-tesco-and-otto-are-using-data-to-forecast-demand/5053784.article
http://www.ethority.de/weblog/2013/11/15/wie-otto-und-dm-von-big-data-profitieren/

 

  •  

Meet our authors

Reference items

Expert - Karsten Trostmann

Karsten Trostmann
Expert Director
Karsten
Trostmann

Karsten Trostmann ist Expert Director bei CORE. Als Informatiker deckt Karsten bei uns die Schwerpunktthemen IT-Strategie, Evolutionäre IT-Architektur, Domain Driven Design, agile Softwareentwickl...

Mehr lesen

Karsten Trostmann ist Expert Director bei CORE. Als Informatiker deckt Karsten bei uns die Schwerpunktthemen IT-Strategie, Evolutionäre IT-Architektur, Domain Driven Design, agile Softwareentwicklung und Cloud Infrastrukturen ab. Karstens bisherige Projekterfahrungen bei CORE umfassen unter anderem die Evaluierung der Plattformstrategie für einen Digitalversicherer, die Entwicklung der Cloud Operations für einen Identityprovider sowie Architekturreviews in verschiedenen Projekten.

Weniger lesen

Zusätzlich zu den oben genannten Artikeln könnten folgende Informationen für Sie interessant sein