In 6 Schritten zur passenden Data Analytics-Lösung

So führen Sie Ihr Data Analytics Projekt zum Erfolg!

Hinweis: Dieser Blogbeitrag stammt aus der Zeit vor dem Zusammenschluss und wurde von TIMETOACT realisiert – heute Teil von ATVANTAGE. Unsere Erfahrung bleibt – nur unser Name hat sich geändert. Hier finden Sie weitere Informationen rund um die Fusion.

In vielen Unternehmen werden im Bereich Data Analytics Schlagworte wie Data Fabric, Big Data, Data Lakehouse und datengetriebene Geschäftsprozesse diskutiert, um Innovation voranzutreiben. Fachbereiche fordern Lösungen, um ihre innovativen Ansätze umzusetzen: Beispielsweise verbrauchsorientierte Abrechnungsmodelle (pay per use) für teure Maschinen oder KFZ-Versicherungen nach gefahrenen Kilometern. Solche Lösungen erfordern für die Kalkulation die Verfügbarkeit sämtlicher relevanter Daten und für die spätere Abrechnung eine Übertragung hochaktueller Informationen aus unterschiedlichen Quellen und Formaten.

Daraus ergeben sich, zusätzlich zu den klassischen Herausforderungen, neue Problemstellungen für Lösungs-Architekturen und -Werkzeuge: Der Fokus verschiebt sich von strukturierten hin zu semi- und unstrukturierten Daten und eine laufende Datenversorgung. Um diese Herausforderungen zu bewältigen, sind Datenorientierung sowie eine strategische Ausrichtung auf Analyse und Interpretation von Daten erforderlich. Hinzu kommen Themen wie Cloud, Containerisierung, Big Data, Data Science und AI.

Schlussendlich braucht es eine Modernisierung oder Neuausrichtung der Data Analytics Umgebung, um diesen Anforderungen gerecht zu werden. Ein aufwändiges Unterfangen, was gut geplant sein will – im Blogbeitrag erläutere ich Ihnen sechs Schritte, um Ihr Data Analytics Projekt zum Erfolg zu führen.

Aktuelle Herausforderungen von Unternehmen im Bereich Data Analytics

Im Bereich Datenspeicherung und -analyse findet sich bei vielen Unternehmen aktuell ein Sammelsurium an Lösungen. Data Warehouse-Umgebungen sind meist über Jahre gewachsen, parallel entstanden Data Lakes, fachspezifische Data Marts oder wahlweise Sandboxes für Data Scientists und Analysten. Hier wäre ein Redesign der Lösung angebracht – anstatt diese von Grund auf zu überdenken und sich an neue Funktionen und Möglichkeiten anzupassen, halten Unternehmen häufig an der bestehenden Architektur sowie an den bestehenden Tools fest. Bei Bedarf erfolgt lediglich ein Upgrade der Werkzeuge. Kommen neue Anforderungen hinzu, werden diese „angebaut“ und in zusätzlichen Tools – häufig in der Cloud – implementiert. Das Ergebnis: Fehlen einer einheitlichen Datenbasis, redundante Datenspeicherung und Integrationsprozesse sowie die Konservierung veralteter Strukturen. Dadurch entstehen Datensilos, übergreifende Analysen sind schwierig bis unmöglich, führen zu inkonsistenten Ergebnissen und eine technische Integration ist nur mit viel Aufwand realisierbar.

Checkliste Modernisierung

Um den aktuellen und zukünftigen Anforderungen der Fachbereiche zu entsprechen, ist eine Modernisierung von Nöten. Hierbei ist folgendes Vorgehen sinnvoll:

  • Architektur in Frage stellen
  • Alternative Ansätze sammeln und bewerten
  • Tools auf den Prüfstand stellen
  • Konsequentes Re-Design unter Berücksichtigung der etablierten Werkzeuge
  • Neue Tools, dort wo notwendig und sinnvoll
  • Passende Strukturen und Werkzeuge behalten und ggfs. modernisieren

Fahrplan für ein erfolgreiches Data Analytics-Projekt

Die Modernisierung Ihrer Data Analytics-Lösung steht und fällt mit einer guten Planung. Folgender sechsstufiger Prozess hat sich in der Praxis bewährt, um Ihr Projekt zum Erfolg zu führen.

Schritt 1: Use Cases identifizieren

Am Anfang steht die Frage: Wofür wollen Sie die Data Analytics-Lösung einsetzen? Schließlich soll das Tool nicht zum Selbstzweck eingeführt werden, sondern Ihren spezifischen Ansprüchen genügen. Es ist ratsam, in diesem Schritt möglichst konkret zu werden. Dazu gehört es, bestehende sowie absehbare Use Cases zu analysieren und zu priorisieren und hieraus fachliche Anforderungen abzuleiten. Zusätzlich sollten alle relevanten Datenquellen, die es zu berücksichtigen gilt, identifiziert und aufgelistet werden. Auf Basis strategischer Überlegungen treffen Sie auch die Entscheidung für die Vorgehensweise, die am besten zu Ihrem jeweiligen Projekt passt: Hier lässt sich grundlegend zwischen Re-Design und Greenfield Approach unterscheiden.

Re-Design und Greenfield Approach

Beim Re-Design werden die bestehenden Strukturen und Architekturen weiterentwickelt, vereinheitlicht und auf die neuen Anforderungen ausgerichtet. Existierende Tools werden auf den Prüfstand gestellt, nach aktueller Funktionalität neu bewertet und nur bei Bedarf unter Berücksichtigung von vorhandenen Skills und Lizenzverträgen ausgetauscht. Ausgehend von den derzeitigen und zukünftigen Use Cases ist das Ziel, eine gemeinsame Datenbasis für alle Anforderungen zu schaffen, die tragfähig und flexibel für Weiterentwicklungen ist.

Der Greenfield-Approach hingegen geht von einer kompletten Neuentwicklung der Lösungs-Architektur aus. Sämtliche Strukturen werden neu entwickelt, die Implementierung erfolgt völlig losgelöst von der existierenden Umgebung und auch die Lösungsbausteine werden ohne Berücksichtigung bestehender Verträge und Skills nach dem Best-of-Breed Prinzip ausgewählt. 

Schritt 2: Gap-Analyse

Die Gap-Analyse knüpft an den ersten Schritt an und legt den Fokus auf den Status quo: Was bringt Ihre heutige Umgebung bereits mit? Welche neuen Bedürfnisse können wiederum nicht bedient werden? Wo steckt zusätzliche Funktionalität in Ihrer heutigen Umgebung, die bislang nur nicht genutzt wird?

Es gilt, die derzeitige Umgebung zu analysieren, zu dokumentieren und bestehende Funktionalität zu konservieren. Gleichzeitig sollen auf Basis neuer Anforderungen und Use Cases Funktionen identifiziert und bewertet werden, die in der heutigen Umgebung nicht genutzt werden oder überhaupt nicht zur Verfügung stehen.

Dabei geht es darum aufzuzeigen, was eine zukünftige Lösung zusätzlich bieten muss, um Ihre Erwartungen zu erfüllen. Mit diesen Erkenntnissen lässt sich dann die strategische Entscheidung zwischen Re-Design und Greenfield-Approach weiter verifizieren.

Schritt 3: Zielarchitektur festlegen

Nachdem Sie die IST- und SOLL-Analyse vorgenommen haben, ist es nun geboten, eine Zielarchitektur festzulegen, die Ihre Lösung tragen kann. Dazu gehört, eine Gesamtarchitektur zu definieren, einzelne Lösungsbausteine aufzuzeigen sowie Zusammenhänge und Abhängigkeiten zu identifizieren. In dieser Phase werden auch die Use Cases priorisiert, Abhängigkeiten identifiziert und schlussendlich bereits die Reihenfolge für die spätere Implementierung bestimmt.

Headerbild zu Business Intelligence

 

Mit Analytics & Business Intelligence Daten fest im Griff

Wir konzipieren und konstruieren die passende Business Intelligence-Lösung für Sie und bieten Services in unterschiedlichen Disziplinen.

Schritt 4: Toolevaluierung

Im vierten Schritt wählen Sie die Werkzeuge für die Implementierung Ihrer zukünftigen Lösung aus. Im Falle eines Re-Design nehmen Sie die Tools unter die Lupe, die bereits bei Ihnen im Einsatz sind. Wie schon bei der Gap-Analyse sollten Sie zunächst den Status quo evaluieren und fehlende Funktionalitäten identifizieren, immer unter Berücksichtigung der neuesten Entwicklungen und Versionen Ihrer Bestandslösung. Erst dann geht es daran, zusätzliche Tools für neue Anforderungen auszuwählen und zu verproben.

Beim Greenfield-Approach lösen Sie sich vollständig von Ihren bestehenden Tools. Sie entwickeln auf Basis Ihrer Anforderungen einen Kriterienkatalog, evaluieren verschiedene Werkzeuge und bewerten die verschiedenen Lösungen hinsichtlich ihrer Funktionalität in Bezug auf Ihre Zielarchitektur.

In beiden Fällen empfiehlt es sich, im Rahmen eines Proof-of-Technology ausgewählte Lösungen zu untersuchen und dabei die technische Umsetzbarkeit Ihrer Anforderungen an konkreten Beispielen – möglichst bereits auf einem Extrakt Ihrer Daten – zu evaluieren. 

Schritt 5: Neue Technologie erproben

Ob die neue Technologie hält, was sie verspricht, wird vor der Implementierung eingehend getestet. Dafür bietet sich ein agiles Vorgehen an, bei der die Umsetzung Schritt für Schritt erfolgt – so können Sie nach jeder Entwicklungsphase bereits erste Ergebnisse sehen und beurteilen, ob die Technologie Ihren Ansprüchen genügt. Bei einem Use Case mit komplett neuen Anforderungen hat sich zudem die Entwicklung eines Minimum Viable Products (MVP) bewährt.

Mit einer solchen Herangehensweise lassen sich schnelle Ergebnisse sowie ein hoher Nutzen für den jeweiligen Fachbereich erzielen.

Minimum Viable Product

Unter Minimum Viable Product ist eine erste Basisversion der zukünftigen Lösung zu verstehen, die mit den neuen Tools implementiert wird und die Grundfunktionalität abdeckt. Im Unterschied zu einem Prototyp, der nach den Tests nicht weiterverwendet wird, kann der MVP so lange erweitert und ausgebaut werden, bis die fertige Lösung entwickelt ist.

Schritt 6: Implementierung

Am Ende des Prozesses steht die Implementierung, bei der endlich der erste Use Case operationalisiert wird – damit schließt sich der Kreis zu Schritt 1 (Use Cases identifizieren). Mit der sukzessiven Umsetzung weiterer Use Cases schafft die Lösung nach und nach sichtbaren Nutzen für Ihr Unternehmen. Um einen nachhaltigen Projekterfolg sicherzustellen, sollte ein regelmäßiger Review der Zielarchitektur und des Implementierungsstands erfolgen. Nicht zu vernachlässigen ist außerdem die Etablierung eines Change Managements; so müssen sowohl technisch als auch fachlich Verantwortliche im Unternehmen abgeholt und im Umgang mit der neuen Data Analytics-Lösung geschult werden.

Fazit: Bewährtes erhalten und Neues gestalten

Abschließend lässt sich sagen, dass bei der Modernisierung Ihrer Data Analytics-Lösung stets von Ihren speziellen Use Cases auszugehen ist. Keine Frage: eine moderne Architektur und passende Technologien spielen dabei eine wichtige Rolle. Der Technologiewechsel an sich sollte dabei aber keinen Selbstzweck darstellen, sondern sich vor allem an den neuen Anforderungen der Fachbereiche orientieren. Bereits existierende Anforderungen und Lösungen sind gleichzeitig nicht zu vernachlässigen – gemäß dem Motto: Bewährtes bleibt bestehen, Neues wird ergänzt. Bei der Implementierung ist ein schrittweises, agiles Vorgehen sinnvoll, um schnelle Erfolge zu erzielen und gegebenenfalls rechtzeitig umlenken zu können.

Über den Autor: Martin Clement

Martin Clement ist Teamleiter Data Analytics bei der TIMETOACT und steuert in diesem Rahmen ein Team von rund zehn Consultants. Er bringt über 25 Jahre Berufserfahrung in unterschiedlichen Rollen im Bereich Data Warehouse und Business Intelligence mit. Seit 2020 ist er Teil der TIMETOACT und übernimmt hier eine breite Palette von Aufgaben, von der Kundenbetreuung über die Moderation von Workshops bis hin zur Erarbeitung von Lösungsvorschlägen und Zielarchitekturen.  

Martin Clement
Teamleiter Analytics TIMETOACT Software & Consulting GmbH

Mehr aus unserem Blog

Boxhandschuhe als Symbol für Entscheidung zwischen Data Lake und Data Warehouse
Blog 15.02.22

Data Lake vs Data Warehouse: Welche Lösung ist die Richtige?

Geht es um die Speicherung großer Datenmengen, kommt man um die Begriffe Data Lake und Data Warehouse kaum herum. Welche der beiden Lösungen für welchen Anwendungsfall geeignet ist!

Blog

Der Cloud vorgelagert: Edge Computing für Datenanalysen

Sicherheitsbedenken und Performance-Engpässe gestalten die Verarbeitung und Analyse von Daten in der Cloud zunehmend schwierig. So spricht einiges für eine Zwischenschicht: den Edge.

Referenz 04.08.25

vdek führt neue Data-Warehouse-Lösung ein

Die TIMETOACT GROUP unterstützt den Verband der Ersatzkassen e. V. bei der Umstellung einer Systemumgebung auf neueste IBM-Technologie.

Kompetenz

Artificial Intelligence & Data Strategy

Jedes Unternehmen erfasst und verwaltet Unmengen an Daten, z. B. aus Produktionsprozessen oder Geschäftstransaktionen.

Kompetenz

Artificial Intelligence & Data Strategy

Jedes Unternehmen erfasst und verwaltet Unmengen an Daten, z. B. aus Produktionsprozessen oder Geschäftstransaktionen.

Referenz 25.10.22

Interaktives Onlineportal identifiziert passende Mitarbeiter

TIMETOACT digitalisiert für KI.TEST mehrere Testverfahren zur Bestimmung der beruflichen Intelligenz und Persönlichkeit.

Referenz

vdek führt neue Data Warehouse Lösung ein

Mit der Lösung Cloud Pak for Data mit PostgreSQL als direkter Nachfolger von PDA setzt die vdek künftig auf dasselbe Datenbanksystem nur eine Generation weiter.

Navigationsbild zu Business Intelligence
Service

Analytics & Business Intelligence

Business Intelligence (BI) ist ein technologiegetriebener Prozess zur Analyse von Daten und zur Darstellung von verwertbaren Informationen.

Technologie Übersicht

Beratung und Lösungen rund um AWS Services

Als führender AWS Select Partner stehen wir Ihnen mit der umfangreichen Suite von AWS Services mit Rat und Tat zur Seite. Von der Strategieentwicklung über die Migration bis hin zur Optimierung.

Event

Data Fabric: Basis für Analytics und KI der nächsten Stufe

Im Webinar erfahren Sie, warum das Thema Data Fabric für Versicherer so wichtig ist. Wir erklären Ihnen, was die Data Fabric genau ist und welche Funktionalität sie für Data Science sowie den IT-Betrieb aufweist. In einer praktischen Demo zeigen wir Ihnen konkret Anwendungsfälle aus der Versicherungsbranche. Darüber hinaus erfahren Sie, in welchen Schritten Sie Ihre eigene Data Fabric einführen können.

Headerbild Data Insights
Service

Data Insights

Mit Data Insights helfen wir Ihnen Schritt für Schritt mit der passenden Architektur neue Technologien zu nutzen und eine datengetriebene Unternehmenskultur zu entwickeln

Header Blogbeitrag Artificial Intelligence
Blog 05.05.22

Artificial Intelligence (AI) mit Spurhalteassistent im Griff

Transparenz und Nachvollziehbarkeit von AI ist die größte Herausforderung für die Nutzung von Artificial Intelligence ✅ Lesen Sie unseren Blogbeitrag.

Technologie

Microsoft Azure Synapse Analytics

Mit Synapse hat Microsoft in der Azure Cloud eine Plattform für alle Aspekte von Analytics bereitgestellt. Synapse umfasst innerhalb der Plattform Dienste für die Datenintegration, Datenhaltung in jeglicher Größe und Big Data Analytics. Zusammen mit existierenden Architekturtemplates entsteht in kurzer Zeit für jeden analytischen Anwendungsfall eine Lösung.

Schild als Symbol für innere und äußere Sicherheit
Branche

Innere und äußere Sicherheit

Verteidigungskräfte und Polizei müssen Bürger*innen und den Staat vor immer neuen Bedrohungen schützen. Moderne IT- & Softwarelösungen unterstützen dabei.

Blog

So verändert Data Analytics die Industrie

Mit dem Einsatz von Data Analytics in der Industrie tun sich für Unternehmen zahlreiche neue Möglichkeiten auf.

Kompass als Symbolbild für einen Single-Point-of-Truth
Blog 17.03.22

Vorteile und Umsetzung eines Single-Point-of-Truths

Wer keine Struktur in seinen Informationswust bringt, dem bleiben Mehrwerte durch Big Data verschlossen. Für informierte, daten-gestützte Entscheidungen bedarf es eines Single-Point-of-Truths.

Headerbild für lokale Entwicklerressourcen in Deutschland
Branche

Digitalisierungspartner vor Ort für Versicherungen

Wir finden die optimale IT-Lösung für Versicherungen! ► Alles aus einer Hand ✓ Persönlich vor Ort ✓ Jetzt persönlichen Austausch vereinbaren.

Felss Logo
Referenz

Mit Predictive Analytics die Produktqualität vorhersagen

Die Felss Systems GmbH setzt auf ein eigens entwickeltes Predictive Analytics-Verfahren von X-INTEGRATE. Mit vorausschauendem Scoring und Automatisierung für mehr Effizienz.

Event 06.05.20

Webcast: Versicherung und Data Science

Marc Bastian zeigt Ihnen ein Beispiel einer analytischen Infrastruktur für KI Anwendungsfälle, praktische Projekterfahrung und Erfolgsfaktoren.

Blog 11.05.23

EU-Nachhaltigkeitsrichtlinie (CSRD) – das müssen Sie wissen!

Die Corporate Sustainability Reporting Directive (CSRD) kommt! Was bedeutet das für Ihr Unternehmen? Wir haben es im Blog zusammengefasst!