Das Potenzial der Datenanalyse für Unternehmen

21. Okt. 2021

01000100 01100001 01110100 01100101 01101110

Sich nach einem langen Tag auf die Couch zu setzen ist doch ’was Schönes: Kaum ist das Smartphone aus der Tasche gezogen, wird schnell ein schönes Urlaubsfoto auf Instagram gepostet, neueste Vorkommnisse getwittert oder man verabredet sich innerhalb weniger Sekunden über WhatsApp mit dem besten Freund auf ein Feierabendbier.

Die Geschwindigkeit und Menge, mit der Daten heutzutage erzeugt und gesendet werden können, hat in den letzten Jahren spürbar zugenommen und wird sich zukünftig noch erheblich steigern.

Spätestens seit dem Datenskandal um Facebook und Cambridge Analytica wissen wir alle, dass Unternehmen Daten nutzen können, um Profite zu generieren. Doch längst nicht immer muss es sich um personenbezogene Daten handeln. Es gibt eine Vielzahl weiterer Daten in jedem Unternehmen, die in der Auswertung wertvolle Erkenntnisse liefern können.

Doch wieso lohnt es sich überhaupt für Unternehmen eigene Daten zu analysieren und wie sieht der perfekte Prozess einer Datenanalyse aus?

Datenanalyse: Wieso, weshalb, warum

Zunächst einmal muss geklärt werden, was man unter dem Begriff "Daten" überhaupt alles versteht. Laut Duden handelt es sich bei Daten um „(durch Beobachtungen, Messungen, statistische Erhebungen u. a. gewonnene) [Zahlen]werte, (auf Beobachtungen, Messungen, statistischen Erhebungen u. a. beruhende) Angaben, formulierbare Befunde“ oder vor dem Hintergrund der EDV als „elektronisch gespeicherte Zeichen, Angaben, Informationen“ – einfach gesagt: irgendwie alles was irgendwo an Informationen anfällt und gespeichert wird.

Und wie können Daten in einem Unternehmen nun genutzt werden?

Ein kleines Beispiel: Wenn ein Unternehmen seit Jahren rote Zahlen schreibt, das Management aber keine Daten über die Ausgaben und Einnahmen erhält, können mögliche Kostenverursacher nicht identifiziert und weitere Verluste hingenommen werden.

Die Notwendigkeit grundlegender Datenanalysen ist so in jedem Unternehmen gegeben. Im heutigen Zeitalter von Big Data sind Daten überall, sei es tabellarisch in einem Excelsheet, im binären Format in einer Datenbank, online in der Cloud oder vielleicht sogar noch als uralter Bericht im Register im Archiv. Die Analyse all’ dieser Daten bringt viele Potenziale mit sich, die in verschiedenen Geschäfts- oder Betriebsbereichen eines jeden Unternehmens nachhaltige Mehrwerte generieren können.

4. Arten der Datenanalyse

Bevor der Datenanalyseprozess näher beschrieben werden kann, muss sich zunächst für eine der vier Analysemethoden entschieden werden:

  1. Deskriptiv: Was passiert in der Vergangenheit?
  2. Diagnostisch: Warum passiert etwas?
  3. Prädiktiv: Was passiert zukünftig?
  4. Präskriptiv: Was ist das beste Vorgehen?

Wie genau sich die Arten der Datenanalyse voneinander unterscheiden, lässt sich am Beispiel einer auf Sensordaten basierenden Datenanalyse einer Produktionsmaschine im Betrieb veranschaulichen:

  1. Deskriptiv: Es fällt auf, dass die Maschine seit einem Jahr monatlich für etwa 3 Stunden ausfällt.

  2. Diagnostisch: Die Sensordaten zeigen, dass der Ausfall auf eine zu hohe Betriebstemperatur zurückzuführen ist.

  3. Prädiktiv: Historische Sensordaten können genutzt werden, um die Wahrscheinlichkeit und den Zeitpunkt eines erneuten Ausfalls der Maschine vorherzusagen.

  4. Präskriptiv: Auf Basis historischer und aktueller Daten wird ein baldiger Ausfall prognostiziert, der mit der Anordnung „Kühlwasser nachfüllen“ verhindert werden soll.

Während alle Arten der Datenanalyse ihre Daseinsberechtigung haben, werden in der breiten Masse von Unternehmen vor allem deskriptive Datenanalysen vorgenommen, da diese Analysemethode vergleichsweise einfach umzusetzen ist und ein schneller Mehrwert generiert werden kann.

Mit höherer Analysekomplexität geht jedoch häufig auch ein höherer Nutzen für Unternehmen einher. Die Potenziale komplexerer Methoden sind spätestens seit der Verbreitung der Predictive Maintenance erkannt worden.

Dass die prädiktive Analysemethode schnell umsetzbar ist, hat die Data Challenge Oldenburg 2020 sponsored by windpunx und worldiety gezeigt. Die Data Challenge ist ein einzigartiges Praxismodul bei dem Informatik-Studierende innerhalb von zwei Wochen verschiedene Machine Learning Algorithmen sowie Modelle entwickeln, die historische Daten nutzen, um Aussagen über das Eintreten zukünftiger Ereignisse treffen zu können.

Der Datenanalyse-Prozess in 5 Schritten

Für die Datenanalyse existieren bereits definierte Prozesse, wie KDD, CRISP-DM oder SEMMA.
Grundsätzlich kann jedoch jeder Datenanalyseprozess zunächst in fünf Schritte unterteilt werden.

Der 1. und wohl wichtigste Schritt ist die Definition einer unternehmerischen Fragestellung mit dem Ziel, ein Geschäftsverständnis für den Data Analysten herzustellen. Die Fragestellung ist hierbei entscheidend für die Art und Komplexität der Datenanalyse.

Es gibt z.B. einen deutlichen Unterschied zwischen den Fragestellungen „Gibt es Ausfallzeiten der Maschine?“ und „Welche Maßnahmen müssen ergriffen werden, damit die Maschine im nächsten Monat nicht wieder ausfällt?“. Je nach Fragestellung wird sich für eine der im vorherigen Abschnitt vorgestellten Analysearten entschieden. Die Definition einer solchen Fragestellung kann zwei Ausgangspunkte haben: Entweder existiert bereits eine betriebliche Fragestellung oder es existieren gespeicherte, noch nicht ausgewertete Daten, von denen Fragestellungen abgeleitet werden können.

Im 2. Analyseschritt folgt die Sammlung und Aufbereitung aller relevanten Daten, die für die Beantwortung der im ersten Schritt erfolgten Fragestellung relevant sind.

Für die Datenanalyse mithilfe von Software bieten sich Datenquellen an, die in Dateiformaten wie csv, xlsx, json und xml oder aber auch in Datenbanken sowie Data Lakes gespeichert sind.

Die anschließende Aufbereitung der Daten kann gegebenenfalls knifflig sein – erfahrene Data Analysten, die Programmiersprachen wie Python oder R beherrschen, stellt das jedoch in der Regel vor keine Probleme. Einmal aufbereitet eignet sich die Speicherung dieser strukturierten Daten in einem (Cloud) Data Warehouse, damit diese für mögliche nachfolgende Datenanalysen wiederverwendet werden können.


Die nachfolgende, explorative Datenanalyse im 3. Schritt des Datenanalyse-Prozesses nutzt die zuvor aufbereiteten Daten mit dem Ziel, Muster, Anomalien und Abhängigkeiten in den Daten zu entdecken. Hierbei kommen statistische Analyseverfahren, wie beispielsweise Korrelations-, Regressions- oder Zeitreihenanalysen zum Einsatz.

Die Modellierung und Auswertung der Daten erfolgen im 4. Analyseschritt, bei dem die deskriptive Statistik zum Einsatz kommt, mit dem Ziel, die Daten möglichst übersichtlich zu präsentieren, z.B. in tabellarischer Form, als Diagramm oder aber als Kennzahl.

Anders als die deskriptive Statistik nutzt die induktive Statistik Methoden, mit deren Hilfe Daten mathematischen Operationen unterliegen, wodurch weitere Erkenntnisse gewonnen werden können.

Eine dritte Modellierungsmethode stellt die Entwicklung von Machine Learning Modellen dar, die sich insbesondere dann eignen, wenn Prognose- oder Klassifikationsaufgaben bewältigt werden müssen.

Im 5. und letzten Schritt werden die zuvor generierten Diagramme und Modelle verfeinert, visualisiert und kommuniziert. Die Visualisierung kann dabei einmalig erfolgen, beispielweise in Berichtsform sowie auf einem Foliensatz oder aber regelmäßig mithilfe von Dashboards und den tagesaktuellen Daten.


Self-Service Reporting – Datenanalyse für alle

Der Prozess einer Datenanalyse sieht auf dem ersten Blick kompliziert aus und scheint ohne die Unterstützung eines Data Analysten bzw. Data Scientist sowie ohne eingeschlägige Programmierkenntnisse unmöglich. Glücklicherweise existiert eine breite Auswahl an Business Intelligence (BI) Software, die es auch Nicht-ITlern ermöglicht den Datenanalyseprozess zu durchlaufen und Wissen auf Datenbasis zu generieren sowie zu kommunizieren.

Diese Möglichkeit des Self-Service Reporting bietet diverse Vorteile:

  • Kurze Zeit von der User-Story zum Analyseergebnis
  • Höhere Effizienz
  • Entlastung der IT
  • „Analyse per Mausklick“

Viel Aufwand für ein paar Diagramme?

Viele kleine und mittelständische Unternehmen erkennen zurzeit noch nicht den Mehrwert in der Nutzung von Datenanalysen, wobei häufig aus überschätzten Kosten- oder Komplexitätsgründen darauf verzichtet wird – „und außerdem haben wir ja Excel!“.

Richtig ist, dass nicht für jedes Unternehmen komplexe Datenanalyse infrage kommen. Jedoch bietet moderne BI-Software jedem Unternehmen die Möglichkeit, erschwingliche Datenanalysen, selbst für die weniger technikaffinen Mitarbeitenden, zu ermöglichen.

Im Zeitalter von Big Data stellen diverse Dienstleister darüber hinaus sowohl Cloud-, als auch on-premise-Lösungen sowie Hybridarchitekturen kostengünstig bereit, mit der Möglichkeit, einen unternehmensspezifischen Data Stack zu entwickeln, der automatisierbare Datenmodellierung und -aufbereitung verspricht.

Innovative Konzepte wie der Data Lake öffnen der Nutzung von Machine Learning Modellen die Tür.

Die Erstellung und Verteilung von Berichten sowie Dashboards generiert zudem unternehmensspezifisches Wissen, das im Umkehrschluss dazu genutzt werden kann, innerbetriebliche Schwachstellen zu identifizieren, Prozesse zu optimieren und datengetriebene (Management-) Entscheidungen effizient zu treffen, die den Erfolg eines Unternehmens maßgeblich beeinflussen können.

Unser Data Analyst

Dr. Daniel Schlitt

ist für Sie da!

+49 441 559 770 0

Haben Sie Fragen?

Weitere Blogartikel

08. Jan. 2024

Persönlich nachgefragt bei Adrian Macha und Torben Schinke von worldiety

Blog

Wie schauen Adrian Macha und Torben Schinke heute auf das Projekt „worldiety Zentrum Oldenburg“? mehr

10. Jan. 2023

Generator für Softwarearchitekturen

Blog

Bei der Entwicklung von Software treten bei fortlaufender Dauer, entsprechender Größe, Komplexität und bei häufig auftretenden Änderungen Herausforderungen hinsichtlich der Architektur des zu entwickelnden Softwaresystems auf. Diese bestehen zumeist darin, den immer größer werdenden Quellcode und die zunehmende Anzahl von Softwarekomponenten passend zu organisieren. Die Architektur des Softwaresystems ist dabei maßgeblich für die Wartung und Anpassungsfähigkeit der Software als auch für die Einarbeitungszeit neuer Entwickler. mehr

01. Mai. 2022

Benutzerdokumentation automatisiert generieren

Blog

Die agile Softwareentwicklung hat sich in den letzten Jahren zu einem wichtigen Ansatz der technischen Umsetzbarkeit entfaltet. Neben den Vorteilen, wie z. B. Flexibilität, Fehlererkennung und erhöhte Performanz durch eine stetige Kommunikation, bringt eine agile Softwareentwicklung jedoch auch Einschränkungen mit sich. So wird die Dokumentation - zu welcher auch die Benutzerdokumentation zählt - eher relativiert betrachtet und zugunsten der engen Zusammenarbeit zwischen Entwickler:innen, Tester:innen, Kund:innen und Nutzer:innen auf ein Minimum beschränkt. Bedingt durch Covid-19 musste der persönliche Kontakt mit Kunden, welcher in einer agilen Entwicklungsumgebung einen hohen Stellenwert besitzt, auf ein Minimum reduziert werden. Dabei gewann Software allgemein in den letzten Jahren immer mehr an Komplexität, welches auch eine zunehmende Rolle in der Organisation von Informationen innerhalb der Benutzerdokumentation zur Folge hat. mehr

28. Apr. 2022

Empathy Maps als UX-Tool

Headerbild Empathy Maps
Blog

In Entwicklungs-, Design- oder Marketing-Teams bestehen oftmals unterschiedliche Vorstellungen von Zielgruppen, bzw. dem Endnutzer einer Applikation. Dies kann dann problematisch werden, wenn bspw. neue Features geplant oder versucht wird, den Endnutzer in Texten sowie Bildern direkt anzusprechen. Vor allem aber führt dies oftmals zu langwierigen Prozessen sowie Entscheidungen über die Nutzer und deren Bedürfnisse. Um dieser Herausforderung entgegenzuwirken, lassen sich unterschiedliche Ansätze sowie Methoden nutzen. Eine besonders effiziente und in der Umsetzung einfache Methode ist die „Empathy Map“. Empathy Maps sind ein agiles Tool im Bereich des User Experience Designs, das dabei hilft, die Nutzer sowie deren Bedürfnisse besser zu verstehen und ein einheitliches Mindset im Projekt-Team zu etablieren. Die Nielsen Norman Group, eine Erfolgreiche UX Beratungsfirma aus Amerika, welche von den User Experience Pionieren, Don Norman und Jakob Nielsen gegründet wurde, definiert Empathy Maps wie folgt: mehr