Analytics

Systemische Sammlung, Analyse, Aufbereitung und Darstellung Ihrer Daten für optimale operative und strategische Entscheidungen.

Advanced Analytics
Mit Hilfe von Advanced Analytics Lösungen gelingt es, entscheidende Verbesserungen in...
Mehr lesen
Predictive Analytics & Maintenance
Predictive Analytics ermöglicht es, mit Hilfe unternehmenseigener Daten zukünftige Trends...
Mehr lesen
Selfservice BI, Adhoc Analysen
Die Anwender der einzelnen Fachabteilungen können jederzeit eigenständig und unabhängig...
Mehr lesen
Machine Learning
Ein System lernt aufgrund eines aus Algorithmen aufgebauten Modells aus bereits erfolgten...
Mehr lesen
Data Warehouse
Das Data Warehouse ist das Herzstück Ihres BI Projektes. Nicht nur alle internen...
Mehr lesen
Data Science
Data Science bietet Ihnen die Chance - nicht auf den ersten Blick ersichtliches Wissen -...
Mehr lesen

Development

Umfassende Situationsanalyse, fundierte Beratung, professionelle Umsetzung individueller Softwarelösungen sowie kompetente Unterstützung.

Development
Wir entwickeln für Sie individuelle Lösungen mit projektspezifischen Funktionen.
Mehr lesen
Business Process Management
​​​​​​​Wir führen durch das Business Process Management eine kontinuierliche Verbesserung...
Mehr lesen
SharePoint Entwicklung
Unsere SharePoint EntwicklerInnen, entwickeln und erstellen Konzepte und Lösungen für die...
Mehr lesen
Internet of Things
Das Internet der Dinge (Internet of Things; IOT) beschreibt die zunehmende Vernetzung...
Mehr lesen
Zur Übersicht
Zur Startseite
Schliessen

Aktuelles

Neuigkeiten rund um cubido.
Zur Übersicht

Mit Data Science über den Tellerrand schauen

Data Science hat viele Gesichter. Klassischerweise werden konkrete Fragestellungen mit einem Berg voller Daten an einen Data Scientist herangetragen. Wertvolle Aussagen, die in den Daten stecken, sollen getroffen werden, um die konkreten Fragestellungen mit einer möglichst hohen Genauigkeit zu beantworten. Dazu bereinigt der Datenanalyst möglicherweise die Rohdaten, knetet und quetscht sie nicht selten in eine passende, analysierbare Form und zieht sich – bildlich gesprochen – einen Taucheranzug an, um mit statistischen Modellen, Visualisierungen und anderen Tools in das Datenmeer zu tauchen und verborgene Schätze zu heben.

Data Science hat viele Gesichter. Klassischerweise werden konkrete Fragestellungen mit einem Berg voller Daten an einen Data Scientist herangetragen. Wertvolle Aussagen, die in den Daten stecken, sollen getroffen werden, um die konkreten Fragestellungen mit einer möglichst hohen Genauigkeit zu beantworten. Dazu bereinigt der Datenanalyst möglicherweise die Rohdaten, knetet und quetscht sie nicht selten in eine passende, analysierbare Form und zieht sich – bildlich gesprochen – einen Taucheranzug an, um mit statistischen Modellen, Visualisierungen und anderen Tools in das Datenmeer zu tauchen und verborgene Schätze zu heben.

So weit, so schön. Noch erhebender sind Momente, wenn man neben Antworten auf die konkreten Fragestellungen auch Zusatzinformation automatisch aus der Analyse erhält. Lassen Sie mich dazu ein einfaches Beispiel bringen:

Gehen wir davon aus, dass in einem ERP-System täglich die produzierte Stückzahl eines Produkts erfasst wird und die anfallenden Gesamtkosten auf Tagesebene ermittelbar sind. Eine simple, logische Anforderung an einen Data Scientist könnte sein, zu untersuchen, ob und wie die täglich produzierte Stückzahl mit den täglichen Gesamtkosten zusammenhängt. D.h. auf ein Jahr betrachtet hat man 365 Datenpunkte und somit eine Punktwolke wenn man die Zahl der produzierten Stück gegen die Gesamtkosten in einem Plot aufträgt. Nehmen wir an, dass unsere Maschine(n) 365 Tage im Jahr „rund um“ 30 Stück am Tag produzieren, d.h. normalverteilt mit Mittelwert 30 und Standardabweichung 1. Weiter nehmen wir an, dass das ERP-System uns für die zu untersuchenden 365 Tage die Gesamtkosten pro Tag liefert. Stellen wir die produzierten Stück und die Kosten gegenüber, könnte z.B folgende Grafik herauskommen:

Gelingt es dem Data Scientist – wie in unserem Beispiel – eine Funktion zu ermitteln, die den Zusammenhang zwischen Stückzahl und Gesamtkosten mit möglichst geringen Abweichungen beschreibt, hat man ggf. sogar Glück in Bezug auf Zusatzinformation.

Die angepasste Funktion sei in diesem Beispiel hier ermittelt durch: K(x) = 1000-x + x^2. Sie weist sehr geringe Abweichungen zu den tatsächlichen Werten auf, trifft also die Realität – salopp gesagt – sehr gut.

Man kann also nicht nur die ziemlich genauen Gesamtkosten direkt aus der produzierten Stückzahl voraussagen, sondern erntet automatisch die Erkenntnis, dass die Stückkosten (K(x)/x) mit hoher Treffsicherheit bei 32 Stück am geringsten sind. D.h. wenn man mit möglichst geringen Stückkosten produzieren möchte, liegt die Empfehlung nahe, die Maschine(n) im Schnitt 32 Stück pro Tag produzieren zu lassen. Eine gute Anpassung an die  Grenzkostenfunktion (die erste Ableitung der Kostenfunktion K(x)) erhält man auch geschenkt.

Natürlich sind Zusammenhänge in den Daten real fast immer komplexer als in meinem idealisierten Beispiel, aber die Chance, mehr Information aus den Daten als anfangs geglaubt herauszuholen, bietet sich unabhängig von der Komplexität – und das macht Data Science unheimlich sexy.

Blog | Data Science
04. Oktober 2017
Werbeagentur Moremedia, Linz