Statistische Datenanalyse ist ein Schlüsselelement der industriellen Entwicklung

"In God we trust, all others bring data"

  • Heinen_Grafik-2_CM2117.jpgHeinen_Grafik-2_CM2117.jpg
  • Heinen_Grafik-2_CM2117.jpg
  • Interaktive Modellbildung: Die Anpassung der Gleichungen (oben) und die errechneten Zusammenhänge (unten) können über interaktive Grafiken zur Optimierung genutzt werden. © SAS Institute GmbH
  • © SAS Institute GmbH
  • © SAS Institute GmbH
  • Bernd Heinen, JMP Systems Engineer (SAS Institute)

In allen industriellen Bereichen steigen die Anforderungen an Qualität, Flexibilität und Geschwindigkeit, in denen Produkte oder Dienstleistungen bereitgestellt werden müssen. Fortschreitende Digitalisierung weckt Erwartungen, die oftmals nur schwer zu befriedigen sind. Im Kerngedanken von Industrie 4.0 steckt ja, dass man mit den effizienten Methoden der Massenfertigung individuelle Produkte herstellen kann. Das geht nur mit elektronischer Steuerung, die wiederum Informationen benötigt. Kein Problem, denn Sensoren liefern Daten zu allem; aber wie entstehen daraus Informationen? Wenn, wie oft gesagt, Daten das Öl des 21. Jahrhunderts sind, dann sollte man die nötige Energie daraus gewinnen.

Verfügbarkeit von Daten

Daten begleiten und beschreiben Produktions- und Handelsprozesse von je her. Auftragseingang, Liefermengen, Produktspezifikation, Wartungsintervalle, Ausbeute u.v.m. Lange Zeit wurde ihnen keine Bedeutung als eigenständige Informationsquelle beigemessen. Datenerfassung war häufig auch ein separater Vorgang, der unabhängig vom eigentlichen Prozessschritt durchgeführt werden musste. Die Einführung computergestützter Verfahren änderte das und die Entwicklung auf dem Feld der Sensorik trug ein Übriges dazu bei, dass Daten heute fast überall vorhanden sind. Dies bedeutet aber wiederum nicht, dass sie auch überall verfügbar sind. Zu unterschiedlich sind noch die Speicherverfahren und Datenformate, und nicht in jedem Unternehmen genießt eine konsistente Datenhaltung die Aufmerksamkeit, die ihr gebührt.

Erfahrung und Wissen

Zur Ausbildung fast aller Berufe in technischen und naturwissenschaftlichen Bereichen zählt die Vermittlung elementarer statistischer Methoden. Oft als trockene, unnötige Materie angesehen, zählt das entsprechende Fach zu den unbeliebtesten in der gesamten Ausbildung. Entsprechend hält sich auch die Begeisterung in Grenzen, sich im beruflichen Alltag wieder mit dieser Materie zu befassen. Ohne entsprechende Übung fehlen aber auch die Ideen, wie man mit Daten umgehen sollte, wie man überhaupt einen Einstieg in Datenanalyse finden könnte und welche Ergebnisse man erwarten kann.

Und so mangelt es allerorten an der Fähigkeit, den Wert der Statistik überhaupt einschätzen zu können. Hinzu kommt, dass es natürlich überall Fachleute gibt, die „ihre“ Prozesse schon lange betreuen und über einen ansehnlichen Erfahrungsschatz auf ihrem Gebiet verfügen. Da bildet sich schon mal leichter Widerstand gegen das Vorhaben, die Qualität von Prozessen anhand von Daten neu zu bewerten. Tatsächlich können neu eingeführte Datenanalysen dazu führen, dass Altbewährtes kritisch hinterfragt werden muss. Aber darin liegt auch die Chance, bislang verborgenes Verbesserungspotential zu nutzen. Hier liegt auch die Herausforderung für die Entwicklung der Unternehmen. Es ist auf jeden Fall hilfreich, wenn man über ausgebildete Fachstatistiker verfügt. Aber der entscheidende Faktor ist, dass jeder an seinem Arbeitsplatz den elementaren Umgang mit Daten erlernt und immer wieder praktisch umsetzt.

Dabei ist es nicht notwendig, sich auf die Theoriestunden seiner Statistikkurse zurück zu besinnen. Man darf allerdings auch nicht der Fehleinschätzung unterliegen, Tabellenkalkulationsprogramme seien ein Teil der Lösung. Das Gegenteil ist der Fall. Wie der Marktführer auf diesem Gebiet auch im Namen seines Produktes anklingen lässt, wäre eine bessere Bezeichnung dieser Softwaregattung eher „Zellenbearbeitungsprogramme“. Statistikprogramme verwalten Daten weitaus restriktiver, und sie halten so zu einer systematischen Betrachtung der Daten an. Der Lohn für die Einarbeitung in die Datenstruktur ergibt sich sofort: Mit einfachen Schritten kommt man zu überraschend detaillierten Analysen. Als Einstieg bieten sich auch die umfangreichen Grafiken an, die sich sehr schnell erstellen lassen. Sie bieten darüber hinaus den Vorteil, dass man fast alle Sachverhalte auch grafisch darstellen kann.

Voraussetzungen

Unternehmen sind hierarchisch organisiert und so ist eine wesentliche Voraussetzung für die Umsetzung jedweden Änderungsprozesses die unbedingte Unterstützung der Unternehmensleitung für diesen Wandel. Wobei es hier nicht darum geht, über große Investitionen oder Programme zu beschließen. Es geht darum, zu verlangen, dass Entscheidungen von Daten untermauert werden. „In God we trust, all others bring data“, wie der bekannte Ökonom W. Edward Deming gesagt hat. Ein gutes Beispiel bietet die Six Sigma Bewegung, die in vielen Unternehmen Fuß gefasst hat, durch alle Bereiche hin unterstützt wird und oftmals über eine eigenständige Organisationsstruktur verfügt. Derart formal muss die Datenanalyse gar nicht aufgebaut werden, aber auch dafür muss man ein Budget für Weiterbildung und Software zur Verfügung stellen. Geeignete Software ist unumgänglich und in ausreichenden Alternativen vorhanden. Der Zugang zu solcher Software ist individuell unterschiedlich, manche Anwender bevorzugen den Einstieg über eine Schulung, andere über eigenes Ausprobieren. Beides sind akzeptable Vorgehensweisen, wesentlich ist aber in beiden Fällen, dass konkrete Aufgaben mit der Einarbeitung verbunden werden.

Die Anwendung der Datenanalyse beruht auf Daten. Datenverfügbarkeit und -qualität wird in vielen Unternehmen kein ausreichendes Augenmerk gewidmet. Oft auch deshalb, weil die Verfahren zur Auswertung fehlen. Und so entsteht ein Teufelskreis: Lückenhafte Daten führen zu mangelnden Auswertungsmöglichkeiten und ausbleibende Erfolge in der Datenanalyse zu ausbleibender Wertschätzung der Datenhaltung. Mit zunehmender Erfahrung in der Auswertung kann man auch die Anforderungen an die Datenqualität besser spezifizieren. Und so entwickeln sich Analysefähigkeiten und Datenqualität parallel weiter. Für den Einstieg reicht aber das, was an Datenmaterial vorhanden ist – Daten, die man sich üblicherweise mit Tabellenkalkulationsprogrammen oder vielleicht nur in Präsentationsgrafiken anschaut. Ein Statistikprogramm verhilft im Handumdrehen zu weiteren Erkenntnissen.

Big Data

Was aber, wenn die Datenmengen bereits groß sind oder aber rasant wachsen? Hier ist der Vorzug statistischer Verfahren, dass das methodische Vorgehen immer dasselbe ist. Was man an übersichtlichen Datenmengen erlernt hat, lässt sich ohne Probleme auf große Datenvolumina übertragen. Zwar bergen große Datenmengen eigene, spezifische Probleme, aber auch diese lassen sich mit den bekannten Verfahren beherrschen. Wichtig ist eher, dass die speziellen Probleme bekannt sind und berücksichtigt werden. Mit den Rechenleistungen und Speicherausstattungen moderner Workstations braucht man hier auch keine Einschränkungen zu befürchten.

Vorteile und Aussichten

Grafische Darstellungen, die nicht mit Effekthascherei sondern methodischer Akkuratesse Daten darstellen, bieten einen einfachen und zuverlässigen Einstieg in die Datenanalyse. Sie lassen Trends, Strukturen und Ausreißer erkennen und tragen so dazu bei, das Verständnis der betreffenden Zusammenhänge zu vertiefen. Alle Optimierungsaufgaben, seien es Komponenten einer Mischung oder Schritte in einem Prozess, lassen sich nur durch statistische Verfahren eindeutig und nachhaltig lösen. Außerdem bieten diese Verfahren auch Simulationsmöglichkeiten, so dass man die Ergebnisse von Eingriffen abschätzen kann, ehe man sie umsetzt. Die Anwendung der Auswertungsverfahren ist skalierbar, ob moderate oder große Datensätze, beide Situationen sind gleichermaßen beherrschbar.

Die Zukunft soll aber nicht nur verbesserten Angeboten sondern auch ganz neuen Angeboten gehören. Ein anschauliches Beispiel liefert die „Predictive Maintenance“. Wenn man durch die Erhebung entsprechender Daten und ihrer Auswertung ein statistisches Modell des Verschleißes einzelner Teile erstellt hat, kann man das anschließend nutzen, um optimale Wartungszeitpunkte je nach Betriebs- und Umweltbedingungen eines Gerätes festzulegen. Das spart Zeit und Geld und schützt vor unliebsamen Überraschungen. Diese Art der Individualisierung lässt sich auf viele Produkte und Dienstleistungen anwenden. Ich überlasse es Ihrer Phantasie, Ihre Vision zu entwickeln.

Was ist zu tun?

Datenanalyse ist eine Kernfunktionalität zukünftiger Entwicklungen. Die notwendigen Werkzeuge sind heute verfügbar und effizient auf bestehende Aufgabenstellungen anwendbar. So erzielt man einen unmittelbaren Erfolg in allen Unternehmensbereichen und erwirbt das notwendige Wissen, um die Zukunft gezielt zu gestalten. Es entsteht auch nicht der Zwang, schlagartig massive Veränderungen umzusetzen, sondern einen Entwicklungspfad zu beschreiten, der parallel zur technischen Entwicklung und Ausweitung Ihres Angebotes zu optimalen Ergebnissen führt. Wenn es in Ihrem Unternehmen schon Statistiksoftware gibt, fördern sie deren Einsatz; falls nicht, definieren Sie ein Projekt, beschaffen Sie die Software und legen Sie los!

Am 30. November 2017 fand ein kostenloses Webinar statt, in dem der Autor dieses Beitrags zum Thema Datenanalyse und Industrie 4.0 referiert. Dazu finden Sie hier ausführlichere Informationen und können sich die Aufzeichnung des Webinars ansehen.

 

Autor(en)

Kontaktieren

SAS Institute GmbH
In der Neckarhelle 162
69118 Heidelberg
Telefon: +49 (0)6221 4150

Jetzt registrieren!

Die neusten Informationen direkt per Newsletter.

To prevent automated spam submissions leave this field empty.