Strategie & Management

Data Analytics in der chemischen Industrie

Produktions- und Vertriebsabläufe optimieren sich dank KI und automatisierter Datenanalyse selbst

17.03.2021 - In der digitalen chemischen Fabrik und in digitalen Lieferketten erzeugen Sensoren und Geräte eine Unmenge an Daten, die heute vor allem bei der proaktiven Wartung zum Einsatz kommen. Gekoppelt mit künstlicher Intelligenz und fortgeschrittener Datenanalytik sind mittlerweile noch ganz andere Einsatzszenarien denkbar – bis hin zu Produktions- und Vertriebsstrategien, die sich automatisch und fortlaufend selbst optimieren.

Es steht ein Umbruch an: Digitale Infrastrukturen und Anwendungen bilden zwar seit den 1990er Jahren das Rückgrat der meisten Geschäftsprozesse in der chemischen Industrie. Zunehmend zeigen diese Unternehmen nun verstärkt Interesse am Potenzial der dabei erzeugten Daten, das durch die Verbindung von fortgeschrittener Datenanalytik und künstlicher Intelligenz entsteht. Diese Lösungen sollen ermöglichen, dass automatisierte datengetriebene Aktionen oder gar Entscheidungen zur Normalität werden.

Nicht nur vorausschauende Wartung

Datengestützte neue Produkte und Services prägen die chemische Industrie bereits heute, etwa bei der digitalen Optimierung und Steuerung des Getreideanbaus. So überwachen Landwirte ihre Felder in Echtzeit und erhalten dadurch schnell Auskunft, wenn es darum geht, auftretende Parasiten, Krankheiten oder Unkraut zu erkennen und Gegenmaßnahmen einzuleiten.

Die bislang bekanntesten Data Analytics-Anwendungen sind im Bereich der vorausschauenden Wartung (Predictive Maintenance) in der Produktion zu finden. Sie verdichten die Verhaltensdaten von kritischen Teilen der eingesetzten Geräte zu Handlungsempfehlungen, um Maschinen proaktiv zu warten – und nicht erst, wenn sie ausgefallen sind.

Daten mit Verfallsdatum

Besonders wichtig ist dabei, dass viele kritische Daten schon innerhalb kurzer Zeit ihren Wert verlieren. Datengestützte Warnungen müssen oft in Echtzeit erfolgen, damit Gegenmaßnahmen noch sinnvoll möglich sind. Ist eine Maschine erst einmal ausgefallen, ist es zu spät. Dies bedeutet in der Folge auch, dass solche Daten nicht den Weg über die Cloud oder zentrale Rechenzentren gehen können. Sie müssen dort verarbeitet werden, wo sie entstehen, also an den Geräten selbst (dem sogenannten Edge). Die Unternehmen müssen deshalb konsequent unterscheiden: Welche Daten können zentral, welche müssen am Edge verarbeitet werden? Dabei gilt: je zeitkritischer, umso dezentraler.

Dieses Edge Computing ermöglicht nicht nur schnellere Reaktionszeiten für Entscheidungen und Maßnahmen, sondern senkt zugleich auch die Kosten der Datenhaltung, denn diese können bei großen Datenmengen in der Cloud sehr schnell sehr hoch werden. Hinzu kommen Sicherheitsaspekte: Geht es um zeitkritische Daten, ist Edge Computing, also die direkte Verarbeitung der Daten vor Ort, die bessere Lösung im Vergleich zur zentralisierten Datenverarbeitung in einem Rechenzentrum oder der Cloud.

Vom Produkt zur Lösung

Durch Maßnahmen wie die der vorausschauenden Wartung steigern Unternehmen vor allem ihre Produktivität und senken Kosten. Data Analytics kann die chemische Industrie jedoch noch viel grundlegender verändern: Indem aus Produktanbietern Dienstleister werden, die ihren Kunden Komplettlösungen zur Verfügung stellen und die sich dadurch völlig neue Absatzmärkte erschließen – etwa im Digital Farm­ing, bei dem die Agrarchemiehersteller nicht nur Dünger oder Saatgut anbieten, sondern auch den begleitenden Service. Dieser Trend, weg vom bloßen Produkt, hin zum Rundum-Service, ist heute schon die Norm für viele Unternehmen, die sich an Geschäftskunden richten. Der Produkteinsatz erzeugt dabei eine Datensphäre, die sowohl dem Anbieter als auch dem Kunden Mehrwerte liefert.

Schnelles Scheitern erwünscht

So sehr die Vorteile eines datengetriebenen Geschäfts auf der Hand liegen, so steinig ist oft auch der Weg dahin. Die Reise hin zu Use Cases für Data Analytics lässt sich grob betrachtet in zwei Abschnitte aufteilen: Entdecken und Industrialisieren. Zunächst gilt es schnell zu scheitern und im Falle eines Erfolgs schnell auszurollen.

Im ersten Schritt sammeln Unternehmen möglichst ungefiltert neue Anwendungsideen. Das Aussieben erfolgt dann durch Proof-of-Concepts. Beides umfasst die Phase des schnellen Scheiterns. Erweist sich ein Kandidat hingegen als erfolgversprechend, folgt Stufe drei, in der die Piloten evaluiert werden, um dann schließlich viertens in die Produktion überzugehen und im Sinne eines industriellen Prozesses skaliert zu werden. Hier liegt dann der Fokus auf der Stabilität und Zuverlässigkeit der jeweiligen Produktionsplattform – vor allem wenn die Analytics-Anwendungen auf bereits existierenden Plattformen skaliert werden.

Der industrielle Ansatz ist auch deshalb so wichtig, weil die Unternehmen angesichts zahlreicher Kunden und Produkte eine Vielzahl passender Machine Learning- (ML)-Modelle benötigen, um die anfallenden Daten verarbeiten und optimieren zu können. Etwa im Bereich der Lieferketten: Hier spielen so viele unterschiedliche Produkte, Kundenvarianten und Nachfragezyklen mit hinein, dass es zahlreicher ML-Modelle bedarf, um die Lieferketten effizienter, flexibler und bedarfsorientierter zu gestalten. Die Entwicklung und das Management dieser Modelle sind jedoch sehr zeitaufwändig.

Von drei auf tausend

Glücklicherweise kann Machine Learning auch hier unterstützen, da die Modelle sich grundsätzlich selbsttätig weiterentwickeln, vervielfältigen und neu trainieren können. Auf diese Weise sind auch kleinere Entwicklungsabteilungen in der Lage, drei bis zehn Modelle pro Jahr selbst zu entwickeln, diese dann zu industrialisieren und schnell auf Tausende von Modellen zu skalieren. Aus Data Analytics wird automatisierte Datenanalyse. Selbst ein kleines Team aus Data Scientists ist so in der Lage, tausende Modelle ohne menschliches Zutun zu verwalten. Auf diese Weise stehen genug Modelle zur Verfügung, deren Vorhersagen genau sind und die sich flexibel an veränderte Bedingungen anpassen. So war bspw. der Netzwerkspezialist Cisco in der Lage, mit einem Team von 10 bis 15 Data Scientists Modelle zu entwickeln, die sich in kurzer Zeit auf rund 60.000 Modelle vervielfältigten.

Um die Erfolge von Data Analytics-Initiativen zu messen, sollten sich Unternehmen auf die Maximierung des Return-on-Investment konzentrieren. In anderen Fällen ist unter Umständen eine gestiegene Kundenzufriedenheit der wichtigste Aspekt.

Während also die chemische Industrie durch Data Analytics-Anwendungen von einem intelligenteren Produktportfolio, einer höheren Betriebseffizienz und Wirtschaftlichkeit profitiert, stellen sich vor allem zwei Anschlussfragen: Wie gut kann die unternehmenseigene Datenanalytik dabei mit externen und internen Veränderungen umgehen? Und: Wie agil sind die eigenen Mitarbeiter, um sich an diese Veränderungen anzupassen? Diese Fragen werden in Zukunft mit darüber entscheiden, welche Unternehmen am Ende als Gewinner von Industrie 4.0 dastehen werden und welche nicht.

Autoren

Downloads

Kontakt

Information Services Group (ISG)

The Squaire 12, Am Flughafen
60549 Frankfurt am Main
Deutschland

+49 69 697690 0

Top Feature

Wasserstoff für die Prozessindustrie

News & Hintergrundberichte

CHEMonitor

Meinungsbarometer für die Chemieindustrie

> Zur Registrierung

> CHEMonitor - Alle Ausgaben

Social Media

LinkedIn | Twitter | Xing

Top Feature

Wasserstoff für die Prozessindustrie

News & Hintergrundberichte

CHEMonitor

Meinungsbarometer für die Chemieindustrie

> Zur Registrierung

> CHEMonitor - Alle Ausgaben

Social Media

LinkedIn | Twitter | Xing