Kosten senken durch Big-Data-Verfahren

Kosten senken durch Big-Data-Verfahren

 
28. September 2020

Die Transformation fordert Unternehmen heraus – zumal durch die Corona-Krise. Automatisierungen und das Senken von Kosten sind angesagt. Durch den Einsatz von Big-Data-Technologien entlang der Wertschöpfungsketten lassen sich erhebliche Kosten einsparen.

Die Industrie befindet sich mitten in der digitalen Transformation. Große Flexibilität, hohe Geschwindigkeit und Just-in-Time sind das Gebot der Stunde. Auf dem Weg zur Produktion 4.0. und Logistik 4.0 werden Technologien wie Internet of Things (IoT), Künstliche Intelligenz (KI) inklusive maschinellem Lernen und Big-Data in die Unternehmen integriert.

Ein besonders großes Potential bieten Big-Data-Verfahren – das Sammeln, Qualifizieren und systematische Nutzen großer Datenmengen bringt viele Vorteile zur Optimierung der gesamten Wertschöpfungskette. Denn so lassen sich Kosten einsparen, ob mit der Überwachung und Steuerung von Prozessen in den Lieferketten, in der automatisierten Produktion oder beim Kundenservice.

Um im Rahmen einer umfassenden Digitalisierung die gesamte Supply Chain und Produktion zu optimieren gilt es, Informationen aus verschiedenen Systemen zu sammeln. Dabei kommen sowohl sämtliche relevanten internen Daten sowie die von allen Lieferanten, Kunden und Partnern in Frage. Entscheidend für deren intelligente Verwertung ist die Qualität der gesammelten Daten und ein unternehmerischer Mehrwert, der daraus zu gewinnen ist. Das Ziel ist immer die Transparenz der Wertschöpfungskette durch eine Vernetzung interner und externer Systeme sowie eine Echtzeitanalyse aktueller Informationen und verschiedener Datentypen aus unterschiedlichen Quellen.

Automatisierte Supply Chains für Transparenz

Die bereits gewachsene digitale Einbindung von Lieferanten, Kooperationspartnern und Kunden führte mittlerweile zu einem massenhaften Austausch diverser Informationen über verschiedene Anwendungen und Schnittstellen hinweg. Aber Transparenz und Informationen in Echtzeit für möglichst schnelle Reaktionen – zum Beispiel bei Problemen in der Logistik – sind längst nicht selbstverständlich. Hier sind Big-Data-Anwendungen die Lösung. Durch eine Bündelung und systematische Qualifikation des gesamten Datenflusses zwischen allen Beteiligten sowie deren Auswertung anhand von Algorithmen kann der Status-quo einer Lieferkette in Echtzeit abgebildet werden. Durch automatisierte Prozesse und den Einsatz von IoT-Anwendungen wie RFID oder automatisierte Benachrichtigungen erhält man einen Überblick wichtiger Ereignisse. Risiken werden in Echtzeit bekannt, sodass Analysen und

das Einleiten von Maßnahmen sehr schnell möglich sind. Lieferungen lassen sich optimal und je nach bestehenden Prioritäten steuern.

Es ist allerdings nicht einfach, globale Prozessorganisationen produzierender Unternehmen integrativ miteinander zu vernetzen, um eine komplexe Supply Chain transparent abzubilden. Zur Einrichtung der technologischen Strukturen müssen sich Unternehmen sehr eng mit Lieferanten, Partnern und Kunden abstimmen und umfassende Digitalisierungs-Projekte gemeinsam durchführen. Diese Kooperation ist grundsätzlich sehr wichtig, denn die Beteiligten müssen später auf gemeinsame Dashboards und Portale zugreifen, um im täglichen Prozess genau die Informationen zu erhalten, welche im Einzelfall für ihr jeweils weiteres Vorgehen wichtig sind. Dabei sorgen entsprechende Algorithmen auch für die Datensicherheit und Zugangsrechte, denn sie kennen Verträge und Rollen und grenzen die Identitäten der beteiligten Lieferanten oder Kooperationspartnern klar voneinander ab. Die beteiligten Unternehmen sollten ihre jeweiligen Vorteile der Logistik 4.0 erkennen und die Transformation gemeinsam vorantreiben. Denn das digitale Supply Chain Management führt zu einer nicht unerheblichen Reduktion der Kosten aufgrund des Einsparens von Zeit und zu einer höheren Kundenzufriedenheit, da diese Partner ebenfalls die volle Transparenz zum Status von Bestellungen und Lieferterminen in Echtzeit haben.

Digitalisierte Lagerverwaltung und Distribution

Eine vollständig digitale Lagerverwaltung durch Big-Data-Verfahren in logistischen Systemen führt ebenfalls zu hohen Einsparungen. Durch algorithmische Berechnungen verfügt ein produzierendes Unternehmen zum Beispiel immer über erforderliche Materialen, um bei einer optimalen Maschinenauslastung dem Kundenbedarf entsprechend seine Produkte herzustellen. RFID-Tags sorgen für eine transparente Verwaltung, smarte Sensortechnologien kontrollieren Luftfeuchtigkeit und Temperaturen in den Räumen, die Kapazitäten für den entstehenden Materialbedarf werden automatisch berechnet und bereitgehalten. Im besten Fall geht bei einem Lieferanten eine automatisierte Order ein, die zur Anlieferung des erforderlichen Materials sowie dessen pünktliche Integration in das Lager führt. So werden die Lagerkapazitäten optimal genutzt, während die erforderlichen Ressourcen nach Bedarf bereitstehen.

Solche Supply Chain Solutions (SCS) sorgen auch für Transparenz beim Vorhalten und der gesamten Distribution von Produkten. Die erforderlichen Daten werden aus den traditionellen Betriebssystemen eingespeist: Informationen über wichtige Kennzahlen wie Lagerbestand oder Zeiten der Auftragsvorbereitung und Herstellung, der Verpackung und Lieferung, den Bestand beim Kunden und dessen wahrscheinlichen weiteren Bedarf. Ebenso fließen zum Beispiel Informationen zu den Kapazitäten eines Fuhrparks in die Berechnungen ein: Fahrpläne, Routen oder Kraftstoffverbrauch. Ferner lassen sich Verkehrs- und Wetterinformationen aufnehmen. Durch ein gezieltes Data Mining werden Zusammenhänge und Trends berechnet für sinnvolle Entscheidungen sowie eine reibungslose Logistik. Der gesamte Prozess der Distribution reduziert sich auf weniger Arbeitsschritte und dabei werden hohe Kosten eingespart.

Lernende Algorithmen zur Qualitätssicherung

Mit der Einführung von Big-Data-Verfahren lassen sich auch die Kosten für den Ausschuss in der Produktion stark reduzieren und die Maschinennutzung aufgrund der reduzierten Doppelherstellung deutlich verbessern.

Innovative Verfahren einer speziellen Datenanalyse für zuverlässige Prognosen in der Produktion bieten interessante Möglichkeiten der Reduktion von Fehlerquoten. Dabei werden während des gesamten Produktionsprozesses Messungen vorgenommen und die Informationen systematisch gesammelt. Die Daten kommen aus unterschiedlichen Quellen: aus den Anlagen, von Sensoren und den spezifizierten Messgeräten. Es werden teilweise mehrere Hunderttausend Einzeldaten pro Teil gesammelt, deshalb handelt es sich um Big- Data-Anwendungen. Über statistische Verfahren werden auf Basis dieser Datenbestände Zusammenhänge wie Korrelationen und Kausalitäten zwischen bestimmten Messergebnissen in der Produktionsphase und dem Prüfergebnis der Endabnahme ermittelt. Auf Basis der sich abzeichnenden Muster (Patterns) werden anschließend Prognosen abgeleitet, welche das wahrscheinliche Ergebnis der Endabnahme vorhersagen. So können Teile, die aufgrund ihres individuelle Fertigungsverlaufs eine hohe Ausfallwahrscheinlichkeit aufweisen, aus dem Prozess genommen und eventuell demontiert oder aufbereitet werden.

Durch lernende Algorithmen, eine wachsende Datenbasis und anhand der Anzahl der erkannten Muster lässt sich die Qualität der Prognosen allmählich steigern, so dass sie mit der Zeit immer zuverlässiger werden. Mit dieser Entwicklung nähert man sich dem Konzept des „digital twin“. Denn die Fertigungsprozesse können auf Basis der gewonnenen Daten in ihren Wirkungszusammenhängen auch zunehmend zuverlässiger virtuell simuliert werden.

So ist beispielweise auch die virtuelle Simulation von bestimmten Anpassungen an Anlagen oder Fertigungsprozessen sowie auch der Veränderungen im Produktmix möglich.

Der Einsatz von Big-Data-Technologien in Kombination mit IOT-Lösungen und künstlicher Intelligenz wird aufgrund ihrer großen Vorteile für die größeren Unternehmen in jedem Fall zu einer Pflicht und im Rahmen der permanenten digitalen Transformation ganz sicher zu einem Standard.

..
Dr. Jörg Schumacher
Über
Dr. Jörg Schumacher
Dr. Jörg Schumacher ist Partner bei der Starnberger Unternehmensberatung Haselhorst Associates. Er hat umfangreiche Erfahrungen in den Bereichen Restrukturierung, Organisationsoptimierung und Digitalisierung. Mit seinem Team setzt er Digitalisierungsprogramme entlang der gesamten Wertschöpfungskette von Unternehmen um.
Alle Beiträge von Dr. Jörg Schumacher