Aufrufe
vor 5 Jahren

f+h fördern und heben 1-2/2018

  • Text
  • Heben
  • Foerdern
  • Fuh
f+h fördern und heben 1-2/2018

FORSCHUNG UND

FORSCHUNG UND ENTWICKLUNG STANDARDDATENANALYSE IN DER LAGERPLANUNG – WAS SIND DIE HERAUSFORDERUNGEN EINER EFFIZIENTEN DATENANALYSE? Die Planung von Lagersystemen ist ein komplexes Unterfangen mit umfassenden Anforderungen an die Prozessplanung, die Technikauswahl sowie die Layoutplanung. Um die verschiedenen Kalkulationen und Entscheidungen, die bei der Lagerplanung anfallen, zu bewältigen, muss die betriebliche Ist-Situation kontinuierlich quantifiziert und analysiert werden. Basis aller Planungsentscheidungen sind Daten. Ein am Fraunhofer-Institut für Materialfluss und Logistik IML entwickeltes Tool zur Prüfung der Datenplausibilität und -auswertung kann hier wertvolle Hilfe leisten. Bei der Analyse der Daten lauern viele Herausforderungen, die der Logistikplaner zu meistern hat. Neben der immensen Datenflut – Stichwort Big Data –, die bei jedem Prozessschritt im Lager aufgenommen wird, ist das Sorgenkind häufig die Datenqualität. Die Plausibilität der aufgenommenen Daten muss stets geprüft und notwendige Korrekturen müssen vorgenommen werden. Vollständigkeits-, Redundanz- und Datenformatprüfungen sind häufige Bestandteile solch eines Prozesses. Neben der Datenaufbereitung und Datenpflege hat der Logistikplaner die Aufgabe, Daten zu konsolidieren, relevante Abfragen zu erstellen und die Kennzahlen aussagekräftig darzustellen. Hierfür sind Kenntnisse relationaler Datenbanken und Tabellenkalkulationen unabdingbar. Dies stellt auch einen mathematisch versierten und erfahrenen Planer vor größere Herausforderungen und ist vor allem mit zeitlichem Aufwand verbunden. Das Lagerplanungs-Team des Fraunhofer-Instituts für Materialfluss und Logistik IML hat diese Herausforderungen erkannt und im Rahmen einer Forschungsarbeit eine Lösung entwickelt. Die Ergebnisse können sich sehen lassen: Reduzierung der Durchführungszeit der Datenanalyse um bis zu 70 Prozent. Die Entwicklung der Datenanalyse gliederte sich in zwei grundlegende Teile. Im ersten Schritt haben die Mitarbeiter des Fraunhofer IML die Berechnungen und Analysen identifiziert, die sie häufig in Planungsprojekten durchführen, um eine standardisierte Vorgehensweise zu entwickeln. Anschließend wurden die Auswertungen automatisiert. ERSTER SCHRITT: STANDARDISIERUNG Wie jeder andere Prozess besteht auch die Datenauswertung größtenteils aus repetitiven Prozessen, die sich standardisieren und optimieren lassen. Um den Prozess der Datenanalyse zu vereinheitlichen, gilt es als Erstes, die für die Lagerplanung notwendigen Stamm-, Bewegungs- und Bestandsdaten zu definieren. Der Kunde nimmt die relevanten Daten in der vorgegebenen Form und Datenqualität auf und übermittelt sie an die Logistikplaner des Fraunhofer Instituts. Welche Daten benötigt werden, hängt immer von der Projektaufgabe ab und lässt sich anhand des am Institut entwickelten und bei Projekten mitgelieferten Datenbedarfskatalogs eindeutig ableiten. Nach dem vorgegebenen Schema lassen sich die Daten anschließend effektiv und effizient aufbereiten, konsolidieren und auswerten. Die Ergebnisse der Standardisierung des Datenanalyseprozesses sind zum einen die gestiegene Datenqualität und zum anderen der reduzierte Aufwand bei der Datenaufbereitung und Datenpflege. Fragwürdige Einträge, z. B. negative Sicherheitsbestände oder hohe Abweichungen vom Mittelwert, werden durchgehend erkannt und gesondert notiert. Die Prüfung der Datenplausibilität zieht sich hierbei durch jeden Prozessschritt der Datenanalyse. Von der Kon- 38 f+h 2018/01-02 www.foerdern-und-heben.de

FORSCHUNG UND ENTWICKLUNG Standardisierte Vorgehensweise der Datenanalyse Daten- / Informationsfluss IML Auftraggeber Datenaufbereitung und Datenpflege Projektaufgabe Datenbedarf Datengewinnug Datentransfer Konsolidierung Abfragen Basistabelle Kennzahlenbildung Kennzahlendarstellung Validierung der Kennzahlen Datenkatalog Relationale Datenbank Tabellenkalkulation solidierung und Abfragenbildung über die zu erstellende Basistabelle bis zur Kennzahlenbildung und deren Darstellung, sowie ihrer anschließenden Validierung. Dieser Prozess führt schließlich zu großen Effizienzsteigerungen. ZWEITER SCHRITT: AUTOMATISIERUNG DER AUSWERTUNG Im zweiten Schritt wurde die nun standardisierte aber noch manuell durchgeführte Datenanalyse automatisiert. Hierfür entwickelte das Fraunhofer-Team mit der Skriptsprache Visual Basic for Applications (VBA) ein innovatives Auswertungs-Tool. Mit dem Tool, das auf MS Access und MS Excel basiert, lassen sich aus Rohdaten ABCund XYZ-Analysen durchführen, Kennzahlen zur Auftrags- und Positionsstruktur abfragen sowie saisonale Verläufe visualisieren. Auch konkrete Aussagen zur Datenqualität liefert das Tool. Erscheint dem Planer etwas nicht plausibel, müssen Abstimmungen mit den Projektpartnern getroffen und bei Bedarf weitere Daten aufgenommen werden. Denn auch im Zeitalter der Digitalisierung wird eines noch lange gelten: die letzte logische Prüfung kann nur der Mensch vollbringen. Foto/Grafik: Fotolia, Fraunhofer IML Autoren: Vadym Ismailov ist Service Office Leader bei der Chep Deutschland GmbH in Biebesheim am Rhein Anike Murrenhoff ist Wissenschaftliche Mitarbeiterin am Fraunhofer-Institut für Materialfluss und Logistik, Dortmund www.iml.fraunhofer.de www.foerdern-und-heben.de f+h 2018/01-02 39