In der Intralogistik dreht sich alles um Lagerhaltung. Im Gegensatz zur Lagerware bedeutet das jedoch nicht, dass auch die dabei anfallenden Informationen immer abrufbereit sein müssen. Denn Distributionszentren produzieren immense Datenmengen. Wird die eingelagerte Menge zu groß – ein Datenmeer –, steigt auch die Gefahr, darin zu ertrinken.
Im Smart-Data-Kontext sind Picks in einem Lager nur dann vernünftig auswertbar, wenn die Dimensionen Standort, Mandant, Zone und Nutzer zuverlässig jedem einzelnen Vorgang zugeordnet werden.
Big Data ist vorhanden, Smart Data ist nützlich. So lauten die zwei Seiten einer Münze: In einem Lager Daten zu archivieren, stellt für ein Warehouse-Management-System (WMS) kein Problem dar. Digital getrackte Elemente gibt es viele. Von Wareneingangsdaten über Aufträge bis hin zu versendeten Einheiten: Alles wird einem Archiv als Nachsorgeaktivität zur Verfügung gestellt, jedoch mit dem Zweck, das operative System zu verlassen. Denn um performant zu sein, muss das System schlank bleiben. Mithilfe angepasster Archivierungswellen kennt das Lager ad hoc in seinem operativ verfügbaren Datenbestand idealerweise immer nur einige Tausend Einheiten. Nichtsdestotrotz entsteht außerhalb dieser Lean Structure „Big Data“.
Erst lean ...
Archive dokumentieren dabei nur Endresultate, also feste Ereignisse auf einer Zeitscheibe. Operative Informationen werden zwar benötigt, aber wieder vergessen, wenn der nachfolgende Prozessschritt beginnt. Denn allein der aktuelle Zustand eines Objektes entscheidet, wie es weiterbearbeitet wird. Für den Produktionsfortschritt ist die Vergangenheitsinformation irrelevant. Einem Logistiker, der innerhalb des Zentrums optimieren möchte, liefern reguläre Archivdaten wie Zeitindex und Fehlercode keine Antworten auf komplexe Prozessfragen. Er möchte Einblick in die individuelle Ereigniskette einer Versandeinheit erhalten. Dafür benötigt er getagte, ontologisch aufbereitete und in Metainformationen verpackte Informationen – er braucht sie smart. Big Data derart aufzubereiten, ist nicht einfach. Der Logistikprozess ist so komplex, dass man Ewigkeiten benötigen würde, einem Softwaresystem beizubringen, in welchen Ereigniskombinationen es welche Metainformation mit welchen Vertiefungen liefern soll. Das ist eine ewige Aufgabe für einen Analysten.
Informationen gezielt und vernetzt speichern, visualisieren, verstehen – TUP stellt hierfür detaillierte Metriken zur Verfügung.
(Bild: TUP)
Einen Archivdatenpool als Quelle für Business Intelligence zu nutzen, ist klassisch, aber nicht sehr zielgerichtet. Daher verfolgt TUP eine andere Philosophie. Die Softwaremanufaktur setzt von vorneherein das Erkenntnisbedürfnis in den Fokus. Ereignisorientierte Informationen in relevanten Bereichen – so der schlanke und smarte Ansatz. Entlang der vier Stufen des Analytics-Prozesses, von der deskriptiven bis zur präskriptiven Analyse, wird eine Fragestellung festgelegt, um die adäquaten Informationen zu ihrer Beantwortung zu finden.
... dann smart
Die Bereitstellung der relevanten Informationen erfolgt bei TUP über Metriken. So wie ein Endkunde heute den Transportweg seiner Bestellung tracken kann, bemüht sich der Intralogistiker, Einblicke in den Pfad einer Versandeinheit zu erhalten. Nur, dass dies rückwärts erfolgt. Um dem Analysten die bestmöglichen Hilfsmittel an die Hand zu geben, hat sich die Softwaremanufaktur deshalb vom operativen Prozess entkoppelt: Ein spezielles Metrik-Framework ermöglicht es, entlang jeder Prozesskette passende Metriken in den Datensatz der Versandeinheit schreiben zu lassen – und zwar mit allen Informationen, die für die gewünschte Analyse benötigt werden.
Erst wenn ein Erkenntnis- oder Optimierungsbedürfnis vorhanden ist, werden Metriknoten gesetzt. Diese werden im System an Stellen platziert, die die Analyse der zukünftigen Fragestellung ermöglichen, beispielsweise: Wie viele Fehlerfälle wurden in einem Zeitraum in einer Zone von einem speziellen Mitarbeiter zwangsbearbeitet? Die daraus resultierenden Metainformationen werden aufbereitet und zum Teil visualisiert. Der Vorteil liegt in der möglichen Dosierung. Wenn die Analyse noch nicht die gewünschte Qualität erreicht, kann die Metrik über ergänzende Marker verbessert werden. Wenn Ergebnisse erzielt wurden und die Analyse nicht mehr benötigt wird, können diese Messpunkte stillgelegt werden. So wird keine zusätzliche Last auf das System erzeugt.
Ein künftiges Analysevorhaben kann mit perspektivisch angelegten Tags versorgt werden. Soll dagegen ein spezieller Fall in der Vergangenheit, wie zum Beispiel ein selten auftretender Fehler, analysiert werden, benötigt man Altinformationen. Dafür können in solchen Fällen Tracingsysteme herangezogen werden. Diese Supportinstanzen konservieren durchgehend, wie das System in bestimmten Konstellationen reagiert hat, etwa bei Veränderung eines Objektes durch Anwender, System oder Fremdgewerk. Besteht das Bedürfnis, die Vergangenheit mit zu betrachten, können diese Informationen dann rückwärts veredelt werden: Metriken können mit Vergangenheitsdaten angereichert oder – wenn sie in der Gegenwart noch gar nicht existieren – erzeugt werden.
Gesund wachsen lassen
Zwischen Informationsgenerierung und der Unterstützung des operativen Systems darf das Kosten-Nutzen-Verhältnis nicht vergessen werden. Um den Produktionsprozess eines Logistikzentrums zu stemmen, müssen Unmengen von operativen Ereignissen in hoher Geschwindigkeit verarbeitet werden. Metrikereignisse verbrauchen weitere Rechenkapazitäten. Man muss Systeme auch gesund wachsen lassen können und erkennen, wann man es mit Informationsabfragen überfrachtet. Möchte man jeden Millimeter dessen, was das System tut, kennen, zugleich aber ressourcenschonend, mit minimaler Hardwareausstattung, den operativen Prozess befriedigen, ist dies ein Widerspruch.
Ein großer Vorteil des Metrikansatzes ist, dass Intralogistiker bereits mit regulären Archivdaten voll handlungsfähig sind: Sie haben Chancen, an bestehenden Fragestellungen zu lernen, ohne durch fehlende Daten behindert zu werden. TUP kann an jeder Stelle in die Tiefe oder in die Breite wandern. Das macht es möglich, Optimierungspotenziale nach und nach auszuschöpfen. ■
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
* Eduard Wagner ist Data-Warehouse-Spezialist und CIO bei der Dr. Thomas + Partner (TUP) GmbH & Co. KG in 76297 Stutensee, Tel. (07 21) 78 34-0, infoka@tup.com