Big Data Qualität vor Quantität: Lean und Smart Data
Anbieter zum Thema
In der Intralogistik dreht sich alles um Lagerhaltung. Im Gegensatz zur Lagerware bedeutet das jedoch nicht, dass auch die dabei anfallenden Informationen immer abrufbereit sein müssen. Denn Distributionszentren produzieren immense Datenmengen. Wird die eingelagerte Menge zu groß – ein Datenmeer –, steigt auch die Gefahr, darin zu ertrinken.

Big Data ist vorhanden, Smart Data ist nützlich. So lauten die zwei Seiten einer Münze: In einem Lager Daten zu archivieren, stellt für ein Warehouse-Management-System (WMS) kein Problem dar. Digital getrackte Elemente gibt es viele. Von Wareneingangsdaten über Aufträge bis hin zu versendeten Einheiten: Alles wird einem Archiv als Nachsorgeaktivität zur Verfügung gestellt, jedoch mit dem Zweck, das operative System zu verlassen. Denn um performant zu sein, muss das System schlank bleiben. Mithilfe angepasster Archivierungswellen kennt das Lager ad hoc in seinem operativ verfügbaren Datenbestand idealerweise immer nur einige Tausend Einheiten. Nichtsdestotrotz entsteht außerhalb dieser Lean Structure „Big Data“.
Erst lean ...
Archive dokumentieren dabei nur Endresultate, also feste Ereignisse auf einer Zeitscheibe. Operative Informationen werden zwar benötigt, aber wieder vergessen, wenn der nachfolgende Prozessschritt beginnt. Denn allein der aktuelle Zustand eines Objektes entscheidet, wie es weiterbearbeitet wird. Für den Produktionsfortschritt ist die Vergangenheitsinformation irrelevant. Einem Logistiker, der innerhalb des Zentrums optimieren möchte, liefern reguläre Archivdaten wie Zeitindex und Fehlercode keine Antworten auf komplexe Prozessfragen. Er möchte Einblick in die individuelle Ereigniskette einer Versandeinheit erhalten. Dafür benötigt er getagte, ontologisch aufbereitete und in Metainformationen verpackte Informationen – er braucht sie smart. Big Data derart aufzubereiten, ist nicht einfach. Der Logistikprozess ist so komplex, dass man Ewigkeiten benötigen würde, einem Softwaresystem beizubringen, in welchen Ereigniskombinationen es welche Metainformation mit welchen Vertiefungen liefern soll. Das ist eine ewige Aufgabe für einen Analysten.
Einen Archivdatenpool als Quelle für Business Intelligence zu nutzen, ist klassisch, aber nicht sehr zielgerichtet. Daher verfolgt TUP eine andere Philosophie. Die Softwaremanufaktur setzt von vorneherein das Erkenntnisbedürfnis in den Fokus. Ereignisorientierte Informationen in relevanten Bereichen – so der schlanke und smarte Ansatz. Entlang der vier Stufen des Analytics-Prozesses, von der deskriptiven bis zur präskriptiven Analyse, wird eine Fragestellung festgelegt, um die adäquaten Informationen zu ihrer Beantwortung zu finden.
... dann smart
Die Bereitstellung der relevanten Informationen erfolgt bei TUP über Metriken. So wie ein Endkunde heute den Transportweg seiner Bestellung tracken kann, bemüht sich der Intralogistiker, Einblicke in den Pfad einer Versandeinheit zu erhalten. Nur, dass dies rückwärts erfolgt. Um dem Analysten die bestmöglichen Hilfsmittel an die Hand zu geben, hat sich die Softwaremanufaktur deshalb vom operativen Prozess entkoppelt: Ein spezielles Metrik-Framework ermöglicht es, entlang jeder Prozesskette passende Metriken in den Datensatz der Versandeinheit schreiben zu lassen – und zwar mit allen Informationen, die für die gewünschte Analyse benötigt werden.
Erst wenn ein Erkenntnis- oder Optimierungsbedürfnis vorhanden ist, werden Metriknoten gesetzt. Diese werden im System an Stellen platziert, die die Analyse der zukünftigen Fragestellung ermöglichen, beispielsweise: Wie viele Fehlerfälle wurden in einem Zeitraum in einer Zone von einem speziellen Mitarbeiter zwangsbearbeitet? Die daraus resultierenden Metainformationen werden aufbereitet und zum Teil visualisiert. Der Vorteil liegt in der möglichen Dosierung. Wenn die Analyse noch nicht die gewünschte Qualität erreicht, kann die Metrik über ergänzende Marker verbessert werden. Wenn Ergebnisse erzielt wurden und die Analyse nicht mehr benötigt wird, können diese Messpunkte stillgelegt werden. So wird keine zusätzliche Last auf das System erzeugt.
Ein künftiges Analysevorhaben kann mit perspektivisch angelegten Tags versorgt werden. Soll dagegen ein spezieller Fall in der Vergangenheit, wie zum Beispiel ein selten auftretender Fehler, analysiert werden, benötigt man Altinformationen. Dafür können in solchen Fällen Tracingsysteme herangezogen werden. Diese Supportinstanzen konservieren durchgehend, wie das System in bestimmten Konstellationen reagiert hat, etwa bei Veränderung eines Objektes durch Anwender, System oder Fremdgewerk. Besteht das Bedürfnis, die Vergangenheit mit zu betrachten, können diese Informationen dann rückwärts veredelt werden: Metriken können mit Vergangenheitsdaten angereichert oder – wenn sie in der Gegenwart noch gar nicht existieren – erzeugt werden.
Gesund wachsen lassen
Zwischen Informationsgenerierung und der Unterstützung des operativen Systems darf das Kosten-Nutzen-Verhältnis nicht vergessen werden. Um den Produktionsprozess eines Logistikzentrums zu stemmen, müssen Unmengen von operativen Ereignissen in hoher Geschwindigkeit verarbeitet werden. Metrikereignisse verbrauchen weitere Rechenkapazitäten. Man muss Systeme auch gesund wachsen lassen können und erkennen, wann man es mit Informationsabfragen überfrachtet. Möchte man jeden Millimeter dessen, was das System tut, kennen, zugleich aber ressourcenschonend, mit minimaler Hardwareausstattung, den operativen Prozess befriedigen, ist dies ein Widerspruch.
Ein großer Vorteil des Metrikansatzes ist, dass Intralogistiker bereits mit regulären Archivdaten voll handlungsfähig sind: Sie haben Chancen, an bestehenden Fragestellungen zu lernen, ohne durch fehlende Daten behindert zu werden. TUP kann an jeder Stelle in die Tiefe oder in die Breite wandern. Das macht es möglich, Optimierungspotenziale nach und nach auszuschöpfen. ■
* Eduard Wagner ist Data-Warehouse-Spezialist und CIO bei der Dr. Thomas + Partner (TUP) GmbH & Co. KG in 76297 Stutensee, Tel. (07 21) 78 34-0, infoka@tup.com
(ID:46826598)