Smart Data

So steigern Unternehmen die Relevanz ihrer Daten

| Autor / Redakteur: Otto Neuer / Sebastian Hofmann

Für eine langfristig erfolgreiche Logistik sind valide und aussagekräftige Datensammlungen und -tools überlebenswichtig.
Für eine langfristig erfolgreiche Logistik sind valide und aussagekräftige Datensammlungen und -tools überlebenswichtig. (Bild: ©peshkov - stock.adobe.com)

Mitarbeiter aus allen Unternehmensbereichen benötigen stets aktuelle und aussagekräftige Daten zur Entscheidungsfindung. Daher wird es immer wichtiger, die Datenqualität kontinuierlich zu verbessern. Lösungen für den Self-Service und Cloud-basierte Software helfen Organisationen dabei, Informationen schnell bereitzustellen und deren Qualität dauerhaft zu sichern.

Eine Umfrage des Finanzdienstleisters Capital One im Jahr 2017 hat gezeigt, dass 38 % der Stellenausschreibungen in den USA digitale Fähigkeiten erfordern. Viele der Mitarbeiter benötigen heute bei ihrer Arbeit einen unkomplizierten Zugriff auf Daten, da sie für ihr Unternehmen faktenbasierte Entscheidungen treffen müssen – gerade im Bereich Supply Chain Management und Logistik. Betriebe brauchen deshalb Anwendungen, die ein Datenmanagement im Self-Service erlauben – inklusive Lösungen zur Qualitätssicherung. So werden wichtige Aufgaben zur Verbesserungen der Datenqualität in den jeweiligen Fachabteilungen verankert, da dort die Experten sitzen, die auch fachlich bewerten können, ob und wann Daten valide sind. Gleichzeitig benötigen die Mitarbeiter Softwarewerkzeuge, um Daten schnell und softwaregestützt zu validieren.

Was ist Big Data? Analytics, Definition, Bedeutung & Beispiele

Logistiksoftware

Was ist Big Data? Analytics, Definition, Bedeutung & Beispiele

16.01.19 - An Big Data führt kein Weg mehr vorbei. Trotzdem sehen viele Betriebe das Thema noch skeptisch. Hier erfahren Sie, was Big Data bedeutet, welche konkreten Anwendungsszenarien es gibt und welche Trends Experten Big-Data-Technologien prognostizieren – Praxisbeispiele inklusive! lesen

Welche Fehlerquellen gibt es?

Wer etwas verbessern möchte, sollte zunächst analysieren, wo sich Fehler einschleichen. In Organisationen finden sich Fehlerquellen über die gesamte Supply Chain des Datenmanagements hinweg. Dies können menschliche Eingabefehler bei der Datenerfassung sein, fehlerhafte Sensordaten oder unvollständige Datenimports bei automatisierten Prozessen. Aber auch verschiedene Formate von Daten können zu Fehlern führen, im einfachsten Fall bei der Verwendung des Datums in US-amerikanischer oder deutscher Schreibweise. Darüber hinaus führen auch organisatorische Mängel zu Datenfehlern, beispielsweise wenn nicht klar definiert ist, wer für welche Datensätze zuständig ist. Letztlich fallen diese Kriterien je nach Logistikunternehmen individuell aus.

Warum hohe Datenqualität immer wichtiger wird

Verschiedene Studien von Analysten zeigen, dass eine schlechte Datenqualität Unternehmen Geld kostet. IBM geht beispielsweise davon aus, dass in den USA mangelhafte Daten Mehrkosten von umgerechnet rund 2,54 Bio. Euro pro Jahr erzeugen. Die Marktanalysten von Gartner schätzen die durchschnittlichen finanziellen Auswirkungen auf umgerechnet 12,7 Mio. Euro jährlich. Das Wirtschaftsmagazin Harvard Business Review hat so genannte „hidden data factories“ identifiziert, die für den Mehraufwand verantwortlich sind: In verschiedenen Abteilungen müssen Mitarbeiter die bereits im System vorhandenen Daten auf Fakten und Konsistenz prüfen. Diese Aufgabe wird zusätzlich zum Tagesgeschäft erledigt, was schließlich Stress und unnötige Mehrarbeit für das Team bedeutet. Dies wiederum führt zu neuen fehlerhaften Daten und zusätzlichen Aufwänden für die Logistik – ein echter Teufelskreis.

Auf dem Weg zur Besserung

Wie aber gelingt es Unternehmen, die eigene Datenqualität zu verbessern und eine Datenplattform zu betreiben, der Mitarbeiter, Partner und Kunden aus Logistik und Industrie vertrauen können? Hierbei helfen Data-Governance-Prozesse und die Entwicklung geeigneter Strategien für ein ganzheitliches Datenmanagement. Am Anfang steht die Definition der Kriterien, die gute Daten ausmachen: Aspekte wie Aktualität, Relevanz, Fehlerfreiheit und Konsistenz spielen je nach Organisation eine zentrale Rolle für ein gelungenes Supply Chain Management.

Otto Neuer, Vice-President Sales, EMEA Central, bei Talend.
Otto Neuer, Vice-President Sales, EMEA Central, bei Talend. (Bild: Talend)

So geht man am besten vor:

  • 1. Ziele klären: Alle am Projekt Beteiligten sollten sich über die Business-Ziele einigen, die mit einer Initiative für eine bessere Datenqualität erreicht werden sollen. Von Sales über Marketing bis zum Management hat jede Organisationseinheit unterschiedliche Erwartungen. Während das Management eher fundierte Analysen mit für sie relevanten und aktuellen Informationen benötigen, kann es für einen Vertriebsmitarbeiter schon entscheidend sein, dass Adressdaten korrekt und vollständig vorliegen. Im Bereich Produktion, Logistik und Warenwirtschaft sind hochaktuelle Daten gefragt, damit Fertigungsprozesse nicht ins Stocken geraten, während sich Service-Mitarbeiter detaillierte 360-Grad-Ansichten über ihre Kunden wünschen.
  • 2. Daten finden und katalogisieren: In vielen Organisationen liegen Daten in unterschiedlichen Formaten ab, von Papierakten und Excel-Tabellen über Adressdatenbanken bis zu unternehmensweit genutzten Business-Anwendungen. Eine wichtige Aufgabe besteht darin, diese Datenbestände zu lokalisieren und die dort vorhandenen Informationen zu katalogisieren. Erst wenn das Unternehmen weiß, welche Daten in welcher Aktualität und in welchem Format wo liegen, kann ein Prozess zur Verbesserung der Datenqualität geplant werden.
  • 3. Harmonisierung der Daten: Basierend auf der initialen Bestandsaufnahme wird nun ein Abgleich mit dem zu erreichenden Ziel vorgenommen. Daraus können sich vielfältige Aufgaben ergeben, wie eine Standardisierung von Schreibweisen, Datenformaten und Datenstrukturen. Hierbei kommen unter anderem Werkzeuge für Data Preparation und zur Deduplizierung zum Einsatz, um einen harmonisierten Datenbestand zu erhalten, während Lösungen für das Data Profiling dabei helfen, eine Analyse und Bewertung der Datenqualität vorzunehmen.
  • 4. Analyse, Auswertung und Aufbereitung: Wer seine Datenbestände zusammenführt und in einer Cloud in einem Data Lake oder Data Warehouse aufbereitet, kann dort sehr flexibel verschiedenste Aufgaben zur Datenaufbereitung und Analyse durchführen. Die Cloud hat den entscheidenden Vorteil, dass beinahe unbegrenzte IT-Kapazitäten als Service abrufbar sind. Zudem kann die IT-Organisation den Fachbereichen im Self-Service die benötigten Anwendungen zur Verfügung stellen, wodurch sich die Agilität der Organisation erhöht.
  • 5. Kontinuierliche Prozesse etablieren: Die Datenqualität zu sichern, ist ein kontinuierlicher Prozess. Schließlich werden immer wieder neue Daten erhoben und in die eigenen Systeme integriert. Selbst wenn externe Datenquellen schon hochwertige Daten zur Weiterverarbeitung liefern, ist es dennoch notwendig, die eigenen Datenbestände immer wieder über ein Data Monitoring zu prüfen und zu validieren. Hierfür gibt es ganz unterschiedliche Lösungen, angefangen von Self-Service-Angeboten zur Datenbereinigung über regelbasierte Anwendungen zur Datentransformation bis hin zu selbstlernenden Softwarelösungen, die eigenständig Datenformate überwachen und statistische Anomalien erkennen und korrigieren. Algorithmen für Deep Learning beziehungsweise künstliche Intelligenz sind heute schon in der Lage, viele Aufgaben rund um das Datenmanagement in Big Data-Szenarien zu übernehmen. Wichtig ist jedoch, dass Verantwortlichkeiten für das Datenmanagement benannt werden und entsprechende Prozesse zur Qualitätssicherung fest in den betrieblichen Abläufen verankert sind.
Künstliche Intelligenz in der Logistik: Beispiele, Chancen, Gefahren

Logistik 4.0

Künstliche Intelligenz in der Logistik: Beispiele, Chancen, Gefahren

16.01.19 - Hier lernen Sie, was Künstliche Intelligenz ist, wie sie funktioniert und welche Chancen sie für die Logistik und das Supply Chain Management bereithält! lesen

Das Datenqualitätsmanagement ist eine Teamaufgabe, die sich über alle Funktionsbereiche eines Unternehmens hinweg erstreckt. Daher ist es sinnvoll, auch den Mitarbeitern in den Fachbereichen, beispielsweise in der Logistik, Werkzeuge an die Hand zu geben, um im Self-Service die Datenqualität zu sichern. Es bieten sich insbesondere Cloud-basierte Werkzeuge an, die schnell und unkompliziert in den Fachbereichen ausgerollt werden können. So ausgerüstet gelingt es Unternehmen ihre Datenqualität schrittweise zu verbessern und den Wert ihrer Daten zu steigern.

* Otto Neuer ist Vice-President Sales, EMEA Central bei Talend in 53113 Bonn, Tel. (02 28) 76 37 76-0, sales.de@talend.com

Kommentare werden geladen....

Kommentieren Sie den Beitrag

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Whitepaper

Digitale Lieferketten

Mehr Erfolg mit Smart Logistics

Die Digitalisierung wird auch die Logistik spürbar verändern. Bereits heute existieren jedoch smarte Lösungen, mit denen Supply Chain Manager die Lieferkette einfach und kostengünstig digitalisieren können. lesen

Whitepaper – Checkliste: Zukunftssichere Lagerlogistik

Mit dem passenden Warehouse-Management-System zum Erfolg

Im Whitepaper mit Checkliste erfahren Sie, welche Fragen Sie sich bei der Auswahl des Warehouse-Management-Systems stellen sollten, um Ihre individuellen Lagerprozesse bestmöglich zu unterstützen. lesen

Pick by Voice

Mehrwert im Lager mit Voiteq und Honeywell Vocollect

Schnelligkeit und minimale Fehlerquoten sind bei der Kommissionierung in Zeiten des boomenden E-Commerce-Geschäfts entscheidend. Wie Sprachtechnologie bei dieser Aufgabe unterstützt kann, zeigt dieses Whitepaper von Voiteq und Honeywell. lesen

DER NEWSLETTER FÜR INDUSTRIE UND HANDEL Newsletter abonnieren.
* Ich bin mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung einverstanden.
Spamschutz:
Bitte geben Sie das Ergebnis der Rechenaufgabe (Addition) ein.
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45546817 / IT)