Smart Data So steigern Unternehmen die Relevanz ihrer Daten
Mitarbeiter aus allen Unternehmensbereichen benötigen stets aktuelle und aussagekräftige Daten zur Entscheidungsfindung. Daher wird es immer wichtiger, die Datenqualität kontinuierlich zu verbessern. Lösungen für den Self-Service und Cloud-basierte Software helfen Organisationen dabei, Informationen schnell bereitzustellen und deren Qualität dauerhaft zu sichern.
Anbieter zum Thema

Eine Umfrage des Finanzdienstleisters Capital One im Jahr 2017 hat gezeigt, dass 38 % der Stellenausschreibungen in den USA digitale Fähigkeiten erfordern. Viele der Mitarbeiter benötigen heute bei ihrer Arbeit einen unkomplizierten Zugriff auf Daten, da sie für ihr Unternehmen faktenbasierte Entscheidungen treffen müssen – gerade im Bereich Supply Chain Management und Logistik. Betriebe brauchen deshalb Anwendungen, die ein Datenmanagement im Self-Service erlauben – inklusive Lösungen zur Qualitätssicherung. So werden wichtige Aufgaben zur Verbesserungen der Datenqualität in den jeweiligen Fachabteilungen verankert, da dort die Experten sitzen, die auch fachlich bewerten können, ob und wann Daten valide sind. Gleichzeitig benötigen die Mitarbeiter Softwarewerkzeuge, um Daten schnell und softwaregestützt zu validieren.
:quality(80)/images.vogel.de/vogelonline/bdb/1357500/1357505/original.jpg)
Logistiksoftware
Was ist Big Data? Analytics, Definition, Bedeutung & Beispiele
Welche Fehlerquellen gibt es?
Wer etwas verbessern möchte, sollte zunächst analysieren, wo sich Fehler einschleichen. In Organisationen finden sich Fehlerquellen über die gesamte Supply Chain des Datenmanagements hinweg. Dies können menschliche Eingabefehler bei der Datenerfassung sein, fehlerhafte Sensordaten oder unvollständige Datenimports bei automatisierten Prozessen. Aber auch verschiedene Formate von Daten können zu Fehlern führen, im einfachsten Fall bei der Verwendung des Datums in US-amerikanischer oder deutscher Schreibweise. Darüber hinaus führen auch organisatorische Mängel zu Datenfehlern, beispielsweise wenn nicht klar definiert ist, wer für welche Datensätze zuständig ist. Letztlich fallen diese Kriterien je nach Logistikunternehmen individuell aus.
Warum hohe Datenqualität immer wichtiger wird
Verschiedene Studien von Analysten zeigen, dass eine schlechte Datenqualität Unternehmen Geld kostet. IBM geht beispielsweise davon aus, dass in den USA mangelhafte Daten Mehrkosten von umgerechnet rund 2,54 Bio. Euro pro Jahr erzeugen. Die Marktanalysten von Gartner schätzen die durchschnittlichen finanziellen Auswirkungen auf umgerechnet 12,7 Mio. Euro jährlich. Das Wirtschaftsmagazin Harvard Business Review hat so genannte „hidden data factories“ identifiziert, die für den Mehraufwand verantwortlich sind: In verschiedenen Abteilungen müssen Mitarbeiter die bereits im System vorhandenen Daten auf Fakten und Konsistenz prüfen. Diese Aufgabe wird zusätzlich zum Tagesgeschäft erledigt, was schließlich Stress und unnötige Mehrarbeit für das Team bedeutet. Dies wiederum führt zu neuen fehlerhaften Daten und zusätzlichen Aufwänden für die Logistik – ein echter Teufelskreis.
Auf dem Weg zur Besserung
Wie aber gelingt es Unternehmen, die eigene Datenqualität zu verbessern und eine Datenplattform zu betreiben, der Mitarbeiter, Partner und Kunden aus Logistik und Industrie vertrauen können? Hierbei helfen Data-Governance-Prozesse und die Entwicklung geeigneter Strategien für ein ganzheitliches Datenmanagement. Am Anfang steht die Definition der Kriterien, die gute Daten ausmachen: Aspekte wie Aktualität, Relevanz, Fehlerfreiheit und Konsistenz spielen je nach Organisation eine zentrale Rolle für ein gelungenes Supply Chain Management.
So geht man am besten vor:
- 1. Ziele klären: Alle am Projekt Beteiligten sollten sich über die Business-Ziele einigen, die mit einer Initiative für eine bessere Datenqualität erreicht werden sollen. Von Sales über Marketing bis zum Management hat jede Organisationseinheit unterschiedliche Erwartungen. Während das Management eher fundierte Analysen mit für sie relevanten und aktuellen Informationen benötigen, kann es für einen Vertriebsmitarbeiter schon entscheidend sein, dass Adressdaten korrekt und vollständig vorliegen. Im Bereich Produktion, Logistik und Warenwirtschaft sind hochaktuelle Daten gefragt, damit Fertigungsprozesse nicht ins Stocken geraten, während sich Service-Mitarbeiter detaillierte 360-Grad-Ansichten über ihre Kunden wünschen.
- 2. Daten finden und katalogisieren: In vielen Organisationen liegen Daten in unterschiedlichen Formaten ab, von Papierakten und Excel-Tabellen über Adressdatenbanken bis zu unternehmensweit genutzten Business-Anwendungen. Eine wichtige Aufgabe besteht darin, diese Datenbestände zu lokalisieren und die dort vorhandenen Informationen zu katalogisieren. Erst wenn das Unternehmen weiß, welche Daten in welcher Aktualität und in welchem Format wo liegen, kann ein Prozess zur Verbesserung der Datenqualität geplant werden.
- 3. Harmonisierung der Daten: Basierend auf der initialen Bestandsaufnahme wird nun ein Abgleich mit dem zu erreichenden Ziel vorgenommen. Daraus können sich vielfältige Aufgaben ergeben, wie eine Standardisierung von Schreibweisen, Datenformaten und Datenstrukturen. Hierbei kommen unter anderem Werkzeuge für Data Preparation und zur Deduplizierung zum Einsatz, um einen harmonisierten Datenbestand zu erhalten, während Lösungen für das Data Profiling dabei helfen, eine Analyse und Bewertung der Datenqualität vorzunehmen.
- 4. Analyse, Auswertung und Aufbereitung: Wer seine Datenbestände zusammenführt und in einer Cloud in einem Data Lake oder Data Warehouse aufbereitet, kann dort sehr flexibel verschiedenste Aufgaben zur Datenaufbereitung und Analyse durchführen. Die Cloud hat den entscheidenden Vorteil, dass beinahe unbegrenzte IT-Kapazitäten als Service abrufbar sind. Zudem kann die IT-Organisation den Fachbereichen im Self-Service die benötigten Anwendungen zur Verfügung stellen, wodurch sich die Agilität der Organisation erhöht.
- 5. Kontinuierliche Prozesse etablieren: Die Datenqualität zu sichern, ist ein kontinuierlicher Prozess. Schließlich werden immer wieder neue Daten erhoben und in die eigenen Systeme integriert. Selbst wenn externe Datenquellen schon hochwertige Daten zur Weiterverarbeitung liefern, ist es dennoch notwendig, die eigenen Datenbestände immer wieder über ein Data Monitoring zu prüfen und zu validieren. Hierfür gibt es ganz unterschiedliche Lösungen, angefangen von Self-Service-Angeboten zur Datenbereinigung über regelbasierte Anwendungen zur Datentransformation bis hin zu selbstlernenden Softwarelösungen, die eigenständig Datenformate überwachen und statistische Anomalien erkennen und korrigieren. Algorithmen für Deep Learning beziehungsweise künstliche Intelligenz sind heute schon in der Lage, viele Aufgaben rund um das Datenmanagement in Big Data-Szenarien zu übernehmen. Wichtig ist jedoch, dass Verantwortlichkeiten für das Datenmanagement benannt werden und entsprechende Prozesse zur Qualitätssicherung fest in den betrieblichen Abläufen verankert sind.
:quality(80)/images.vogel.de/vogelonline/bdb/1424200/1424287/original.jpg)
Logistik 4.0
Künstliche Intelligenz in der Logistik: Beispiele, Chancen, Gefahren
Das Datenqualitätsmanagement ist eine Teamaufgabe, die sich über alle Funktionsbereiche eines Unternehmens hinweg erstreckt. Daher ist es sinnvoll, auch den Mitarbeitern in den Fachbereichen, beispielsweise in der Logistik, Werkzeuge an die Hand zu geben, um im Self-Service die Datenqualität zu sichern. Es bieten sich insbesondere Cloud-basierte Werkzeuge an, die schnell und unkompliziert in den Fachbereichen ausgerollt werden können. So ausgerüstet gelingt es Unternehmen ihre Datenqualität schrittweise zu verbessern und den Wert ihrer Daten zu steigern.
* Otto Neuer ist Vice-President Sales, EMEA Central bei Talend in 53113 Bonn, Tel. (02 28) 76 37 76-0, sales.de@talend.com
(ID:45546817)