Unternehmen werden heute mit einer Fülle von Daten konfrontiert. Geschickt vernetzt, steckt in den Informationen über Kunden, Interessenten und Konkurrenten ein gewaltiges Potenzial. Doch nicht die Menge ist entscheidend, sondern die Qualität des Datenschatzes.

Kundendaten und bezahlte Umfragen, Bewertungen auf der Homepage oder auf Fanseiten, Produkt- und Adressdaten – deutsche Unternehmen werden von einer wahren Datenflut überrollt. Und noch ist kein Ende in Sicht. Aktuelle Prognosen gehen davon aus, dass sich das weltweite Datenvolumen in Zukunft jährlich verdoppeln werde. Im Jahr 2012 hatte es bereits bei über 1,8 Zettabyte gelegen,laut Statistik soll sich das Datenaufkommen im Jahr 2025 auf 175 Zettabyte belaufen.
Daten-Datenvolumen

Unternehmer trauen gesammelten Daten aus Adresslisten oder Meinungsumfragen nicht

Das Schlagwort Big Data macht es deutlich. Die riesigen Datenmengen schütteln die Unternehmen derzeit mächtig durch. Doch es geht nicht nur um die Menge – wichtig ist vor allem die Qualität des Datenschatzes. Und die stimmt leider nicht immer. Einer Umfrage des Forschungs- und Beratungsinstituts Business Research Application Center (Barc) zufolge vertrauen nur 40 Prozent der über 100 befragten Unternehmen ihren Daten voll und ganz. Weitere 47 Prozent bringen den Datensätzen nur ein durchschnittliches Vertrauen entgegen.

Schlechte Daten sorgen für Unzufriedenheit und Zusatzkosten

Gleichzeitig erklärten aber rund 83 Prozent der interviewten Manager, eine schlechte Datenqualität hätte negative Auswirkungen auf die eigene Wertschöpfung. Die Folgen: Fast drei Viertel der Umfrageteilnehmer beklagten eine sinkende Mitarbeiterzufriedenheit. Gar 63 Prozent hatten in der Vergangenheit bereits Erfahrungen mit unzufriedenen Kunden infolge schlechter Datenqualität, und über die Hälfte der Befragten sah sich mit Zusatzkosten und Zusatzaufwand konfrontiert.

Sicherung der Datenqualität ist ein fortlaufender Prozess

Dabei sind gut strukturierte Datenbanken mit qualitativ hochwertigen Einträgen bereits von Anfang an wichtig für jedes Unternehmen. Denn haben sich fehlerhafte Datensätze erst einmal in die Systeme eingeschlichen, wird es schwierig, sie zu erkennen, herauszufiltern und zu korrigieren. Wenn sich Mitarbeiter bei jedem Arbeitsschritt erst fragen müssen, ob die Daten, mit denen sie arbeiten, überhaupt korrekt sind, senkt das zudem die Effizienz des Unternehmens. Die Gewährleistung einer hohen Datenqualität ist dabei ein fortlaufender Prozess, dessen Richtlinien von Anfang an festgelegt und permanent überprüft werden müssen. Wichtig ist zudem, dass allen Mitarbeitern die Bedeutung hochwertiger Daten für den Unternehmenserfolg, aber auch die Fallstricke der Datenfülle bewusst gemacht werden.

Problembewusstsein der Mitarbeiter schärfen

Dabei lassen sich einige Richtlinien formulieren. Unabdingbar für die Arbeit mit dem Datenschatz sind natürlich in erster Linie die Korrektheit der Daten, aber auch die Vollständigkeit und Genauigkeit. Schreibfehler, zum Beispiel im Kundennamen, sind nicht
nur peinlich. Sie führen auch dazu, dass Kunden mehrfach in der Datenbank angelegt werden. Relevant ist zudem auch Aktualität. Ist die neue Anschrift des Kunden nicht bekannt, laufen Werbekampagnen ins Leere. Auch müssen die Anforderungen der Datensätze einheitlich strukturiert und mit den notwendigen Abfragen ausgestattet sein. Ebenso wichtig ist es, nachvollziehen zu können, woher die Daten stammen. Denn Stammkunden erfordern eine andere Ansprache als zum Beispiel Interessenten oder Teilnehmer einer Meinungsumfrage. Und nicht zuletzt müssen Unternehmen die Fülle an verfügbaren Daten nach ihrer Relevanz beurteilen. Denn nur denjenigen Unternehmen, denen es gelingt, relevante von irrelevanten Daten zu unterscheiden, können auf erhebliche Wettbewerbsvorteile hoffen.