Startseite BlogWeb-Scraping Perfektionierung der 1:10:100-Regel bei der Datenqualität

Perfektionierung der 1:10:100-Regel bei der Datenqualität

von Kadek

1:10:100-Regel bei der Datenqualität

Der Preis, den Unternehmen jedes Jahr aufgrund schlechter Datenqualität zahlen, ist gelinde gesagt erschütternd. Eine von Gartner durchgeführte Studie schätzt, dass "die durchschnittlichen finanziellen Auswirkungen einer schlechten Datenqualität auf Unternehmen bei $15 Millionen pro Jahr." Allein in den USA hat IBM herausgefunden, dass die Unternehmen einen massiven Verlust von $3.1 Billion an Einnahmen jährlich wegen schlechter Datenqualität.

Der Teufel steckt im Detail 

Wie das alte Sprichwort - "Der Teufel steckt im Detail" - so treffend sagt, findet die Verfälschung von Daten auf einer sehr grundlegenden Ebene statt.

Um dies zu verdeutlichen, können wir einen typischen Datensatz betrachten, der die Namen, E-Mail-Adressen, Adressen, Sozialversicherungsnummern usw. von Personen enthält. Wenn der Datensatz nicht regelmäßig aktualisiert wird, können sich bestimmte Fakten über die Person im Laufe der Zeit erheblich ändern - zum Beispiel, wenn sie sich entscheidet, von einem Ort zum anderen zu ziehen. Schon ein paar falsche Dateneinträge können die Sache weiter verkomplizieren. Wird kein strenger Kontrollmechanismus eingerichtet, können sich die Auswirkungen einiger falscher Daten zu einem unkontrollierten Moloch auswachsen, der das Markenimage zu Staub zerstören kann. 

"Schlechte Daten sind nicht besser als keine Daten."

Mel Netzhammer, Washington State University

Hier kommt die 1:10:100 Regel

George Labovitz und Yu Sang Chang schlugen 1992 die 1:10:100-Regel vor, die ein klares Bild von den negativen Auswirkungen schlechter Daten auf Ihr Unternehmen zeichnete. Es bleibt ein Wort der Warnung an die Entscheidungsträger da draußen: "Je länger es dauert, bis Sie Ihre Daten in Ordnung bringen, desto höher werden Ihre Verluste sein!"

1:10:100-Regel bei der Datenqualität

$1 zur Vorbeugung

Diese Art des Umgangs mit fehlerhaften Daten geht das Problem frontal an. Die Fehler werden sofort behoben, so dass sie kein Ärgernis mehr darstellen können.

$10 zur Korrektur

Mel Netzhammer, der zweite Kanzler der Washington State University in Vancouver, hat nicht gescherzt, als er sagte: "Schlechte Daten sind nicht besser als keine Daten". Wenn diese schlechten Daten dann auch noch verwendet werden, um greifbare Ergebnisse zu erzielen, wird der ganze Prozess noch um mehrere Ebenen der Korruption erweitert.

Gemäß der 1:10:100-Regel verlieren Sie $10 pro $1, wenn Sie Ihre Daten nach dem Erhalt von Feedback korrigieren, weil Sie reaktiv auf die Datenqualität reagieren. 

$100 für Nichtstun

Sie haben das Problem nicht direkt angepackt und sich auch nicht die Zeit genommen, auf Ihr Feedback zu hören. Und was noch schlimmer ist? Sie haben vor, nichts zu unternehmen und überlassen es dem Schicksal, was Sie tun. In diesem Fall verlieren Sie $100. Wenn man bedenkt, welche Auswirkungen ein Misserfolg hat, vor allem in dieser Branche, dann sind die negativen Folgen sehr weitreichend. Schlechte Daten sind gleichbedeutend mit einem schlechten Ruf der Marke, was zu einem niedrigen ROI führt und so weiter!


Zusammengefasst

Die 1:10:100-Regel ist kein Werkzeug, um schlechte Daten zu korrigieren, sondern vielmehr ein Weg, um die negativen Auswirkungen schlechter Daten auf Ihr Unternehmen zu verstehen. Sie berücksichtigt den Schmetterlingseffekt einer einzigen falschen Angabe, der sich im Laufe der Zeit um ein Vielfaches vervielfachen kann. Das unmittelbare Ergebnis kann etwas so Einfaches sein wie die Verärgerung von Kunden oder die Notwendigkeit von Überstunden für die Mitarbeiter aus einem sinnlosen Grund. Langfristig kann dies zu nachteiligen Kundenrezensionen und einem schlechten Ruf der Marke führen, der, wenn er nicht rechtzeitig kontrolliert wird, sogar den Weg zum Untergang des Unternehmens ebnen kann.


Schlechte Daten im Keim ersticken!

Das QA-Team von Grepsr führt jeden Tag Qualitätstests an Millionen von Datensätzen durch, um die Integrität der Daten zu gewährleisten. Unsere automatisierten Systeme beheben die Fehler an der Quelle und verhindern so künftige Fehler bereits im Ansatz! Wir sorgen dafür, dass schlechte Daten niemals das Licht der Welt erblicken, so dass Sie sich auf andere wichtige Dinge konzentrieren können und uns die Sorge um die Qualität Ihrer Daten überlassen!

Lesen Sie hier über die QA-Protokolle bei Grepsr:


Verwandte Lektüre:


Verwandte Beiträge

Einen Kommentar hinterlassen