Generelle Themen

Verbessern Sie das Datenmanagement und die Datenqualität mit der Data Fabric .-Strategie

Verbessern Sie das Datenmanagement und die Datenqualität mit der Data Fabric .-Strategie

Um die Leistung zu verbessern, müssen Unternehmen ihre Daten richtig verwalten und ihre Qualität verbessern, indem sie sich von traditionellen Methoden entfernen.

Es ist allgemein bekannt, dass die Gewinnung von Wert aus externen und internen Daten einen Fokus sowohl auf das Datenmanagement als auch auf die Datenqualität erfordert. Gartner definiert Data Governance als „die Definition von Entscheidungsrechten und Rechenschaftspflichten, um ein angemessenes Verhalten in Bezug auf die Bewertung, Erstellung, Nutzung und Kontrolle von Daten und Analysen sicherzustellen“. Die Datenqualität wird weitgehend davon bestimmt, wie genau und aktuell die Informationen sind; Ohne genaue Daten und Wissen darüber, wer die Informationen in Ihrem Unternehmen verwendet, ist es sehr schwierig, dieses Wissen abzuschöpfen.

Obwohl bekannt ist, dass Datenmanagement und Datenqualität für Unternehmen von größter Bedeutung sind – und angesichts der enormen Fortschritte in der Datentechnologie und -fähigkeit – kämpfen Unternehmen immer noch damit, Datenqualität und -management sicherzustellen.

Überprüfen Sie auch:

Eine kürzlich von EY durchgeführte Studie ergab, dass 41 % der Unternehmen die Qualität ihrer Daten als größte Herausforderung ansehen. Gartner geht davon aus, dass schlechte Datenqualität Unternehmen durchschnittlich 12,9 Millionen US-Dollar pro Jahr kostet.

Darüber hinaus stellte der EY-Bericht fest, dass 14 % der Unternehmen Probleme beim Zugriff auf die Technologieinfrastruktur und zugehörige Daten haben. Ohne angemessene Verfügbarkeit, Technologie und Dateninfrastruktur ist es für Unternehmen äußerst schwierig, ein effektives Datenmanagement-Framework zu implementieren.

Herausforderungen im Zusammenhang mit der Datenzentralisierung

Viele der Hindernisse, die Unternehmen daran hindern, ihre Datenqualitäts- und Datenmanagementziele zu erreichen, sind auf den traditionellen datenzentrierten Ansatz zurückzuführen. Wenn die Organisation wächst, entstehen durch den Zufluss von Betriebsressourcen Datensilos. Unternehmen versuchen, dieses Problem zu lösen, indem sie Daten aus diesen Quellen an einem Ort sammeln. Während es in den letzten Jahren keine Argumente für diese Argumentation gab, hat sie in Zeiten zunehmender Datenmengen und -komplexität zu vielen erheblichen Herausforderungen geführt.

Beispielsweise erfordert die Integration neuer Datenquellen in eine zentralisierte Umgebung viel Zeit und Mühe. Die Kosten für die Datenzentralisierung sind angesichts der Investitionen in Speicher, Computer und Schnittstellen sowie der Aufgabe, Datenformate über alle Datenquellen hinweg zu standardisieren, erheblich. Inzwischen nehmen Datensilos zu, weil es eine natürliche Trennung zwischen denjenigen gibt, die Daten erstellen und konsumieren – und Dateningenieuren, die Erfahrung mit Big-Data-Tools haben. Dies liegt daran, dass es den Ingenieuren an Geschäfts- und Domänenkenntnissen und den Eigentümern von Datenprodukten an technischem Fachwissen mangelt. Infolgedessen haben Organisationen nicht die Möglichkeit, den Datenverbrauch im gesamten Unternehmen zu sehen.

Auch technische Aspekte der Datenzentralisierung können zu den negativen Auswirkungen der Ordnungspolitik beitragen; Interner Wettbewerb kann dazu führen, dass Abteilungen sich weigern, ihre Datenbestände mit anderen Abteilungen zu teilen. Ein Mangel an Transparenz und Verfügbarkeit in einer datenzentrierten Umgebung kann die Speicherung von Datenbeständen und damit den Verlust vieler Datenmonetarisierungsinitiativen durch das Unternehmen fördern.

Datenkonsolidierungsprobleme in einer zentralisierten Umgebung führen auch zur Verwendung veralteter Daten. Wenn die Organisation beispielsweise im Laufe der Zeit wächst, kann ein Dritter mit vielen verschiedenen Geschäftsbereichen innerhalb der Organisation interagieren, die jeweils ein anderes Betriebssystem verwenden. Dies führt zu einem Mangel an Datensynchronisation – einige Daten sind aktuell und einige andere Informationen sind nicht mehr korrekt. Dies behindert die Implementierung und die Entdeckung von Wissen und wirkt sich somit auf die Geschäftsergebnisse aus.

Schließlich können Unternehmen nicht diktieren, wie Daten verwendet werden. Wenn Daten zentralisiert sind, ist es kompliziert, die wenigsten und genauesten Zugriffskontrollen einzurichten, sodass das Erreichen von Corporate Governance und Compliance eine Herausforderung darstellt.

Ein neuer dezentraler Ansatz für Daten

Es ist daher klar, dass der traditionelle und datenzentrierte Ansatz Unternehmen vor viele Herausforderungen stellt, die es zu meistern gilt. Eine alternative Strategie ist ein dezentraler Ansatz. Das Data-Fabric-Konzept – eine der wichtigsten strategischen Richtungen von Gartner für 2022 – kann dabei helfen, basierend auf mehreren zusammenarbeitenden Datenverwaltungstechnologien, den Datenabruf und die Integration im gesamten Ökosystem des Unternehmens zu verbessern.

Eine solche Technologie ist die Datenvirtualisierung, die den Zugriff auf Datenressourcen von jeder Betriebsquelle aus ermöglicht, ohne sie wiederholen zu müssen. Mit anderen Worten, anstatt Daten aus einer betrieblichen Quelle in ein zentrales Data Warehouse zu kopieren, können Datensätze von dort aus angezeigt und analysiert werden (sogar mit komplexen KI-Techniken). Der Real-Data-Fabric-Ansatz würde bei Bedarf auch die Erstellung virtueller Data Lakes in Echtzeit ermöglichen; Das bedeutet, dass Data Lakes jederzeit erstellt und entfernt werden können, ohne dass bestehende Anwendungen und Infrastruktur beeinträchtigt werden.

Dies bietet eine einfachere und kostengünstigere Alternative zur Integration von Datenquellen und -anbietern und ermöglicht eine einheitliche Ansicht des Datenflusses im gesamten Unternehmen. Durch Erreichen dieses Transparenzniveaus können Unternehmen auf vielfältige Weise auf Daten reagieren. Erstens kann es durch die Verwendung fortschrittlicher Kontrollmechanismen auf der Grundlage von Merkmalen und Rollen die Sichtbarkeit und den Zugriff auf die niedrigste und detaillierteste Ebene beschränken, wodurch Kontrollentscheidungen besser durchgesetzt werden können.

Zweitens können Unternehmen, da Datenressourcen leichter zugänglich sind, den Datenaustausch zwischen Teams koordinieren und isolierte Datenressourcen reduzieren. Diese Fähigkeit, die Datennutzung dynamisch zu verbessern, ist laut Gartner Teil des wahren Werts von Data Fabric. Das Forschungsunternehmen sagt, dass Analysen als Teil von Data Fabric den Aufwand für das Datenmanagement um bis zu 70 % reduzieren und die Time-to-Value verkürzen können.

Wichtig ist, dass der hervorragende Ansatz von Data Fabric nicht bedeutet, bestehende zentrale Data Lakes oder Warehouses aufzugeben, sondern Daten darin als Teil einer dynamischen und belastbaren Infrastruktur zu integrieren. Data Fabric kann von einer Anwendung oder Plattform verwendet werden und ermöglicht es, Daten jederzeit anzureichern, zu verarbeiten und zu visualisieren, sodass Unternehmen ihre Daten nicht mehr in Silos sperren oder sie über mehrere Anwendungen hinweg replizieren.

Unternehmen, die ihre Geschäftsergebnisse durch Modernisierung der Datenqualität, -verwaltung und -auffindbarkeit verbessern möchten, müssen ihren End-to-End-Datenansatz berücksichtigen und sich fragen, ob ein traditioneller und zentralisierter Ansatz ihnen helfen kann, ihre Ziele zu erreichen. Eine Strategie, die die Textur von Daten nutzt, kann genau das tun.

Autor:

Arzt. David Amzalaj – Produktleiter und CEO für digitale Transformation, BlackSwan Technologies.

Quelle: IDG Connect

 

Ähnliche Artikel

Schaltfläche "Zurück zum Anfang"