一般的なトピック

DataFabricの戦略でデータ管理と品質を向上させる

DataFabricの戦略でデータ管理と品質を向上させる

パフォーマンスを向上させるには、企業はデータを適切に管理し、従来の方法から離れてデータの品質を向上させる必要があります。

外部データと内部データから価値を引き出すには、データ管理とデータ品質の両方に焦点を当てる必要があることはよく知られています。ガートナーは、データガバナンスを「データと分析の評価、作成、消費、および制御に関連する適切な動作を保証するための意思決定権と説明責任のフレームワークの定義」と定義しています。データ品質は主に、情報がどれだけ正確で最新であるかによって決まります。正確なデータと、組織内で誰がその情報を使用しているかについての知識がなければ、その知識を流出させることは非常に困難です。

データ管理とデータ品質が組織にとって最も重要であることはよく知られていますが、データテクノロジーと機能が大幅に進歩していることを考えると、組織は依然としてデータ品質と管理の確保に苦労しています。

また確認してください:

EYによる最近の調査によると、組織の41%が、データの品質が最大の課題であると考えています。Gartnerは、データ品質の低さが組織に年間平均1,290万ドルのコストをかけていることを示唆しています。

さらに、EYのレポートによると、組織の14%がテクノロジーインフラストラクチャと関連データへのアクセスに問題を抱えています。適切な可用性、テクノロジー、およびデータインフラストラクチャがなければ、企業が効果的なデータ管理フレームワークを実装することは非常に困難です。

データの集中化に関連する課題

企業がデータ品質とデータ管理の目標を達成することを妨げる障壁の多くは、従来のデータ中心のアプローチに起因しています。組織が成長するにつれて、運用リソースの流入によりデータサイロが作成されます。企業は、これらのソースから1つの場所でデータを収集することにより、この問題を克服しようとしています。近年、この推論についての議論はありませんが、データの量と複雑さが増す中で、それは多くの重大な課題につながりました。

たとえば、新しいデータソースを一元化された環境に統合するには、多くの時間と労力が必要です。ストレージ、コンピューター、インターフェイスへの投資と、すべてのデータソース間でデータ形式を標準化するタスクを考えると、データの集中化のコストはかなりのものです。一方、データの作成者と消費者、およびビッグデータツールの経験を持つデータエンジニアの間には自然な隔たりがあるため、データサイロが増加しています。これは、エンジニアにはビジネスとドメインの専門知識がなく、データ製品の所有者には技術的な専門知識がないためです。その結果、組織は企業全体のデータ消費を確認することができません。

データの集中化の技術的側面も、規制政策の悪影響に寄与する可能性があります。内部競争により、部門がデータ資産を他の部門と共有することを拒否する可能性があります。データ中心の環境での可視性と可用性の欠如は、データ資産のストレージを促進し、企業による多くのデータ収益化イニシアチブの喪失を助長する可能性があります。

一元化された環境でのデータ統合の問題も、古いデータの使用につながります。たとえば、組織が時間の経過とともに成長するにつれて、サードパーティは、それぞれが異なるオペレーティングシステムを持つ組織内の多くの異なるビジネスユニットと対話できます。これにより、データの同期が失われます。一部のデータは最新であり、その他の情報は正確ではなくなります。これは、実装と知識の発見を妨げ、したがってビジネスの成果に影響を与えます。

最後に、企業はデータの使用方法を指示することはできません。データを一元化する場合、最も正確性の低いアクセス制御を導入することは複雑であるため、コーポレートガバナンスとコンプライアンスを実現することは困難です。

データへの新しい分散型アプローチ

したがって、従来のデータ中心のアプローチでは、組織が克服すべき多くの課題を抱えていることは明らかです。別の戦略は、分散型アプローチを採用することです。ガートナーの2022年の最も重要な戦略的方向性の1つであるデータファブリックの概念は、連携して機能する複数のデータ管理テクノロジーに基づいて、データの取得と会社のエコシステム全体の統合を改善するのに役立ちます。

そのようなテクノロジーの1つにデータ仮想化があります。これにより、データリソースを繰り返すことなく、任意のオペレーティングソースからデータリソースにアクセスできます。つまり、運用ソースから中央のデータウェアハウスにデータをコピーする代わりに、データセットをどこからでも表示および分析できます(複雑なAI技術を使用している場合でも)。実際のデータファブリックアプローチでは、必要に応じてリアルタイムで仮想データレイクを作成することもできます。これは、既存のアプリケーションやインフラストラクチャに影響を与えることなく、いつでもデータレイクを作成および削除できることを意味します。

これにより、データソースとプロバイダーを統合するためのよりシンプルで費用効果の高い代替手段が提供され、企業全体のデータフローの単一のビューが可能になります。このレベルの可視性を実現することにより、組織はさまざまな方法でデータに基づいて行動できます。まず、特性と役割に基づく高度な制御メカニズムを使用することで、可視性とアクセスを最も低く、最も詳細なレベルに制限し、制御の決定をより適切に実施できるようにします。

次に、データリソースへのアクセスが容易になるため、組織はチーム間のデータ共有を調整し、孤立したデータリソースを減らすことができます。Gartnerによると、データ使用量を動的に改善するこの機能は、DataFabricの真の価値の一部です。調査会社によると、Data Fabricの一部としての分析により、データ管理の労力を最大70%削減し、価値実現までの時間を短縮できます。

重要なのは、Data Fabricの優れたアプローチは、既存の中央データレイクまたはウェアハウスを放棄することを意味するのではなく、動的で復元力のあるインフラストラクチャの一部としてそれらの中にデータを統合することを意味します。Data Fabricは、アプリケーションまたはプラットフォームで使用でき、データをいつでも強化、処理、および視覚化できるため、企業はデータをサイロにロックしたり、複数のアプリケーションに複製したりする必要がなくなります。

データの品質、管理、発見可能性を最新化することでビジネスの成果を向上させようとしている組織は、エンドツーエンドのデータアプローチを検討し、従来の集中型アプローチが目標の達成に役立つかどうかを自問する必要があります。データのテクスチャを使用する戦略は、確かにそれを行うことができます。

著者:

医者。David Amzalaj-BlackSwanTechnologiesの製品責任者兼デジタルトランスフォーメーションCEO。

出典:IDG Connect

 

Related Articles

Back to top button