Data Fabric stratejisiyle veri yönetimini ve kaliteyi iyileştirin
Data Fabric stratejisiyle veri yönetimini ve kaliteyi iyileştirin
Performansı artırmak için şirketlerin geleneksel yöntemlerden uzaklaşarak verilerini doğru bir şekilde yönetmeleri ve kalitesini artırmaları gerekiyor.
Dış ve iç verilerden değer çıkarmanın hem veri yönetimine hem de veri kalitesine odaklanmayı gerektirdiği iyi bilinmektedir. Gartner, veri yönetişini “veri ve analitiklerin değerlendirilmesi, oluşturulması, tüketilmesi ve kontrolü ile ilgili uygun davranışı sağlamaya yönelik karar hakları ve hesap verebilirlik çerçevelerinin tanımı” olarak tanımlar. Veri kalitesi büyük ölçüde bilgilerin ne kadar doğru ve güncel olduğuyla belirlenir; Kuruluşunuzdaki bilgileri kimin kullandığına dair doğru veriler ve bilgi olmadan, bu bilgiyi boşaltmak çok zordur.
Veri yönetimi ve veri kalitesinin kuruluşlar için son derece önemli olduğu iyi bilinmesine rağmen – ve veri teknolojisi ve yeteneklerindeki muazzam ilerlemeler göz önüne alındığında – kuruluşlar hala veri kalitesini ve yönetimini sağlamak için mücadele etmektedir.
Ayrıca kontrol edin:
EY tarafından yakın zamanda yapılan bir araştırma, kuruluşların %41’inin verilerinin kalitesini en büyük zorluk olarak bulduğunu ortaya koydu. Gartner, düşük veri kalitesinin kuruluşlara yılda ortalama 12,9 milyon dolara mal olduğunu öne sürüyor.
Ayrıca, EY raporu, kuruluşların %14’ünün teknoloji altyapısına ve ilgili verilere erişimde sorun yaşadığını tespit etti. Yeterli kullanılabilirlik, teknoloji ve veri altyapısı olmadan şirketlerin etkili bir veri yönetimi çerçevesi uygulaması son derece zordur.
Veri merkezileştirmeyle ilgili zorluklar
Şirketlerin veri kalitesi ve veri yönetimi hedeflerine ulaşmasını engelleyen birçok engel, geleneksel veri merkezli yaklaşımdan kaynaklanmaktadır. Kuruluş büyüdükçe, operasyonel kaynakların akışı veri siloları oluşturur. Firmalar bu kaynaklardan gelen verileri tek bir yerde toplayarak bu sorunun üstesinden gelmeye çalışıyorlar. Son yıllarda bu akıl yürütme için herhangi bir argüman bulunmamakla birlikte, verilerin miktarının ve karmaşıklığının arttığı zamanlarda, birçok önemli zorluğa yol açmıştır.
Örneğin, yeni veri kaynaklarını merkezi bir ortama entegre etmek çok fazla zaman ve çaba gerektirir. Depolama, bilgisayarlar ve arayüzlere yapılan yatırım ve tüm veri kaynakları genelinde veri formatlarını standartlaştırma görevi göz önüne alındığında, veri merkezileştirme maliyeti önemlidir. Bu arada, veri oluşturan ve tüketenler ile büyük veri araçlarında deneyimli veri mühendisleri arasında doğal bir ayrım olduğu için veri siloları artıyor. Bunun nedeni, mühendislerin iş ve alan uzmanlığından ve veri ürünü sahiplerinin teknik uzmanlıktan yoksun olmasıdır. Sonuç olarak, kuruluşlar, kuruluş genelinde veri tüketimini görme yeteneğine sahip değildir.
Veri merkezileştirmenin teknik yönleri, düzenleyici politikanın olumsuz etkilerine de katkıda bulunabilir; İç rekabet, departmanların veri varlıklarını diğer departmanlarla paylaşmayı reddetmesine neden olabilir. Veri merkezli bir ortamda görünürlük ve kullanılabilirlik eksikliği, veri varlıklarının depolanmasını ve dolayısıyla kuruluş tarafından birçok veriden para kazanma girişiminin kaybedilmesini teşvik edebilir.
Merkezi bir ortamda veri konsolidasyonu sorunları da eski verilerin kullanımına yol açar. Örneğin, kuruluş zamanla büyüdükçe, üçüncü bir taraf, kuruluş içindeki her biri farklı bir işletim sistemine sahip birçok farklı iş birimiyle etkileşime girebilir. Bu, veri senkronizasyonu eksikliğine yol açar – bazı veriler günceldir ve diğer bazı bilgiler artık doğru değildir. Bu, uygulamayı ve bilgi keşfini engeller ve dolayısıyla iş sonuçlarını etkiler.
Son olarak, şirketler verilerin nasıl kullanılacağını belirleyemez. Veriler merkezileştirildiğinde, en az ve en doğru erişim kontrollerini uygulamak karmaşıktır, bu nedenle kurumsal yönetişim ve uyumluluğu sağlamak bir zorluktur.
Verilere yeni bir merkezi olmayan yaklaşım
Bu nedenle, geleneksel ve veri merkezli yaklaşımın, kuruluşlara üstesinden gelinmesi gereken birçok zorluk sunduğu açıktır. Alternatif bir strateji, merkezi olmayan bir yaklaşımı benimsemektir. Gartner’ın 2022 için en önemli stratejik yönlerinden biri olan Data Fabric konsepti, birlikte çalışan birden fazla veri yönetimi teknolojisine dayalı olarak veri alımını ve şirketin ekosistemi genelinde entegrasyonunu iyileştirmeye yardımcı olabilir.
Bu tür teknolojilerden biri, herhangi bir işletim kaynağından veri kaynaklarına, bunları tekrarlamak zorunda kalmadan erişime izin veren veri sanallaştırmadır. Başka bir deyişle, verileri operasyonel bir kaynaktan merkezi bir veri ambarına kopyalamak yerine, veri kümeleri bulundukları yerden (karmaşık yapay zeka teknikleri kullanılarak bile) görüntülenebilir ve analiz edilebilir. Gerçek Data Fabric yaklaşımı, gerektiğinde gerçek zamanlı olarak sanal veri göllerinin oluşturulmasını da mümkün kılacaktır; Bu, mevcut uygulamaları ve altyapıyı etkilemeden veri göllerinin herhangi bir zamanda oluşturulabileceği ve kaldırılabileceği anlamına gelir.
Bu, veri kaynaklarını ve sağlayıcıları entegre etmeye daha basit ve daha uygun maliyetli bir alternatif sağlar ve kuruluş genelinde veri akışının tek bir görünümünü sağlar. Bu görünürlük düzeyine ulaşarak kuruluşlar, veriler üzerinde birçok şekilde hareket edebilir. İlk olarak, özelliklere ve rollere dayalı gelişmiş kontrol mekanizmalarının kullanılması yoluyla, görünürlüğü ve erişimi en düşük, en ayrıntılı seviyeye kadar kısıtlayabilir ve kontrol kararlarının daha iyi uygulanmasına izin verebilir.
İkincisi, veri kaynakları daha erişilebilir olduğu için kuruluşlar ekipler arasında veri paylaşımını koordine edebilir ve yalıtılmış veri kaynaklarını azaltabilir. Veri kullanımını dinamik olarak iyileştirme yeteneği, Gartner’a göre Data Fabric’in gerçek değerinin bir parçasıdır. Araştırma firması, Data Fabric’in bir parçası olarak analitiklerin veri yönetimi çabalarını %70’e kadar azaltabileceğini ve değer elde etme süresini hızlandırabileceğini söylüyor.
Daha da önemlisi, Data Fabric’in mükemmel yaklaşımı, mevcut merkezi veri göllerini veya ambarları terk etmek anlamına gelmez, bunun yerine verileri dinamik ve esnek bir altyapının parçası olarak bunlara entegre etmek anlamına gelir. Data Fabric, bir uygulama veya platform tarafından kullanılabilir ve verilerin herhangi bir zamanda zenginleştirilmesine, işlenmesine ve görselleştirilmesine olanak tanır, böylece şirketler verilerini silolarda kilitlemeyi veya birden çok uygulamada çoğaltmayı durdurur.
Veri kalitesini, yönetimini ve keşfedilebilirliği modernize ederek iş sonuçlarını iyileştirmek isteyen kuruluşlar, uçtan uca veri yaklaşımlarını göz önünde bulundurmalı ve kendilerine geleneksel ve merkezi bir yaklaşımın hedeflerine ulaşmalarına yardımcı olup olmayacağını sormalıdır. Veri dokusunu kullanan bir strateji kesinlikle tam da bunu yapabilir.
yazar:
Doktor. David Amzalaj – BlackSwan Technologies, Dijital Dönüşüm Ürün Başkanı ve CEO’su.
Kaynak: IDG Connect