Argomenti generali

Migliora la gestione e la qualità dei dati con la strategia Data Fabric

Migliora la gestione e la qualità dei dati con la strategia Data Fabric

Per migliorare le prestazioni, le aziende devono gestire correttamente i propri dati e migliorarne la qualità allontanandosi dai metodi tradizionali.

È risaputo che l’estrazione di valore dai dati esterni e interni richiede un focus sia sulla gestione dei dati che sulla qualità dei dati. Gartner definisce la governance dei dati come “la definizione dei diritti decisionali e dei quadri di responsabilità per garantire un comportamento appropriato in relazione alla valutazione, creazione, consumo e controllo dei dati e dell’analisi”. La qualità dei dati è in gran parte determinata dall’accuratezza e dall’aggiornamento delle informazioni; Senza dati accurati e conoscenza di chi sta utilizzando le informazioni nella tua organizzazione, è molto difficile prosciugare tale conoscenza.

Sebbene sia risaputo che la gestione e la qualità dei dati sono di fondamentale importanza per le organizzazioni, e dati gli enormi progressi nella tecnologia e nelle capacità dei dati, le organizzazioni continuano a lottare per garantire la qualità e la gestione dei dati.

Controlla anche:

Un recente studio di EY ha rilevato che il 41% delle organizzazioni ritiene che la qualità dei propri dati sia la sfida più grande. Gartner suggerisce che una scarsa qualità dei dati costa alle organizzazioni una media di 12,9 milioni di dollari all’anno.

Inoltre, il rapporto EY ha rilevato che il 14% delle organizzazioni ha problemi ad accedere all’infrastruttura tecnologica e ai relativi dati. Senza disponibilità, tecnologia e infrastruttura dati adeguate, è estremamente difficile per le aziende implementare un framework di gestione dei dati efficace.

Sfide legate alla centralizzazione dei dati

Molti degli ostacoli che impediscono alle aziende di raggiungere i propri obiettivi di qualità e gestione dei dati derivano dall’approccio tradizionale incentrato sui dati. Man mano che l’organizzazione cresce, l’afflusso di risorse operative crea silos di dati. Le aziende stanno cercando di superare questo problema raccogliendo dati da queste fonti in un unico luogo. Sebbene negli ultimi anni non ci siano state argomentazioni a favore di questo ragionamento, in tempi di maggiore quantità e complessità di dati, ha portato a molte sfide significative.

Ad esempio, l’integrazione di nuove origini dati in un ambiente centralizzato richiede molto tempo e sforzi. Il costo della centralizzazione dei dati è significativo dato l’investimento in storage, computer e interfacce e il compito di standardizzare i formati dei dati in tutte le origini dati. Nel frattempo, i silos di dati sono in aumento perché esiste una separazione naturale tra coloro che creano e consumano i dati e gli ingegneri dei dati esperti negli strumenti per big data. Ciò è dovuto al fatto che gli ingegneri non hanno competenze aziendali e di dominio e i proprietari di prodotti di dati non dispongono di competenze tecniche. Di conseguenza, le organizzazioni non hanno la possibilità di vedere il consumo di dati in tutta l’azienda.

Anche gli aspetti tecnici della centralizzazione dei dati possono contribuire agli effetti negativi della politica di regolamentazione; La concorrenza interna può portare i reparti a rifiutarsi di condividere le proprie risorse di dati con altri reparti. La mancanza di visibilità e disponibilità in un ambiente incentrato sui dati può incoraggiare l’archiviazione delle risorse di dati e quindi la perdita di molte iniziative di monetizzazione dei dati da parte dell’azienda.

Anche i problemi di consolidamento dei dati in un ambiente centralizzato portano all’utilizzo di dati obsoleti. Ad esempio, man mano che l’organizzazione cresce nel tempo, una terza parte può interagire con molte diverse unità aziendali all’interno dell’organizzazione, ciascuna con un diverso sistema operativo. Ciò porta a una mancanza di sincronizzazione dei dati: alcuni dati sono aggiornati e altre informazioni non sono più accurate. Ciò ostacola l’implementazione e la scoperta della conoscenza e quindi influisce sui risultati aziendali.

Infine, le aziende non possono dettare come vengono utilizzati i dati. Quando i dati sono centralizzati, è complicato mettere in atto i controlli di accesso minimi e più accurati, quindi raggiungere la governance e la conformità aziendali è una sfida.

Un nuovo approccio decentralizzato ai dati

È quindi chiaro che l’approccio tradizionale e incentrato sui dati presenta alle organizzazioni molte sfide da superare. Una strategia alternativa consiste nell’adottare un approccio decentralizzato. Il concetto di Data Fabric, una delle direzioni strategiche più importanti di Gartner per il 2022, può aiutare, sulla base di più tecnologie di gestione dei dati che lavorano in tandem, a migliorare il recupero e l’integrazione dei dati nell’ecosistema dell’azienda.

Una di queste tecnologie è la virtualizzazione dei dati, che consente l’accesso alle risorse dati da qualsiasi fonte operativa senza doverle ripetere. In altre parole, invece di copiare i dati da una fonte operativa a un data warehouse centrale, i set di dati possono essere visualizzati e analizzati (anche utilizzando complesse tecniche di intelligenza artificiale) da dove si trovano. L’approccio Real Data Fabric consentirebbe anche la creazione di data lake virtuali in tempo reale secondo necessità; Ciò significa che i data lake possono essere creati e rimossi in qualsiasi momento senza influire sulle applicazioni e sull’infrastruttura esistenti.

Ciò fornisce un’alternativa più semplice ed economica all’integrazione di origini dati e provider e consente una visualizzazione unica del flusso di dati all’interno dell’azienda. Raggiungendo questo livello di visibilità, le organizzazioni possono agire sui dati in molti modi. In primo luogo, attraverso l’uso di meccanismi di controllo avanzati basati su caratteristiche e ruoli, può limitare la visibilità e l’accesso al livello più basso e dettagliato, consentendo una migliore applicazione delle decisioni di controllo.

In secondo luogo, poiché le risorse di dati sono più accessibili, le organizzazioni possono coordinare la condivisione dei dati tra i team e ridurre le risorse di dati isolate. Questa capacità di migliorare dinamicamente l’utilizzo dei dati fa parte del vero valore di Data Fabric, secondo Gartner. La società di ricerca afferma che l’analisi come parte di Data Fabric può ridurre gli sforzi di gestione dei dati fino al 70% e accelerare il time-to-value.

È importante sottolineare che l’eccellente approccio di Data Fabric non significa abbandonare data lake o warehouse centrali esistenti, ma piuttosto integrare i dati al loro interno come parte di un’infrastruttura dinamica e resiliente. Data Fabric può essere utilizzato da un’applicazione o piattaforma e consente di arricchire, elaborare e visualizzare i dati in qualsiasi momento, in modo che le aziende smettano di bloccare i propri dati in silos o di replicarli su più applicazioni.

Le organizzazioni che cercano di migliorare i risultati aziendali modernizzando la qualità, la gestione e la rilevabilità dei dati devono considerare il loro approccio ai dati end-to-end e chiedersi se un approccio tradizionale e centralizzato può aiutarle a raggiungere i propri obiettivi. Una strategia che utilizza la trama dei dati può certamente fare proprio questo.

autore:

Medico. David Amzalaj – Head of Product e CEO di Digital Transformation, BlackSwan Technologies.

Fonte: IDG Connect

 

Related Articles

Back to top button