Articoli del meseArticoli del mese

Articoli del mese


Stampa articolo

Articolo del Mese - Maggio 2013

I dieci step per la qualità dei dati

Danette McGilvray by Danette McGilvray

«Sono un manager impegnato a gestire un’azienda e ho un importante progetto tecnologico in corso. Perché dovrei preoccuparmi della qualità dei dati»?
Come è possibile dare una risposta concreta a questa domanda? La qualità dei dati c’è ogni volta che qualcuno in azienda tira fuori il nome e l’indirizzo di un cliente per prendere un ordine, preparare una spedizione, inviare materiali di marketing oppure mandare una fattura, e si può contare che si tratti di informazioni corrette che permettono di completare efficacemente le transazioni di business. Anche se può sembrare ovvio, vorrei sottolineare che cosa questo significa per il cliente, cioè colui che fornisce i mezzi che mantengono attiva la vostra azienda. Il cliente è felice che l’ordine sia stato preso in fretta perché la corretta informazione era disponibile e che il rappresentante abbia confermato che il prodotto desiderato è in magazzino. La spedizione è stata ricevuta dal cliente senza alcun problema, perché l’indirizzo è corretto. La fattura contenuta nel pacchetto era corretta e corrispondeva a ciò che il cliente si aspettava quando l’ordine è stato effettuato. La qualità dei dati significa che ti puoi fidare della tua business intelligence e degli analytics. Ogni volta che si mettono insieme le informazioni relative ai clienti migliori in tutta l’azienda, si può tranquillamente impostare la strategia in base a tali report. Ma se si passa il tempo a discutere quali report sono corretti - quando i numeri dovrebbero essere giusti ma non lo sono - allora c’è un problema di qualità dei dati. Quanto tempo viene sprecato cercando di conciliare i report, invece di agire in base a quello che ci dicono i report stessi?
Ancora una volta, perché queste cose sono importanti? Perché quanto più efficacemente ci prenderemo cura dei nostri clienti, meno tutto questo costerà all’azienda. E soprattutto aumenterà anche la probabilità che i nostri clienti decidano di fare affari di nuovo con noi, con un corrispondente incremento del fatturato.
Se si implementa un nuovo sistema, come per esempio un CRM (customer relationship management) o un ERP (enterprise resource planning), o si sostituisce un’applicazione legacy con le più recenti tecnologie, è molto probabile che si abbiano integrazioni e spostamenti dei dati da diversi sistemi sorgente. Se è così, vi garantisco che si avrà un problema di qualità dei dati.

Buone e cattive notizie - Posso dirlo con sicurezza, perché ogni progetto in cui sono stata personalmente coinvolta o di cui ho sentito parlare - e nel quale vi erano integrazioni e spostamenti di dati - ha avuto problemi di qualità dei dati, che dovevano essere affrontati per fare in modo che l’applicazione funzionasse correttamente una volta messa in produzione. I dati che soddisfacevano le esigenze di una particolare area funzionale sono ora combinati con i dati di altre aree funzionali, con risultati spesso molto scarsi. Molte volte, i problemi di qualità dei dati colgono di sorpresa i progetti. Sia che il progetto si trovi ancora agli inizi oppure che sia già in produzione, non è raro scoprire che i problemi di qualità dei dati e delle informazioni impediscono all’azienda di realizzare i benefici dei loro investimenti in nuovi sistemi. Questa è la cattiva notizia. Ma la buona notizia è che c’è qualcosa che si può fare a questo riguardo, per evitare i problemi che la scarsa qualità dei dati porta con sé. Così come ci sono persone in azienda con conoscenze specifiche nell’ambito tecnologico (come i data architects, gli sviluppatori di applicazioni e i programmatori) e aree di business quali la contabilità (con il chief financial officer, i controller e le persone del finance), vi sono anche conoscenze specialistiche relative alla qualità dei dati e delle informazioni. Una fonte di aiuto per affrontare le sfide della qualità dei dati nei progetti è il mio libro intitolato “Executing Data Quality Projects: Ten Steps to Quality Data and Trusted Information” (L’esecuzione di progetti di qualità dei dati: i dieci passi per avere qualità dei dati e informazioni attendibili).

I dieci passi - La metodologia Ten Steps, dei dieci passi, è costituita da un framework di riferimento, da concetti e da processi per creare e migliorare la qualità dei dati e delle informazioni all’interno di qualsiasi organizzazione. Il processo Ten Steps contiene le istruzioni concrete per l’esecuzione dei progetti di miglioramento della qualità dei dati e delle informazioni. Per implementare il processo Ten Steps in modo efficace, è necessario comprendere alcuni concetti relativi alla qualità dei dati: per questo motivo, un framework di riferimento per la qualità delle informazioni e diversi concetti chiave sono presentati nei primi capitoli. Ai lettori sono forniti i concetti di fondo per comprendere i componenti necessari per la qualità delle informazioni e per avere le basi per seguire le istruzioni step-by-step, che a loro volta forniscono la struttura per dare modo ai lettori di comprendere cosa va fatto e perché. La bellezza di questo approccio è che fornisce la struttura necessaria per sapere come procedere, ma lo fa con flessibilità, in modo che chi la utilizza può anche integrarla con le tecniche, strumenti e conoscenze propri. È stato scritto per colmare il divario, oppure anche fungere da complemento, tra i testi esistenti che forniscono concetti e processi di livello superiore e altri libri che entrano più in profondità sugli specifici argomenti riguardanti i dati.

Step-by-step - Le aziende possono scegliere le misure applicabili, le attività e le tecniche specifiche per la loro situazione e utilizzare la metodologia:

  • Per progetti incentrati sulla qualità delle informazioni, come per esempio una valutazione di base della qualità dei dati di un database particolare o una valutazione dell’impatto di business per aiutare a determinare gli opportuni investimenti in attività relative alla qualità dei dati.
  • Per integrare attività specifiche di qualità dei dati in altri progetti e metodologie, come la realizzazione di un data warehouse, l’implementazione di un ERP o la migrazione dei dati per qualsiasi progetto di sviluppo di applicazioni.
  • Nel corso del lavoro e delle operazioni quotidiani, ogni volta che si ha la responsabilità di gestire la qualità dei dati oppure che il lavoro svolto impatti la qualità dei dati.
  • Come base per creare la propria metodologia di miglioramento, o per integrare le attività di qualità dei dati nel ciclo di vita dei normali progetti aziendali oppure nel ciclo di vita dello sviluppo di software o di soluzioni (SDLC, Software/solution Development Life Cycle).

Più tempo meno costi - L’utilizzo di questo approccio può far risparmiare tempo e costi all’azienda in quanto il lavoro di base per il processo è già stato fatto. Pertanto, il tempo sarà impiegato per determinare come far funzionare la metodologia per la specifica situazione, per agire e per ottenere risultati. Se la priorità è quella di mostrare perché la qualità dei dati è importante e ottenere supporto per le risorse necessarie, la metodologia include tecniche di impatto sul business. Si tratta di misure qualitative e quantitative per determinare gli effetti di qualità dei dati sull’organizzazione. Queste tecniche vanno da quelle meno complesse, come la raccolta di esempi o di casi riguardanti l’impatto della scarsa qualità dei dati, a quelle più onerose in termini di tempo, come quantificare i costi e l’impatto sul fatturato dei dati di scarsa qualità. Avere i risultati reali dell’impatto sul business, uniti a valide capacità di comunicazione, può rivelarsi molto utile ai fini dell’ottenimento di supporto per le attività ai fini della qualità dei dati.
Anche se ho usato le informazioni dei clienti a titolo di esempio in questo articolo, ciò che ho condiviso funziona con tutti i tipi di dati: finanziari, del personale, dei prodotti, di produzione, medici, di ricerca e così via. Se la vostra organizzazione è un’impresa a scopo di lucro, un ente pubblico, una società di beneficenza, un istituto scolastico, oppure opera nell’assistenza sanitaria, tutte queste idee trovano applicazione in quanto ogni organizzazione dipende dalle informazioni per supportare i propri obiettivi e per mettere in pratica i propri impegni. Se la vostra azienda è preoccupata della qualità dei dati, questo è il momento giusto per iniziare il processo.

I dieci step per la qualità dei dati - Technology Transfer

Enterprise information catalog. I requisiti per fare la scelta giusta
Mike Ferguson

La nuova era dell’analisi predittiva - Le aziende alla prova del Machine Learning
Frank Greco

Uno sguardo Agile - Per capire il passato e progettare il futuro
Arie van Bennekum

Trasformazione Agile
Se il product owner diventa un collo di bottiglia

Sander Hoogendoorn

Una Fiat o una Ferrari?
Qual è la più adatta per il business digitale?

Barry Devlin

Vincere la complessità dei dati. È l’ora dello smart data management
Mike Ferguson

Big Data e Analytics - Se il machine learning accelera anche la data science
Mike Ferguson

I dati al centro del business
Christopher Bradley

I Big Data forniscono il contesto e la ricchezza predittiva attorno alle transazioni di business Avere dati coerenti e di qualità resta fondamentale per il processo decisionale
Barry Devlin

Cosa c’è dietro l’angolo? Cinque mosse per diventare un digital leader
Jeroen Derynck

Managing information technology Gestire l’IT come un business nel business
Mitchell Weisberg

Data integration self-service Miglioramento della produttività o caos totale?
Mike Ferguson

Project manager vecchi miti e nuove realtà
Aaron Shenhar

La catena alimentare dei requisiti
Suzanne Robertson

Come diventare un’azienda data-centric
Lindy Ryan

Enterprise analytical ecosystem - Come comprendere il comportamento online dei clienti e capitalizzare il valore dei dati nell’era Big Data
Mike Ferguson

Agilità? Basta Volere
Suzanne Robertson

Ma la vostra architettura è efficace?
Mike Rosen

Se il NoSQL diventa SQL
Rick van der Lans

La data quality e l’impatto sul business
Danette McGilvray

Business analysis e regole di business By Ronald G. Ross con Gladys S.W. Lam
Ronald Ross

Usare Scrum su larga scala: cosa cambia?
Craig Larman

Le architetture per ridurre il debito tecnico
Mike Rosen

Conversando con un marziano
Suzanne Robertson

Cosa c’è di nuovo nel project management?
Aaron Shenhar

Reinventare la Business Intelligence
Barry Devlin

Il nuovo volto della business intelligence
Shaku Atre

Alla ricerca del valore tra i pomodori nell'orto
John Favaro

I big data cambiano il mercato dei Database Server
Rick van der Lans

Un “superstorm” di informazioni
Barry Devlin

I dieci step per la qualità dei dati
Danette McGilvray

Perché è meglio evitare il private cloud?
Jason Bloomberg

Leonardo da Vinci aveva ragione!
Chris Date

Mobile user experience: Come adottare una strategia sostenibile
James Hobart

Cosa significa occuparsi di architettura?
Mike Rosen

Virtualizzazione dei dati e sistemi di Business Intelligence Agili
Rick van der Lans

Modelli e linguaggi naturali, quale il modo migliore per definire i requisiti?
James Robertson

Extreme Scoping: un approccio Agile all'Edw e alla BI
Larissa Moss

BI², la Business Intelligence al quadrato
Barry Devlin

I test di regressione in ambienti legacy
Randy Rice

Le conseguenze della consumerizzazione e del Cloud
Chris Potts

Come vanno gli affari? Chiedetelo al vostro cruscotto
Shaku Atre

Organizzare team di progetto efficienti in ambienti DW/BI
Larissa Moss

Big Data, come e perché
Colin White

Business Capabilities e l'allineamento del business all'IT
Mike Rosen

Il valore della tassonomia nella ricerca delle informazioni
Zach Wahl

BI, ma il Data Warehouse è ancora necessario?
Colin White

Reinventare la Business Intelligence
Barry Devlin

Il cruscotto delle prestazioni: il nuovo volto della Business Intelligence
Shaku Atre

Modelli e processi di User acceptance testing
Randy Rice

I limiti nel gestire l'IT come un Business
Chris Potts

Le componenti fondamentali del Cloud
George Reese

Metadati e DW 2.0
Derek Strauss

BI Open Source: basso costo e alto valore?
Jos van Dongen

Semplicità e requisiti
Suzanne Robertson

Business intelligence e analisi testuale
Bill Inmon

Extreme Scoping™: approcci agili al DW e alla BI
Larissa Moss

Dalla BI a un'architettura IT di livello Enterprise
Barry Devlin

Ambiente efficiente di ricerca di informazioni
James Hobart

Il Business deve trainare la Strategia IT
Chris Potts

Web database: la questione MapReduce (seconda parte)
Colin White

Web database: la questione MapReduce
Colin White

Misura delle prestazioni. I sette comandamenti
Harry Chapman

Le dieci cose che un architetto deve fare per creare valore
Mike Rosen

Sviluppare applicazioni a prova di sicurezza
Ken van Wyk

The ECM Landscape in 2008
Alan Pelz-Sharpe

Ma chi sono gli operatori dell’informazione?
Colin White

Qualità dell’informazione e trasformazione del management
Larry English

Classificazione sistematica delle informazioni
Zach Wahl

L’uso intensivo del Web nelle applicazioni di Bi
Colin White

Enterprise Search
Theresa Regli

La forza dell'astrazione
Steve Hoberman

La strada verso una BI pervasiva
Cindi Howson

Soa, una strategia di test
Randy Rice

Verso una BI più semplice e a minor costo
Colin White

I contenuti “Killer” del Web
Gerry McGovern

Sviluppo iterativo del software per i Dw
Larissa Moss

Qualità delle Informazioni e Datawarehousing
Larry English

Lo scenario Ecm 2008
Alan Pelz-Sharpe

La nascita del Web 3.0
John Kneiling

Documentazione: il dossier del crimine
Suzanne Robertson

L’impatto del Web 2.0 sui portali delle imprese
Colin White

Le tecniche vincenti di IT Management
Ken Rau

Web 2.0
Ed Yourdon

Web di successo se si conosce il cliente
Gerry McGovern

Un approccio alla BI incentrato sui processi
Colin White

Integrare Master Data Management e BI (Parte Seconda)
Mike Ferguson

Integrare Master Data Management e BI (Parte Prima)
Mike Ferguson

Il Project Manager è una Tata
Suzanne Robertson

Web di successo se si conosce il cliente
Gerry McGovern

L'informazione personalizzata
Colin White

La Tassonomia dell'Impresa
Zach Wahl

Managed Meta Data Environment (II parte)
David Marco

Managed Meta Data Environment
David Marco

Migliorare le applicazioni dell'impresa con Web 2.0
James Hobart

La Balanced Scorecard migliora la Performance dell'IT
Harry Chapman

La fusione dei processi dell'impresa grazie a Soa (II parte)
Max Dolgicer

La fusione dei processi dell'impresa grazie a SOA (I parte)
Max Dolgicer

Volere è Potere, in Ogni Senso
Suzanne Robertson

Dimostrate con i numeri il valore dei contenuti del web
Gerry McGovern

Il Back-end della pianificazione strategica dell'It
Ken Rau

L'audit delle prescrizioni di progetto (II parte)
Suzanne Robertson

L'audit delle prescrizioni di progetto (I parte)
Suzanne Robertson

Il Processo di gestione delle informazioni
Ted Lewis

I requisiti come strumento di gestione dei progetti
Suzanne Robertson

Il futuro è nel contenuto killer del web
Gerry McGovern

Alla ricerca del valore tra i pomodori nell'orto
John Favaro

Rilevare i costi sulla base delle attività
Ken Rau

Un percorso verso l'impresa intelligente (II parte)
Mike Ferguson

Un percorso verso l'impresa intelligente (I parte)
Mike Ferguson

Il Data Store Operativo: un lavoro di martello
Claudia Imhoff

Il data warehouse orientato all'impresa
Michael Schmitz

Dieci punti chiave per realizzare balanced scorecard di successo
Harry Chapman

Content management: i contenuti al primo posto
Gerry McGovern

Applicazioni Web ad alta disponibilità
John Kneiling

Il 2004, sarà l'anno in cui abbandoneremo html?
James Hobart

La tecnologia EII ripropone il data warehousing virtuale?
Colin White

Misurare per Gestire
Ken Rau

Volere è Potere, in Ogni Senso
Suzanne Robertson

Realizzare il CPM e l'integrazione della BI
Mike Ferguson

Tutti i punti della FPA
Koni Thompson

Requiem per il Portale?
Colin White

Business Intelligence: dalla teoria alla realtà (II parte)
Shaku Atre

Business Intelligence: dalla teoria alla realtà (I parte)
Shaku Atre

I portali Corporate e di E-business: la nuova generazione del posto di lavoro
Mike Ferguson

I 10 errori da evitare nella realizzazione di un Meta Data Repository (II Parte)
David Marco

I 10 errori da evitare nella realizzazione di un Meta Data Repository (I parte)
David Marco

Usare i modelli per acquisire l'esperienza di progettazione
James Hobart

Realizzare l'Impresa Intelligente
Colin White

.NET or J2EE - Choosing the Right Web Services Framework
John Kneiling

Progettare Applicazioni Mobili di Successo
James Hobart

La Sociologia del Progetto: Identificare e Coinvolgere tutti i Partecipanti
Suzanne Robertson

Integrare la Business Intelligence nell'Impresa (II parte)
Mike Ferguson

Integrare la Business Intelligence nell'Impresa (I parte)
Mike Ferguson

L'Evoluzione del Portale di e-Business (II parte)
Colin White

L'Evoluzione del Portale di e-Business (I parte)
Colin White

Il Consulente WebEAI: Servizi Web, XML e l'Impresa
John Kneiling

Data Mining: Come Gestire le Relazioni con i Clienti Secondo i Principi del CRM
Weaver James

Articoli del mese - Technology Transfer