Articoli del meseArticoli del mese

Articoli del mese


Stampa articolo

Articolo del Mese - Aprile 2008

Qualità delle Informazioni e Datawarehousing

Larry English by Larry English

Da lungo tempo il management sente la necessità di misurare le performance dell’impresa. I sistemi di gestione operativa supportano i processi delle attività, ma non consentono l’analisi diretta delle operazioni. La Business Intelligence, quindi, deve fornire informazioni a supporto dei processi tattici e strategici, comprese le decisioni del management che debbono basarsi sui fatti e sulla conoscenza dei trend relativi alla base clienti, ai prodotti e ai servizi. Negli anni 70, le organizzazioni crearono le funzioni di “Gestione delle informazioni” per assicurarne la corretta distribuzione, mentre gli anni 80 videro l’esplosione degli “Information center”, precursori degli attuali ambienti di Business Intelligence. Successivamente fu la volta degli “Executive information systems” (Eis), ovvero dei sistemi informativi dedicati al management con lo scopo di estrarre e presentare gli “indicatori fondamentali dell’impresa”, per arrivare poi ai cruscotti aziendali e ai datawarehouse odierni.

Business Intelligence e qualità delle informazioni

Inizialmente, i datawarehouse avevano forti problemi di qualità delle informazioni contenute al loro interno:

  • i database operativi eccessivi, ridondanti e definiti in maniera incoerente creavano enormi difficoltà di estrazione, trasformazione e caricamento dei dati nel datawarehouse;
  • dati perduti, non validi oppure imprecisi creavano la necessità di pesanti processi di verifica, identificando gli errori ma non fornendo la possibilità di correggerli;
  • la duplicazione dei record dei clienti, sia all’interno di un database che in database diversi causavano pesanti costi per la verifica della corrispondenza, riconciliazione e sincronizzazione dei dati, con errori di ogni tipo nel cercare di consolidare in maniera univoca due o più informazioni fondamentali delle persone.
  • Una lezione imparata circa la qualità delle informazioni era che il valore delle informazioni del mio dipartimento non corrispondeva necessariamente a quello delle informazioni dell’intera impresa. I “miei” dati potevano essere Ok per me, ma potevano causare gravi errori nei “vostri” processi operativi. Gli sforzi di integrazione semplicemente non potevano risolvere tutti i problemi. Queste esperienze di datawarehousing provarono che la definizione comune di qualità dei dati come “adatti allo scopo” non era sufficiente per la qualità dell’informazione. I processi di datawarehousing indicano che per definire le informazioni di alta qualità, queste debbono contenere tutti i dati disponibili di cui ha bisogno l’utente, non solo quelli forniti dai “produttori d’informazioni”. Le organizzazioni che hanno questi problemi non governano le informazioni come risorsa strategica, né applicano esatti principi di gestione della qualità alle informazioni per la corretta distribuzione di queste ultime come prodotto da condividere tra gli utenti.

    Il valore della qualità dell’informazione

    La spinta fondamentale dietro la Business Intelligence è un semplice fatto comune a tutte le risorse, da quelle finanziarie e umane, oppure relative a materiali e apparecchiature, fino a considerare le informazioni. Il valore di ogni risorsa diviene effettivo solamente quando la utilizziamo in maniera operativa. Il denaro ha valore unicamente quando lo spendiamo o lo investiamo saggiamente; le persone contribuiscono a creare valore solo quando esplicano il loro “lavoro valido”; una fabbrica ha valore quando è operativa e realizza i prodotti attesi.L’informazione ha valore solo quando applicazioni aziendali o operatori della conoscenza ne vengono in possesso e la applicano per eseguire un’attività o prendere decisioni consapevoli.Ma in tutto questo si nasconde una trappola: l’informazione senza qualità è pericolosa, perché induce a prendere decisioni errate.

    L’evoluzione delle pratiche di qualità dell’informazione nella BI

    La maggior parte dei primi approcci alla “qualità” dei datawarehouse risultavano reattivi, in quanto prevedevano la correzione dei dati all’interno del datawarehouse stesso, oppure in un’area di transito prima del loro caricamento. Questo approccio iniziale e immaturo era concettualmente analogo alle prime pratiche di qualità nelle aziende manifatturiere all’inizio dell’era industriale. In queste ultime, qualità significava mettere ispettori al termine della linea di assemblaggio per ispezionare i prodotti e scartare quelli difettosi, per ricondizionarli successivamente o per distruggerli se non potevano essere rimessi in lavorazione. Si trattava, quindi, di un approccio alla qualità definibile come “verifica e correggi” oppure “rimetti in lavorazione o distruggi” La qualità nell’area manifatturiera è poi maturata, rimpiazzando l’approccio “verifica e correggi” con quello maggiormente propositivo di “inserisci la qualità nel progetto”. Questo ha eliminato il costo delle “ispezioni” (che non aggiungono valore) e del “rimetti in lavorazione o distruggi” (una perdita di tempo e di materiali che poteva essere risparmiata, realizzando il prodotto correttamente). Le organizzazioni di maggiore successo dimostrano che “progettare la qualità” dei processi e dei sistemi di gestione operativa alla fonte rappresenta un effettivo risparmio di costi nella soluzione dei problemi di IQ, ovvero di qualità dell’informazione (Information Quality). Alcune delle lezioni imparate dalle esperienze passate raccomandano di:

    • usare il concetto di Ods (Operational data store), ossia di banca dati operativa, per creare un forte Odb (Operational database), ovvero un efficace database operativo dell’impresa, in modo da poter riprogettare e rimpiazzare, con un approccio di revisione graduale e per fasi successive, tutte le strutture dei dati definite in modi diversi e obsolete. Questo riduce i costi e i rischi dell’integrazione, eliminando una delle cause principali della scarsa qualità dell’informazione;
    • risolvere alla fonte i problemi di qualità delle informazioni all’interno dei processi – non nelle fasi successive. Questo previene i problemi di non corrispondenza dei dati contenuti nei database di partenza e di arrivo;
    • considerare la “pulizia” dei dati come un progetto univoco per ciascun insieme di dati;
    • migliorare il processo di acquisizione e applicazione dei dati mediante tecniche di verifica mirate a prevenire gli errori;
    • fornire un’adeguata preparazione ai manager dedicati alla produzione dei dati, aiutandoli a comprendere le necessità relative alla qualità dei dati da parte dei rispettivi utenti, mediante l’applicazione di metodi e tecniche volte a migliorare i loro processi di lavoro;
    • inserire la responsabilità per la qualità dell’informazione nella job description di ogni manager. Fornire a questi una preparazione adeguata e dare loro sei mesi di tempo per applicare i principi dell’IQ, migliorare i processi operativi e preparare adeguatamente i rispettivi dipendenti.
    • Intelligent learning organizations

      Attualmente, le organizzazioni operano in due maniere diverse: (1) costruire un numero sempre crescente di datawarehouse senza affrontare in modo propositivo i problemi della qualità delle informazioni; (2) risolvere i problemi di qualità alla fonte, consentendo alle rispettive organizzazioni di diventare “Intelligent Learning Organizations”, ovvero organizzazioni intelligenti in grado di imparare dall’esperienza.

Qualità delle Informazioni e Datawarehousing - Technology Transfer

Enterprise information catalog. I requisiti per fare la scelta giusta
Mike Ferguson

La nuova era dell’analisi predittiva - Le aziende alla prova del Machine Learning
Frank Greco

Uno sguardo Agile - Per capire il passato e progettare il futuro
Arie van Bennekum

Trasformazione Agile
Se il product owner diventa un collo di bottiglia

Sander Hoogendoorn

Una Fiat o una Ferrari?
Qual è la più adatta per il business digitale?

Barry Devlin

Vincere la complessità dei dati. È l’ora dello smart data management
Mike Ferguson

Big Data e Analytics - Se il machine learning accelera anche la data science
Mike Ferguson

I dati al centro del business
Christopher Bradley

I Big Data forniscono il contesto e la ricchezza predittiva attorno alle transazioni di business Avere dati coerenti e di qualità resta fondamentale per il processo decisionale
Barry Devlin

Cosa c’è dietro l’angolo? Cinque mosse per diventare un digital leader
Jeroen Derynck

Managing information technology Gestire l’IT come un business nel business
Mitchell Weisberg

Data integration self-service Miglioramento della produttività o caos totale?
Mike Ferguson

Project manager vecchi miti e nuove realtà
Aaron Shenhar

La catena alimentare dei requisiti
Suzanne Robertson

Come diventare un’azienda data-centric
Lindy Ryan

Enterprise analytical ecosystem - Come comprendere il comportamento online dei clienti e capitalizzare il valore dei dati nell’era Big Data
Mike Ferguson

Agilità? Basta Volere
Suzanne Robertson

Ma la vostra architettura è efficace?
Mike Rosen

Se il NoSQL diventa SQL
Rick van der Lans

La data quality e l’impatto sul business
Danette McGilvray

Business analysis e regole di business By Ronald G. Ross con Gladys S.W. Lam
Ronald Ross

Usare Scrum su larga scala: cosa cambia?
Craig Larman

Le architetture per ridurre il debito tecnico
Mike Rosen

Conversando con un marziano
Suzanne Robertson

Cosa c’è di nuovo nel project management?
Aaron Shenhar

Reinventare la Business Intelligence
Barry Devlin

Il nuovo volto della business intelligence
Shaku Atre

Alla ricerca del valore tra i pomodori nell'orto
John Favaro

I big data cambiano il mercato dei Database Server
Rick van der Lans

Un “superstorm” di informazioni
Barry Devlin

I dieci step per la qualità dei dati
Danette McGilvray

Perché è meglio evitare il private cloud?
Jason Bloomberg

Leonardo da Vinci aveva ragione!
Chris Date

Mobile user experience: Come adottare una strategia sostenibile
James Hobart

Cosa significa occuparsi di architettura?
Mike Rosen

Virtualizzazione dei dati e sistemi di Business Intelligence Agili
Rick van der Lans

Modelli e linguaggi naturali, quale il modo migliore per definire i requisiti?
James Robertson

Extreme Scoping: un approccio Agile all'Edw e alla BI
Larissa Moss

BI², la Business Intelligence al quadrato
Barry Devlin

I test di regressione in ambienti legacy
Randy Rice

Le conseguenze della consumerizzazione e del Cloud
Chris Potts

Come vanno gli affari? Chiedetelo al vostro cruscotto
Shaku Atre

Organizzare team di progetto efficienti in ambienti DW/BI
Larissa Moss

Big Data, come e perché
Colin White

Business Capabilities e l'allineamento del business all'IT
Mike Rosen

Il valore della tassonomia nella ricerca delle informazioni
Zach Wahl

BI, ma il Data Warehouse è ancora necessario?
Colin White

Reinventare la Business Intelligence
Barry Devlin

Il cruscotto delle prestazioni: il nuovo volto della Business Intelligence
Shaku Atre

Modelli e processi di User acceptance testing
Randy Rice

I limiti nel gestire l'IT come un Business
Chris Potts

Le componenti fondamentali del Cloud
George Reese

Metadati e DW 2.0
Derek Strauss

BI Open Source: basso costo e alto valore?
Jos van Dongen

Semplicità e requisiti
Suzanne Robertson

Business intelligence e analisi testuale
Bill Inmon

Extreme Scoping™: approcci agili al DW e alla BI
Larissa Moss

Dalla BI a un'architettura IT di livello Enterprise
Barry Devlin

Ambiente efficiente di ricerca di informazioni
James Hobart

Il Business deve trainare la Strategia IT
Chris Potts

Web database: la questione MapReduce (seconda parte)
Colin White

Web database: la questione MapReduce
Colin White

Misura delle prestazioni. I sette comandamenti
Harry Chapman

Le dieci cose che un architetto deve fare per creare valore
Mike Rosen

Sviluppare applicazioni a prova di sicurezza
Ken van Wyk

The ECM Landscape in 2008
Alan Pelz-Sharpe

Ma chi sono gli operatori dell’informazione?
Colin White

Qualità dell’informazione e trasformazione del management
Larry English

Classificazione sistematica delle informazioni
Zach Wahl

L’uso intensivo del Web nelle applicazioni di Bi
Colin White

Enterprise Search
Theresa Regli

La forza dell'astrazione
Steve Hoberman

La strada verso una BI pervasiva
Cindi Howson

Soa, una strategia di test
Randy Rice

Verso una BI più semplice e a minor costo
Colin White

I contenuti “Killer” del Web
Gerry McGovern

Sviluppo iterativo del software per i Dw
Larissa Moss

Qualità delle Informazioni e Datawarehousing
Larry English

Lo scenario Ecm 2008
Alan Pelz-Sharpe

La nascita del Web 3.0
John Kneiling

Documentazione: il dossier del crimine
Suzanne Robertson

L’impatto del Web 2.0 sui portali delle imprese
Colin White

Le tecniche vincenti di IT Management
Ken Rau

Web 2.0
Ed Yourdon

Web di successo se si conosce il cliente
Gerry McGovern

Un approccio alla BI incentrato sui processi
Colin White

Integrare Master Data Management e BI (Parte Seconda)
Mike Ferguson

Integrare Master Data Management e BI (Parte Prima)
Mike Ferguson

Il Project Manager è una Tata
Suzanne Robertson

Web di successo se si conosce il cliente
Gerry McGovern

L'informazione personalizzata
Colin White

La Tassonomia dell'Impresa
Zach Wahl

Managed Meta Data Environment (II parte)
David Marco

Managed Meta Data Environment
David Marco

Migliorare le applicazioni dell'impresa con Web 2.0
James Hobart

La Balanced Scorecard migliora la Performance dell'IT
Harry Chapman

La fusione dei processi dell'impresa grazie a Soa (II parte)
Max Dolgicer

La fusione dei processi dell'impresa grazie a SOA (I parte)
Max Dolgicer

Volere è Potere, in Ogni Senso
Suzanne Robertson

Dimostrate con i numeri il valore dei contenuti del web
Gerry McGovern

Il Back-end della pianificazione strategica dell'It
Ken Rau

L'audit delle prescrizioni di progetto (II parte)
Suzanne Robertson

L'audit delle prescrizioni di progetto (I parte)
Suzanne Robertson

Il Processo di gestione delle informazioni
Ted Lewis

I requisiti come strumento di gestione dei progetti
Suzanne Robertson

Il futuro è nel contenuto killer del web
Gerry McGovern

Alla ricerca del valore tra i pomodori nell'orto
John Favaro

Rilevare i costi sulla base delle attività
Ken Rau

Un percorso verso l'impresa intelligente (II parte)
Mike Ferguson

Un percorso verso l'impresa intelligente (I parte)
Mike Ferguson

Il Data Store Operativo: un lavoro di martello
Claudia Imhoff

Il data warehouse orientato all'impresa
Michael Schmitz

Dieci punti chiave per realizzare balanced scorecard di successo
Harry Chapman

Content management: i contenuti al primo posto
Gerry McGovern

Applicazioni Web ad alta disponibilità
John Kneiling

Il 2004, sarà l'anno in cui abbandoneremo html?
James Hobart

La tecnologia EII ripropone il data warehousing virtuale?
Colin White

Misurare per Gestire
Ken Rau

Volere è Potere, in Ogni Senso
Suzanne Robertson

Realizzare il CPM e l'integrazione della BI
Mike Ferguson

Tutti i punti della FPA
Koni Thompson

Requiem per il Portale?
Colin White

Business Intelligence: dalla teoria alla realtà (II parte)
Shaku Atre

Business Intelligence: dalla teoria alla realtà (I parte)
Shaku Atre

I portali Corporate e di E-business: la nuova generazione del posto di lavoro
Mike Ferguson

I 10 errori da evitare nella realizzazione di un Meta Data Repository (II Parte)
David Marco

I 10 errori da evitare nella realizzazione di un Meta Data Repository (I parte)
David Marco

Usare i modelli per acquisire l'esperienza di progettazione
James Hobart

Realizzare l'Impresa Intelligente
Colin White

.NET or J2EE - Choosing the Right Web Services Framework
John Kneiling

Progettare Applicazioni Mobili di Successo
James Hobart

La Sociologia del Progetto: Identificare e Coinvolgere tutti i Partecipanti
Suzanne Robertson

Integrare la Business Intelligence nell'Impresa (II parte)
Mike Ferguson

Integrare la Business Intelligence nell'Impresa (I parte)
Mike Ferguson

L'Evoluzione del Portale di e-Business (II parte)
Colin White

L'Evoluzione del Portale di e-Business (I parte)
Colin White

Il Consulente WebEAI: Servizi Web, XML e l'Impresa
John Kneiling

Data Mining: Come Gestire le Relazioni con i Clienti Secondo i Principi del CRM
Weaver James

Articoli del mese - Technology Transfer