Esplorando la storia della business intelligence
Pubblicato: 2022-03-11Che cos'è la business intelligence?
La Business Intelligence (BI), termine oggi intrinsecamente associato alla tecnologia dell'informazione, è in evoluzione da oltre 150 anni. Sebbene le sue origini siano precedenti all'invenzione dei computer, è stato solo dopo la loro diffusione che la BI è cresciuta di importanza e il suo sviluppo d'ora in poi è stato abbinato all'evoluzione dei computer e dei database.
BI Usando carta e penna
Il primo uso del termine "business intelligence" è ampiamente attribuito a Richard Miller Devens, nel suo libro Cyclopadia of Commercial and Business Aneddotes, pubblicato per la prima volta nel 1865. Lo usò per descrivere come Sir Henry Furnese, un banchiere di successo, trasse profitto dalle informazioni raccogliendo attivamente e agendo su di esse prima della sua competizione. Ciò ha messo in evidenza il fatto che era più affidabile utilizzare i dati e le prove empiriche, piuttosto che l'istinto, per sviluppare una strategia di business. L'idea è stata ulteriormente rafforzata da altri che hanno visto il valore nelle informazioni.
Durante l'ultimo decennio del 1800, Frederick Taylor ha introdotto il primo sistema formalizzato di analisi aziendale negli Stati Uniti. Il suo sistema di gestione scientifica è iniziato con studi sul tempo che hanno analizzato le tecniche di produzione e i movimenti del corpo dei lavoratori per trovare maggiori efficienze che hanno potenziato la produzione industriale.
Taylor finì per diventare un consulente di Henry Ford, che nei primi anni del 1900 iniziò a misurare il tempo impiegato da ciascun componente della sua Ford Model T per essere completato sulla sua catena di montaggio. Il suo lavoro e il suo successo hanno rivoluzionato l'industria manifatturiera in tutto il mondo. Eppure, usava ancora carta e penna per questo.
La Business Intelligence ottiene una spinta dai computer
I computer elettronici erano allo stadio embrionale negli anni '30, ma furono sviluppati rapidamente durante la seconda guerra mondiale, come parte dello sforzo degli alleati per decifrare i codici tedeschi.
Fino agli anni '50, i computer facevano affidamento principalmente su schede perforate o nastri perforati per archiviare i dati. Si trattava di enormi pile di carte con piccoli buchi, che avrebbero immagazzinato le informazioni da elaborare dai computer. Nel 1956, invece, IBM inventò il primo hard disk, consentendo di memorizzare grandi quantità di informazioni con una maggiore flessibilità di accesso.
Non molto tempo dopo, nel 1958, il ricercatore IBM Hans Peter Luhn pubblicò un articolo storico intitolato A Business Intelligence System. Ha teorizzato il potenziale di un sistema di "diffusione selettiva" di documenti a "punti di azione" basato su "profili di interesse". Il suo lavoro ha un significato notevole ancora oggi poiché ha previsto diverse tendenze di business intelligence che sono all'avanguardia al giorno d'oggi, come la capacità dei sistemi informativi di apprendere e prevedere in base agli interessi degli utenti. Oggi lo chiamiamo machine learning. Luhn è popolarmente riconosciuto come il padre della business intelligence.
Anche se il concetto proposto da Luhn ha attirato l'attenzione di diverse parti interessate, all'epoca l'idea era considerata troppo costosa per avere un uso pratico. Era necessario un maggiore progresso tecnologico per renderlo una soluzione economicamente valida.
Nel decennio successivo l'uso del computer esplose, anche considerando che ogni computer era una macchina gigantesca che occupava l'intero piano di un edificio e doveva essere gestita da diversi ingegneri altamente qualificati per funzionare correttamente. Gli esperti hanno nuovamente affrontato l'idea di utilizzare i computer per estrarre conclusioni dai dati, ma il problema principale era che non esisteva un metodo centralizzato disponibile per riunire tutti i dati in un unico luogo. I dati, di per sé, non potrebbero generare approfondimenti. Per risolvere questa sfida sono stati progettati i primi sistemi di gestione di database. Successivamente, sarebbero stati chiamati semplicemente database. Questa prima generazione ha consentito le prime ricerche nel database, utilizzando una strategia di alberi binari. Questa strategia, sebbene all'epoca abbia risolto diversi problemi, è considerata oggigiorno troppo pesante e inefficiente. Anche così, per le aziende che potevano permetterselo, questo nuovo strumento ha fornito il suo valore, essendo utilizzato per trarre finalmente conclusioni dai dati disponibili.
Le tecnologie BI migliorano: entrano in campo grandi giocatori
Nel 1970, Edgar Codd di IBM ha pubblicato un documento intitolato A Relational Model of Data for Large Shared Data Banks. Ha aperto la strada ai database relazionali di nuova generazione, consentendo una capacità molto più ampia di archiviare e manipolare i dati. Con una strana mossa, tuttavia, IBM si è astenuta dall'implementare il progetto di Codd per preservare le entrate per i suoi attuali sistemi di database. È stato solo dopo che i concorrenti hanno iniziato a implementarli che IBM ha seguito l'esempio.
A questo punto, c'era abbastanza mercato per consentire la comparsa dei primi fornitori di business intelligence. Tra questi, c'erano SAP, Siebel e JD Edwards. A quel tempo, erano chiamati sistemi di supporto alle decisioni (DSS).
Il grosso problema a questo punto era che questi database soffrivano di problemi di "silo". Essendo molto unidimensionali, la flessibilità del loro utilizzo era molto limitata. Anche problemi semplici come un database che codifica città come "OH, NJ e NY" mentre un altro utilizza "Ohio, New Jersey e New York" ha reso i riferimenti incrociati un compito scoraggiante.
Tuttavia, si sono verificati casi sempre più riusciti di uso proficuo dei dati. Uno dei più famosi dell'epoca venne da Nielsen. Utilizzato per le misurazioni dell'audience, lo strumento di marketing noto come valutazione Nielsen è stato utilizzato per misurare quante persone stavano guardando un particolare programma televisivo in qualsiasi momento, utilizzando un dispositivo chiamato Audimeter, che è stato collegato a un televisore e ha registrato quale canale veniva osservato.
Le valutazioni Nielsen sono state considerate il rapporto di valutazione nazionale più seguito nel settore televisivo. Tuttavia, quattro volte l'anno, ci sarebbero state "settimane nere", settimane in cui non venivano riportate le valutazioni Nielsen. Dal momento che non esisteva un modo sicuro per misurare gli ascolti in queste "settimane nere", le reti televisive hanno riempito i loro programmi di repliche.
Sia l'industria che il pubblico erano già abituati alle "settimane nere", ma si conclusero nel settembre 1973. Nielsen presentò il suo Storage Instantaneous Audimeter (SIA), che collegava 1.200 famiglie direttamente al computer di business intelligence dell'azienda in Florida. Potrebbe produrre valutazioni nazionali in sole 36 ore, molto meno di una o due settimane che impiegavano il vecchio sistema dell'azienda. Le valutazioni nazionali sarebbero disponibili tutti i giorni della settimana, ogni settimana dell'anno. Non c'era più bisogno di "settimane nere" e i dati erano molto più disponibili.
Verso la fine degli anni '70, Larry Ellison e due amici rilasciarono la prima versione commerciale del database Oracle. È stato il primo vero sistema di gestione di database relazionali sul mercato, sostituendo le idee fino ad allora utilizzate di database gerarchici e database di rete con una struttura più robusta, che consentiva ricerche molto più flessibili. Questa tecnologia detterebbe la storia e le tendenze della BI nei decenni a venire.
L'importanza della BI cresce: abbiamo bisogno di più spazio!
Prezzi più bassi per lo spazio di archiviazione e database migliori hanno consentito la prossima generazione di soluzioni di business intelligence. Ralph Kimball e Bill Inmon hanno proposto due strategie diverse ma simili al problema di avere tutti i dati dell'azienda nello stesso posto per poterli analizzare. Questi erano data warehouse (DW). Inmon è riconosciuto da molti come il padre del data warehouse.
I data warehouse sono database progettati per aggregare molti dati da altre fonti di dati (principalmente altri database), consentendo un'analisi molto più approfondita con la possibilità di fare riferimento a queste diverse fonti. Era ancora, tuttavia, troppo tecnico e costoso. I rapporti dovevano essere gestiti e gestiti da una miriade di personale tecnico IT costoso.
Il top management dell'epoca vivrebbe dei risultati di soluzioni BI come Crystal Reports e Microstrategy. E, naturalmente, c'era Microsoft Excel (rilasciato nel 1985). La business intelligence era ormai parte integrante degli strumenti a disposizione per il processo decisionale.
Nel 1989, Howard Dresdner, del Gruppo Gartner, ha contribuito a rendere popolare il termine "business intelligence", usandolo come termine generico per descrivere "concetti e metodi per migliorare il processo decisionale aziendale utilizzando sistemi di supporto basati sui fatti".
Intelligenza aziendale 1.0
Negli anni '90, i costi del data warehouse sono diminuiti man mano che più concorrenti sono entrati nel mercato e più professionisti IT hanno familiarizzato con la tecnologia. Questo è stato il periodo della "Business Intelligence 1.0".
I dati erano ora comunemente accessibili al personale aziendale in generale, non solo al top management. Tuttavia, il problema a questo punto era che porre nuove domande era ancora molto costoso. Una volta che una domanda è stata "progettata", la risposta sarebbe stata disponibile rapidamente, ma solo per quella domanda.
Per ridurre questo sforzo, sono stati sviluppati alcuni nuovi strumenti e "mattoni" per accelerare il processo di query diverse:
- ETL (extract, transform, and load) era un insieme di strumenti, simile a un linguaggio di programmazione, che semplificava la progettazione del flusso di dati all'interno di un data warehouse.
- OLAP (elaborazione analitica in linea) ha contribuito a creare diverse opzioni di visualizzazione per i dati interrogati, consentendo agli analisti di trarre conclusioni migliori dalle informazioni a portata di mano.
Ad oggi, sia gli strumenti ETL che OLAP sono ancora una parte cruciale delle soluzioni di business intelligence.
Questo è stato anche il periodo in cui i sistemi ERP (Enterprise Resource Planning) sono diventati popolari. Si tratta di enormi piattaforme software di gestione che integrano applicazioni per gestire e automatizzare aspetti di un'azienda. Fornivano anche dati strutturati per i data warehouse e negli anni successivi sarebbero diventati il cuore di ogni grande azienda del mondo.

Nel 1995, Microsoft ha rilasciato Windows 95, il primo sistema operativo "di facile utilizzo" e i computer sono diventati oggetti domestici comuni. Ciò avrebbe un profondo impatto sul modo in cui le persone hanno prodotto e consumato dati per i decenni successivi.
BI interrotta: esplosione di dati nel nuovo millennio
Nel 2000, le soluzioni di business intelligence erano già affermate come un "must have" per tutte le aziende di medie e grandi dimensioni. Ora era ampiamente considerato un requisito per rimanere competitivi.
Dal punto di vista dei fornitori di soluzioni, l'abbondanza di soluzioni ha iniziato a fondersi nelle mani di pochi grandi concorrenti, come IBM, Microsoft, SAP e Oracle.
Durante questo periodo sono emersi alcuni nuovi concetti. La difficoltà di mantenere aggiornati i propri data warehouse ha indotto alcune aziende a ripensare al proprio approccio, trasformando il proprio DW nella loro "unica fonte di verità". Per i dati già esistenti, altri programmi userebbero le informazioni fornite dal DW invece di utilizzare le proprie, eliminando così la maggior parte dei problemi di incompatibilità dei dati. Era più facile a dirsi che a farsi, presentando molte sfide tecniche. Il concetto, tuttavia, era così utile che negli anni successivi le soluzioni disponibili sul mercato si sarebbero adattate per utilizzare questa strategia.
Poiché i dati sono diventati sempre più abbondanti e gli strumenti di BI hanno dimostrato la loro utilità, lo sforzo di sviluppo è stato diretto ad aumentare la velocità con cui le informazioni sarebbero diventate disponibili ea ridurre la complessità dell'accesso ad esse. Gli strumenti sono diventati più facili da usare e le persone non tecniche potevano ormai raccogliere dati e ottenere informazioni da sole, senza l'aiuto del supporto tecnico.
All'inizio degli anni 2000, il boom delle piattaforme di social networking ha aperto la strada alla libera disponibilità dell'opinione pubblica in Internet, e le parti interessate potevano raccogliere (o "estrapolare") i dati e analizzarli. Entro il 2005, la crescente interconnettività del mondo degli affari significava che le aziende avevano bisogno di informazioni in tempo reale in cui i dati degli eventi potessero essere incorporati nei data warehouse così come avvenivano in tempo reale.
Questo è l'anno in cui è stato introdotto Google Analytics, che fornisce agli utenti un modo gratuito per analizzare i dati del proprio sito web. Questo è anche l'anno in cui è stato utilizzato per la prima volta il termine big data . Roger Magoulas, di O'Reilly Media, lo ha utilizzato per riferirsi a "un ampio set di dati che è quasi impossibile da gestire ed elaborare utilizzando i tradizionali strumenti di business intelligence".
Per far fronte allo spazio di archiviazione aggiuntivo e alla potenza di calcolo necessari per gestire questa quantità di dati in aumento in modo esponenziale, le aziende hanno iniziato a cercare altre soluzioni. Costruire computer più grandi e veloci era fuori questione, quindi l'utilizzo di più macchine contemporaneamente è diventata un'opzione migliore. Questo è stato il seme del cloud computing .
Usi contemporanei della BI
Negli ultimi 10 anni, big data, cloud computing e scienza dei dati sono diventati parole note praticamente a chiunque. È difficile in questo momento riconoscere quali nuovi progressi abbiano avuto il maggior impatto in questi ultimi anni. Tuttavia, ci sono alcuni casi interessanti che hanno mostrato il potere crescente dei moderni strumenti analitici.
Pubblicità, Cookie e AdTech
Nel 2012, il New York Times ha pubblicato un articolo che descrive come Target abbia scoperto accidentalmente la gravidanza di un'adolescente delle superiori prima dei loro genitori. Attraverso l'analisi, hanno identificato 25 prodotti che, se acquistati insieme, indicano che una donna è probabilmente incinta. Il valore di queste informazioni era che Target poteva inviare coupon alla donna incinta in un periodo in cui le abitudini di acquisto di una donna potevano cambiare.
Un padre infuriato è entrato in un obiettivo fuori Minneapolis e ha chiesto di vedere il manager. Si è lamentato del fatto che sua figlia avesse ricevuto buoni per vestiti per bambini, anche se era ancora al liceo. Il manager si è scusato profondamente a nome dell'azienda, ma pochi giorni dopo il padre ha richiamato per scusarsi: “Si scopre che ci sono state alcune attività in casa mia di cui non ero completamente a conoscenza. È prevista per agosto. Ti devo delle scuse."
Questo esempio aneddotico mostra il potere contemporaneo dell'analisi dei dati.
Politica
La strategia della campagna di rielezione di Obama è stata fortemente basata sull'analisi. Molti specialisti lo indicano come uno dei motivi principali del suo successo. La strategia, progettata dal responsabile della campagna Jim Messina, era incentrata sulla raccolta di dati sugli elettori e sul loro utilizzo per garantire che 1) si registrassero per votare, 2) fossero persuasi a votare per Obama e 3) si presentassero per votare il giorno delle elezioni. Circa 100 analisti di dati hanno preso parte allo sforzo, utilizzando un ambiente in esecuzione su HP Vertica e codificato in R e Stata.
Diverse iniziative sono state applicate per raggiungere questi obiettivi, una delle quali è stata Airwolf. Costruito per integrare gli sforzi dei team sul campo e digitali, assicurava che una volta che un elettore fosse stato contattato dal team sul campo in una campagna porta a porta, i suoi interessi sarebbero stati registrati, in modo che ricevessero frequenti e-mail dagli organizzatori locali su misura ai problemi della campagna preferiti di ciascuno.
Con gli strumenti e i dati giusti, gli analisti possono rispondere a quasi tutte le domande in modo rapido e semplice, indipendentemente dalla provenienza dei dati. Il successo della campagna di Obama ha reso gli ambienti di analisi dei big data un requisito standard per ogni campagna successiva.
Scienza
Il Progetto Genoma Umano è stato completato nel 2003 ma ha lasciato molte domande senza risposta. Nonostante la mappatura dell'intera sequenza di coppie di basi nucleotidiche che compongono il DNA umano, capire veramente come funziona la genetica umana richiedeva uno studio più intenso, ed era un'applicazione perfetta per i big data. Un tipico genoma umano contiene più di 20.000 geni, ciascuno composto da milioni di coppie di basi. La semplice mappatura di un genoma richiede cento gigabyte di dati e il sequenziamento di più genomi e il monitoraggio delle interazioni geniche moltiplica quel numero molte volte, in alcuni casi centinaia di petabyte.
Applicando l'analisi nel loro studio pubblicato nel 2016, gli scienziati dell'Università di Haifa sono stati in grado di osservare quello che viene chiamato il "carattere sociale" dei geni. Ciò che gli scienziati volevano da tempo capire sono i meccanismi interni di complessi effetti genetici che prendono parte alla creazione di malattie complesse. Questo obiettivo è stato particolarmente difficile poiché le espressioni genetiche di alcune malattie derivano solitamente dalla combinazione di diversi marcatori genetici che interagiscono tra loro. Quindi non solo i ricercatori dovrebbero setacciare un'intera sequenza genetica, ma dovrebbero anche tenere traccia delle interazioni tra più geni diversi.
Anche se ci sono ancora molti dati da analizzare, la strada è aperta per comprendere e curare un numero enorme di difetti genetici, grandi e piccoli.
La strada davanti
Ora raggiungiamo un momento in cui Facebook può riconoscere il tuo volto nelle immagini, in cui Google può prevedere quale tipo di pubblicità si adatta meglio al tuo profilo, in cui Netflix può darti suggerimenti su quali programmi guardare. È un momento in cui puoi parlare con il tuo telefono, non solo con qualcuno dall'altra parte della linea telefonica. Essere in grado di gestire ed elaborare enormi quantità di dati è stato un passo primordiale per capire come sono nate queste meraviglie.
I big data sono ancora una tendenza in crescita. Circa il 90% dei dati disponibili è stato creato negli ultimi due anni. Alla conferenza Techonomy, nel 2010, Eric Schmidt ha affermato che "c'erano 5 exabyte di informazioni create dal mondo intero tra l'alba della civiltà e il 2003. Ora la stessa quantità viene creata ogni due giorni".
La gestione di una così grande quantità di dati presenta ancora molte sfide. La qualità dei dati, uno dei primi e più antichi grattacapi della business intelligence, è ancora un campo impegnativo. Anche l'analisi, il set di competenze necessario per dare un senso all'enorme mucchio di dati che le aziende stanno raccogliendo, è molto richiesto. Ora ci sono molti tipi di analisi: analisi descrittiva, analisi predittiva, analisi prescrittiva, analisi in streaming, analisi automatizzata, ecc. Analytics utilizza diverse tecnologie all'avanguardia per estrarre informazioni dai dati, come intelligenza artificiale, apprendimento automatico e molte statistiche Modelli. È finalmente il momento in cui è bello essere un matematico.
Gli strumenti di BI ora sono spesso progettati pensando a un settore specifico, che si tratti di assistenza sanitaria, forze dell'ordine, ecc. Ora funziona su più dispositivi e utilizza diversi strumenti di visualizzazione, consentendo a chiunque di applicare il ragionamento ai dati tramite interfacce visive interattive. La BI mobile è ora una realtà.
Combinando i punti di forza dei big data, dell'apprendimento automatico e dell'analisi, la tua vita potrebbe essere molto diversa in futuro. Forse potresti non aver più bisogno di andare al supermercato: il tuo frigorifero ordinerà ciò di cui molto probabilmente avrai bisogno, in base alle tue abitudini alimentari. Forse non chiamerai il tuo medico per dire che sei malato, perché ti chiameranno anche prima che inizi a sentire i primi sintomi.
L'umanità ora vive nell'era dell'informazione e la business intelligence è una caratteristica cruciale del nostro tempo, che ci aiuta a dare un senso a tutto questo. L'analisi aziendale è ora anche un corso di laurea in molte università. La storia della business intelligence è abbastanza recente, ma accelera e diventa sempre più densa di giorno in giorno. I giorni migliori della BI sono ancora davanti a noi.