Explorer l'histoire de l'intelligence d'affaires
Publié: 2022-03-11Qu'est-ce que l'intelligence d'affaires ?
L'intelligence d'affaires (BI), terme aujourd'hui intrinsèquement associé aux technologies de l'information, évolue depuis plus de 150 ans. Bien que ses origines soient antérieures à l'invention des ordinateurs, ce n'est qu'après leur généralisation que la BI a gagné en pertinence et son développement s'est désormais associé à l'évolution des ordinateurs et des bases de données.
BI à l'aide d'un stylo et de papier
La première utilisation du terme « business intelligence » est largement attribuée à M. Richard Miller Devens, dans son livre Cyclopadia of Commercial and Business Anecdotes, publié pour la première fois en 1865. Il l'a utilisé pour décrire comment Sir Henry Furnese, un banquier prospère, a profité de l'information en la recueillant activement et en agissant en conséquence avant sa compétition. Cela a souligné le fait qu'il était plus fiable d'utiliser des données et des preuves empiriques, plutôt que l'instinct, pour développer une stratégie commerciale. L'idée a été renforcée par d'autres qui ont vu la valeur de l'information.
Au cours de la dernière décennie des années 1800, Frederick Taylor a introduit le premier système formalisé d'analyse commerciale aux États-Unis. Son système de gestion scientifique a commencé par des études de temps qui ont analysé les techniques de production et les mouvements corporels des ouvriers pour trouver une plus grande efficacité qui a stimulé la production industrielle.
Taylor a fini par devenir consultant pour Henry Ford, qui au début des années 1900 a commencé à mesurer le temps nécessaire à chaque composant de sa Ford Model T pour se terminer sur sa chaîne de montage. Son travail et son succès ont révolutionné l'industrie manufacturière dans le monde entier. Pourtant, il utilisait toujours un stylo et du papier pour cela.
L'intelligence d'affaires reçoit un coup de pouce des ordinateurs
Les ordinateurs électroniques étaient embryonnaires dans les années 1930 mais ont été développés rapidement pendant la Seconde Guerre mondiale, dans le cadre des efforts des alliés pour déchiffrer les codes allemands.
Jusqu'aux années 1950, les ordinateurs utilisaient principalement des cartes perforées ou des bandes perforées pour stocker les données. Il s'agissait d'énormes piles de cartes avec de minuscules trous, qui stockaient les informations à traiter par les ordinateurs. En 1956, cependant, IBM invente le premier disque dur, permettant de stocker de grandes quantités d'informations avec une plus grande souplesse d'accès.
Peu de temps après, en 1958, le chercheur d'IBM Hans Peter Luhn a publié un article historique intitulé A Business Intelligence System. Il a théorisé sur le potentiel d'un système de «diffusion sélective» de documents vers des «points d'action» sur la base de «profils d'intérêt». Son travail a une importance remarquable encore à ce jour puisqu'il a prédit plusieurs tendances de l'intelligence d'affaires qui sont à la pointe de nos jours, comme la capacité des systèmes d'information à apprendre et à prévoir en fonction des intérêts des utilisateurs. Aujourd'hui, nous appelons cela l'apprentissage automatique. Luhn est populairement reconnu comme le père de l'intelligence économique.
Même si le concept proposé par Luhn a attiré l'attention de plusieurs parties intéressées, l'idée était considérée comme trop coûteuse à l'époque pour avoir une utilisation pratique. Davantage de progrès technologiques étaient nécessaires pour en faire une solution économiquement viable.
Au cours de la décennie suivante, l'utilisation des ordinateurs a explosé, même en considérant que chaque ordinateur était une machine gigantesque qui occupait tout l'étage d'un immeuble et devait être géré par plusieurs ingénieurs hautement qualifiés pour fonctionner correctement. Les experts ont de nouveau abordé l'idée d'utiliser des ordinateurs pour extraire des conclusions à partir des données, mais le principal problème était qu'il n'y avait pas de méthode centralisée disponible pour rassembler toutes les données en un seul endroit. Les données, à elles seules, ne pourraient générer aucune information. Pour résoudre ce défi, les premiers systèmes de gestion de bases de données ont été conçus. Plus tard, on les appellera simplement des bases de données. Cette première génération a permis les premières recherches dans les bases de données, en utilisant une stratégie d'arbres binaires. Cette stratégie, bien qu'elle ait résolu plusieurs problèmes à l'époque, est considérée aujourd'hui comme trop lourde et inefficace. Même ainsi, pour les entreprises qui pouvaient se le permettre, ce nouvel outil apportait sa valeur, étant utilisé pour enfin tirer des conclusions à partir des données disponibles.
Les technologies de BI s'améliorent : les grands acteurs entrent sur le terrain
En 1970, Edgar Codd d'IBM a publié un article intitulé A Relational Model of Data for Large Shared Data Banks. Il a ouvert la voie aux bases de données relationnelles de nouvelle génération, permettant une capacité beaucoup plus large de stocker et de manipuler des données. Dans un mouvement étrange, cependant, IBM s'est abstenu de mettre en œuvre la conception de Codd pour préserver les revenus de ses systèmes de base de données actuels. Ce n'est qu'après que les concurrents ont commencé à les mettre en œuvre qu'IBM a emboîté le pas.
À cette époque, il y avait suffisamment de marché pour permettre l'apparition des premiers fournisseurs d'intelligence d'affaires. Parmi ceux-ci, il y avait SAP, Siebel et JD Edwards. À l'époque, on les appelait des systèmes d'aide à la décision (DSS).
Le gros problème à ce stade était que ces bases de données souffraient de problèmes de "silo". En raison de leur caractère très unidimensionnel, la flexibilité de leur utilisation était très limitée. Même des problèmes simples comme une base de données codant les villes comme "OH, NJ et NY" tandis qu'une autre utilisant "Ohio, New Jersey et New York" rendaient les références croisées une tâche ardue.
Pourtant, de plus en plus de cas réussis d'utilisation rentable des données sont apparus. L'un des plus connus à l'époque venait de Nielsen. Utilisé pour les mesures d'audience, l'outil de marketing connu sous le nom de notation Nielsen a été utilisé pour évaluer combien de personnes regardaient une émission de télévision particulière à tout moment, à l'aide d'un appareil appelé Audimeter, qui était relié à un téléviseur et enregistrait quelle chaîne était surveillé.
Les notes de Nielsen étaient considérées comme le rapport de notation national le plus regardé dans l'industrie de la télévision. Cependant, quatre fois par an, il y aurait des «semaines noires» - des semaines où les cotes de Nielsen n'étaient pas signalées. Puisqu'il n'y avait aucun moyen sûr de mesurer les cotes d'écoute pendant ces «semaines noires», les chaînes de télévision ont rempli leurs programmes de rediffusions.
L'industrie et le public étaient déjà habitués aux «semaines noires», mais elles se sont terminées en septembre 1973. Nielsen a présenté son Audimètre instantané de stockage (SIA), connectant 1 200 foyers directement à l'ordinateur de veille économique de l'entreprise en Floride. Il pouvait produire des classements nationaux en seulement 36 heures, bien moins que les une à deux semaines nécessaires à l'ancien système de l'entreprise. Les classements nationaux seraient disponibles tous les jours de la semaine, toutes les semaines de l'année. Il n'y avait plus besoin de «semaines noires» et les données étaient beaucoup plus disponibles.
Vers la fin des années 70, Larry Ellison et deux amis ont publié la première version commerciale de la base de données Oracle. C'était le premier véritable système de gestion de bases de données relationnelles du marché, remplaçant les idées utilisées jusqu'alors de bases de données hiérarchiques et de bases de données en réseau par une structure plus robuste, qui permettait des recherches beaucoup plus flexibles. Cette technologie allait dicter l'histoire et les tendances de la BI dans les décennies à venir.
L'importance de la BI grandit : nous avons besoin de plus d'espace !
Des prix plus bas pour l'espace de stockage et de meilleures bases de données ont permis la prochaine génération de solutions de business intelligence. Ralph Kimball et Bill Inmon ont proposé deux stratégies différentes mais similaires au problème d'avoir toutes les données de l'entreprise au même endroit pour pouvoir les analyser. Il s'agissait d'entrepôts de données (DW). Inmon est reconnu par beaucoup comme le père de l'entrepôt de données.
Les entrepôts de données sont des bases de données conçues pour agréger de nombreuses données provenant d'autres sources de données (principalement d'autres bases de données), permettant une analyse beaucoup plus approfondie avec la possibilité de croiser ces différentes sources. Mais c'était encore trop technique et cher. Les rapports devaient être exécutés et maintenus par une équipe de techniciens informatiques coûteux.
La haute direction de l'époque vivrait des résultats des solutions de BI comme Crystal Reports et Microstrategy. Et, bien sûr, il y avait Microsoft Excel (sorti en 1985). L'informatique décisionnelle fait désormais partie intégrante des outils disponibles pour le processus décisionnel.
En 1989, Howard Dresdner, du groupe Gartner, a contribué à populariser le terme « intelligence d'affaires », en l'utilisant comme terme générique pour décrire « des concepts et des méthodes pour améliorer la prise de décision des entreprises en utilisant des systèmes d'assistance basés sur des faits ».
Intelligence d'affaires 1.0
Dans les années 90, les coûts des entrepôts de données ont diminué à mesure que davantage de concurrents sont entrés sur le marché et que davantage de professionnels de l'informatique se sont familiarisés avec la technologie. C'était la période de la "Business Intelligence 1.0".
Les données étaient désormais accessibles au personnel de l'entreprise en général, et pas seulement à la haute direction. Cependant, le problème à ce stade était que poser de nouvelles questions était encore très coûteux. Une fois qu'une question était « conçue », la réponse serait disponible rapidement, mais uniquement pour cette question.
Pour réduire cet effort, de nouveaux outils et "blocs de construction" ont été développés pour accélérer le processus de différentes requêtes :
- ETL (extraire, transformer et charger) était un ensemble d'outils, similaire à un langage de programmation, qui facilitait la conception du flux de données dans un entrepôt de données.
- OLAP (traitement analytique en ligne) a aidé à créer différentes options de visualisation pour les données interrogées, permettant aux analystes d'extraire de meilleures conclusions à partir des informations disponibles.
À ce jour, les outils ETL et OLAP sont toujours un élément crucial des solutions de business intelligence.
C'était aussi la période où les systèmes de planification des ressources d'entreprise (ERP) sont devenus populaires. Ce sont d'énormes plates-formes logicielles de gestion qui intègrent des applications pour gérer et automatiser les aspects d'une entreprise. Ils fournissaient également des données structurées pour les entrepôts de données et deviendraient dans les années suivantes le cœur de toutes les grandes entreprises du monde.

En 1995, Microsoft a lancé Windows 95, le premier système d'exploitation « convivial » et les ordinateurs sont devenus des articles ménagers courants. Cela aurait un impact profond sur la façon dont les gens produisaient et consommaient des données au cours des décennies suivantes.
BI Disrupted : Explosion des données dans le nouveau millénaire
En l'an 2000, les solutions d'intelligence d'affaires étaient déjà établies comme un "must have" pour toutes les moyennes et grandes entreprises. C'était maintenant largement considéré comme une exigence pour rester compétitif.
Du point de vue des fournisseurs de solutions, l'abondance de solutions a commencé à fusionner entre les mains de quelques grands concurrents, comme IBM, Microsoft, SAP et Oracle.
Quelques nouveaux concepts ont émergé au cours de cette période. La difficulté à maintenir à jour leurs entrepôts de données a poussé certaines entreprises à repenser leur approche, transformant leur DW en leur « source unique de vérité ». Pour les données déjà existantes, d'autres programmes utiliseraient les informations fournies par le DW au lieu d'utiliser les leurs, éliminant ainsi la plupart des problèmes d'incompatibilité des données. C'était plus facile à dire qu'à faire, offrant de nombreux défis techniques. Le concept, cependant, était si utile que dans les années suivantes, les solutions disponibles sur le marché s'adapteront pour utiliser cette stratégie.
Alors que les données devenaient de plus en plus abondantes et que les outils de BI prouvaient leur utilité, l'effort de développement visait à augmenter la vitesse à laquelle l'information deviendrait disponible et à réduire la complexité d'accès. Les outils sont devenus plus faciles à utiliser et les personnes non techniques pouvaient désormais collecter des données et obtenir des informations par elles-mêmes, sans l'aide du support technique.
Au début des années 2000, l'essor des plateformes de réseaux sociaux ouvre la voie à la libre consultation de l'opinion du grand public sur Internet, et permet aux intéressés de collecter (ou « exploiter ») les données et de les analyser. En 2005, l'interconnectivité croissante du monde des affaires signifiait que les entreprises avaient besoin d'informations en temps réel où les données des événements pouvaient être incorporées dans les entrepôts de données au fur et à mesure qu'elles se produisaient en temps réel.
C'est l'année de l'introduction de Google Analytics, offrant aux utilisateurs un moyen gratuit d'analyser les données de leur site Web. C'est aussi l'année où le terme big data a été utilisé pour la première fois. Roger Magoulas, d'O'Reilly Media, l'a utilisé pour désigner « un vaste ensemble de données qu'il est presque impossible de gérer et de traiter à l'aide d'outils de veille économique traditionnels ».
Pour faire face à l'espace de stockage supplémentaire et à la puissance de calcul nécessaires pour gérer cette quantité de données en croissance exponentielle, les entreprises ont commencé à rechercher d'autres solutions. Construire des ordinateurs plus grands et plus rapides était hors de question, donc utiliser plusieurs machines à la fois est devenu une meilleure option. Ce sont les germes du cloud computing .
Usages contemporains de la BI
Au cours des 10 dernières années, le big data, le cloud computing et la science des données sont devenus des mots connus de presque tout le monde. Il est difficile à l'heure actuelle de reconnaître quelles nouvelles avancées ont eu le plus d'impact ces dernières années. Cependant, il existe quelques cas intéressants qui ont montré la puissance croissante des outils analytiques modernes.
Publicité, cookies et AdTech
En 2012, le New York Times a publié un article décrivant comment Target a accidentellement découvert la grossesse d'une adolescente du secondaire avant ses parents. Grâce à des analyses, ils ont identifié 25 produits qui, lorsqu'ils sont achetés ensemble, indiquent qu'une femme est probablement enceinte. La valeur de cette information était que Target pouvait envoyer des coupons à la femme enceinte à une période où les habitudes d'achat d'une femme pouvaient changer.
Un père enragé est entré dans une cible à l'extérieur de Minneapolis et a demandé à voir le directeur. Il s'est plaint que sa fille recevait des coupons pour des vêtements de bébé, même si elle était encore au lycée. Le directeur s'est profondément excusé au nom de l'entreprise, mais quelques jours plus tard, le père a rappelé pour s'excuser : « Il s'avère qu'il y a eu des activités dans ma maison dont je n'étais pas complètement au courant. Elle doit accoucher en août. Je vous dois des excuses."
Cet exemple anecdotique montre la puissance contemporaine de l'analyse de données.
Politique
La stratégie de campagne de réélection d'Obama était fortement basée sur l'analyse. De nombreux spécialistes la désignent comme l'une des principales raisons de son succès. La stratégie, conçue par le directeur de campagne Jim Messina, était axée sur la collecte de données sur les électeurs et leur utilisation pour s'assurer qu'ils 1) s'inscriraient pour voter, 2) seraient persuadés de voter pour Obama et 3) se présenteraient pour voter le jour des élections. Environ 100 analystes de données ont participé à l'effort, en utilisant un environnement fonctionnant sur HP Vertica et codé en R et Stata.
Plusieurs initiatives ont été appliquées pour atteindre ces objectifs, dont l'une était Airwolf. Conçu pour intégrer les efforts des équipes de terrain et numériques, il garantissait qu'une fois qu'un électeur était contacté par l'équipe de terrain dans le cadre d'une campagne de porte-à-porte, ses intérêts seraient enregistrés, de sorte qu'il recevrait des e-mails fréquents des organisateurs locaux spécialement adaptés. aux thèmes de campagne préférés de chacun.
Avec les bons outils et les bonnes données, les analystes pouvaient répondre rapidement et facilement à presque toutes les questions, quelle que soit l'origine des données. Le succès de la campagne Obama a fait des environnements d'analyse de données volumineuses une exigence standard pour toutes les campagnes depuis.
La science
Le projet du génome humain a été achevé en 2003 mais a laissé de nombreuses questions sans réponse. Malgré la cartographie de la séquence entière des paires de bases nucléotidiques qui composent l'ADN humain, comprendre réellement le fonctionnement de la génétique humaine nécessitait des études plus approfondies, et c'était une application parfaite pour les mégadonnées. Un génome humain typique contient plus de 20 000 gènes, chacun composé de millions de paires de bases. La simple cartographie d'un génome nécessite une centaine de gigaoctets de données, et le séquençage de plusieurs génomes et le suivi des interactions génétiques multiplient ce nombre plusieurs fois - des centaines de pétaoctets, dans certains cas.
En appliquant l'analytique dans leur étude publiée en 2016, les scientifiques de l'Université de Haïfa ont pu observer ce qu'on appelle le "caractère social" des gènes. Ce que les scientifiques ont longtemps voulu comprendre, ce sont les mécanismes internes des effets génétiques complexes qui participent à la création de maladies complexes. Cet objectif a été particulièrement difficile car les expressions génétiques de certaines maladies proviennent généralement de la combinaison de plusieurs marqueurs génétiques en interaction les uns avec les autres. Ainsi, non seulement les chercheurs devraient passer au peigne fin une séquence génétique entière, mais ils devraient également suivre les interactions entre plusieurs gènes différents.
Même s'il reste encore beaucoup de données à analyser, la voie est ouverte pour comprendre et guérir un grand nombre de défauts génétiques, petits et grands.
La route à suivre
Nous arrivons maintenant à un moment où Facebook peut reconnaître votre visage sur les images, où Google peut prédire quel type de publicité conviendrait le mieux à votre profil, où Netflix peut vous donner des suggestions sur les émissions à regarder. C'est un moment où vous pouvez parler à votre téléphone, pas seulement à quelqu'un de l'autre côté de la ligne téléphonique. Être capable de manipuler et de traiter d'énormes quantités de données était une étape primordiale pour comprendre comment ces merveilles sont nées.
Le Big Data est toujours une tendance croissante. Environ 90 % des données disponibles ont été créées au cours des deux dernières années. Lors de la conférence Techonomy, en 2010, Eric Schmidt a déclaré qu '"il y avait 5 exaoctets d'informations créées par le monde entier entre l'aube de la civilisation et 2003. Maintenant, cette même quantité est créée tous les deux jours".
La gestion d'une telle quantité de données présente encore de nombreux défis. La qualité des données, l'un des premiers et des plus anciens casse-tête de l'informatique décisionnelle, reste un domaine exigeant. L'analytique, l'ensemble de compétences nécessaires pour donner un sens à la pile imposante de données que les entreprises collectent, est également très demandée. Il existe désormais de nombreux types d'analytique : analyse descriptive, analyse prédictive, analyse prescriptive, analyse en continu, analyse automatisée, etc. L'analyse utilise plusieurs technologies de pointe pour extraire des informations des données, telles que l'intelligence artificielle, l'apprentissage automatique et de nombreuses statistiques. des modèles. C'est enfin un moment où c'est cool d'être mathématicien.
Les outils de BI sont désormais souvent conçus pour un secteur spécifique, qu'il s'agisse de la santé, de l'application de la loi, etc. Ils fonctionnent désormais sur plusieurs appareils et utilisent plusieurs outils de visualisation, permettant à quiconque d'appliquer un raisonnement aux données via des interfaces visuelles interactives. La BI mobile est désormais une réalité.
En combinant les atouts du Big Data, de l'apprentissage automatique et de l'analyse, votre vie pourrait être très différente à l'avenir. Peut-être que vous n'aurez plus besoin d'aller à l'épicerie - votre réfrigérateur commandera ce dont vous aurez probablement besoin, en fonction de vos habitudes alimentaires. Peut-être n'appelerez-vous pas votre médecin pour dire que vous êtes malade, car il vous appellera avant même que vous ne ressentiez les premiers symptômes.
L'humanité vit désormais à l'ère de l'information, et l'intelligence d'affaires est une caractéristique cruciale de notre époque, nous aidant à donner un sens à tout cela. L'analyse commerciale est même désormais un programme menant à un diplôme dans de nombreuses universités. L'histoire de l'intelligence économique est assez récente, mais s'accélère et se densifie de jour en jour. Les meilleurs jours de la BI sont encore devant nous.