Explorando la historia de la inteligencia empresarial
Publicado: 2022-03-11¿Qué es la inteligencia empresarial?
La inteligencia empresarial (BI), un término hoy en día asociado intrínsecamente con la tecnología de la información, ha estado evolucionando durante más de 150 años. Aunque sus orígenes son anteriores a la invención de las computadoras, fue solo después de que se generalizaron que BI creció en relevancia y su desarrollo a partir de entonces se emparejó con la evolución de las computadoras y las bases de datos.
BI con lápiz y papel
El primer uso del término "inteligencia comercial" se atribuye ampliamente al Sr. Richard Miller Devens, en su libro Cyclopadia of Commercial and Business Anecdotes, publicado por primera vez en 1865. Lo usó para describir cómo Sir Henry Furnese, un banquero exitoso, se benefició de la información al recopilarla activamente y actuar en consecuencia antes que su competencia. Esto señaló el hecho de que era más confiable usar datos y evidencia empírica, en lugar del instinto, para desarrollar una estrategia comercial. La idea fue reforzada por otros que vieron valor en la información.
Durante la última década del siglo XIX, Frederick Taylor introdujo el primer sistema formalizado de análisis de negocios en los Estados Unidos. Su sistema de gestión científica comenzó con estudios de tiempos que analizaban las técnicas de producción y los movimientos corporales de los trabajadores para encontrar mayores eficiencias que impulsaran la producción industrial.
Taylor terminó convirtiéndose en consultor de Henry Ford, quien a principios del siglo XX comenzó a medir el tiempo que tardaba cada componente de su Ford Modelo T en completarse en su línea de ensamblaje. Su trabajo y su éxito revolucionaron la industria manufacturera a nivel mundial. Sin embargo, todavía usaba lápiz y papel para eso.
Business Intelligence obtiene un impulso de las computadoras
Las computadoras electrónicas eran embrionarias en la década de 1930, pero se desarrollaron rápidamente durante la Segunda Guerra Mundial, como parte del esfuerzo de los aliados por descifrar los códigos alemanes.
Hasta la década de 1950, las computadoras dependían principalmente de tarjetas perforadas o cintas perforadas para almacenar datos. Se trataba de enormes pilas de tarjetas con pequeños agujeros en ellas, que almacenarían la información para ser procesada por las computadoras. En 1956, sin embargo, IBM inventó la primera unidad de disco duro, lo que permitió almacenar grandes cantidades de información con mayor flexibilidad de acceso.
No mucho después, en 1958, el investigador de IBM Hans Peter Luhn publicó un artículo histórico llamado A Business Intelligence System. Teorizó sobre el potencial de un sistema de “difusión selectiva” de documentos a “puntos de acción” basado en “perfiles de interés”. Su trabajo tiene un significado notable hasta el día de hoy, ya que predijo varias tendencias de inteligencia empresarial que son de vanguardia en la actualidad, como la capacidad de los sistemas de información para aprender y predecir en función de los intereses de los usuarios. Hoy lo llamamos aprendizaje automático. Luhn es reconocido popularmente como el padre de la inteligencia empresarial.
Aunque el concepto propuesto por Luhn llamó la atención de varias partes interesadas, la idea se consideró demasiado costosa en ese momento para tener algún uso práctico. Se necesitaban más avances tecnológicos para convertirla en una solución económicamente viable.
En la siguiente década, el uso de las computadoras se disparó, aún considerando que cada computadora era una máquina gigantesca que ocupaba todo el piso de un edificio y que tenía que ser manejada por varios ingenieros altamente calificados para funcionar correctamente. Los expertos volvieron a abordar la idea de usar computadoras para extraer conclusiones de los datos, pero el principal problema era que no había un método centralizado disponible para reunir todos los datos en un solo lugar. Los datos, por sí solos, no podían generar ningún conocimiento. Para resolver este desafío, se diseñaron los primeros sistemas de gestión de bases de datos. Posteriormente, se llamarían simplemente bases de datos. Esta primera generación permitió las primeras búsquedas en bases de datos, utilizando una estrategia de árboles binarios. Esta estrategia, si bien resolvió varios problemas en su momento, hoy en día se considera demasiado pesada e ineficiente. Aun así, para las empresas que podían permitírselo, esta nueva herramienta aportaba su valor, siendo utilizada para finalmente sacar conclusiones a partir de los datos disponibles.
Las tecnologías de BI mejoran: los grandes jugadores ingresan al campo
En 1970, Edgar Codd de IBM publicó un artículo llamado Un modelo relacional de datos para grandes bancos de datos compartidos. Allanó el camino para las bases de datos relacionales de próxima generación, lo que permitió una capacidad mucho más amplia para almacenar y manipular datos. Sin embargo, en un movimiento extraño, IBM se abstuvo de implementar el diseño de Codd para preservar los ingresos de sus sistemas de bases de datos actuales. Fue solo después de que los competidores comenzaron a implementarlos que IBM hizo lo mismo.
En ese momento, había suficiente mercado para permitir que aparecieran los primeros proveedores de inteligencia comercial. Entre ellos, estaban SAP, Siebel y JD Edwards. En ese momento, se les llamó sistemas de soporte de decisiones (DSS).
El gran problema en este punto era que estas bases de datos sufrían problemas de "silo". Al ser muy unidimensionales, la flexibilidad de su uso era muy limitada. Incluso problemas simples como una base de datos que codificaba ciudades como "OH, NJ y NY" mientras que otra usaba "Ohio, Nueva Jersey y Nueva York" hizo que las referencias cruzadas fueran una tarea abrumadora.
Sin embargo, surgieron más y más casos exitosos de uso rentable de datos. Uno de los más famosos en ese momento vino de Nielsen. Utilizada para medir la audiencia, la herramienta de marketing conocida como calificación de Nielsen se utilizó para medir cuántas personas estaban viendo un programa de televisión en particular en cualquier momento, usando un dispositivo llamado Audimeter, que estaba conectado a un televisor y registraba qué canal. estaba siendo vigilado.
Las calificaciones de Nielsen se consideraron el informe de calificación nacional más visto en la industria de la televisión. Sin embargo, cuatro veces al año, habría "semanas negras", semanas en las que no se informaron las calificaciones de Nielsen. Dado que no había una manera confiable de medir las calificaciones en estas "semanas negras", las cadenas de televisión llenaron sus horarios con reposiciones.
Tanto la industria como la audiencia ya estaban acostumbradas a las "semanas negras", pero terminaron en septiembre de 1973. Nielsen presentó su audiómetro instantáneo de almacenamiento (SIA), conectando 1200 hogares directamente a la computadora de inteligencia comercial de la compañía en Florida. Podía producir clasificaciones nacionales en solo 36 horas, mucho menos que las una o dos semanas que le tomaba al sistema anterior de la compañía. Las calificaciones nacionales estarían disponibles todos los días de la semana, todas las semanas del año. Ya no había necesidad de "semanas negras" y los datos estaban mucho más disponibles.
Cerca de finales de los 70, Larry Ellison y dos amigos lanzaron la primera versión comercial de la base de datos Oracle. Fue el primer verdadero gestor de bases de datos relacionales del mercado, reemplazando las ideas hasta entonces utilizadas de bases de datos jerárquicas y bases de datos en red por una estructura más robusta, que permitía búsquedas mucho más flexibles. Esta tecnología dictaría la historia y las tendencias de BI en las próximas décadas.
Crece la importancia de BI: ¡Necesitamos más espacio!
Precios más bajos para el espacio de almacenamiento y mejores bases de datos permitieron la próxima generación de soluciones de inteligencia comercial. Ralph Kimball y Bill Inmon propusieron dos estrategias diferentes pero similares al problema de tener todos los datos del negocio en el mismo lugar para poder analizarlos. Estos eran almacenes de datos (DW). Muchos reconocen a Inmon como el padre del almacén de datos.
Los almacenes de datos son bases de datos diseñadas para agregar muchos datos de otras fuentes de datos (principalmente otras bases de datos), lo que permite un análisis mucho más profundo con la capacidad de hacer referencias cruzadas de estas diferentes fuentes. Sin embargo, seguía siendo demasiado técnico y caro. Los informes debían ser ejecutados y mantenidos por una gran cantidad de costoso personal técnico de TI.
La alta dirección en ese momento viviría de los resultados de las soluciones de BI como Crystal Reports y Microstrategy. Y, por supuesto, estaba Microsoft Excel (lanzado en 1985). La inteligencia comercial era ahora una parte integral de las herramientas disponibles para el proceso de toma de decisiones.
En 1989, Howard Dresdner, de Gartner Group, contribuyó a popularizar el término “inteligencia de negocios”, usándolo como un término general para describir “conceptos y métodos para mejorar la toma de decisiones comerciales mediante el uso de sistemas de soporte basados en hechos”.
Inteligencia de Negocios 1.0
En los años 90, los costos del almacenamiento de datos disminuyeron a medida que más competidores ingresaron al mercado y más profesionales de TI se familiarizaron con la tecnología. Este fue el período de "Business Intelligence 1.0".
Los datos ahora eran comúnmente accesibles para el personal corporativo en general, no solo para la alta dirección. Sin embargo, el problema en este punto era que hacer nuevas preguntas todavía era muy costoso. Una vez que se "diseñó" una pregunta, la respuesta estaría disponible rápidamente, pero solo para esa pregunta.
Para reducir este esfuerzo, se desarrollaron algunas herramientas y "bloques de construcción" nuevos para acelerar el proceso de diferentes consultas:
- ETL (extraer, transformar y cargar) era un conjunto de herramientas, similar a un lenguaje de programación, que facilitaba el diseño del flujo de datos dentro de un almacén de datos.
- OLAP (procesamiento analítico en línea) ayudó a crear diferentes opciones de visualización para los datos consultados, lo que permitió a los analistas extraer mejores conclusiones de la información disponible.
Hasta el día de hoy, las herramientas ETL y OLAP siguen siendo una parte crucial de las soluciones de inteligencia empresarial.
Este fue también el período en el que los sistemas de planificación de recursos empresariales (ERP) se hicieron populares. Se trata de enormes plataformas de software de gestión que integran aplicaciones para gestionar y automatizar aspectos de una empresa. También proporcionaron datos estructurados para los almacenes de datos y en los años siguientes se convertirían en el corazón de todas las empresas importantes del mundo.

En 1995, Microsoft lanzó Windows 95, el primer sistema operativo “fácil de usar”, y las computadoras se convirtieron en artículos domésticos comunes. Esto tendría un profundo impacto en la forma en que las personas produjeron y consumieron datos durante las siguientes décadas.
BI interrumpido: Explosión de datos en el nuevo milenio
Para el año 2000, las soluciones de inteligencia de negocios ya se establecieron como "imprescindibles" para todas las medianas y grandes empresas. Ahora se consideraba ampliamente un requisito para mantenerse competitivo.
Desde la perspectiva de los proveedores de soluciones, la abundancia de soluciones comenzó a fusionarse en manos de algunos grandes competidores, como IBM, Microsoft, SAP y Oracle.
Durante este período surgieron algunos conceptos nuevos. La dificultad de mantener sus almacenes de datos actualizados hizo que algunas empresas reconsideraran su enfoque, transformando su DW en su “única fuente de verdad”. Para los datos ya existentes, otros programas utilizarían la información proporcionada por el DW en lugar de utilizar la suya propia, eliminando así la mayoría de los problemas de incompatibilidad de datos. Era más fácil decirlo que hacerlo, ya que presentaba muchos desafíos técnicos. El concepto, sin embargo, fue tan útil que en los años siguientes las soluciones disponibles en el mercado se adaptarían para emplear esta estrategia.
A medida que los datos se volvieron cada vez más abundantes y las herramientas de BI demostraron su utilidad, el esfuerzo de desarrollo se dirigió a aumentar la velocidad a la que la información estaría disponible y a reducir la complejidad de acceder a ella. Las herramientas se volvieron más fáciles de usar y las personas sin conocimientos técnicos ahora podían recopilar datos y obtener información por sí mismos, sin la ayuda del soporte técnico.
A principios de la década de 2000, el auge de las plataformas de redes sociales allanó el camino para que la opinión del público en general estuviera disponible libremente en Internet, y las partes interesadas podían recopilar (o “extraer”) los datos y analizarlos. En 2005, la creciente interconectividad del mundo empresarial significó que las empresas necesitaban información en tiempo real donde los datos de los eventos pudieran incorporarse en los almacenes de datos a medida que ocurrían en tiempo real.
Este es el año en que se introdujo Google Analytics, que proporciona una forma gratuita para que los usuarios analicen los datos de su sitio web. Este es también el año en que se utilizó por primera vez el término big data . Roger Magoulas, de O'Reilly Media, lo usó para referirse a "un gran conjunto de datos que es casi imposible de administrar y procesar con las herramientas tradicionales de inteligencia comercial".
Para hacer frente al espacio de almacenamiento adicional y la potencia informática necesaria para gestionar esta cantidad de datos que crece exponencialmente, las empresas comenzaron a buscar otras soluciones. Construir computadoras más grandes y rápidas estaba fuera de discusión, por lo que usar varias máquinas a la vez se convirtió en una mejor opción. Esta fue la semilla de la computación en la nube .
Usos contemporáneos de BI
En los últimos 10 años, big data, computación en la nube y ciencia de datos se convirtieron en palabras conocidas por casi todo el mundo. Es difícil en este momento reconocer qué nuevos avances fueron más impactantes en estos últimos años. Sin embargo, hay algunos casos interesantes que han demostrado el poder creciente de las herramientas analíticas modernas.
Publicidad, Cookies y AdTech
En 2012, The New York Times publicó un artículo que describía cómo Target descubrió accidentalmente el embarazo de una adolescente de secundaria antes que sus padres. A través de análisis, identificaron 25 productos que, cuando se compran juntos, indican que es probable que una mujer esté embarazada. El valor de esta información era que Target podía enviar cupones a la mujer embarazada en un período en el que los hábitos de compra de la mujer podrían cambiar.
Un padre enfurecido entró a un Target en las afueras de Minneapolis y exigió ver al gerente. Se quejó de que su hija recibía cupones para ropa de bebé, a pesar de que todavía estaba en la escuela secundaria. El gerente se disculpó profundamente en nombre de la empresa, pero unos días después el padre volvió a llamar para disculparse: “Resulta que ha habido algunas actividades en mi casa de las que no he sido completamente consciente. Ella es debido en agosto. Te debo una disculpa."
Este ejemplo anecdótico muestra el poder contemporáneo del análisis de datos.
Política
La estrategia de la campaña de reelección de Obama se basó en gran medida en el análisis. Muchos especialistas lo señalan como una de las principales razones de su éxito. La estrategia, diseñada por el director de campaña Jim Messina, se centró en recopilar datos sobre los votantes y usarlos para garantizar que 1) se registraran para votar, 2) fueran persuadidos para votar por Obama y 3) se presentaran a votar el día de las elecciones. Alrededor de 100 analistas de datos formaron parte del esfuerzo, utilizando un entorno que se ejecuta en HP Vertica y está codificado en R y Stata.
Se aplicaron varias iniciativas para alcanzar esos objetivos, una de las cuales fue Airwolf. Creado para integrar los esfuerzos de los equipos de campo y digitales, aseguró que una vez que el equipo de campo se pusiera en contacto con un votante en una campaña puerta a puerta, sus intereses quedarían registrados, de modo que recibirían correos electrónicos frecuentes de los organizadores locales adaptados específicamente a los temas de campaña favoritos de cada uno.
Con las herramientas y los datos adecuados, los analistas podían responder a casi cualquier pregunta de forma rápida y sencilla, sin importar de dónde provinieran originalmente los datos. El éxito de la campaña de Obama convirtió los entornos de análisis de big data en un requisito estándar para todas las campañas desde entonces.
Ciencia
El Proyecto Genoma Humano se completó en 2003, pero dejó muchas preguntas sin respuesta. A pesar de mapear la secuencia completa de pares de bases de nucleótidos que componen el ADN humano, comprender realmente cómo funciona la genética humana requirió un estudio más intensivo, y fue una aplicación perfecta para big data. Un genoma humano típico contiene más de 20.000 genes, cada uno compuesto por millones de pares de bases. El simple mapeo de un genoma requiere cien gigabytes de datos, y la secuenciación de múltiples genomas y el seguimiento de las interacciones de los genes multiplica ese número muchas veces, cientos de petabytes, en algunos casos.
Al aplicar análisis en su estudio publicado en 2016, los científicos de la Universidad de Haifa pudieron observar lo que se llama el "carácter social" de los genes. Lo que los científicos han querido descubrir durante mucho tiempo es el funcionamiento interno de los efectos genéticos complejos que participan en la creación de enfermedades complejas. Este objetivo ha sido particularmente difícil ya que las expresiones genéticas de ciertas enfermedades suelen provenir de la combinación de varios marcadores genéticos que interactúan entre sí. Entonces, los investigadores no solo tendrían que analizar una secuencia genética completa, sino que también tendrían que rastrear las interacciones entre múltiples genes diferentes.
Aunque todavía hay muchos datos por analizar, el camino está allanado para comprender y curar una gran cantidad de defectos genéticos, grandes y pequeños.
El camino por delante
Ahora llegamos a un momento en el que Facebook puede reconocer tu rostro en las imágenes, en el que Google puede predecir qué tipo de publicidad se adapta mejor a tu perfil, en el que Netflix puede darte sugerencias sobre qué programas ver. Es un momento en el que puede hablar con su teléfono, no solo con alguien al otro lado de la línea telefónica. Ser capaz de manejar y procesar grandes cantidades de datos fue un paso primordial para comprender cómo surgieron estas maravillas.
Big data sigue siendo una tendencia creciente. Aproximadamente el 90% de los datos disponibles se han creado en los últimos dos años. En la conferencia Techonomy, en 2010, Eric Schmidt afirmó que “hubo 5 exabytes de información creados por todo el mundo entre los albores de la civilización y 2003. Ahora esa misma cantidad se crea cada dos días”.
Manejar una cantidad tan grande de datos todavía presenta muchos desafíos. La calidad de los datos, uno de los primeros y más antiguos quebraderos de cabeza de la inteligencia empresarial, sigue siendo un campo exigente. Analytics, el conjunto de habilidades necesario para ayudar a dar sentido a la enorme cantidad de datos que las empresas están recopilando, también tiene una gran demanda. Ahora hay muchos tipos de análisis: análisis descriptivo, análisis predictivo, análisis prescriptivo, análisis de transmisión, análisis automatizado, etc. El análisis utiliza varias tecnologías de vanguardia para extraer información de los datos, como inteligencia artificial, aprendizaje automático y muchas estadísticas. modelos Finalmente es un momento en el que mola ser matemático.
Las herramientas de BI ahora a menudo se diseñan con una industria específica en mente, ya sea atención médica, aplicación de la ley, etc. Ahora funciona en múltiples dispositivos y utiliza varias herramientas de visualización, lo que permite que cualquiera aplique el razonamiento a los datos a través de interfaces visuales interactivas. Mobile BI ya es una realidad.
Al combinar las fortalezas de big data, aprendizaje automático y análisis, su vida podría ser muy diferente en el futuro. Tal vez ya no necesite ir al supermercado: su refrigerador pedirá lo que probablemente necesitará, según sus hábitos alimenticios. Quizás no llames a tu médico para decir que estás enfermo, porque te llamarán incluso antes de que comiences a sentir los primeros síntomas.
La humanidad ahora vive en la era de la información, y la inteligencia comercial es una característica crucial de nuestro tiempo, que nos ayuda a darle sentido a todo. Business Analytics ahora es incluso un programa de grado en muchas universidades. La historia de la inteligencia empresarial es bastante reciente, pero se acelera y se hace más densa cada día. Los mejores días de BI todavía están por venir.