Erkundung der Geschichte der Business Intelligence

Veröffentlicht: 2022-03-11

Was ist Business Intelligence?

Business Intelligence (BI), ein Begriff, der heutzutage untrennbar mit Informationstechnologie verbunden ist, entwickelt sich seit über 150 Jahren. Obwohl ihre Ursprünge vor der Erfindung von Computern liegen, gewann BI erst nach ihrer weiten Verbreitung an Bedeutung und ihre Entwicklung wurde fortan mit der Entwicklung von Computern und Datenbanken gepaart.

BI mit Stift und Papier

Die erste Verwendung des Begriffs „Business Intelligence“ wird weithin Richard Miller Devens in seinem 1865 erstmals veröffentlichten Buch Cyclopadia of Commercial and Business Anecdotes zugeschrieben. Er benutzte ihn, um zu beschreiben, wie Sir Henry Furnese, ein erfolgreicher Bankier, davon profitierte von Informationen, indem er diese aktiv sammelt und vor seiner Konkurrenz handelt. Darin wurde darauf hingewiesen, dass es zuverlässiger sei, Daten und empirische Beweise zu verwenden als das Bauchgefühl, um eine Geschäftsstrategie zu entwickeln. Die Idee wurde von anderen, die den Wert von Informationen sahen, weiter verbessert.

Im letzten Jahrzehnt des 19. Jahrhunderts führte Frederick Taylor das erste formalisierte System der Geschäftsanalyse in den Vereinigten Staaten ein. Sein System des wissenschaftlichen Managements begann mit Zeitstudien, die Produktionstechniken und Körperbewegungen der Arbeiter analysierten, um größere Effizienzen zu finden, die die industrielle Produktion ankurbelten.

Taylor wurde schließlich Berater von Henry Ford, der in den frühen 1900er Jahren begann, die Zeit zu messen, die jede Komponente seines Ford Model T benötigte, um an seinem Fließband fertig zu werden. Seine Arbeit und sein Erfolg revolutionierten die Fertigungsindustrie weltweit. Trotzdem benutzte er dafür immer noch Stift und Papier.

Business Intelligence bekommt einen Schub von Computern

Business Intelligence powered by Computer

Elektronische Computer waren in den 1930er Jahren noch am Anfang, wurden aber während des Zweiten Weltkriegs schnell entwickelt, als Teil der Bemühungen der Alliierten, deutsche Codes zu knacken.

Bis in die 1950er Jahre stützten sich Computer hauptsächlich auf Lochkarten oder Lochstreifen, um Daten zu speichern. Das waren riesige Stapel von Karten mit winzigen Löchern darin, die die von den Computern zu verarbeitenden Informationen speichern würden. 1956 erfand IBM jedoch das erste Festplattenlaufwerk, das es ermöglichte, große Informationsmengen mit größerer Zugriffsflexibilität zu speichern.

Nicht lange danach, im Jahr 1958, veröffentlichte der IBM-Forscher Hans Peter Luhn eine historische Abhandlung mit dem Titel A Business Intelligence System. Er theoretisierte über das Potenzial eines Systems zur „selektiven Verbreitung“ von Dokumenten an „Aktionspunkten“ auf der Grundlage von „Interessenprofilen“. Seine Arbeit ist auch heute noch von bemerkenswerter Bedeutung, da er mehrere Business-Intelligence-Trends vorhergesagt hat, die heute bahnbrechend sind, wie die Fähigkeit von Informationssystemen, auf der Grundlage von Benutzerinteressen zu lernen und Vorhersagen zu treffen. Heute nennen wir es maschinelles Lernen. Luhn gilt im Volksmund als Vater der Business Intelligence.

Obwohl das von Luhn vorgeschlagene Konzept die Aufmerksamkeit mehrerer Interessenten auf sich zog, galt die Idee damals als zu teuer, um einen praktischen Nutzen zu haben. Um daraus eine wirtschaftlich tragfähige Lösung zu machen, war weiterer technologischer Fortschritt erforderlich.

Im nächsten Jahrzehnt explodierte die Computernutzung, selbst wenn man bedenkt, dass jeder Computer eine gigantische Maschine war, die die gesamte Etage eines Gebäudes einnahm und von mehreren hochqualifizierten Ingenieuren verwaltet werden musste, um richtig zu funktionieren. Experten beschäftigten sich erneut mit der Idee, Computer zu verwenden, um Schlussfolgerungen aus den Daten zu ziehen, aber das Hauptproblem bestand darin, dass es keine zentralisierte Methode gab, um alle Daten an einem Ort zusammenzuführen. Daten allein könnten keine Erkenntnisse generieren. Um diese Herausforderung zu lösen, wurden die ersten Datenbankverwaltungssysteme entwickelt. Später würden sie einfach Datenbanken genannt werden. Diese erste Generation ermöglichte die ersten Datenbanksuchen unter Verwendung einer Strategie binärer Bäume. Obwohl diese Strategie damals mehrere Probleme löste, gilt sie heute als zu schwerfällig und ineffizient. Trotzdem war dieses neue Tool für Unternehmen, die es sich leisten konnten, von Nutzen, da es schließlich dazu verwendet wurde, Schlussfolgerungen aus den verfügbaren Daten zu ziehen.

BI-Technologien verbessern sich: Big Player betreten das Feld

Business-Intelligence-Technologien verbessern sich

1970 veröffentlichte Edgar Codd von IBM ein Papier mit dem Titel A Relational Model of Data for Large Shared Data Banks. Es ebnete den Weg für relationale Datenbanken der nächsten Generation und ermöglichte eine viel breitere Kapazität zum Speichern und Bearbeiten von Daten. Seltsamerweise verzichtete IBM jedoch darauf, Codds Design zu implementieren, um Einnahmen für seine aktuellen Datenbanksysteme zu erhalten. Erst nachdem Konkurrenten damit begonnen hatten, sie zu implementieren, zog IBM nach.

Zu diesem Zeitpunkt gab es genug Markt, um die ersten Business-Intelligence-Anbieter auftauchen zu lassen. Darunter waren SAP, Siebel und JD Edwards. Damals hießen sie Decision Support Systems (DSS).

Das große Problem an dieser Stelle war, dass diese Datenbanken unter „Silo“-Problemen litten. Da sie sehr eindimensional waren, war die Flexibilität ihrer Verwendung sehr begrenzt. Sogar einfache Probleme wie eine Datenbank, die Städte als „OH, NJ und NY“ codiert, während eine andere „Ohio, New Jersey und New York“ verwendet, machten Querverweise zu einer entmutigenden Aufgabe.

Doch es gab immer mehr erfolgreiche Fälle einer gewinnbringenden Nutzung von Daten. Einer der damals berühmtesten kam von Nielsen. Das als Nielsen-Rating bekannte Marketinginstrument wurde für Zuschauermessungen verwendet, um zu messen, wie viele Personen sich eine bestimmte Fernsehsendung zu einem bestimmten Zeitpunkt ansahen, wobei ein Gerät namens Audimeter verwendet wurde, das an ein Fernsehgerät angeschlossen war und welchen Kanal aufzeichnete wurde beobachtet.

Die Ratings von Nielsen galten als die meistgesehenen nationalen Rating-Berichte in der TV-Branche. Viermal im Jahr gab es jedoch „schwarze Wochen“ – Wochen, in denen keine Nielsen-Ratings gemeldet wurden. Da es in diesen „schwarzen Wochen“ keine verlässliche Möglichkeit gab, Einschaltquoten zu messen, füllten die Fernsehsender ihre Zeitpläne mit Wiederholungen.

Sowohl die Branche als auch das Publikum waren bereits an „schwarze Wochen“ gewöhnt, aber sie endeten im September 1973. Nielsen führte sein Storage Instantaneous Audimeter (SIA) ein, das 1.200 Haushalte direkt mit dem Business-Intelligence-Computer des Unternehmens in Florida verband. Es konnte nationale Ratings in nur 36 Stunden erstellen, weit weniger als die ein bis zwei Wochen, die das ältere System des Unternehmens benötigte. Nationale Bewertungen würden jeden Tag der Woche, jede Woche des Jahres verfügbar sein. „Schwarze Wochen“ waren nicht mehr nötig und die Daten waren viel besser verfügbar.

Gegen Ende der 70er veröffentlichten Larry Ellison und zwei Freunde die erste kommerzielle Version der Oracle-Datenbank. Es war das erste echte relationale Datenbankverwaltungssystem auf dem Markt und ersetzte die bis dahin verwendeten Ideen von hierarchischen Datenbanken und Netzwerkdatenbanken durch eine robustere Struktur, die eine viel flexiblere Suche ermöglichte. Diese Technologie würde die Geschichte und die Trends von BI in den kommenden Jahrzehnten bestimmen.

Bedeutung von BI wächst: Wir brauchen mehr Platz!

Niedrigere Preise für Speicherplatz und bessere Datenbanken ermöglichten die nächste Generation von Business-Intelligence-Lösungen. Ralph Kimball und Bill Inmon schlugen zwei unterschiedliche, aber ähnliche Strategien vor, um das Problem zu lösen, alle Daten des Unternehmens am selben Ort zu haben, um sie analysieren zu können. Dies waren Data Warehouses (DW). Inmon wird von vielen als der Vater des Data Warehouse angesehen.

Data Warehouses sind Datenbanken, die darauf ausgelegt sind, viele Daten aus anderen Datenquellen (meistens anderen Datenbanken) zu aggregieren, was eine viel tiefere Analyse mit der Möglichkeit ermöglicht, diese verschiedenen Quellen mit Querverweisen zu versehen. Es war jedoch immer noch zu technisch und teuer. Berichte mussten von einer Vielzahl teurer IT-Techniker ausgeführt und gepflegt werden.

Das damalige Top-Management lebte von den Ergebnissen von BI-Lösungen wie Crystal Reports und Microstrategy. Und natürlich gab es Microsoft Excel (veröffentlicht 1985). Business Intelligence war nun fester Bestandteil der Entscheidungshilfen.

1989 trug Howard Dresdner von der Gartner Group zur Popularisierung des Begriffs „Business Intelligence“ bei, indem er ihn als Oberbegriff zur Beschreibung von „Konzepten und Methoden zur Verbesserung der geschäftlichen Entscheidungsfindung durch den Einsatz faktenbasierter Unterstützungssysteme“ verwendete.

Geschäftsintelligenz 1.0

In den 90er Jahren sanken die Kosten für Data Warehouses, als mehr Wettbewerber auf den Markt kamen und mehr IT-Experten sich mit der Technologie vertraut machten. Das war die Zeit von „Business Intelligence 1.0“.

Die Daten waren jetzt allgemein für die Mitarbeiter des Unternehmens zugänglich, nicht nur für das Top-Management. Das Problem an dieser Stelle war jedoch, dass das Stellen neuer Fragen noch sehr teuer war. Sobald eine Frage „konstruiert“ war, war die Antwort schnell verfügbar, aber nur für diese Frage.

Um diesen Aufwand zu reduzieren, wurden einige neue Tools und „Bausteine“ entwickelt, um den Prozess verschiedener Abfragen zu beschleunigen:

  • ETL (Extract, Transform, and Load) war eine Reihe von Tools, ähnlich einer Programmiersprache, die es einfacher machten, den Datenfluss innerhalb eines Data Warehouse zu entwerfen.
  • OLAP (Online Analytical Processing) half dabei, verschiedene Visualisierungsoptionen für die abgefragten Daten zu erstellen, wodurch die Analysten bessere Schlussfolgerungen aus den vorliegenden Informationen ziehen konnten.

Bis heute sind sowohl ETL- als auch OLAP-Tools ein wesentlicher Bestandteil von Business-Intelligence-Lösungen.

Dies war auch die Zeit, in der ERP-Systeme (Enterprise Resource Planning) populär wurden. Dies sind riesige Verwaltungssoftwareplattformen, die Anwendungen integrieren, um Aspekte eines Unternehmens zu verwalten und zu automatisieren. Sie lieferten auch strukturierte Daten für die Data Warehouses und sollten in den folgenden Jahren zum Herzstück aller großen Unternehmen der Welt werden.

1995 veröffentlichte Microsoft Windows 95, das erste „benutzerfreundliche“ Betriebssystem – und Computer wurden zu alltäglichen Haushaltsgegenständen. Dies hätte tiefgreifende Auswirkungen darauf, wie Menschen in den folgenden Jahrzehnten Daten produzieren und konsumieren.

BI Disrupted: Datenexplosion im neuen Jahrtausend

Business Intelligence und Big Data

Bereits im Jahr 2000 haben sich Business-Intelligence-Lösungen als „Must-Have“ für alle mittleren bis großen Unternehmen etabliert. Es wurde jetzt weithin als Voraussetzung angesehen, um wettbewerbsfähig zu bleiben.

Aus Sicht der Lösungsanbieter begann sich die Fülle an Lösungen in den Händen einiger weniger großer Wettbewerber wie IBM, Microsoft, SAP und Oracle zu vermischen.

In dieser Zeit entstanden einige neue Konzepte. Die Schwierigkeit, ihre Data Warehouses auf dem neuesten Stand zu halten, veranlasste einige Unternehmen, ihren Ansatz zu überdenken und ihre DW in ihre „Single Source of Truth“ zu verwandeln. Für bereits vorhandene Daten würden andere Programme die von der DW bereitgestellten Informationen verwenden, anstatt ihre eigenen zu verwenden, wodurch die meisten Probleme der Dateninkompatibilität beseitigt würden. Das war leichter gesagt als getan und bot viele technische Herausforderungen. Das Konzept war jedoch so nützlich, dass sich die verfügbaren Lösungen auf dem Markt in den folgenden Jahren an diese Strategie anpassen würden.

Da die Daten immer mehr zunahmen und BI-Tools ihre Nützlichkeit unter Beweis stellten, konzentrierte sich die Entwicklung darauf, die Geschwindigkeit zu erhöhen, mit der die Informationen verfügbar werden, und die Komplexität des Zugriffs darauf zu reduzieren. Tools wurden benutzerfreundlicher, und nicht technisch versierte Personen konnten nun ohne die Hilfe des technischen Supports selbst Daten sammeln und Erkenntnisse gewinnen.

In den frühen 2000er Jahren ebnete der Boom der Social-Networking-Plattformen den Weg dafür, dass die Meinung der breiten Öffentlichkeit im Internet frei verfügbar war und interessierte Parteien die Daten sammeln (oder „minen“) und analysieren konnten. Bis 2005 bedeutete die zunehmende Vernetzung der Geschäftswelt, dass Unternehmen Echtzeitinformationen benötigten, bei denen Daten von Ereignissen in Echtzeit in die Data Warehouses aufgenommen werden konnten.

In diesem Jahr wurde Google Analytics eingeführt, das Nutzern eine kostenlose Möglichkeit bietet, ihre Website-Daten zu analysieren. In diesem Jahr wurde auch erstmals der Begriff Big Data verwendet. Roger Magoulas von O'Reilly Media bezog sich damit auf „einen großen Datensatz, der mit herkömmlichen Business-Intelligence-Tools fast unmöglich zu verwalten und zu verarbeiten ist“.

Um mit dem zusätzlichen Speicherplatz und der Rechenleistung fertig zu werden, die für die Verwaltung dieser exponentiell wachsenden Datenmenge erforderlich sind, begannen Unternehmen, nach anderen Lösungen zu suchen. Der Bau größerer und schnellerer Computer kam nicht in Frage, daher wurde die Verwendung mehrerer Maschinen gleichzeitig zur besseren Option. Dies war die Keimzelle des Cloud Computing .

Zeitgenössische Verwendungen von BI

Business Intelligence in Genetik, Politik und Werbung

In den letzten 10 Jahren wurden Big Data, Cloud Computing und Data Science zu Begriffen, die so ziemlich jedem ein Begriff waren. Es ist derzeit schwer zu erkennen, welche neuen Fortschritte in den letzten Jahren am wirkungsvollsten waren. Es gibt jedoch einige interessante Fälle, die die wachsende Leistungsfähigkeit moderner Analysewerkzeuge gezeigt haben.

Werbung, Cookies und AdTech

Im Jahr 2012 veröffentlichte die New York Times einen Artikel, in dem beschrieben wird, wie Target versehentlich die Schwangerschaft eines Highschool-Teenagers vor ihren Eltern entdeckte. Durch Analysen identifizierten sie 25 Produkte, die beim gemeinsamen Kauf darauf hindeuten, dass eine Frau wahrscheinlich schwanger ist. Der Wert dieser Informationen bestand darin, dass Target der schwangeren Frau Coupons zu einem Zeitpunkt zusenden konnte, an dem sich die Einkaufsgewohnheiten einer Frau ändern könnten.

Ein wütender Vater betrat ein Target außerhalb von Minneapolis und verlangte, den Manager zu sehen. Er beschwerte sich darüber, dass ihre Tochter Gutscheine für Babykleidung erhielt, obwohl sie noch in der High School war. Der Manager entschuldigte sich zutiefst im Namen des Unternehmens, aber ein paar Tage später rief der Vater zurück, um sich zu entschuldigen: „Es stellte sich heraus, dass es in meinem Haus einige Aktivitäten gegeben hat, von denen ich nicht ganz wusste. Sie kommt im August. Ich schulde dir eine Entschuldigung."

Dieses anekdotische Beispiel zeigt die moderne Leistungsfähigkeit der Datenanalyse.

Politik

Die Strategie der Obama-Wiederwahlkampagne basierte stark auf Analysen. Viele Spezialisten weisen darauf hin, dass dies einer der Hauptgründe für seinen Erfolg ist. Die von Wahlkampfleiter Jim Messina entworfene Strategie konzentrierte sich darauf, Daten über die Wähler zu sammeln und diese zu nutzen, um sicherzustellen, dass sie 1) sich zur Wahl registrieren, 2) davon überzeugt werden, für Obama zu stimmen, und 3) am Wahltag zur Wahl erscheinen. Etwa 100 Datenanalysten leisteten einen Teil der Bemühungen, indem sie eine Umgebung nutzten, die auf HP Vertica lief und in R und Stata codiert war.

Um diese Ziele zu erreichen, wurden mehrere Initiativen ergriffen, darunter Airwolf. Es wurde entwickelt, um die Bemühungen der Außendienst- und Digitalteams zu integrieren, und stellte sicher, dass, sobald ein Wähler vom Außendienstteam in einer Tür-zu-Tür-Kampagne kontaktiert wurde, seine Interessen aufgezeichnet wurden, sodass er häufig speziell zugeschnittene E-Mails von den lokalen Organisatoren erhielt zu den jeweils bevorzugten Wahlkampfthemen.

Mit den richtigen Tools und Daten können Analysten nahezu jede Frage schnell und einfach beantworten, unabhängig davon, woher die Daten ursprünglich stammen. Der Erfolg der Obama-Kampagne machte Big-Data-Analyseumgebungen zu einer Standardanforderung für jede Kampagne seitdem.

Wissenschaft

Das Human Genome Project wurde 2003 abgeschlossen, ließ aber viele Fragen unbeantwortet. Obwohl die gesamte Sequenz der Nukleotidbasenpaare, aus denen die menschliche DNA besteht, kartiert wurde, erforderte ein wirkliches Verständnis der Funktionsweise der Humangene ein intensiveres Studium – und es war eine perfekte Anwendung für Big Data. Ein typisches menschliches Genom enthält mehr als 20.000 Gene, von denen jedes aus Millionen von Basenpaaren besteht. Die bloße Kartierung eines Genoms erfordert hundert Gigabyte an Daten, und die Sequenzierung mehrerer Genome und die Verfolgung von Geninteraktionen multipliziert diese Zahl um ein Vielfaches – in einigen Fällen Hunderte von Petabyte.

Durch die Anwendung von Analytik in ihrer 2016 veröffentlichten Studie konnten Wissenschaftler der Universität Haifa den sogenannten „sozialen Charakter“ von Genen beobachten. Was Wissenschaftler schon lange herausfinden wollten, sind die inneren Abläufe komplexer genetischer Effekte, die an der Entstehung komplexer Krankheiten beteiligt sind. Dieses Ziel war besonders schwierig, da genetische Ausdrücke bestimmter Krankheiten gewöhnlich aus der Kombination mehrerer genetischer Marker resultieren, die miteinander interagieren. Forscher müssten also nicht nur eine ganze genetische Sequenz durchkämmen, sondern auch Wechselwirkungen zwischen mehreren verschiedenen Genen verfolgen.

Auch wenn noch viele Daten analysiert werden müssen, ist der Weg geebnet, um eine große Anzahl großer und kleiner genetischer Defekte zu verstehen und zu heilen.

Die Straße entlang

Wir erreichen jetzt eine Zeit, in der Facebook Ihr Gesicht in Bildern erkennen kann, in der Google vorhersagen kann, welche Art von Werbung am besten zu Ihrem Profil passt, in der Netflix Ihnen Vorschläge machen kann, welche Sendungen Sie sich ansehen sollten. Es ist eine Zeit, in der Sie mit Ihrem Telefon sprechen können, nicht nur mit jemandem auf der anderen Seite der Telefonleitung. Die Fähigkeit, riesige Datenmengen zu handhaben und zu verarbeiten, war ein grundlegender Schritt, um zu verstehen, wie diese Wunderwerke entstanden sind.

Big Data ist nach wie vor ein wachsender Trend. Etwa 90 % der verfügbaren Daten sind in den letzten zwei Jahren entstanden. Auf der Techonomy-Konferenz im Jahr 2010 erklärte Eric Schmidt, dass „zwischen dem Beginn der Zivilisation und 2003 5 Exabyte an Informationen von der ganzen Welt erstellt wurden. Jetzt wird dieselbe Menge alle zwei Tage erstellt.“

Der Umgang mit solch großen Datenmengen birgt noch viele Herausforderungen. Datenqualität, eines der ersten und ältesten Probleme der Business Intelligence, ist nach wie vor ein anspruchsvolles Feld. Analytik, die Fähigkeiten, die notwendig sind, um den gewaltigen Datenberg, den Unternehmen sammeln, zu verstehen, ist ebenfalls sehr gefragt. Mittlerweile gibt es viele Arten von Analysen: deskriptive Analysen, prädiktive Analysen, präskriptive Analysen, Streaming-Analysen, automatisierte Analysen usw. Analysen verwenden mehrere hochmoderne Technologien, um Erkenntnisse aus Daten zu extrahieren, z. B. künstliche Intelligenz, maschinelles Lernen und viele Statistiken Modelle. Es ist endlich eine Zeit, in der es cool ist, Mathematiker zu sein.

BI-Tools werden heute häufig für eine bestimmte Branche entwickelt, sei es Gesundheitswesen, Strafverfolgung usw. Sie funktionieren jetzt auf mehreren Geräten und verwenden mehrere Visualisierungstools, sodass jeder über interaktive visuelle Schnittstellen Argumente auf Daten anwenden kann. Mobile BI ist jetzt Realität.

Durch die Kombination der Stärken von Big Data, maschinellem Lernen und Analytik könnte Ihr Leben in Zukunft ganz anders aussehen. Vielleicht müssen Sie nicht mehr zum Lebensmittelgeschäft gehen – Ihr Kühlschrank bestellt das, was Sie am wahrscheinlichsten benötigen, basierend auf Ihren Essgewohnheiten. Vielleicht rufen Sie Ihren Arzt nicht an, um ihm mitzuteilen, dass Sie krank sind, denn er ruft Sie an, noch bevor Sie die ersten Symptome spüren.

Die Menschheit lebt heute im Informationszeitalter, und Business Intelligence ist ein entscheidendes Merkmal unserer Zeit, das uns hilft, dem Ganzen einen Sinn zu geben. An vielen Hochschulen ist Business Analytics mittlerweile sogar ein Studiengang. Die Geschichte der Business Intelligence ist relativ neu, wird aber von Tag zu Tag schneller und dichter. Die besten Tage der BI liegen noch vor uns.