The Future of Business Intelligence

Der Trend bei Business-Intelligence-Anwendungen geht in Richtung Realtime-Analyse und standardisierte Data-Warehouse-Modelle.

Artikel erschienen in Swiss IT Magazine 2001/44

     

Business Intelligence ist mehr als ein Softwarepaket, stellt John Kopcke fest, CTO von Hyperion Solutions, einem der führenden Hersteller von BI-Software. Hyperion bezeichnet mit dem Begriff alle IT-basierten Anstrengungen eines Unternehmens, die Performance zu messen, die Profitabilität zu erhöhen und Wettbewerbsvorteile zu erzielen. Das habe, so Kopcke, im Grunde genommen schon in den siebziger Jahren begonnen, als man erstmals gewisse Aufgaben wie den Entwurf des Budgets mit den Hilfsmitteln der Informatik statt mit Bleistift und Papier zu erledigen pflegte.




Betrachtet man die Referenzliste von BI-Herstellern wie Hyperion, stösst man auf Namen von Citibank bis Disney, von Coca-Cola bis Nestlé - lauter Grösstunternehmen. Auf die Frage, ob Business Intelligence denn ausschliesslich den ganz Grossen vorbehalten sei, meint Kopcke: "Wir publizieren natürlich am liebsten die Namen, die jeder kennt. Insgesamt arbeiten über 7000 Kunden mit unseren Lösungen." Die kleinsten Hyperion-Kunden hätten, so Kopcke, einen Jahresumsatz von etwa 100 Millionen Dollar - der BI-Einsatz kommt demnach zwar nicht bloss für Weltkonzerne in Frage, für die "K" der KMU scheint der Aufwand für die Implementation und Pflege einer BI-Lösung denn aber doch zu gross.


Grundlage Daten

Die Grundlage für jede Business-Intelligence-Anwendung steht heute in jedem Unternehmen quasi als Abfallprodukt der täglichen Arbeit zur Verfügung - Daten. Die wichtigste Datenquelle sind die ERP-Systeme, in denen laufend Transaktionsdaten von Kunden- und Lieferantenbestellungen, Lagerverwaltung, Buchhaltung und anderen Unternehmensbereichen anfallen. In den ERP-Datenbanken bleiben diese Daten für eine gewisse Zeitspanne gespeichert; aus Platz- und Performance-Gründen werden nicht mehr aktuelle Transaktionen jedoch recht schnell wieder entfernt und stehen allenfalls noch in einem Backup-Archiv zur Verfügung. Für die Analyse und die Unternehmensplanung müssen die Daten längerfristig bereitstehen; sie werden deshalb in eine gesonderte Ablage namens Data Warehouse ausgelagert.



Ebenfalls von Nutzen: der Beizug externer oder speziell generierter Informationen wie demografische Angaben, Bonitätsinformationen, Kundenumfragen und Auswertungen von Werbekampangnen. In Kombination mit den Transaktionsdaten lassen sich wertvolle Erkenntnisse von der generellen Konsumentenstimmung bis zum Kaufverhalten im einzelnen Haushalt finden.




Daten können aber auch aus anderen unternehmensinternen IT-Anwendungen stammen, so zum Beispiel aus CRM-Systemen und E-Commerce-Applikationen. Auch diese Quellen, die in letzter Zeit zunehmend sprudeln, sind für eine umfassende Analyse äusserst wichtig und dürfen nicht unberücksichtigt bleiben.



All das gilt überdies nicht nur für Transaktionen mit Kunden: Neben der bisherigen, praktisch ausschliesslich kundenseitig orientierten Business Intelligence finden die Techniken zur Informationsgewinnung aus Daten vermehrt auch bei der Optimierung der Lieferantenbeziehungen ihr Einsatzgebiet. Man spricht dann auch von Supply Chain Intelligence (SCI). Einer der ersten SCI-fokussierten Lösungsanbieter ist Sagetree mit der Supply Chain Performance Suite.



Ein weiterer Trend: Über die verkaufs- und einkaufsorientierte Analyse hinaus beziehen Industrie- und Handelsunternehmen zunehmend auch Daten aus Produktion und Logistik ein. Business Intelligence wurde seit jeher zur strategischen Unterstützung von Fertigung und Bestellwesen eingesetzt; neu kommen BI-Techniken zum Einsatz, um aus Produktions- und Logistiksystemen konkrete Unterstützung zum Beispiel für Bedarfsprognose, Lagermanagement und Qualitätskontrolle zu erhalten. Die zunehmende Bedeutung des B2B-E-Commerce heizt diesen Trend zusätzlich an. Immer wichtiger werden Just-in-Time-Manufacturing und -Lieferung, die mit einer gründlichen Analyse von Produktions- und Logistikdaten einfacher zu planen und zu realisieren sind.




Die unerlässliche Datenzentrale

Das Data Warehouse ist das unerlässliche Hauptinstrument für alle BI-Anwendungen. Laut seinem Erfinder steht der Begriff für die "zentrale, integrierte Informationsablage". Sie stellt historische Daten für die analytischen Business-Intelligence-Anwendungen, für Reporting und für Data Mining bereit.



Die Integration der unterschiedlichen Datenquellen ist extrem wichtig: Bevor Daten im Warehouse gelagert werden können, müssen sie bereinigt und nach einem für das Gesamtunternehmen einheitlichen Datenmodell umstrukturiert werden. Das bringt Aufwand mit sich, der mit der Anzahl beteiligter Datenquellen rasant steigt. Je unterschiedlicher die Strukturen sind, in denen die Quellen gleichwertige Informationen anliefern, desto mehr Umformungen finden statt. Dabei entstehen sogar zusätzliche Daten: Die sogenannten Metadaten beschreiben beispielsweise, wie die Elemente im Data Warehouse aus welchen Feldern einer bestimmten Datenquelle entstanden sind.




War Data Warehousing anfangs ein komplexes Unterfangen, das nicht ohne erheblichen unternehmensindividuellen Entwicklungsaufwand über die Bühne gehen konnte, kommen heute immer mehr fixfertige Data-Warehouse-Lösungen zum Einsatz, sogenannte Packaged Data Warehouses: Statt das sprichwörtliche leere Blatt Papier (Datenbankserver und Entwicklungstools) bieten Packaged Data Warehouses eine bis zu einem bestimmten Grad vorgefertigte Lösung samt generischem Datenmodell und den für die wichtigsten Auswertungen vorkonfigurierten Analysetools. Ein Packaged Data Warehouse ist meist branchenorientiert und enthält neben der Software selbst einiges an Know-how, vom Hersteller entweder selbst erarbeitet oder von Consultants eingekauft und in das Produkt integriert.




Elementar: Das Framework

Auch ein "fixfertiges" Data Warehouse packt man aber nicht einfach aus und es funktioniert. Abgesehen vom Hardwarebedarf, der unabhängig vom Implementationsmodus erheblich ist, geht es nicht ohne individuelle Anpassung des mitgelieferten generischen Datenmodells. Dieses sollte deshalb möglichst offen und gut dokumentiert sein - proprietäre Ansätze mögen für ganz spezifische Anwendungen genügen; sobald BI auf andere als das ursprünglich vorgesehene Einsatzgebiet erweitert werden soll, ist eine Anpassung des Datenmodells nötig. Man achte auch darauf, dass der Hersteller bestehende und kommende Data-Warehousing- und Business-Intelligence-Standards berücksichtigt.



Auch die Gartner Group sieht eine gewisse Gefahr, die von fixfertigen BI-Paketen ausgeht: "Packaged-BI-Anwendungen riskieren, zu einer neuen Generation von festverdrahteten Systemen zu werden. Speziell wer proprietäre, stark denormalisierte Datenmodelle benutzt und nicht eine Vielzahl von ein- und ausgehenden Schnittstellen anbietet, gefährdet unternehmensweites Information Sharing zu Analysezwecken."




Abhilfe könnte von den BI-Frameworks kommen: Anbieter wie Cognos und Hyperion positionieren sich als Lieferanten einer einheitlichen BI-Gesamtlösung von Warehousing- und OLAP-Tools bis zur analytischen Applikation. Hyperion-CTO Kopcke: "Wir offerieren mit Essbase und den zugehörigen Analysis Tools die technologische Basis für die analytischen Applikationen, die für mich die eigentliche Business Intelligence darstellen. Besonders stark sind wir im Finanzbereich - 86 Prozent der Fortune-100-Unternehmen nutzen unsere Financial- und Business-Performance-Management-Lösungen."



Dadurch soll das "Alignment Gap" zumindest geschmälert werden, das IDC-Analyst Morris wie folgt beschreibt: "Projekte mit analytischen Anwendungen werden selten koordiniert - Informationen aus verschiedenen Applikationen können das Unternehmen in unterschiedliche Richtungen ziehen. Solange diese Applikationen nicht einem einheitlichen Verständnis der zugrundeliegenden Performance-Messgrössen wie Kosten, Gewinn und Wertschöpfung entsprechen, besteht ein echtes Risiko." Laut Gartner hilft "ein BI-Framework, die verschiedenen BI-Initiativen im Unternehmen einander anzugleichen und den wirklichen Return on Investment zu bestimmen", und weiter: "Unternehmen, die eine BI-Initiative auf Basis eines Framework implementieren, werden einen zwei- bis dreimal höheren Return erzielen als solche, die nicht auf ein Framework setzen."




Es geht auch kleiner: Data Mart

Der kleine Bruder des Data Warehouse nennt sich Data Mart: Für viele Unternehmen ist ein vollumfängliches Data-Warehouse-Projekt zu teuer und zu langwierig. Beschränkt man sich beim Sammeln und Analysieren der Daten auf einen einzelnen Unternehmensbereich, zum Beispiel eine Abteilung, oder einen einzelnen Business-Prozess wie den Verkauf, genügt ein sogenannter Data Mart. Beim Aufbau eines Data Warehouse können bestehende Data Marts integriert werden, so dass viele BI-Anwender zunächst mit Data Marts in einzelnen Bereichen arbeiten und erst im Lauf der Zeit ein unternehmensweites Warehouse aufbauen.



Das Bindeglied zwischen den Datenquellen und dem Data Warehouse oder Data Mart bilden die ETL-Tools (Extraction, Transformation, Loading). Die meisten Hersteller von BI-Anwendungen, darunter Cognos (DecisionStream) und Hummingbird (Genio Suite) haben ihr Produktportfolio in letzter Zeit um ETL-Werkzeuge erweitert, teilweise durch Aufkauf anderer Firmen.





Analyse auf vielfältige Art

Allein auf sich gestellt, bringt ein Data Warehouse überhaupt nichts: Die gesammelten Daten wollen verwertet werden. Unter dem Oberbegriff "Business-Intelligence-Tools" figurieren verschiedene Varianten der Auswertung und Analyse.




• Mit SQL-basierten Reporting-Tools generiert man mehr oder weniger komplexe Berichte, wie sie von Datenbanken allgemein bekannt sind. Die analytische Tiefe einfacher Reports ist jedoch beschränkt; nichttriviale Erkenntnisse lassen sich auf diese Weise aus den Daten nur schwer erhalten.





• Eine Stufe weiter geht OLAP (Online Analytical Processing): Statt wie die Tabelle einer relationalen Datenbank nur zwei Dimensionen auf einmal zu zeigen, gestattet der Cube einer multidimensionalen OLAP-Datenbank den Überblick über mehrere Dimensionen. Als Beispiel mögen die Verkaufsaktivitäten einer Firma dienen, die unter Gesichtspunkten wie Verkäufer, Produktelinie, Abteilung, Verkaufsgebiet, Preiskategorie und so weiter betrachtet werden können. Die Auswertung einer konventionellen Datenbank zeigt zum Beispiel den Umsatz eines Verkäufers nach Produkten geordnet. Um den Umsatz aller Verkäufer mit einem bestimmten Produkt zu prüfen, muss eine neue Abfrage formuliert und verarbeitet werden. Im Gegensatz dazu berechnet die OLAP-Datenbank die möglichen Kombinationen zumindest teilweise im voraus; die passenden OLAP-Abfragetools erlauben den blitzschnellen Wechsel zwischen verschiedenen Blickpunkten auf die Daten. OLAP besteht somit aus zwei Komponenten: einer OLAP-fähigen Datenbank und OLAP-Abfragetools. Heute sind praktisch alle Datenbanken von Haus aus oder optional mit OLAP-Features ausgestattet. Für den OLAP-Einsatz auch in kleineren Unternehmen eignet sich der relativ preisgünstige SQL Server von Microsoft; OLAP gibt es jedoch auch bei den Hauptkonkurrenten Oracle und IBM. Kostspieliger, aber leistungsfähiger sind spezialisierte Datenbankprodukte wie TM1 von Applix und Essbase von Hyperion. Diese ehemals auf die Basissoftware fokussierten Hersteller wenden sich jedoch zusehends der Entwicklung analytischer Applikationen zu; die OLAP-Datenbanken sind heute nur ein Teil ihrer Produktepalette. "Die Datenbankhersteller betrachten wir nicht als Konkurrenz - der DB2-OLAP-Server stammt übrigens sogar von uns. Wir gestalten vielmehr unsere Essbase-Technologie so, dass zur eigentlichen Datenhaltung sowohl unsere eigene Engine als auch beliebige SQL-Datenbanken wie Oracle und DB2, in Zukunft auch der MS-SQL-Server, eingesetzt werden können. Wir betrachten uns gerne als die Schweiz der BI-Software", sagt John Kopcke und meint damit wohl, man spreche alle Sprachen und verstehe sich bestens mit der ganzen Welt. Andere Hersteller wie Cognos, Brio, ProClarity (ehemals Knosys) und MIS (übernahm Intellicube) konzentrieren sich ganz auf Abfrage und Analyse.




• Data Mining unterscheidet sich methodisch grundlegend von OLAP: Hier geht es nicht um Online-Abfragen durch den Benutzer, sondern um die automatisierte Analyse historischer Daten anhand eines eigens erstellten Modells, die vorher nicht bekannte Beziehungen und Trends ans Licht bringen soll. Data-Mining-Tools wie der Enterprise Miner von SAS, Clementine von SPSS, der Genio Miner von Hummingbird sowie die integrierten Data-Mining-Features von Datenbanken wie Oracle 9i eignen sich zur Analyse grosser Datenbestände und bieten sich dann an, wenn noch keinerlei Anhaltspunkte bekannt sind, welche Erkenntnisse aus den Daten gewonnen werden können. Neben diesen Spezialtools, die sich nur von geschulten Experten nutzbringend einsetzen lassen, kommen Data-Mining-Techniken auch in den branchenspezifischen analytischen BI-Paketen zum Zug.




• Werkzeuge zur Datenvisualisierung waren früher die Domäne von Naturwissenschaftern und Statistikern. Nackte Zahlenkolonnen in textorientierten Spreadsheets und Reports machen aber allgemein wenig Freude. Zunehmend kommen Visualisierungstools auch im Management-Umfeld zum Einsatz. Der Hauptunterschied zu herkömmlichen Businessgrafiktools: Fortgeschrittene Visualisierungen sind interaktiv manipulierbar und kombinieren Daten aus verschiedenen Quellen, zum Beispiel Umsätze mit geografischen Angaben, und präsentieren sie in der für den jeweiligen Zweck anschaulichsten Form, zum Beispiel auf einer Karte. Besonders interessant sind Anwendungen wie der Cognos Visualizer, der Ergebnisse von Scorecard-Analysen auf einer ansprechend aufbereiteten Webseite auch technisch und methodisch ungeschulten Führungskräften zugänglich macht - etwas gewagt könnte man von "Business Intelligence für die Massen" sprechen.




• Branchen- und anwendungsspezifische Analysepakete kombinieren Reporting, OLAP, Data Mining, Visualisierung und oft auch die Data-Warehouse-Komponente unter einem Hut. Zusätzlich zu den vor ein, zwei Jahren üblichen vertikalen Lösungen für Telcos, Autoindustrie oder Pharmazie sind heute auch branchenunabhängig einsetzbare Pakete auf dem Markt, darunter die Finanzlösungen von Cognos und Hyperion. Dabei handelt es sich nicht etwa um "bessere Buchhaltungspakete", sondern um analytisch orientierte Software zur Unterstützung der Führungsaufgaben des CFO - Business-Prozesse wie Budget, Forecasting, Abschluss, Analyse und Reporting werden zu einer einheitlichen Gesamtsicht auf die finanziellen Aspekte des Unternehmens zusammengefasst und unterstützen, so Hyperion, den Finanzverantwortlichen auf seinem Weg vom blossen Buchhalter zum missionskritischen Change Agent.


Trend zur Realtime-BI

Einer der interessantesten Business-Intelligence-Trends: Der traditionelle Graben zwischen den operativen Systemen des Unternehmens auf der einen und dem Data Warehouse und den analytischen BI-Tools auf der anderen Seite verschwindet allmählich.



Bisher war das Data Warehouse eine ziemlich statische Sache: Mit Hilfe der ETL-Tools brachte man das Datenlager in monatlichen, wöchentlichen oder täglichen Intervallen auf den neuesten Stand. Das Resultat: Den unternehmensinternen Analyseteams standen zwar historische Daten in Hülle und Fülle zur Verfügung; wirklich aktuell war die Information aber nie. Das operationelle Geschehen und die Analyse waren stets zwei Paar Schuhe. Nun kommt immer mehr Aktualität in die BI-Daten, wobei verschiedene Entwicklungen helfen: Dank Datenaustausch-Standards wie XML und standardisierten Metadaten-Modellen wie CWM fällt die bisherige Barriere zwischen den proprietären Systemen.




Business wird zunehmend online gemacht - bei E-Commerce-Transaktionen fallen sekundenaktuelle Daten an, die sich leicht direkt ins Warehouse übertragen lassen. Ähnliches gilt für die Kundeninteraktion via CRM-Systeme: Auch diese sind für hohe Transaktionsfrequenzen ausgelegt und werden durch die zusätzliche Weitervermittlung der Daten ans Warehouse weniger belastet als die weniger flexiblen ERP-Systeme.



Neuartige Warehousing-Techniken wie das ETL-Tool TPump von NCR erlauben das Update des Data Warehouse nahezu in Echtzeit.



Online-Services wie Centrus Realtime von Sagem, erhältlich vorerst aber nur in den USA, bereinigen im ASP-Modus online erhaltene Kundendaten in Echtzeit, zum Beispiel von Besuchern der Firmen-Website, vom CRM-System oder vom Point of Sale, und reichern sie mit Zusatzangaben wie demografischen Parametern an.



Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Aus welcher Stadt stammten die Bremer Stadtmusikanten?
GOLD SPONSOREN
SPONSOREN & PARTNER