“Wir wollen jetzt auch endlich was mit unseren Daten machen.” – “Sehr gut! Womit arbeitet ihr denn?” – “Mit [bitte einsetzen: QlikView / Power BI / Tableau].” – “Nee, ich meine, womit löst ihr eure Datenprobleme, also die Integration der Daten aus verschiedenen Quellen, den (real-time) Update-Prozess, Modellierung…” – “Sag ich doch: Mit [bitte einsetzen: QlikView / Power BI / Tableau].” – “Ah, hm. [Peinliche Stille.] …und sonst? Ich meine, darunter?” – “Wie?” – “Schon gut. Lass uns einfach in drei Monaten nochmal sprechen.”
Das Problem mit Visualisierungs-Tools wie den oben genannten ist nicht, dass sie schlecht wären oder nutzlos oder ohne sinnvolle Anwendungsfälle. Im Gegenteil: Viele Tools aus jener Kategorie sind sehr stark auf ihrem Gebiet. Das Problem liegt woanders: Nämlich in der Tatsache, dass große Teile des Marktes noch immer zu denken scheinen,
“etwas aus seinen Daten zu machen” bedeute in erster Linie, noch mehr bunte Pie Charts zu produzieren als ohnehin schon durchs Office flattern. Ein fataler Irrtum.
1) Infrastruktur first! Erst die Arbeit, dann die bunte Dashboard-Welt
Ja, Visualisierungs-Tools sind super im Visualisieren (deshalb heißen sie übrigens auch so). Um diese Kompetenz jedoch voll geltend machen zu können, sind sie abhängig von einer starken Dateninfrastruktur – die sie eben nicht (oder nur in Teilen) selber mitbringen. Sie benötigen eine im Idealfall bereits ganzheitlich integrierte, strukturierte, performante Datenbasis als Zulieferer. Und das zu erreichen ist alles andere als trivial, denn für dieses Ergebnis muss ich alle infrastrukturellen Schritte bereits durchlaufen haben:
- Aufbau von performantem Hosting
- Schnittstellen zu Quellsystemen
- Datenintegration und -transformation
- Datenmodellierung
- Ermöglichung so flexibler wie performanter Abfragen
Das ist die eigentliche Herausforderung, wenn es darum geht, echte Wertschöpfung aus Daten zu erreichen.
Ja, natürlich kann ich Daten aus diversen Quellsystemen mittels Standardkonnektoren in den besagten Visualisierungs-Tools auch ad-hoc abfragen und eventuell auch ad-hoc modellieren, doch das kann mindestens mittelfristig eine echte Dateninfrastruktur aus vielen Gründen nicht ersetzen – die wichtigsten sind sicherlich Performanz, nachhaltig zielführende Modellierung und mangelnde Breite in der Nutzbarkeit (s. Abschnitt 2). Ein bekanntes Dilemma aus diesem Kontext resultiert aus den folgenden zwei Optionen, die ich als Owner eines solchen Visualisierungs-Tools grundsätzlich habe:
- Ich erlaube jedem User, auf eigene Faust Files hochzuladen bzw. Systeme anzudocken und lande damit unmittelbar in der nicht zu unterschätzenden Problematik, dass es mindestens so viele Datenwahrheiten gibt wie Quellsysteme (oder -dateien).
- Ich gebe nur meinen Admins Zugriff auf die Konnektoren und schieße damit die ach so hoch geschätzten Vorteil von Flexibilität und Self-Service in den Wind – schon ist es wieder da, das Usage-Bottleneck namens BI-Administrator.
Um Visualisierungs-Tools wie Qlik, Tableau oder Power BI also so zu nutzen, dass ich mir ihre Stärken tatsächlich zunutze machen kann, brauche ich eine solide Dateninfrastruktur. Meine eigentlichen Herausforderungen mit der Nutzbarmachung von Daten werden diese Tools nicht vollständig lösen können.
2) Wertschöpfung aus Daten ist weit mehr als Visualisierung
Der zweite wichtige Aspekt besteht in der Tatsache, dass analytische Arbeit und das Aufbereiten von schicken Reports nur einen Bruchteil dessen ausmachen, was eine echte datengetriebene Arbeitskultur bzw. echte Wertschöpfung aus Daten tatsächlich bedeuten. Ja, Reporting ist wichtig. Sehr wichtig sogar. (Ob es nun so wichtig ist, dass die Reports in Unternehmensfarben gehalten sind und per Knopfdruck auf DINA4-Papier ausgedruckt werden können, ist dagegen sicherlich streitbar – und die Meinung darüber in alteingesessenen Großkonzernen in der Regel eine andere als bei jüngeren Unternehmen.) Und ja, echte Analysearbeit durch analytisch ausgebildetes Fachpersonal ist (zumindest ab einem gewissen Stadium) ebenso wichtig. Doch mit diesen beiden Komponenten ist das größte Stück des Kuchens noch gar nicht verteilt – bestehend aus wiederum folgenden zwei Aspekten:
- In Aktion umsetzbare Erkenntnisse aus Daten für die Operative – übermittelt durch spezialisierte operative Tools, die den entsprechenden Usern direkten Zugriff entsprechend ihrer (meist nicht sehr stark ausgeprägten) analytischen Kompetenzen ermöglichen.
- Intelligente, automatisierte Prozesse, ausgelöst in operativen Systemen wie Email-Marketing oder Recommendation Engine, gefüttert durch gut strukturierte Daten aus der unternehmensweit ganzheitlichen Dateninfrastruktur.
Erst mit dieser so wichtigen Komponente, einer datengetriebenen Arbeitskultur auch in der ganzen Breite der Operativen, kann echte Wertschöpfung aus Daten gelingen – und auch hierfür sind reine Visualisierungs- und Analyse-Tools kaum bis gar nicht geeignet.
Die Moral von der Geschicht: QlikView, Tableau, Power BI – all diese Tools sind hervorragende Lösungen für ihr Spezialgebiet, zusammenfassend benannt mit dem Schlagwort Visualisierung. Doch um sie tatsächlich zielführend einzusetzen, zum Beispiel als Spezialisten-Tools für den/die Business Analysten/-in auf Basis einer BI-Lösung, die den infrastrukturellen und operativen Teil der Datenherausforderungen abdeckt, muss man sich im Klaren sein, was sie können und nicht können bzw. was sie sind und was sie nicht sind. Solange ich also nicht mehr hören muss: “Wir packen unsere Datenherausforderungen nun endlich an und haben dafür [bitte einsetzen: QlikView / Power BI / Tableau] gekauft”, ist alles paletti.
Für einen ganzheitlichen Blick auf die Frage, was es braucht, um echte Wertschöpfung aus Daten zu erreichen, kann ich Dir folgendes Paper empfehlen.
Die Commerce Intelligence Blaupause – 7 Erfolgsfaktoren für Ihr BI-Projekt.