• VSB
  • Herausforderungen bei der Einführung von BI und Reporting Software

Herausforderungen bei der Einführung von BI und Reporting Software

Herausforderungen BI-Einführung

Die meisten Fachanwendungen bieten integrierte Auswertungen, die aus den Daten der jeweiligen Anwendung generiert werden, z.B. Warenwirtschaft, Buchhaltung, CRM, etc. Diese voneinander unabhängigen Datensilos bieten keinerlei übergreifende Auswertungsmöglichkeiten.

Abhilfe schafft die Einführung einer zentralen Berichtsplattform mit einem vorgeschalteten Data Warehouse. Hier laufen die Daten aller relevanten Anwendungen zusammen und werden in ein einheitliches Format und Begrifflichkeiten transformiert und zueinander in sinnvolle Beziehungen gebracht.

Durch die Einführung einer zentralen BI-Lösung werden die Fachanwender in die Lage versetzt, eigene Auswertungen mit geringem Aufwand und ohne technisches Verständnis zu erstellen, bzw. zentral bereitgestellte Berichte und Visualisierungen zu nutzen, je nach Berechtigung. Besonders die Verbindung von Daten, die vorher in eigenen Auswertungssilos getrennt voneinander lagen, ermöglichen neue Perspektiven und Erkenntnisse. Die technische Herkunft der Daten ist nicht mehr wichtig, sondern die Anwender nutzen eine zentrale Datenbasis, der sie vertrauen können, ohne sich mit Datenbanken oder Schnittstellen befassen zu müssen. Für die IT bedeutet dies ebenfalls eine Entlastung, da die zeitraubende Erstellung diverser Berichte auf Anforderung der Fachabteilungen entfällt, bzw. deutlich schneller realisiert werden kann.

Herausforderungen bei der BI-Einführung

Natürlich birgt die Implementierung einer unternehmensweiten Business Intelligence Lösung auch Risiken. Es tauchen immer wieder gleichartige Herausforderungen auf. Besonders häufige Themen stellen wir nachfolgend kurz dar.

Schlechte Datenqualität

Das häufigste Problem ist tatsächlich die schlechte Datenqualität in den Quellsystemen. Bedingt durch mangelnde Eingabeprüfungen in den Systemen sind Daten oftmals unvollständig oder durch mehrfache Releasewechsel über Jahrzehnte hinweg einfach nicht mehr konsistent. Nachträglich implementierte Eingabeprüfungen wirken oftmals nicht auf alte Datensätze, bzw. diese wurden teilweise nicht auf eine neuere Datenstruktur migriert. Daraus ergibt sich die Notwendigkeit einer Datenbereinigung (Data Cleansing) im Rahmen des Aufbaus des Data Warehouses. Oftmals können die Bereinigungen durch automatisierte Transformationen durchgeführt werden, d.h. im Rahmen des Ladeprozesses der Daten (ETL) werden diese auf ein gültiges Format gebracht. Manchmal sind aber auch Korrekturen direkt in den Quelldatenbanken erforderlich. Diese Aufgabe kann sehr zeitraubend sein und es werden auf jeden Fall Personen gebraucht, die die Daten der Quellsysteme sehr gut kennen. Aber ohne diese Datenbereinigung kann die Qualität der Auswertungen stark herabgesetzt oder teilweise sogar unmöglich sein.

Mangelndes Interesse von Anwendern

Man glaubt es kaum, aber es gibt immer wieder Anwender in den Fachabteilungen, die tatsächlich kein Interesse an flexiblen und dynamischen Auswertungen haben, sondern weiter mit ihren gewohnten starren Listen arbeiten möchten und keine Notwendigkeit für eine Veränderung sehen. Kritisch wird dies besonders, wenn es sich dabei um Führungskräfte handelt. Hier bleibt deutliches Potential für mehr Datendurchdringung und Entscheidungssicherheit ungenutzt.

Datenquelle nicht anbindbar

Nicht alle Datenbanken oder Anwendungen lassen sich in ein eigenes Date Warehouse integrieren. Grundsätzlich erfolgt die Anbindung von Quellsystemen entweder über eine definierte Schnittstelle, z.B. Webservices, Konnektoren oder Schnittstellentabellen oder über einen direkten Zugriff auf die Datenbanken, sofern hierfür Treiber existieren. Treiber sind meistens nicht das Problem, sondern eher Menschen zu finden, die die Datenstrukturen kennen. Besonders bei sehr alten selbst entwickelten Systemen kann dies eine Herausforderung darstellen. Manchmal sind es auch Cloud-Lösungen, die sich beim Zugriff über Webservices zugeknöpft geben, im Sinne der Datensicherheit.

Schlechte Antwortzeiten bei der Ausführung von Berichten

Gerade bei der Verarbeitung von großen Datenmengen ist es wichtig, dass Cubes und Entitäten nicht unnötig komplex aufgebaut werden, sondern klar ergebnisorientiert definiert werden. Nicht alle denkbaren Kombinationen aus verschiedenen Dimensionen sind sinnvoll. Wird ein Cube in verschiedenen Granularitäten benötigt, dann gestatten BI-Systeme oftmals die Definition mehrerer Cube-Versionen, was die Performance deutlich beschleunigt. Und natürlich hilft auch die Verwendung von In-Memory Technologien ungemein.

BI-Software ist zu kompliziert

Besonders im Mittelstand ist dies ein großes Problem. Hier hat Self-Service BI und eine einfache Bedienung einen hohen Stellenwert, da es meistens kein BI Competence Center innerhalb des Unternehmens gibt. D.h. hier erstellen Menschen Berichte, die dies nicht hauptberuflich tun, sondern neben ihren eigentlichen Aufgaben. Es handelt sich um Personen aus der IT oder auch aus den Fachabteilungen, z.B. Controlling. Die Software muss daher intuitiv zu bedienen sein und schnell zu den gewünschten Ergebnissen führen.

BOARD für Reporting, Analyse und Planung

Wir setzen in unseren Projekten konsequent auf die All In One-Lösung von BOARD, die es unseren mittelständischen Kunden ermöglicht, neben den klassischen BI-Anforderungen wie Reporting und Analyse auch fortgeschrittene Aufgabenstellungen wie Planung oder Simulation abzubilden.

Der integrierte Ansatz von BOARD vermeidet Technologie- und Medienbrüche und zwingt den Kunden nicht zur Anschaffung getrennter Lösungen für Reporting und Planung. Damit vermeiden wir zusätzliche Schnittstellen und unterschiedliche Benutzeroberflächen. Reporting und Planung findet auf dem gleichen Datenmodell statt.

Weitere Informationen zu BOARD

Zurück