Predictive Analytics: Wenn der Computer in die Glaskugel schaut!

22. Februar 2018

Rückblick auf den 5. BI-Stammtisch Düsseldorf.

Glaubt man den Analysten, sollen Unternehmen ohne Predictive Analytics bald gar nicht mehr existieren können. Die Aussicht, komplexe wirtschaftliche Entwicklungen vorhersagen zu können, valide Entscheidungen zu treffen und im Wettbewerb die Nase vorn zu haben, ist verführerisch.

Aber was steckt hinter dem wichtigen Big-Data-Trend? Lässt sich die Zukunft wirklich auf der Basis von Datenmodellen voraussagen – in einer Welt, die von unvorhersehbaren Ereignissen und volatilen Märkten geprägt ist? In welchen Bereichen macht dieses „Handlesen 2.0“ tatsächlich Sinn? Was ist der Mehrwert? Wie hoch ist der Aufwand? Welche Datenmengen braucht man eigentlich? Und wie sieht es mit der Abhängigkeit von Algorithmen und Dienstleistern aus?

Beim 5. Business Intelligence Stammtisch gingen wir diesen und anderen Fragen nach. Wir wollten wissen, wie Predictive Analytics überhaupt realisierbar ist und tatsächlich auch den Nutzen bringt, der von den Analysten versprochen wird. Gemeinsam kratzten wird den Lack von den Werbeversprechen und wagten einen Blick in die Zukunft!

Der Impulsvortrag …

Gernot Beltz, Manager bei HENDRICKS, ROST UND CIE., gab in seinem Impulsvortrag zunächst einen anschaulichen Überblick darüber, was Predictive Analytics überhaupt ist, nämlich ein Teilbereich der Advanced Analytics, der sich auf die Ermittlung von zukünftigen Ereignissen, Werten und Informationen mit ihren jeweiligen Wahrscheinlichkeiten fokussiert. Dazu präsentierte er spannende Anwendungsfälle, wie z.B. Risikomanagement, Telekommunikation, Energieerzeugung oder Predictive Policing. Außerdem stellte er die Voraussetzungen und Best Practices zur erfolgreichen Nutzung in Unternehmen vor. Dazu gehören:

  • Das Bewusstsein für das, was man wissen möchte und die Fähigkeit, dieses genau formulieren zu können. Erst daraus resultiert die Auswahl des Datenbestandes, auf dem die Analyse basieren soll.
  • „Make or buy“-Entscheidungen bezüglich Modell und Algorithmen treffen: Softwarelösungen bieten eine gewisse Funktionalität, komplexe Systeme kosten allerdings sehr viel Geld. Man kann fertige Analysen, Daten oder nur den Algorithmus kaufen.
  • Risikobewertungen durchführen: Gibt es beispielsweise unmittelbare oder mittelbare Abhängigkeiten (oder sogar Ketten) von Software, Daten- oder Analyseanbieter?
  • Personalentscheidungen treffen: Data Scientists sind ein „must“! Best-in-Class-Unternehmen sind Vorreiter – 54 Prozent beschäftigen Data Scientists. Eine Personal-Knappheit ist absehbar.
  • Die Organisation auf Predictive Analytics vorbereiten, sodass Vorhersagen als Zuarbeit bei der Entscheidungsfindung akzeptiert werden.

und die Diskussionsergebnisse

Im Anschluss an den Vortrag sind Fragen aufgekommen wie „Ab welcher Unternehmensgröße macht ein Einsatz von Predictive Analytics Sinn?“ oder „Welche Tools und Ansätze eignen sich für KMUs?“

In den stammtisch-üblichen Open Space Workshops – ein agiles, offenes Format für den kollegialen Austausch – wurden diese und weitere Fragen eingehend behandelt, mit spannenden Ergebnissen. Dabei haben sich insgesamt drei Gruppen zu folgenden Themen intensiv ausgetauscht:

  • Tools und Anwendungsbeispiele / -erfahrungen
  • Akzeptanz durch die Organisation
  • Datengrundlage

Die anwesenden Teilnehmer diskutierten in diesem Rahmen die im Impuls-Vortrag aufgeworfenen Aspekte und Fragen. Sie kamen zu ganz unterschiedlichen Einschätzungen:

Die Gruppe, die sich mit den Tools und Praxisbeispielen auseinandergesetzt hat, hat festgestellt, dass auf dem Markt bereits einige Predictive Analytics-Tools existieren, die jedoch offensichtlich alle aus statistischen Bibliotheken stammen und somit keine oder nur geringe Unterschiede aufweisen. Darüber hinaus wurde sich über eine Crowd-Plattform ausgetauscht, auf der Analysten feststellen können, wie gut ihr eigens entwickelter Algorithmus denn tatsächlich ist.

Angeregt durch die Diskussion zum Thema „Akzeptanz durch die Organisation“ lässt sich festhalten, dass Medien, Daten und Technologie sowie das Bewusstsein für eine notwendige Veränderung im Zuge der Digitalisierung in der Organisation verankert werden müssen – vor allem in KMUs.

Aber bevor überhaupt ein Predictive Analytics Tool eingesetzt werden kann, bedarf es einer soliden Grundlage, womit sich die dritte Gruppe befasst hat. Für viele Fragestellungen müssen Daten erst erhoben und strukturiert werden, dazu bedarf es auch klassischer Verfahren wie z. B. Panels und Prozessanalysen. Vorhandene Massendaten, z. B. aus dem Social Media-Umfeld oder über Sensoren ermittelte Daten sind das Spielfeld der im Begriff Data Mining zusammengefassten Methoden.

Falls Sie Fragen oder Anmerkungen zum Thema haben, melden Sie sich gerne bei uns  kontakt@hrcie.com
Und notieren Sie sich gleich den voraussichtlichen Termin unseres nächsten Stammtisches am 26. April 2018 und freuen Sie sich auf einen interessanten Austausch.

Hier können Sie sich gerne für den nächsten BI-Stammtisch anmelden oder treten Sie einfach unserer XING-Gruppebei.