Startseite Insights HRCIE-News Predictive Analytics – Wenn der Computer in die Glaskugel schaut
19. September 2019

Predictive Analytics – wenn der Computer in die Glaskugel schaut

Wir ertrinken in Informationen, aber wir hungern nach Wissen – Predictive Analytics hilft!

Lesen Sie in Teil 1 unserer Beitragsreihe, was Predictive Analytics eigentlich ist, worin der Mehrwert liegt und wo es im Unternehmen eingesetzt wird.

„Wir ertrinken in Informationen, aber wir hungern nach Wissen“ – so fasst der amerikanische Trend- und Zukunftsforscher John Naisbitt das gegenwärtige Dilemma vieler Unternehmen passend zusammen.

Damit legt er den Finger in die Wunde: Mehr Informationen führen nicht zwangsläufig zu besseren Entscheidungen. Es gilt vielmehr, die richtigen Schlüsse aus den vorhandenen Daten zu ziehen und dieses Wissen effizient zu nutzen, um betriebliche Prozesse und strategische Ausrichtung zu optimieren. An diesem Punkt setzt Predictive Analytics an.

Was genau versteht man unter Predictive Analytics?
Im Gegensatz zu Descriptive Analytics („Was ist passiert?“) und Diagnostic Analytics(„Warum ist etwas passiert?“) geht es bei Predictive Analytics um die Beantwortung der Frage „Was wird mit ausreichend hoher Wahrscheinlichkeit passieren?“

Um solche Vorhersagen fundiert treffen zu können, werden geeignete Techniken und Methoden aus Statistik, Computerwissenschaften und anderen quantitativen Disziplinen eingesetzt. Auf der Basis von Informationen aus der Vergangenheit bestimmen sie die Wahrscheinlichkeiten für zukünftige Ergebnisse und Ereignisse. In diesem Zusammenhang beinhaltet Predictive Analytics auch das maschinelle Lernen.

Worin liegt der Mehrwert von Predictive Analytics?
Analytische Verfahren nehmen in Unternehmen einen immer größeren Stellenwert ein. Der International Data Group (IDG) zufolge messen zwei von drei Unternehmen dem Thema Predictive Analytics für die Geschäftsentwicklung in zwei, drei Jahren eine große Bedeutung zu.
Unternehmen verfolgen mit dem Einsatz von Predictive Analytics vielfältige Ziele. Der Mehrwert, der durch Predictive Analytics erzielt werden kann, lässt sich je nach Wirkung in die folgenden zwei Kategorien einordnen:

Effizienz: Optimierung betrieblicher Prozesse

  • Verbesserung der Qualität bestehender Produkte und Dienstleistungen
  • Höherer Umsatz
  • Höhere Kosteneffizienz
  • Optimierung der Lieferkette

Effektivität: Bessere Datenbasis für strategische Entscheidungen

  • Kundenzufriedenheit / besseres Kundenverständnis
  • Digitalisierung der gesamten Kundenbeziehung
  • Entwicklung neuer Produkte, Geschäftsmodelle, Geschäftsfelder oder Zielgruppen
  • Entwicklung datengetriebener Geschäftsmodelle
  • Aufwertung bestehender Produkte durch digitale Services2

Wo kommt Predictive Analytics zum Einsatz?
Für bestimmte Unternehmensbereiche und Anwendungsfälle bietet Predictive Analytics einen ganz konkreten Mehrwert:

Bereich Anwendungsfälle Mehrwert durch Data Analytics
Marketing
  • Quantitative Analyse
  • Simulation von Werbemaßnahmen
  • Text Mining / Social Analytics
  • Kundensegmentierung
  • Höherer Umsatz
  • Optimale Allokation des Marketingbudgets
Vertrieb
  • Vertriebscontrolling
  • Vertriebsoptimierung
  • Höherer Umsatz
  • Transparenz
Produktion
  • Predictive Maintenance
  • Steigerung der Maschinenverfügbarkeit
  • Werkzeugkostenoptimierung
  • Höhere Auslastung
  • Geringere Downtimes
  • Effizientere Produktion
F & E
  • Datengestützte Entwicklung
  • Lifecycle-Optimierung (Qualität & Kosten)
CRM
  • Churn-Analyse (Kundenabwanderung)
  • Frühwarnsystem für technischen Support
  • Kohortenanalyse
  • Optimale Nutzung der Kundenkanäle
  • Bessere Kundenbindung
Beschaffung
  • Einkaufskostenoptimierung & -transparenz
  • Supply Chain Optimierung
  • Sinkende Einkaufskosten
  • Transparenz & Erkennen von Risikofaktoren
Finance
  • Kreditrisikoanalyse
  • Fraud Detection
  • Transparenz über Kosten & Risiken

Ausblick

In den nächsten Beiträgen dieser Serie lernen Sie die wichtigsten Erfolgsfaktoren, Hindernisse und Methoden für Predictive Analytics kennen. Schauen Sie wieder rein am 26.9.2019.

Und melden Sie sich schon heute zu unserem BI-Stimmtisch am 14. November 2019 an, auf dem wir ein konkretes Anwendungsbeispiel aus dem Bereich Unternehmensplanung präsentieren werden. Anmeldung und weitere Informationen hier.

Kontakt:
HENDRICKS, ROST & CIE. GmbH, Cecilienallee 66, 40474 Düsseldorf, kontakt@hrcie.com

26. September 2019

Predictive Analytics: Was es zu einer so machtvollen Vorgehensweise macht – und welche Hindernisse es gibt

In Teil 2 unserer Beitragsreihe erfahren Sie, welchen wichtigen Erfolgsfaktor Predictive Analytics hat und welche Hürden bei der Einführung in Unternehmen zu überwinden sind.

Predictive Analytics: Was es zu einer so machtvollen Vorgehensweise macht – und welche Hindernisse es gibt

Zukünftige Entwicklungen abzuschätzen und Absatz- sowie Umsatzpotenziale zu prognostizieren, gehört in vielen Unternehmen bereits zum Tagesgeschäft. Die Anbieter von Predictive-Analytics-Lösungen arbeiten hier mit Methoden, die teilweise altbewährte Verfahren enthalten. Sie verwenden beispielsweise Clusteranalysen, Assoziationsanalysen oder neuronale Netze, um Auffälligkeiten und Muster in Daten aufzudecken. Um Prognosen zu treffen, ziehen sie nach wie vor klassische Verfahren aus der Statistik wie Regressionsanalysen und Trendexpolation heran.

Wirklich neu bei aktuellen Predictive-Analytics-Lösungen sind jedoch die technologischen Möglichkeiten und deren Marktreife, wie eine Studie des The Data Warehousing Institute (TDWI) hervorhebt. Demnach befinden sich Predictive-Analytics-Lösungen in der frühen Mainstream-Phase der Adoption.

Technologie: Wichtiger Erfolgsfaktor für Predictive Analytics

Die Weiterentwicklung der technologischen Möglichkeiten hebt das Potenzial von Predictive Analytics stetig an.

  • Daten lassen sich heutzutage im großen Stil sammeln, konsolidieren und auswerten
  • Es gibt eine Vielzahl an Analytics- und KI-Lösungen, darunter auch Open-Source-Software
  • Graphische Benutzeroberflächen (GUI – Graphical User Interface), wie R Studio oder insbesondere der SPSS Modeler, ermöglichen eine intuitivere Bedienung
  • Ein Großteil der Software beinhaltet Tools für die automatische Datenaufbereitung, Modellauswahl und die Modellüberwachung
  • Es gibt eine Vielzahl von Tools für Visualisierungen.

Nichtsdestoweniger ist es auch der gestiegenen Leistungsfähigkeit der Algorithmenzuzuschreiben, dass Predictive-Analytics-Techniken auch bei großen Datenmengen schnelle Auswertungen ermöglichen.

Ein Beispiel: Zwei Personen stehen vor demselben analytischen Problem. Person A erhält zur Lösung des Problems einen 20 Jahre alten PC und den „neuesten“ Algorithmus, Person B einen PC auf dem aktuellsten Stand der Technik und einen Algorithmus, der vor 20 Jahren zur Lösung des Problems verwendet worden wäre.

Wer ist schneller? Lösung: Person A – und zwar um den Faktor 100 (Stiller, S. 17). Das beweist: Die Aktualität des Algorithmus ist wichtiger als ein neuer PC.

Hindernisse für erfolgreiches Predictive Analytics

Auch wenn die technischen Möglichkeiten die Potenziale für Predictive Analytics deutlich steigern, so gibt es dennoch einige praktische Hürden:

  • Chronischer Mangel an gut ausgebildetem IT-Personal, Data-Scientists
  • Eine Infrastruktur, die unterschiedliche Daten bereitstellt
  • Es werden zwar Daten gesammelt, aber es fehlt ein greifbares Ziel oder ein konkreter Plan, wie mit den Daten gearbeitet werden soll
  • Sachbearbeiter sind weder motiviert noch werden sie incentiviert, Daten zu pflegen
  • Fachabteilungen kaufen IT-Systeme ein („best-of breed“ regiert)

Eine weitere Hürde stellt der Umgang mit den gesammelten Daten dar und betrifft die Frage, wem eigentlich die Daten gehören.

  • Mögliche Konflikte mit Kunden und Verbraucherschützern
  • Einzelne Abteilungen (bzw. Tochterfirma und Mutterkonzern) innerhalb eines Unternehmens, die auf „ihren“ Daten sitzen und diese nicht herausrücken wollen

Ein weiterer Kritikpunkt betrifft die Fragstellung, ob – und falls ja, wo – es überhaupt möglich ist, aus der Vergangenheit zu lernen, insbesondere wenn historische Daten nur eingeschränkt oder in unzureichendem Umfang vorliegen oder Prognosen innerhalb sehr komplexer Marktstrukturen getroffen werden sollen.

D.h. in komplexen und dynamischen Märkten macht es wenig Sinn, die Zukunft vorhersagen zu wollen, indem man den Blick auf die Vergangenheit richtet. An dieser Stelle müssen die Methoden der Predictive Analytics um weitere Methoden, etwa Simulationen, ergänzt werden.

Ausblick

Im nächsten Beitrag geht es um Ursache-Wirkungs-Zusammenhänge von Predictive Analytics. Schauen Sie wieder rein am 02.10.2019

Und melden Sie sich schon heute zu unserem BI-Stimmtisch am 14. November 2019 an, auf dem wir ein konkretes Anwendungsbeispiel aus dem Bereich Unternehmensplanung präsentieren werden. Anmeldung und weitere Informationen hier.

Kontakt:
HENDRICKS, ROST & CIE. GmbH, Cecilienallee 66, 40474 Düsseldorf, kontakt@hrcie.com

02. Oktober 2019

Predictive Analytics: die Verheißung?

Teil 3 unserer Beitragsreihe dreht sich darum, wie wichtig es ist, die ermittelten Daten in sinnvolle Zusammenhänge zu stellen – und was geschieht, wenn dies nicht gelingt.

Predictive Analytics: die Verheißung?

2009 prognostizierte eine Gruppe von Forschern, die bei Google angestellt waren, dass es ihnen ohne medizinische Untersuchungen möglich sein würde, die Verbreitung des Grippevirus in den USA vorauszusagen. Das von ihnen entwickelte „Google Flu Trends“war dabei wesentlich schneller als die zuständige Gesundheitsbehörde in den USA, das Center for Disease Control and Prevention (CDC).

Während das CDC eine Woche oder länger brauchte, um sich auf Grundlage von ärztlichen Meldungen ein Bild zu machen, erstellte Google Flu Trends mit nur einem Tag Verzögerung eine Prognose über den Verlauf der Grippe. Überdies war es kostengünstiger.

Hinzu kam, dass Google Flu Trends ohne eine Theorie auskam – also keine Hypothese aufgestellt werden musste, etwa darüber, welche Suchbegriffe in welcher Ausprägung mit der Ausbreitung des Grippevirus korrelierten.

  • Google Flu Trends stand damit sinnbildlich für die Verheißungen, die mit dem damals aufkommenden Schlagwort Big Data verbunden wurden:
  • Datenanalyse liefert präzise Vorhersagen.
  • Daten können immer schneller und kostengünstiger gesammelt werden – statistische Stichprobenverfahren sind überflüssig.
  • Man muss sich nicht mehr den Kopf über Kausalzusammenhänge zerbrechen – die statistische Korrelation liefert alle wichtigen Fakten.
  • „The End of Theory“: Wissenschaftliche Methoden und statistische Modelle werden nicht benötigt, da mit ausreichend Daten die Zahlen für sich selbst sprechen.

Ursache-Wirkungs-Zusammenhänge müssen eindeutig sein

Vier Jahre später trat die Ernüchterung ein: Das zuvor verlässliche Modell von Google Flu Trends sagte eine Grippeepidemie voraus; nach Erscheinen der CDC-Daten stellte sich jedoch heraus, dass Google Flu Trends die Ausbreitung von grippeähnlichen Erkrankungen um einen Faktor von zwei überschätzt hatte.

Erklärung dafür war, dass im Dezember 2012 eine Vielzahl von angsterregenden Nachrichten über die Grippe kursierten und diese Nachrichten eine Vielzahl von Websuchen auslösten. Selbst Menschen, die gesund waren, informierten sich darüber im Netz. Das Problem war also, dass Google noch nicht wusste und nicht wissen konnte, wie genau die Suchbegriffe mit der Ausbreitung von Grippe in Verbindung standen. Das Interesse der Google-Forscher galt einfach nicht dem Herstellen von kausalen Zusammenhängen, sondern dem Finden von statistischen Mustern.

Das Problem dabei ist: Korrelation ist nicht gleich Kausalität (spurious correlations).

  • Wenn man nicht weiß, was hinter einer Korrelation steckt, kann man auch nicht vorhersagen, wodurch die Korrelation möglicherweise zusammenbricht.
  • Die anfallenden Daten müssen nicht nur ausgewertet, sondern auch interpretiert werden.
  • Wenn die Ursache-Wirkungs-Zusammenhänge nicht verstanden werden, bleiben die Muster und Korrelationen weitestgehend zufällig.
  • Es besteht die Gefahr, dass Entwicklungen und Gesetzmäßigkeiten der Vergangenheit einfach in die Zukunft fortgeschrieben werden.
  • Für Unternehmen kommt es in erster Linie nicht auf die Masse der Daten und Algorithmen an, sondern auf eine sinnstiftende Verknüpfung

Predictive Analytics – eine Blackbox?

Meist weiß nur derjenige, der die Ursache-Wirkungs-Zusammenhänge konfiguriert hat, auf welchen Annahmen sie basieren und wie ihre Ergebnisse interpretiert werden dürfen. Das schließt in den meisten Fällen Sachbearbeiter wie Vorstandsmitglieder in den Unternehmen aus. Wie können diese dann aber einem Modell trauen, das sie nicht verstehen?

Ausblick

Auf diese und weitere Fragen gehen wir auf unserem BI-Stammtisch am 10. Oktober 2019 ein. Melden Sie sich an und erleben Sie ein konkretes Anwendungsbeispiel aus dem Bereich der Unternehmensplanung. Anmeldung und weitere Informationen hier.

Kontakt:
HENDRICKS, ROST & CIE. GmbH, Cecilienallee 66, 40474 Düsseldorf, kontakt@hrcie.com