Machine Learning in Unternehmen: Potentiale und Herausforderungen
Machine Learning ist längst in unserem Alltag angekommen und verändert nachhaltig fast alle Aspekte unseres Lebens. Siri, Cortana und Co. stehen Rede und Antwort im Smartphone, sogenannte Recommender Systeme helfen uns beim Online-Einkauf und das autonome Fahren bringt uns schon bald von A nach B. Hinter den Kulissen des anhaltenden Erfolgs von Machine Learning steckt jedoch ein derzeit unlösbarer Zielkonflikt: Der Kompromiss zwischen Genauigkeit und Erklärbarkeit.
Machine Learning birgt großes Potential für die Unternehmenssteuerung. Um die Technik optimal einzusetzen, muss jedoch eine bestimmte Herausforderung überwunden werden: Der Konflikt zwischen Erklärbarkeit (wie interpretierbar und transparent sind die Ergebnisse?) und Genauigkeit (wie exakt sind die Prognosen?) von Machine Learning-Modellen. Dieser Konflikt basiert auf der unterschiedlichen Komplexität von Machine Learning-Methoden. Weniger komplexe Modelle (z.B. eine lineare Regression) haben in der Regel eine hohe Interpretierbarkeit, jedoch eine geringe Genauigkeit. Diese sind leicht verständlich, scheitern jedoch daran, komplexe Zusammenhänge abzubilden und reduzieren so die Genauigkeit der Prognosen. Hochkomplexe Modelle dagegen weisen in der Regel zwar eine hohe Genauigkeit, jedoch eine geringe Interpretierbarkeit auf. Ein typisches Beispiel für sehr komplexe und intransparente Modelle (sogenannte Black Boxen) sind künstliche neuronale Netze. Künstliche neuronale Netze bilden die Vernetzung von Neuronen im Nervensystem im menschlichen Gehirn nach. Dies ermöglicht, die komplexen (und in der Regel unbekannten) Wechselbeziehungen zwischen den Eingangsgrößen und der bzw. den Zielgröße(n) adäquat abzubilden. Die Rechenoperationen und Wirkmechanismen lassen sich jedoch nur schwer nachvollziehen. Daraus ergibt sich ein zentraler Zielkonflikt: Ein hohes Maß an Erklärbarkeit und gleichzeitiger Genauigkeit ist in der Regel nicht mit Machine Learning-Methoden erreichbar.
Autor
Dr. Dominik Hammann
Dr. Dominik Hammann war wissenschaftlicher Mitarbeiter am Institut für Unternehmensführung am KIT und ist derzeit im Produktcontrolling bei der Audi AG tätig.
Machine Learning oder maschinelles Lernen bezeichnet die Erkennung und Verallgemeinerung von Mustern und Regelmäßigkeiten in Beispieldaten. Algorithmen bauen hierbei ein statistisches Modell auf, das dann gegen unbekannte Daten getestet wird. Im Anschluss können diese Daten erklärt und beurteilt werden.
In vielen Anwendungsfällen sind jedoch beide Attribute zwingend erforderlich. Die Genauigkeit eines Modells ist von enormer Bedeutung, um die adäquaten Entscheidungen abzuleiten und Fehlentscheidungen zu minimieren. Allerdings müssen Entscheidungen von Machine Learning-Modellen ebenso nachvollziehbar sein. Hierzu ist Erklärbarkeit notwendig, die Voraussetzung für das Vertrauen in die Ergebnisse von Machine Learning-Modellen ist. Der Konflikt zwischen Erklärbarkeit und Genauigkeit birgt demnach eine der größten Herausforderungen bei der Anwendung von Machine Learning.
Das Interpretationsproblem in der Unternehmenssteuerung
Die Unternehmenssteuerung ist ein Gebiet, in dem Erklärbarkeit und Genauigkeit notwendig sind. Hier werden, unter anderem, Kostenziele vergeben, Kostenschätzungen durchgeführt, Produktentscheidungen bewertet und strategische Unternehmensentscheidungen getroffen. Ein hohes Maß an Prognosegenauigkeit ist oftmals ein wichtiger Wettbewerbsvorteil. Andererseits ist Erklärbarkeit von zentraler Bedeutung, um die Entscheidungen zu begründen und Vertrauen in diese aufzubauen. Sehr komplexe Machine Learning-Modelle werden deshalb in der Managementpraxis und -wissenschaft nur selten verwendet. Doch wie kritisch ist das „Interpretationsproblem“ in diesem Bereich tatsächlich?
Zur Unternehmenssteuerung zählen eine Vielzahl an Aufgaben und nicht alle Tätigkeiten müssen bis ins letzte Detail erklärt werden. Beispielsweise lässt sich komplexes Machine Learning bei der Prognose von Verkaufszahlen für die Management-Berichterstattung eher einsetzen als bei der Festlegung von Kostenzielen, welche in der Regel detailliert diskutiert werden. Daher gilt: Erklärbarkeit ist kein notwendiges Kriterium für alle Aufgaben der Unternehmenssteuerung. Zunächst lohnt sich die Frage, ob bei einer bestimmten Tätigkeit Erklärbarkeit überhaupt notwendig ist. Muss ich die Methode bzw. die Ergebnisse anderen Personen erklären? Werden die Ergebnisse von den Abnehmer:innen der Ergebnisse hinterfragt? Sollte die Antwort „nein“ lauten, so ist das Interpretationsproblem unkritisch. Auch komplexe Black Box-Modelle, wie zum Beispiel künstliche neuronale Netze, können eingesetzt werden.
Schwieriger wird es, wenn die Fragen mit „ja“ beantwortet werden. Hier muss der/die Anwender:in zunächst einschätzen, was wichtiger ist: Erklärbarkeit oder Genauigkeit. Dann muss ein, der relativen Wichtigkeit von Erklärbarkeit und Genauigkeit angepasstes, Modell gewählt werden. Die Beurteilung einer bestimmten Aufgabe ist zudem nicht allgemeingültig, sondern vielmehr situationsabhängig. So kann, z.B. bei der Produktkostenschätzung während der Produktentwicklung, eine Entscheidung zwischen Erklärbarkeit und Genauigkeit auch von der Phase der Produktentwicklung oder der Produktneuheit abhängen.
Entscheidugnen bei der Modellauswahl werden darüber hinaus dadurch erschwert, da Mitarbeiter:innen in der Unternehmenssteuerung und im Controlling oftmals keine Expert:innen im Bereich des Machine Learnings sind.
Alles eine Frage der Zeit?
Erklärbarkeit dient also dazu, Vertrauen in die Ergebnisse von Machine Learning-Modellen zu schaffen. Passt die Erklärung des Systems zu meinen Erfahrungen? Und selbst wenn nicht, kann ich die Berechnungslogik nachvollziehen? Falls ja, lässt sich einem Modell eher Vertrauen schenken und sich dieses in der Praxis einsetzen.
Hat sich ein System jedoch über längere Zeit bewährt, kann auch gegenüber einer „Black Box“ Vertrauen aufgebaut werden. Wie auch beim selbstfahrenden Fahrzeug vertrauen wir dem System, da sich dieses über Millionen von Kilometern bewährte und nicht, weil wir die zugrunde liegenden Algorithmen verstehen. Im Zentrum beim Einsatz von Machine Learning steht das Vertrauen in die Ergebnisse und Vertrauen beruht nicht nur auf Erklärbarkeit.
Als alternativen Ansatz könnten Black Box-Modelle zunächst zur Orientierung und als Lieferant einer Zweitmeinung für die Entscheidungsträger:innen eingesetzt werden. Stellt sich heraus, dass über einen längeren Zeitraum und über viele Beispiele hinweg die Prognosen hinreichend genau waren, kann ebenfalls Vertrauen aufgebaut werden – und das, ohne die komplexen Mechanismen des Modells gänzlich zu verstehen.
Die ausschlaggebende Frage beim Einsatz von Machine Learning sollte daher lauten: Was schafft mehr Vertrauen: Vertrauen auf der Basis eines erklärbaren Modells oder das Vertrauen eines genauen Modells, welches erst mit der Zeit entsteht? Die Zukunft wird zeigen, in welchem Umfang Vertrauen gegenüber Machine Learning-Modellen aufgebaut werden kann und wie tiefgreifend diese Techniken in die unterschiedlichen Tätigkeitsfelder der Unternehmenssteuerung integriert werden können.
Zum Weiterlesen:
Arrieta, A. B. et al. (2020): Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion 58: 82-115.DOI: 10.1016/j.inffus.2019.12.012.