Loading...

Künstliche Intelligenz:

Herausforderungen für die Versicherungsbranche

Künstliche Intelligenz: Herausforderungen für die Versicherungsbranche

Wer nach künstlicher Intelligenz fragt, stellt sich hoffentlich auch die Frage, was denn „natürliche Intelligenz“ sei und gerät sofort ins Schwimmen: die einfachste, etwas stoische, Antwort gab der Psychologe Boring bereits 1923: „Intelligenz ist das was Intelligenztests messen“.

Wir sprechen von Künstlicher Intelligenz, wenn wir es mit Systemen zu tun haben, die Eigenschaften zeigen, die wir eigentlich Menschen zuschreiben würden: also z.B. das Planen von Aktionen, das Erkennen von Gegenständen, das „Lernen“ aus Beispielen usw. Bisher sind die intelligenten Fähigkeiten auf konkrete Anwendungsfälle begrenzt, deren Zahl jedoch exponentiell wächst.

Aktuelle Anwendungen: Klassifikation und Erkennungsleistung

Die Versicherungsbranche investiert hohe Summen in die Anwendung von KI, v.a. in den Bereichen Customer Contact und Schadensregulierung. So hat eine deutsche Versicherung bereits 2018 mit Alexa eine Möglichkeit geschaffen, automatisiert Versicherungen abschließen zu können. Als weitere mögliche Beispiele seien hier genannt: Optimierung des Schadensabwicklung, Robotic Process Automation, Textanalyse von Korrespondenz und intelligente Bildverarbeitung, bzw. deskriptive Analyse von Bildinhalten bspw. aus Schadensfällen.

Jedoch gilt auch hier: die Technologien, die Unternehmen helfen, bspw. Kundengruppen zu segmentieren oder Risiken zu klassifizieren, können natürlich auch von der „Gegenseite“ angewendet werden. Das klassische Beispiel hierfür sind Deepfake Bilder oder -Videos.

Dies alles hat zur Folge, dass sich das Kompetenzprofil für Mitarbeiter weiter wandeln muss. Die Herausforderung ist hoch, denn die zugrunde liegende Technologie ist komplex, und Menschen, die die technisch-algorithmische Seite beherrschen und zugleich fähig sind, die Potenziale in Unternehmenspolitik und -strategie zu übersetzen, sind bis auf weiteres selten.

Ethische Herausforderungen: Transparenz und Fairness, Konsequenzen für Entscheidungsprozesse und ein Plädoyer für die zweitbeste Lösung

Wir übersehen gerne, dass künstliche Intelligenz anders ist als menschliche Intelligenz. Aber: Wie Menschen, sind auch KIs in der Regel nicht transparent: sie liefern eine Entscheidung, jedoch keine Begründung. Dies lässt sich mit den bisher genutzten Systemen auch nicht beheben: sie bleiben intransparent. Mit „Explainable AI“ wird versucht, dies zu beheben; die Erfolge sind übersichtlich und werden es wohl auch bleiben.

Aber: Vertrauen in eine Systemleistung entsteht nicht durch Erklärung, sondern durch Beobachtung (als Beispiel sei hier unser komplexes Geldsystem angeführt): Ein System verhält sich so und so oft korrekt, also vertraut man auch auf die aktuell vorliegende Entscheidung.

Ergänzt wird dies durch eine zweite Herausforderung: dem „Fairness Bias“: Die Zeitung „The Guardian“ berichtete vor einigen Jahren von einem Suchergebnis von Google auf die Anfrage nach „drei weißen Teenager“ und „drei schwarzen Teenager“ Die referenzierten Bilder eines Tweets sahen so aus:

Screenshot Suchergebnis Bildersuche

Suchergebnisse „drei schwarze Teenager“, „drei weiße Teenager“

Der dem Ergebnis zugrunde liegende Suchalgorithmus hat abhängig von der Historie und den zur Verfügung stehenden Daten mal drei Gefängnisinsassen herausgesucht und mal drei freizeitbezogene Menschen gezeigt. Die Ursache liegt jedoch nicht darin, dass die KI der genutzten Suchmaschine „rassistisch“ war, sondern dass die Datenlage solch eine Auswahl nahegelegt hat: In den Medien zeigen sich vergleichbare Unterschiede in der Berichterstattung: Wir leben den gezeigten Bias selber vor und eine auf Datenauswertung basierende Künstliche Intelligenz kann damit nur zu solch einem Ergebnis kommen, wenn eben diese Daten nichts anderes vorgeben. So liegt die Idee nahe, die Daten so vorzuverarbeiten, dass sie uns „fair“ erscheinen. Wer bestimmt was fair ist? Wie weit geht die Datenmanipulation und warum sollte sie für „gut gemeinte“ erlaubt sein, und für andere nicht?

Zusammen mit dem o.a. angeführten Problem der mangelnden Transparenz entsteht so ein erhebliches Interpretationsproblem der Daten. Mit zunehmender Geschwindigkeit und Komplexität der Daten und Prozesse ist dies für Unternehmen eine Herausforderung. Die übliche Antwort ist, genau das Werkzeug zur Bewältigung der Herausforderung zu nutzen, die das Problem herbeigeführt hat: KI unterstützt oder ersetzt menschliche Leistung. Aus Sicht des Autors brauchen wir einen klar gesicherten Raum für Bauchentscheidungen, für vermeintlich zweitbeste Entscheidungen. Für Unternehmen bedeutet dies, neben der normativen Kraft des Faktischen, nämlich der nur theoretischen Möglichkeit, ein Analyseergebnis einer KI zu überstimmen, muss diese Möglichkeit, dem menschlichen Bearbeiter (wenn noch vorhanden) explizit gegeben werden und die Konsequenzen dieser Option nicht nur theoretisch akzeptiert und sanktionsfrei gehalten werden. Denn wenn immer nur ein Optimum gewählt wird, und dieses sich in den Daten festsetzt, wird Vielfalt verloren gehen: es gibt immer weniger Unterschiede und Variationen, die wir jedoch langfristig brauchen, um auf Änderungen schnell und gut reagieren zu können.

Autonome Systeme: Ein neuer Player in den Märkten

Ein anderer Aspekt ist jedoch jenseits der internen Vorgänge von Unternehmen und liegt noch in der Zukunft:

Es wird von Autonomie gesprochen, wenn Systeme ohne menschlichen Einfluss Entscheidungen fällen, die nicht unbedingt vorhersehbar sind und nicht einfachen Regeln folgen, sondern die sich abhängig von Kontext und Lernen verändern können. KI hat das Potenzial dazu: Sie kann in Zukunft als autonomer Akteur am Wirtschaftsleben teilnehmen und ist somit auch ein Thema für Versicherungen: Wer haftet, wenn sich ein System selbstständig aufgrund von Lernen verändert und es in wirtschaftlichem oder anderem Kontext Entscheidungen trifft, die anderen Schaden (oder Nutzen) zufügen? Die EU hat hierzu bereits 2016 einen Vorschlag zu einer dritten juristischen Einheit, der „elektronischen Person“ gemacht: Roboter bzw. KI sollen hierzu als autonom agierende Einheiten einen eigenen, haftungsrelevanten Status erhalten.

Die Versicherungsbranche wird sich in weiterer Zukunft sicherlich mit damit auseinandersetzen müssen. In der Wahrnehmung der meisten Menschen sind Versicherungen aufgrund ihrer Rolle, eben als Helfer in der Not, besonders durch die ethischen Fragen herausgefordert und müssen zugleich im nationalen wie internationalen Wettbewerb bestehen. Kompetenz im Umgang mit KI, nicht nur der Implementierung, ist daher unverzichtbar.

Jörg Kopecz hat Dipl. Physik und ev. Theologie studiert und in Neuroinformatik promoviert. Er ist Professor für Unternehmensführung & digitales Transformationsmanagement an der Hochschule für Ökonomie und Management und Gesellschafter des iTM- Institut für Transformationsmanagement.

Wenn Sie mehr dazu und zu dem Thema KI wissen wollen, oder Jörg Kopecz kennenlernen wollen, wenden Sie sich an uns!

iTM

Institut für Transformations­management

Büros

iTM Nürnberg
Himpfelshofstraße 1
D-90429 Nürnberg

iTM Bonn
Endenicher Straße 34
D-53115 Bonn

Kontakt

T: +49 (0)911 80 10 7-0
F: +49 (0)911 80 10 7-19
@:
: Updates
: Videos