Anforderungen an die Erklärbarkeit von Künstlicher Intelligenz im deutschen Bankensektor

Das PwC-Self-Assessment unterstützt Sie bei der Einordnung.

Die Erklärbarkeit von Künstlicher Intelligenz (KI) stellt eine der zentralen Herausforderungen für die breitere Nutzung der neuen Technologie im deutschen Bankensektor dar. Je leistungsfähiger und effizienter die Algorithmen arbeiten, desto weniger ist es für Nutzer:innen in der Regel nachvollziehbar, wie sie ihre Entscheidungen treffen. Sie werden daher oft als “Black Box” bezeichnet. Während über das grundsätzliche Erfordernis der Erklärbarkeit weitgehend Einigkeit herrscht, ist die Ausgestaltung einer angemessenen Erklärung selten genau definiert. Erklärungen für die verschiedenen Interessensgruppen im deutschen Bankensektor unterscheiden sich jedoch und müssen daher adressatenspezifisch, auf die Anforderungen der Empfänger:innen hin, ausgestaltet sein. PwC hat untersucht wie diese adressatenspezifischen Erklärungen aussehen können und Erklärungsschemata entwickelt, die institutsspezifisch genutzt und auf Anwendungsfälle angepasst werden können.

Erklärbarkeit als Herausforderung im Einsatz von KI-Technologien

Künstliche Intelligenz (KI) kann in fast allen Bereichen einer Bank eingesetzt werden. Kundenorientierte Front-Office Anwendungen umfassen bspw. die Bonitätsbewertung oder “Know Your Customer”-Prozesse und prozessorientierte Back-Office-Anwendungen befähigen die Datenqualitätssicherung, das Modell-Risikomanagement, Stresstests oder die Betrugserkennung. Der deutsche Bankensektor tastet sich jedoch vergleichsweise vorsichtig an die Nutzung der KI-Systeme heran. Ein wesentliches Hindernis dafür ist laut einer PwC Studie die fehlende Sicherstellung der Erklärbarkeit von eingesetzten KI-Systemen. Je leistungsfähiger und effizienter die Algorithmen arbeiten, desto weniger ist für Nutzer:innen in der Regel nachvollziehbar, wie sie ihre Entscheidungen treffen. Sie werden daher oft als „Black Box“ bezeichnet. Die Erklärbarkeit von KI stellt in diesem Sinne eine der zentralen Herausforderungen für die breitere Nutzung der neuen Technologie im deutschen Bankensektor dar.

Verschiedene Interessengruppen haben verschiedene Anforderungen an Erklärbarkeit

Während über das grundsätzliche Erfordernis der Erklärbarkeit weitgehend Einigkeit herrscht, ist die Ausgestaltung einer angemessenen Erklärung selten genau definiert. Der Bankensektor begegnet an dieser Stelle der besonderen Herausforderung, dass verschiedenste Interessengruppen unterschiedliche Anforderungen an die Erklärbarkeit haben und Erklärungen an die jeweiligen Bedürfnisse der Empfänger:innen angepasst sein sollten.

An einer normativen Definition der Anforderungen an die Erklärbarkeit seitens der Bankenaufsicht oder dem Gesetzgeber mangelt es bislang. Die zentrale Frage, die sich daher stellt, ist: Wie sieht eine Erklärung für die Interessengruppen im Bankensektor aus, für Entscheidungen, die durch eine Form der Künstlichen Intelligenz getroffen oder vorbereitet werden?

Eine Untersuchung von PwC zeigt, dass sich Erklärungen für die verschiedenen Interessensgruppen im deutschen Bankensektor unterscheiden und daher adressatenspezifisch ausgestaltet sein müssen. Dies gilt insbesondere für jene komplexen Algorithmen, die nicht per Konzeption als erklärbar gelten, sondern für die post-hoc eine Erklärung generiert werden muss. Hierzu wurden interessengruppen-spezifische Erklärungsschemata entwickelt, die als Grundlage für die Umsetzung in der Praxis dienen und je nach Institut und Anwendungsfall angepasst werden können.

Erklärungsschemata als Ausgangspunkt für weiteren Diskurs

Die entwickelten Schemata können innerhalb eines Instituts als Grundlage für die hausinterne Definition der Anforderungen an Erklärbarkeit von KI genutzt werden. Sie können adaptiert oder erweitert werden, um die bankspezifischen Anwendungsfälle abzudecken. Sie können dabei unterstützen die Anforderungen in die schriftlich fixierte Ordnung zu überführen, die Umsetzung sicherzustellen und für Dritte die Erfüllung regulatorischer und gesetzlicher Vorgaben nachvollziehbar zu machen.

Insbesondere die Berücksichtigung der Anforderungen von Verbraucher:innen an die Erklärbarkeit von KI soll sicherstellen, dass das Vertrauen in KI-gestützte Entscheidungen wächst und diese Entscheidungen genauso akzeptiert werden, wie die von Menschen. Für alle Interessensgruppen gleichermaßen sollen die Erklärungsschemata ein Bewusstsein für die Anforderungen des Gegenübers im Dialog sein. Sie sollen die Verschiedenartigkeit der Anforderungen über die Interessengruppen hinweg transparent machen und adressatengerechte Erklärungen fördern.

Wir gehen die entwickelten Erklärungsschemata gerne mit Ihnen durch, passen diese auf Ihre Bedürfnisse an und begleiten Sie im Diskurs mit der Aufsicht.

Sollten Sie noch nicht sicher sein, wo Sie in Bezug auf die Erklärbarkeit Ihrer KI-Anwendungen stehen, besuchen Sie unsere Website und nutzen Sie unser Self-Assessment zur Einordnung.

Zu weiteren PwC Blogs

Zum Anfang