Warum KI-Governance zum strategischen Vorteil für Asset Manager wird

Künstliche Intelligenz (KI) ist kein Zukunftsthema mehr, sie ist längst Teil des Alltags – auch im Asset Management. Immer mehr Marktteilnehmer erkennen das strategische Potenzial von KI und investieren gezielt in entsprechende Anwendungen.

Doch bei allem Fortschritt wird auch deutlich: Der tatsächliche Nutzen hängt maßgeblich davon ab, wie strukturiert und verantwortungsvoll KI in der Organisation verankert wird. In diesem Blogartikel erfahren Sie, wo der Markt aktuell steht, welche Herausforderungen KI mit sich bringt – und wie eine durchdachte KI-Governance zum echten Wettbewerbsvorteil wird.

Der Blick in den Markt zeigt: Zahlreiche Asset Manager stufen KI als strategische Priorität ein

Die Mehrheit der Asset Manager in Deutschland und Luxemburg haben bereits erste Use Cases im Einsatz oder befindet sich mitten in der Entwicklung – das zeigen Studien von PwC. Systeme wie ChatGPT, Google Gemini oder Microsoft Copilot sind längst Bestandteil der Praxis.

Der Blick nach vorn ist eindeutig – der Einsatz von KI soll in den kommenden Jahren signifikant ausgebaut werden. Dabei ist diese Entwicklung nicht allein technologiegetrieben. Vielmehr stehen konkrete operative Aspekte im Vordergrund: 

  • der Wunsch nach Effizienzgewinnen,
  • die Notwendigkeit zur Kostenreduktion sowie
  • der zunehmende Druck, dem Fachkräftemangel etwas entgegenzusetzen.

Wo setzen Asset Manager Künstliche Intelligenz ein?

Die Einsatzmöglichkeiten für KI im Asset Management sind vielfältig – und sie wachsen stetig. Ob Research, Risikomodellierung, Portfoliosteuerung oder Reporting: In nahezu allen Bereichen der Wertschöpfungskette lassen sich heute bereits produktive Anwendungen beobachten. 

So kommen beispielsweise im Research automatisierte Textanalysen oder Screening-Modelle zum Einsatz. Zur Optimierung des aufsichtlichen Reporting oder zur Analyse neuer regulatorischer Anforderungen nutzen Asset Manager speziell trainierte Machine Learning Modelle oder greifen auf externe Lösungen zurück. 

Im Portfoliomanagement experimentieren einzelne Häuser mit KI-gesteuerten Handelsalgorithmen. Die vollständige Automatisierung von Anlageentscheidungen bleibt jedoch bislang eine Ausnahme. Ein “ESMA Report on Trends, Risks and Vulnerabilities Risk Analysis“ aus Februar 2025 zeigt, dass KI-basierte Investmentstrategien bislang keine durchgängig überlegene Performance liefern. Stattdessen nutzen viele Asset Manager generative KI vor allem als Unterstützung für menschliche Entscheidungen – ein hybrides Modell, das in der Praxis gut funktioniert.

Warum die Umsetzung häufig komplexer ist als erwartet

Trotz der hohen Relevanz stehen viele Asset Manager vor strukturellen Hürden. In der Praxis zeigt sich, dass fehlendes Know-how, unzureichende Datenqualität sowie die schwierige Integration neuer KI-Systeme in bestehende IT-Landschaften wesentliche Stolpersteine darstellen. 

Auch regulatorische Unsicherheit spielt eine Rolle – insbesondere mit Blick auf neue gesetzliche Vorgaben wie den EU-AI Act.

Der AI Act: Erste einheitliche Regulierung für Künstliche Intelligenz

Mit dem im August 2024 in Kraft getretenen EU-AI Act (Verordnung (EU) 2024/1689) hat die Europäische Union ein bisher weltweit einzigartiges Regelwerk geschaffen. Das Ziel: Innovation ermöglichen, Vertrauen in KI-Systeme schaffen und Nutzer:innen schützen. 

Um dieses Ziel zu erreichen, folgt der AI Act einem risikoorientierten Ansatz – je höher das Risiko eines KI-Systems, desto strenger die regulatorischen Anforderungen. Vor diesem Hintergrund unterscheidet der AI Act KI-Systeme in vier unterschiedliche Risikokategorien:

Risikoklasse Anforderungen Typische Beispiele
Verbotene KI Vollständiges Verbot. Keine Inverkehrbringung oder Nutzung erlaubt.
  • Social Scoring
  • KI zur Verhaltenslenkung
  • Emotionserkennung
Hochrisiko-KI

Umfassende Pflichten, u. a.:

  • Risikomanagement
  • Technische Dokumentation
  • Datenqualität
  • Transparenz
  • menschliche Aufsicht
  • Konformitätsbewertung 
  • […]
  • Kreditwürdigkeitsprüfung
  • CV-Screening im HR-Bereich
  • Biometrische Zugangssysteme
Begrenztes Risiko

Transparenzpflichten:

  • Nutzer:innen müssen erkennen, dass sie mit KI interagieren
  • Hinweis bei Deepfakes
  • Option zur Ablehnung/ Korrektur möglich
  • Chatbots im Kundenservice
  • KI-generierte Videos
  • Deepfakes
Minimales Risiko Keine spezifischen Anforderungen unter dem AI Act – Freiwillige Standards & Codes of Conduct möglich
  • Empfehlungssysteme
  • Spamfilter
  • Autokorrektur

Für General Purpose AI-Systeme (GPAI) – also KI-Systeme, die auf Modellen mit allgemeinem Verwendungszweck basieren und für verschiedenste Aufgaben einsetzbar sind – gelten ab dem 2. August 2025 gesonderte Anforderungen. Darunter: Pflicht zur Erstellung technischer Dokumentationen und Transparenzberichte zu Fähigkeiten, typischen Risiken sowie erklärende Hinweisen für Anwender der GPAIs.

Was bedeutet das für Sie?

Unabhängig davon, ob KI-Systeme selbst entwickelt oder von Anbieter wie OpenAI, Microsoft oder Google bezogen werden – eine sorgfältige Analyse der jeweiligen Use Cases im Hinblick auf die zutreffende Risikoklasse und die Ableitung der jeweiligen regulatorischen Anforderungen ist unerlässlich. Denn bei Verstößen gegen die Bestimmungen des AI Acts drohen nicht nur Reputationsschäden, sondern auch empfindliche Geldbußen.

Der Erfolgsfaktor für den Einsatz von KI

Auch wenn der AI Act von Marktteilnehmer kritisch betrachten wird, muss er kein Innovationshemmnis sein. Wer die Regelungen ernst nimmt und Strukturen schafft, legt den Grundstein für den erfolgreichen Einsatz von KI. Genau hier kommt eine durchdachte, unternehmensspezifische KI-Strategie und KI-Governance ins Spiel.

Eine durchdachte KI-Strategie sorgt dafür, dass KI nicht als isolierte Technologie betrachtet wird, sondern als integrierter Bestandteil der unternehmensweiten Architektur – im Einklang mit Geschäfts-, IT- und Risikostrategie. Die Operationalisierung erfolgt über eine strukturierte KI-Governance. Sie definiert Rollen, Regeln und Prozesse für einen verantwortungsvollen, rechtssicheren und ethisch vertretbaren Einsatz von KI-Systemen.

Vor dem Hintergrund regulatorischer Vorgaben und bestehender Marktpraktiken kristallisieren sich fünf Kernbereiche heraus, die für eine belastbare KI-Governance-Struktur maßgeblich sind:

  1. Transparenz und Erklärbarkeit
    Die Funktionsweise von KI-Systemen und deren Entscheidungslogiken müssen für Nutzer:innen, interne Prüfer und externe Aufsichtsbehörden nachvollziehbar sein.
  2. Datenmanagement
    Qualität, Verfügbarkeit und Herkunft von Daten sind zentral. Der Output von KI-Systemen hängt unmittelbar von der Qualität des Inputs ab – ein aktives Datenmanagement ist essenziell.
  3. Regulatorische Compliance
    Der EU AI Act bildet die regulatorische Grundlage. Weitere Rechtsbereiche – insbesondere Datenschutz und Urheberrecht – müssen ebenfalls berücksichtigt werden.
  4. Risikomanagement
    Von der Identifikation über Bewertung bis zur Steuerung: Ein belastbares Risikomanagement ist unverzichtbar, um Risiken systematisch zu erfassen und adressieren zu können.
  5. Monitoring und Qualifikation
    KI-Systeme benötigen kontinuierliche Überwachung und Weiterentwicklung. Parallel gilt es, die Kompetenzen der Mitarbeitenden gezielt auf- und auszubauen.

Entscheidend ist jedoch nicht nur das „Was“, sondern auch das „Wie“.

Ihre KI-Governance sollte stets risikoorientiert und proportional zur Reife ihrer individuellen KI-Initiativen aufgebaut sein – nicht als bürokratisches Pflichtprogramm, sondern als Enabler für verantwortungsvolle und nachhaltige Innovation in Ihrem Unternehmen.

In vielen Organisationen stellt sich früher oder später die Frage: Wer trägt die Verantwortung für die Umsetzung der KI-Governance?

Unsere Antwort: Eine effektive KI-Governance erfordert Engagement auf allen Ebenen der Organisation – von der operativen Umsetzung in der 1st-Line über die Risikoüberwachung in der 2nd-Line bis zur unabhängigen Prüfung durch die 3rd-Line.

„KI wirkt über die gesamte Wertschöpfungskette und die gesamte Organisation – entsprechend breit muss auch das Governance-Verständnis sein. Binden Sie daher möglichst früh alle Bereiche des Unternehmens in Ihre KI-Aktivitäten ein.“
Maximilian Hohendorn, Manager | Risk & Regulation | Asset & Wealth Management

Blick nach vorne: Bereit für die nächste Entwicklungsstufe?

Die nächste Stufe der KI-Entwicklung wird von autonomen KI-Agenten geprägt sein. Die Frage ist nicht, ob diese Entwicklung Auswirkungen auf Ihre Organisation haben werden, sondern wie gut Sie darauf vorbereitet sind. 

Fragen Sie sich:

  • Wo stehen Sie aktuell mit Ihren KI-Aktivitäten und wo möchten Sie hin?
  • Haben Sie die organisatorischen und rechtlichen Anforderungen klar im Blick?
  • Haben Sie Vorkehrungen getroffen, um KI-Systeme nachhaltig zu betreiben und zu skalieren?

Jetzt ist der richtige Zeitpunkt, um die Weichen zu stellen. Egal ob Sie noch experimentieren, KI bereits integriert haben oder sich auf erste Prüfungen vorbereiten – wir begleiten Sie gerne. 

Treten Sie mit uns in Kontakt und nutzen Sie unser Know-How – wir freuen uns auf den Austausch!

Weiterführende Links:

Laufende Updates zum Thema erhalten Sie über das regulatorische Horizon Scanning in unserer Recherche-Applikation PwC Plus. Lesen Sie hier mehr über die Möglichkeiten und Angebote.

Zu weiteren PwC Blogs

 

Kontakt

Maximilian Hohendorn

Maximilian Hohendorn

Manager
Frankfurt am Main

Zum Anfang