Kategorie: Data Intelligence

Bleiben Sie auf dem Laufenden - der Data Intelligence RSS-Feed

Vorteile von kĂĽnstlicher Intelligenz im Datenmanagement: Zwei Anwendungen zur Effizienzmaximierung

Ein Beitrag im Rahmen der Jump Start Challenge von PwC

Der gezielte Einsatz künstlicher Intelligenz zur Unterstützung von Unternehmensprozessen ist angesichts wachsender Datenmengen in Banken und Versicherungen wichtig für einen nachhaltigen Unternehmenserfolg. Durch einen unternehmensweiten Zugriff auf die richtigen Daten können fundiertere Entscheidungen getroffen und Prozesse optimiert werden. PwC bietet hierzu verschiedene Anwendungen, die den Umgang mit Daten in der Finanzindustrie erleichtern.

Datenmanagement fĂĽr Unternehmen im Ăśberblick

Daten sind die Treibstoffe der Finanzwelt – ein Thema an dem kein Unternehmen mehr vorbei kommt. Bis 2022 werden weltweit rund 100 Zettabyte (1 Zettabyte entspricht 660 Milliarden Standard-Blu-rays) an Daten produziert worden sein. Die Verarbeitung einer solchen Datenmenge kann nicht mehr manuell mit herkömmlichen Tools bewältigt werden. Damit Finanzinstitute Daten fĂĽr Analytics Use Cases nutzen können, mĂĽssen sowohl Datenqualität als auch -verfĂĽgbarkeit sichergestellt werden. Dazu benötigen sie ein funktionierendes Datenmanagement, welches es ermöglicht, Daten automatisiert zu verarbeiten und zu analysieren. Grundsätzlich mĂĽssen Daten korrekt, konsistent, zugänglich, nutzbar und sicher sein, um die Nutzbarkeit fĂĽr Geschäftsprozesse zu maximieren. Dies fĂĽhrt zu Herausforderungen, die aufgrund der zunehmenden Digitalisierung inzwischen nicht mehr nur die IT, sondern auch alle anderen Unternehmensbereiche betreffen. Um die erforderliche Datenqualität konsequent sicherstellen zu können, mĂĽssen sowohl Data Architecture als auch Data Governance strategisch in die Geschäftsziele integriert werden. Da die manuelle Säuberung und Aufbereitung von Daten viele Kapazitäten mit technischem Know-How binden, das an anderen Stellen fehlt, können skalierbare und automatisierte KI-Lösungen als neuer Standard etabliert werden. Zugleich muss die Kompatibilität mit den verschiedenen, existierenden Systemen gewährleistet sein.

Diese Veröffentlichungen zeigen die regulatorischen Anforderungen beim Einsatz künstlicher Intelligenz von Finanzdienstleistern auf

Bei der EinfĂĽhrung von kĂĽnstlicher Intelligenz (KI) stehen Unternehmen vor groĂźen Herausforderungen, wie auch vor vielen Unsicherheiten. KI-Modelle können verschiedenste Fehler aufweisen, die dazu fĂĽhren, dass die Entscheidungen auf Basis von verzerrten (engl.: biased) Daten getroffen werden oder Ergebnisse nicht ausreichend robust und wiederholbar sind. Diese Fehler treten meist nicht beabsichtigt auf, sondern aus Unwissenheit oder aufgrund mangelnder Regelungen und Kontrollen rund um die neuen Technologien. 

Wenn solch fehlerhafte Modelle zum Einsatz kommen und ihre Ergebnisse im Anschluss nicht kritisch hinterfragt und geprüft werden, kann dies drastische persönliche, finanzielle oder sicherheitstechnische Auswirkungen haben. Zudem kann es zu einem nachhaltigen Vertrauensverlust für die Nutzung von KI führen. Das ist insbesondere der Fall für hochgradig komplexe KI-Algorithmen, die zwar oft mit Leistungsfähigkeit und Effizienz punkten, aber aufgrund ihrer Komplexität und der mangelnden Nachvollziehbarkeit oder Transparenz ihrer Funktionsweise als Blackbox bezeichnet werden.

Next Generation Cloud-Reporting – Wie sieht die Reporterstellung in der Cloud-Zukunft aus?

Aktuelle Herausforderungen und Treiber im Reporting

Herausforderungen in der Berichtserstellung beginnen häufig bereits bei der Datenbereitstellung und -verarbeitung. Fragmentierte IT-Landschaften, silohafte Datenhaltung, eine Vielzahl an Beteiligten und die Nutzung verschiedenster Tools, die sich nur bedingt miteinander verbinden lassen, sind dabei nur einige wenige Beispiele dafür, warum Prozesse in der Berichtserstellung oft langsam, unflexibel und kostspielig sind.

Hinzu kommen zahlreiche manuelle Prozesse sowie individuelle Formate und eigenentwickelte Analysetools, die nicht nur fehleranfällig sind, sondern auch kaum ohne Weiteres einen Austausch oder Kollaboration ermöglichen. Die Folge sind mangelnde Nachvollziehbarkeit und keine ausreichende Transparenz über verfügbare Daten und Informationen.

Die zunehmend große Menge an verfügbaren Daten kann zudem nicht vollumfänglich genutzt werden, wenn vorhandene Infrastrukturen nicht die benötigte Rechen- und/oder Speicherleistung bieten oder nicht schnell skalierbar sind, wie es bei der lokalen Datenhaltung mit On-Premises Lösungen oft der Fall ist.

Auswirkungen der Taxonomie-Verordnung fĂĽr Banken im Kontext IT und Datenmanagement

EU Taxonomie-Verordnung im Bankensektor

Die Bedeutung der Taxonomie-Verordnung fĂĽr Banken

Im Rahmen des ĂĽbergeordneten EU Green Deals enthält die Taxonomie Verordnung (VO) technische Beurteilungskriterien zur Einstufung nachhaltiger Wirtschaftsaktivitäten und kann somit als Klassifizierungssystem zur Kontrolle und Steuerung von Kapitalströmen gesehen werden. Die Verordnung umfasst insgesamt 6 Umweltziele. Die technischen Beurteilungskriterien liegen derzeit fĂĽr die Umweltziele 1. “Klimaschutz” und 2. “Anpassung an den Klimawandel” vor, fĂĽr die anderen Umweltziele 3. “Nachhaltige Nutzung von Wasserressourcen”, 4. “Wandel zu einer Kreislaufwirtschaft”, 5. “Vermeidung von Verschmutzung” und 6. “Schutz von Ă–kosystemen und Biodiversität” stehen diese noch aus. Kurz gefasst, liefert die Taxonomie eine gemeinsame Definition dessen was ein grĂĽnes Asset ist und was nicht. Dementsprechend bildet dieses Klassifizierungssystem die Basis fĂĽr weitere politische Projekte wie den EU Green Bond Standard. Die Taxonomie Verordnung ist aber nicht nur ein Klassifizierungssystem fĂĽr grĂĽne Assets, sondern beinhaltet auch neue Berichtspflichten. Im Rahmen der Taxonomie-VO mĂĽssen neue Nachhaltigkeits-Kennzahlen, z. B. die Green Asset Ratio, und Reporting Templates im Rahmen der nichtfinanziellen Erklärung veröffentlicht werden. Banken sind fĂĽr die Berichtsjahre 2021 und 2022 verpflichtet hierzu eine reduzierte Version der Taxonomie-Meldung vorzulegen. Diese reduzierte Meldung umfasst die Offenlegung der  taxonomiefähigen Vermögenswerten anteilig am Gesamtvermögen im Rahmen der nicht-finanziellen Berichterstattung. DarĂĽber hinaus  sind qualitative Informationen sowie der Anteil und die Unterteilung der nicht-taxonomiefähigen Vermögenswerte in weiteren Kennzahlen offenzulegen. Ab dem Berichtsjahr 2023 erfolgt die Berechnung und Veröffentlichung der detaillierten KPI (taxonomiekonforme / “aligned” wirt. Aktivitäten) und qualitativen Informationen, mit Ausnahme derjenigen fĂĽr GebĂĽhren und Provisionen, sowie der Handelsbestände (Berichtsjahr 2025). Die Auswirkungen auf die IT Landschaft sind weitreichend, insbesondere mit neuen Anforderungen an die ESG Datenerhebung sowie die Datenverarbeitung bis hin zum Reporting. Im Hinblick auf zukĂĽnftige Erweiterungen der Taxonomie, z.B. die Ausarbeitung der technischen Beurteilungskriterien der Umweltziele 3 ff. in 2022 und der Integration einer “Sozialen Taxonomie”, ist es daher umso wichtiger, auf ein flexibles und erweiterbares IT-Lösungsdesign zu setzen.

Europäische Kommission als Vorreiter zur Regulierung von künstlicher Intelligenz

Neue regulatorische Anforderungen an KĂĽnstliche Intelligenz (KI) 

KĂĽnstliche Intelligenz (KI) birgt enormes Potential fĂĽr unsere Gesellschaft – diese Ansicht vertritt auch die Europäische Kommission (EU-Kommission) und hat KI in ihrer Digitalisierungsstrategie hohe Bedeutung eingeräumt. Die EU-Kommission hat hierzu einen Verordnungsentwurf zur Regulierung der Nutzung KĂĽnstlicher Intelligenz („KI“) vorgelegt. Der Entwurf zielt darauf ab, die bisherige regulatorische LĂĽcke zu schlieĂźen und gleichzeitig durch mehr Klarheit und greifbare Definitionen auch das gesellschaftliche Vertrauen in KI-Systeme zu stärken/schaffen. 

Mit dem Artificial Intelligence Act (EU AI Act) hat die EU-Kommission einen Vorschlag für die Schaffung harmonisierter Regeln für einen verhältnismäßigen und risikobasierten Ansatz für den Einsatz von künstlicher Intelligenz in Europa vorgestellt. Die Kommission präsentiert mit der Verordnung einen neuen Rechtsrahmen im Umgang mit KI, für jene Fälle, welche die bestehenden nationalen Vorschriften nicht abdecken. Mit diesem Framework hat die EU-Kommission einen klaren Ansatz geschaffen, KI in vier Risikostufen von „minimal Risk“ (minimalem Risiko) bis hin zu „unacceptable risk“ (nicht akzeptierbares Risiko) einzuteilen und entsprechend zu regulieren. So bringt sie strenge Regelungen und verbindliche Anforderungen an KI der Kategorie „high risk“ (hohem Risiko) mit sich, als auch Anforderungen an KI mit „limited risk“ (limitiertem Risiko).

Crypto Asset AML Monitoring & Compliance Management

Die Financial Action Task Force (FATF) ist der fĂĽhrende Player bei der Erarbeitung anerkannter und wirksamer Leitlinien und Vorschriften zur Bekämpfung krimineller Aktivitäten in Finanzsystemen. Seit der GrĂĽndung der FATF haben ihre Empfehlungen die weltweite Gesetzgebung zur Geldwäscheprävention beeinflusst. Nach der Definition der FATF handelt es sich bei Krypto Vermögenswerten um Wertgegenstände, die digital gehandelt oder ĂĽbertragen und zu Zahlungs- oder Anlagezwecken verwendet werden können. Zusätzlich zu ihren Empfehlungen stellt die FATF auch Auslegungshinweise zur VerfĂĽgung. Die aktuelle Version dieser Auslegungshinweise empfiehlt den Mitgliedstaaten, dafĂĽr zu sorgen, dass Dienstleister mit Zugang zu Krypto Vermögenswerten die Daten von Absendern und Empfängern erfassen. Das deutsche Bundesfinanzministerium hat einen Entwurf fĂĽr eine Kryptowertetransfer-Verordnung veröffentlicht. der Entwurf dient der Umsetzung der Standards der FATF (Empfehlung 15 – Auslegungsnote 7b, sog. “travel rule” fĂĽr Kryptowerte). Die Verordnung ordnet somit an, dass Informationen ĂĽber den BegĂĽnstigten oder Auftraggeber eines Kryptowerttransfers gesammelt und gespeichert werden mĂĽssen, wenn der Transfer von oder zu einer Wallet erfolgt, die nicht von einer Krypto-Verwahrstelle verwaltet wird (sog. „unhosted wallet“).

Moderne IT-Architekturen fĂĽr analytische Use Cases stellen die Unternehmensziele in den Vordergrund

Der Wandel in “datengetriebene Unternehmen” steht industrieübergreifend bei vielen Vorständen in den Strategiepapieren. Gleichzeitig ist die Bedeutung dieses Wandels auf die Personas in eben diesen Unternehmen und vor allem der Umgang mit Daten innerhalb eines Unternehmens stark verschieden.

Michi, 54 Jahre, Unternehmensführung, möchte verlässliche Daten, die eine breite Basis für Entscheidungen bieten und in Echtzeit, durch Self-Service Tools bereitgestellt werden. Zusätzlich sollen bestimmte Daten durch advanced Analytics Methoden angereichert und dadurch weitere Insights generiert werden.

Robin, 32 Jahre, Risk-Compliance, sieht die Gefahr von Verstößen gegen geltende Regulierung wie der DSGVO und gleichzeitig die Gefahr von Datenverlusten und unbefugten Zugriffen auf zentrale Datenspeicher.

Kim, 37 Jahre, IT & Enterprise Architektur Department, muss mit den steigenden Datenmengen zurechtkommen und dafĂĽr sorgen, dass die Daten sowohl fĂĽr operative Systeme, als auch fĂĽr Analytics und Reporting bereitstehen und gleichzeitig gegen fremde Zugriffe abgesichert sind.

Warum sich Finanzdienstleister mit DevOps beschäftigen sollten

Der Markt wird schneller – DevOps befähigt ihre IT-Abteilung mitzuhalten

Wie lange brauchen Softwareprodukte in einem typischen Unternehmen der Finanzindustrie, um von der ersten Idee bis zur erfolgreichen Inbetriebnahme zu kommen? 

In vielen Fällen wird dieser Zeitrahmen in Monaten, wenn nicht Jahren gezählt. Dennoch schaffen es einige Wettbewerber, auch komplexe Software schnell zu entwickeln und produktiv zu nutzen. 

Diese erfolgreichen Marktteilnehmer zeichnet eine hohe Agilität aus – schon lange ein wichtiges Thema in Financial Services und darĂĽber hinaus. Der Fokus liegt dabei häufig darauf, die Schnittstelle zwischen Fachbereichen und Entwickler:innen so zu optimieren, dass Mehrwerte fĂĽr Fachbereiche schnell erzielt werden können. Die so erstellen Lösungen mĂĽssen in den produktiven Betrieb ĂĽberfĂĽhrt werden – was aufwändige Prozesse beim Testen und der Produktivnahme nach sich zieht. 

Hier scheitern viele Unternehmen, was sie daran hindert, Ihre Entwicklungs-PS beispielsweise im Kontext AI und Cloud “auf die Straße zu bekommen”.

Ziel der agilen Transformation muss es daher sein, nicht nur Fachbereiche mit den Entwickler:innen (Dev) besser zu verzahnen, sondern auch den Betrieb (Ops) – die Grundlage von DevOps.

DSGVO Compliance – Löschen Sie schon oder speichern Sie noch?

Das Löschen von personenbezogenen Daten ist zugleich Schlüsselfunktionalität und -Herausforderung zur nachhaltigen Gewährleistung der DSGVO-Compliance.

„Wenn Unternehmen behaupten, sie seien DSGVO-konform, schauen wir uns einfach ihr Löschkonzept an.“ (Leiter einer deutschen Landesdatenschutzbehörde)

Laut EU-Datenschutzgrundverordnung (DSGVO) ist die Verarbeitung sowie Speicherung personenbezogener Daten nur unter bestimmen Bedingungen zulässig, wie z.B. beim Vorliegen einer Dateneinwilligungserklärung oder zur ErfĂĽllung rechtlicher Verpflichtungen. Die DSGVO basiert auf dem Grundprinzip „Verbot mit Erlaubnisvorbehalt“, d.h. die Verarbeitung personenbezogener Daten ist nur solange zulässig, wie eine der in der DSGVO genannten Bedingungen erfĂĽllt ist. Entfällt dieser „Erlaubnisvorbehalt“ sind die davon betroffenen personenbezogen Daten unverzĂĽglich zu löschen.

IBOR Monitor – Alle Monitoringaktivitäten rund um die IBOR-Reform aus einer Hand

Referenzzinssätze – auch als IBORs (Interbank Offered Rates) bekannt – geben an, zu welchem Zinssatz sich Banken unbesichert Geld zu verschiedenen Laufzeiten leihen können. Diese Referenzzinssätze wurden in den letzten Jahren aufgrund der Manipulationen einiger Banken einer breiten Öffentlichkeit bekannt. Diese Manipulationen waren möglich, weil in der Vergangenheit die zugrunde gelegten Werte nicht auf tatsächlichen Geschäften basierten, sondern auf Mitteilungen der Banken. Auf Basis der EU-Benchmark-Verordnung (EU-BMV) sowie der durch die Märkte getriebenen globalen Reformbemühungen stehen die bekannten Referenzzinssätze größtenteils nun vor der Ablösung. Wir befinden uns damit im letzten Jahr der LIBOR-Ära, in dem nun ein Markt von 350 Billionen USD umgestellt wird. Die bekannten Zinsen werden von einer breiten Zahl von alternativen Zinssätzen abgelöst. Bei diesen alternativen Zinssätzen handelt es sich um risikofreie Referenzzinsen, die sich an tatsächlichen Transaktionen zwischen Banken orientieren und von einzelnen Institutionen währungsspezifisch veröffentlicht werden. Im Bereich der Term Rates etablieren sich darüber hinaus produktabhängig eine Vielzahl von unterschiedlichen Zinsberechnungsmethoden, die auf diesen neuen Referenzzinsen basieren.