Wie lässt sich Künstliche Intelligenz im Finanzsektor verantwortungsvoll skalieren, ohne regulatorische Sicherheit und organisationale Stabilität zu gefährden? In ihrem Beitrag teilen Dagmar-Elena Markworth und Markus Trost ausgewählte Einblicke aus Gesprächen mit Christian Rhino, CIO der Private Bank der Deutschen Bank AG.
Ob globale Großbank, spezialisierter Asset Manager oder ambitioniertes Fintech: Generative Künstliche Intelligenz entwickelt sich zunehmend zu einem zentralen Baustein der nächsten Transformationswelle im Finanzsektor.
Strategisch ist das Thema damit längst über die Phase rein experimenteller Einzelfälle hinausgewachsen. Im Zentrum steht heute die Frage, wie sich mit KI dauerhaft und verantwortungsvoll Wert schaffen lässt. Operativ jedoch zeigt sich ein anderes Bild. Bei der Umsetzung im großen Maßstab herrscht weiterhin Zurückhaltung. Die aktuelle Studie „State of Generative AI in the Financial Services Industry“ des Deloitte AI Institute bestätigt diese Spannung: hohe Erwartungen, zahlreiche Pilotprojekte – aber bislang nur begrenzt skalierte Wirkung.
Der Weg von der Vision zur Wirkung
69 Prozent der befragten Finanzinstitute erwarten, dass Generative KI ihre Organisation innerhalb der nächsten ein bis drei Jahre substanziell verändern wird. Die Branche zeigt sich damit optimistischer als viele andere Industrien. Gleichzeitig bleibt die tatsächliche Nutzung häufig fragmentiert. KI wird in vielen Häusern noch immer als Sammlung isolierter Anwendungsfälle verstanden, nicht als struktureller Umbau von Wertschöpfung, Entscheidungslogik und Organisation.
Dass der Engpass dabei selten technologischer Natur ist, bestätigt auch Christian Rhino, CIO der Private Bank der Deutschen Bank AG. Aus seiner Sicht liegen die zentralen Hürden vielmehr tief in den Organisationen selbst:
Die eigentlichen Herausforderungen für KI sind sicherlich interne Prozesse, organisatorische Abläufe und Kultur.
Gerade große Finanzinstitute stehen damit vor der Aufgabe, KI nicht nur technisch einzuführen, sondern ihre Betriebsmodelle, Verantwortlichkeiten und Führungslogiken grundlegend zu hinterfragen.
Technologie folgt Strategie – nicht umgekehrt
Ein überraschender Befund der Deloitte-Studie: In Marketing, Sales und Customer Service ist der Einsatz von Generativer KI bereits weiter fortgeschritten als in vielen klassischen Kernfunktionen. Rund 15 Prozent der Finanzdienstleister nutzen KI hier bereits im größeren Maßstab – etwa für personalisierte Kundenkommunikation, intelligente Angebotslogiken oder im Call-Center-Umfeld.
Diese Bereiche profitieren von klar umrissenen Anwendungsfällen und schnellen Feedback-Schleifen. Doch auch hier warnt Rhino vor einem verbreiteten Denkfehler:
KI wird häufig als universelle Lösung betrachtet – unabhängig vom eigentlichen Problem. Erfolgreich ist jedoch nicht, wer möglichst viele KI-Tools einsetzt, sondern wer zuerst versteht, welches Problem gelöst werden soll und warum.
Damit rückt eine Grundfrage in den Fokus, die in vielen Transformationsprogrammen zu kurz kommt: Nicht jede Herausforderung ist ein KI-Problem – und nicht jede KI schafft automatisch Mehrwert.
Aus dieser Perspektive ergibt sich eine klare Prioritätensetzung. Erst das präzise Verständnis des fachlichen und operativen Problems bestimmt, ob und welche KI-Lösung sinnvoll ist. Technologie ist Mittel zum Zweck, nicht Ausgangspunkt.
Entscheidend sind saubere Datenarchitekturen, leistungsfähige Data Lakes und geschützte, unternehmenseigene KI-Umgebungen – ebenso wie die Fähigkeit, diese Systeme verantwortungsvoll zu betreiben.
Der Faktor Mensch
Ebenso zentral wie Technologie und Daten ist der Faktor Mensch. Die Deloitte-Studie zeigt, dass sich lediglich 21 Prozent der Finanzinstitute im Bereich KI-Talent gut aufgestellt fühlen. Der Mangel an qualifizierten Profilen ist dabei nur ein Teil des Problems. Mindestens ebenso relevant ist die Frage, unter welchen Bedingungen Mitarbeitende und Führungskräfte bereit sind, KI tatsächlich einzusetzen und Verantwortung zu übernehmen.
Grundsätzlich mangelt es weder an Interesse noch an Offenheit. In vielen Instituten ist die Neugier auf KI groß – auf Mitarbeitenenebene als auch im Management. Die Zurückhaltung speist sich vielmehr aus Unsicherheit. Unklare regulatorische Leitplanken, uneinheitliche Governance-Strukturen und fehlende technische sowie datenbezogene Grundlagen erschweren es, KI-Anwendungen mit der nötigen Entscheidungssicherheit voranzutreiben.
Diese Unsicherheit wirkt besonders stark auf individueller Ebene. In hoch regulierten Organisationen sind potenzielle Compliance-Risiken nicht abstrakt, sondern persönlich relevant. Fehlende Erklärbarkeit von Modellen, unklare Datenherkunft oder methodische Grauzonen können reale Konsequenzen nach sich ziehen – von negativen Leistungsbewertungen über Bonuswirkungen bis hin zu arbeitsrechtlichen Fragen. Der wahrgenommene persönliche Nachteil tritt damit häufig früher und greifbarer ein als der potenzielle Nutzen einer KI-Anwendung. Das begünstigt defensives Verhalten und verstärkt die Tendenz, Innovation auf Pilotprojekte zu begrenzen.
Gleichzeitig liegt in KI ein besonderer Hebel: Als vergleichsweise demokratische Technologie kann sie von Einzelnen ebenso genutzt werden wie von ganzen Organisationen. Voraussetzung dafür ist ein klar definierter Governance-Rahmen und bewusst geschaffene Räume zum Experimentieren. Solche kontrollierten „Spielwiesen“ ermöglichen es, Anwendungsfälle zu testen, Erfahrungen zu sammeln und Potenziale strukturiert zu bewerten – bevor sie skaliert oder bewusst verworfen werden.
Eine zentrale Rolle kommt dabei der Führungsebene zu. Wenn Vorstände, Führungsgremien und auch Aufsichtsräte frühzeitig eigene Erfahrungen mit KI sammeln, entsteht nicht nur technisches Verständnis, sondern Vertrauen. Aktive Auseinandersetzung reduziert Abstraktion, beschleunigt Lernprozesse und erhöht die Entscheidungssicherheit – auch in Compliance- und Revisionsfragen. Dagmar-Elena Markworth bringt diesen Zusammenhang auf den Punkt:
Ob KI tatsächlich Wirkung entfalten kann, entscheidet sich weniger an der Technologie als an der Führung – ob Verantwortung klar verortet und bewusst übernommen wird.
Für Odgers ergibt sich daraus eine klare Schlussfolgerung: Gefragt sind Führungspersönlichkeiten, die technologische Kompetenz mit regulatorischem Urteilsvermögen verbinden – und durch klare Rahmenbedingungen, definierte Prozesse und dokumentierte Verantwortlichkeiten Sicherheit schaffen.
Ein Praxisbeispiel: Wie die EZB KI verantwortungsvoll skaliert
Dass sich Künstliche Intelligenz auch in hochregulierten Umfeldern erfolgreich und verantwortungsvoll einsetzen lässt, zeigt ein Blick auf die Europäische Zentralbank. Mit „Athena“ hat die EZB ein eigenes Natural-Language-Processing-System entwickelt, das Aufsicht und Regulierung gezielt unterstützt. Mehr als 1.000 Aufseher können damit über fünf Millionen Dokumente aus dem Einheitlichen Aufsichtsmechanismus analysieren – von Prüfberichten über Bankenmeldungen bis hin zu externen Quellen.
Athena klassifiziert Dokumente, erkennt thematische Schwerpunkte, identifiziert Trends und ermöglicht eine konsistente Sentiment- und Risikoanalyse über Institute hinweg. Aufseher erhalten so schneller einen Überblick darüber, wo sich Auffälligkeiten, neue Risiken oder Abweichungen entwickeln – sowohl auf Einzelbank- als auch auf Sektorebene. Analysen, die früher zeitaufwendig und fragmentiert waren, lassen sich deutlich effizienter und vergleichbarer durchführen.
Bemerkenswert ist dabei weniger die Technologie selbst als ihr Einsatzmodell. Die EZB setzt bewusst auf einen „Human-in-the-loop“-Ansatz: Die KI macht Vorschläge und identifiziert Muster, die Bewertung und Entscheidung bleibt jedoch beim Menschen. Experten prüfen Kontexte, interpretieren Ergebnisse und geben Feedback, das wiederum in die Modelle zurückfließt. KI wird damit nicht zum Ersatz, sondern zum Verstärker fachlicher Expertise.
Zugleich investiert die EZB gezielt in technologische Grundlagen. Eigene Rechenkapazitäten, sichere Umgebungen und die enge Zusammenarbeit mit anderen Zentralbanken – etwa der Bank of England oder der US-Notenbank – ermöglichen es, Best Practices zu entwickeln und regulatorische Standards gemeinsam weiterzudenken. Die Aufsicht wird dadurch nicht nur effizienter, sondern auch konsistenter und proaktiver.
Dass dieser Ansatz Anerkennung findet, zeigt eine aktuelle Ehrung: Die EZB wurde für als einer der Gewinner der Capital Best of AI Awards ausgezeichnet. Markus Trost ordnet dies so ein:
Der Erfolg der EZB zeigt, dass KI auch in hochregulierten Organisationen nicht nur sicher, sondern wirkungsvoll eingesetzt werden kann – wenn Governance, Technologie und Führung konsequent zusammengedacht werden.
Der Fall Athena verdeutlicht damit, worauf es beim KI-Einsatz im Finanzumfeld ankommt: klare Verantwortlichkeiten, belastbare Datenstrukturen, frühzeitige Einbindung von Kontrolle und Revision – und Führung, die bereit ist, neue Technologien selbst zu nutzen, statt sie nur zu regulieren.
Fazit: KI ist keine Technologiefrage – sondern eine Führungsaufgabe
Am Ende entscheidet nicht die Leistungsfähigkeit der Modelle über den Erfolg von KI in Financial Services, sondern die Menschen. Führungskräfte müssen mit gutem Beispiel voran gehen. Sie müssen die Bedürfnisse der Kunden verstehen, zukünftige Produkte und Geschäftsmodelle definieren, aber vor allem auch für die Mitarbeitenden klare Ziele setzen. Dabei geht es auch darum, die richtigen Talente weiterzuentwickeln und Verantwortlichkeiten klar aufzuteilen. Die Organisation und die Menschen müssen dazu bereit sein, sich selbst zu verändern, damit KI ihre eigentliche Wirkung richtig entfalten kann.