In den vergangenen Tagen hat die Europäische Zentralbank (EZB) Banken vor neuen Risiken im Zusammenhang mit fortgeschrittenen Systemen der künstlichen Intelligenz gewarnt. Nach Einschätzung der Aufseher könnten solche Technologien nicht nur bestehende Prozesse effizienter machen, sondern zugleich neue Angriffsflächen im Bereich der Cybersicherheit sowie zusätzliche operative Verwundbarkeiten schaffen. Die Hinweise erfolgen in einer Phase, in der viele Institute ihre Nutzung datengetriebener Systeme deutlich ausweiten.

Aufsicht richtet Blick auf neue Risikostrukturen

Wie aus einem Bericht von Reuters hervorgeht, haben EZB-Vertreter das Thema in Gesprächen mit Banken aufgegriffen. Im Mittelpunkt stehen Szenarien, in denen leistungsfähige KI-Modelle missbraucht oder gezielt manipuliert werden könnten. Dabei geht es weniger um einzelne konkrete Vorfälle, sondern um strukturelle Risiken, die sich aus der zunehmenden Komplexität solcher Systeme ergeben. Insbesondere die Möglichkeit, dass automatisierte Prozesse bestehende Sicherheitslücken verstärken, rückt stärker in den Fokus der Aufsicht.

Viele Banken setzen künstliche Intelligenz inzwischen in zentralen Bereichen ein, etwa bei der Betrugserkennung, der Kreditbewertung oder im Kundenservice. Diese Anwendungen versprechen Effizienzgewinne und schnellere Entscheidungsprozesse. Gleichzeitig entsteht jedoch die Herausforderung, die Funktionsweise komplexer Modelle nachvollziehbar und kontrollierbar zu halten. Je stärker sich Prozesse auf solche Systeme stützen, desto größer wird die Abhängigkeit von deren Stabilität und Verlässlichkeit.

Abhängigkeit von Drittanbietern rückt in den Vordergrund

Ein weiterer Aspekt betrifft die wachsende Nutzung externer Anbieter für KI-Lösungen. Viele Institute greifen auf spezialisierte Unternehmen zurück, um moderne Technologien schneller implementieren zu können. Dieses Modell beschleunigt die Digitalisierung, wirft jedoch Fragen zur Kontrolle und Verantwortlichkeit auf. Wenn ein System von außen bereitgestellt wird, ist oft unklar, wie transparent dessen interne Abläufe sind und wie Risiken im Ernstfall zugeordnet werden können.

Aus Sicht der Aufseher entsteht dadurch eine zusätzliche Komplexität im Risikomanagement. Banken müssen nicht nur ihre eigenen Systeme überwachen, sondern auch sicherstellen, dass externe Modelle den regulatorischen Anforderungen entsprechen. Die EZB legt nahe, dass Governance-Strukturen, Prüfverfahren und Überwachungsmechanismen entsprechend angepasst werden sollten, um auf diese Entwicklung zu reagieren.

Frühe Warnung deutet auf strengere Aufsicht hin

Die Intervention der EZB kommt zu einem Zeitpunkt, an dem künstliche Intelligenz zunehmend in kritische Abläufe des Finanzsystems eingebunden wird. Auch ohne konkrete Schadensfälle signalisiert die Notenbank damit, dass Risiken frühzeitig adressiert werden sollen. Der Ansatz zielt darauf ab, Probleme zu erkennen, bevor sie sich systemisch auswirken können.

Für Banken bedeutet dies, ihre Strategien im Umgang mit KI weiterzuentwickeln. Neben Effizienzgewinnen rücken Fragen der Transparenz, der Nachvollziehbarkeit und der Krisenreaktion stärker in den Vordergrund. Wie gut es den Instituten gelingt, Innovation und Stabilität miteinander zu verbinden, dürfte maßgeblich dafür sein, wie sich der Einsatz künstlicher Intelligenz im europäischen Finanzsystem in den kommenden Jahren entwickelt.