Künstliche Intelligenz bietet den Banken zahlreiche Vorteile. Doch sie müssen auch wichtige Vorkehrungen treffen, um die Risiken zu bewältigen, schreibt Kris Lovejoy von der Firma Kyndryl in ihrem Gastbeitrag für finews.ch.

Banken sind aktuell sehr daran interessiert, Generative Künstliche Intelligenz (KI) einzusetzen, um die Betrugserkennung zu optimieren, die interne Produktivität zu steigern und das Kundenerlebnis weiter zu verbessern. Aber sie zögern, über kleine Pilot-Implementierungen hinauszugehen.

Der Hauptgrund für dieses Zögern: Vertrauen und Compliance-Regeln. Das Fundament des Bankwesens beruht darauf. Während Technologien den meisten Institutionen helfen, schnellere und einfachere Dienstleistungen anzubieten, bestimmen strenge Vorschriften, wie diese Dienstleistungen erbracht werden. Darüber hinaus beeinflussen allgemein anerkannte Rahmenbedingungen und Standards das Sicherheitsmanagement und den Datenschutz.

Diese Infrastruktur aus Prozessen und Richtlinien schafft Vertrauen im gesamten System.

Unternehmen dringen in unbekannte Bereiche vort

Generative KI birgt Risiken, die bei diesen Sicherheits- und Datenschutzansätzen nicht berücksichtigt werden. Unternehmen dringen in unbekannte – und ungeregelte – Bereiche der ethischen und verantwortungsvollen Entwicklung und Nutzung autonomer Technologien vor. Um Banken, die KI-Projekte umsetzen möchten, bei der Bewältigung dieser neuen Herausforderungen zu unterstützen, ist es wichtig, verschiedene Strategien zu berücksichtigen, und zwar auf systematische und risikosensible Weise.

Regierungen und Organisationen haben KI-Rahmenwerke und Vorschläge für den öffentliche Sektor eingeführt, um die Entwicklung und den Einsatz von KI zu unterstützen. Dazu zählen das KI-Governance-Toolkit des Weltwirtschaftsforums (WEF), die OECD-Prinzipien für KI, die G20-KI-Prinzipien oder das NIST AI Risk Management Framework. Sie alle bieten einen wertvollen Fahrplan für die Umsetzung und haben einige gemeinsame Grundprinzipien.

Systeme unter menschlicher Kontrolle

Darüber hinaus müssen die Systemdesigner und -entwickler die potenziell negativen ethischen und sozialen Auswirkungen des Systems sorgfältig abwägen. Die Systeme sollten unter der Kontrolle eines Menschen stehen, der Entscheidungen rückgängig machen kann.

Die Steuerung und Verwaltung des Systems muss klar geregelt sein, wobei besonders darauf zu achten ist, dass diejenigen benannt werden, die für die Einhaltung ethischer, rechtlicher und anderer definierter Standards verantwortlich sind.

Quelle und Integrität der Daten

Das Sprichwort «schlechte Daten rein, schlechte Daten raus» könnte für generative KI nicht zutreffender sein. Der häufigste Fehler bei der Entwicklung und Erstellung von KI-Systemen besteht darin, keine zuverlässigen Daten zu beschaffen, aus denen vertrauenswürdige und unvoreingenommene Modelle und Ergebnisse erstellt werden können.

Nach der Erstellung wird häufig versäumt, die Daten vor absichtlicher oder unabsichtlicher Beschädigung, Manipulation oder Löschung zu schützen. Auch die Entwicklung von Mechanismen zur Feature-Extraktion, das heisst, die Fähigkeit, Fehler beim Modelltraining zu erkennen, festzustellen, was falsch gelaufen ist, und die fehlerhaften Features zu entfernen, wird oftmals nicht weiterverfolgt.

KI in der Kundenbetreuung

Einer der effektivsten Ansätze für den erfolgreichen Einsatz generativer KI ist die Kundenbetreuung. Dies wird häufig von Banken genutzt, welche das generative KI-System einsetzen, um eine endliche Menge möglicher Fragen zu beantworten. Wenn eine Frage gestellt wird, die nicht zum Standardrepertoire der Antworten gehört, wird ein Mensch hinzugezogen. In dieser Phase errät das generative KI-System die Antwort.

Wenn die Antwort richtig ist, akzeptiert der Mensch die Antwort und gibt sie weiter, wodurch das KI-Modell lernt. Ist die Antwort falsch, antwortet der Mensch auf die Frage, und dies wird zum Trainieren des Modells verwendet. Auf diese Weise kann ein vertrauenswürdiges Modell aufgebaut werden, das den Kunden eine verlässliche Wahrheit bietet. Mit der Zeit werden menschliche Eingriffe immer seltener erforderlich sein, da das KI-System immer zuverlässiger wird.

Angemessene Leitplanken

KI ist zwar äusserst attraktiv, hat aber auch das Potenzial, grossen Schaden anzurichten, wenn sie nicht richtig gesteuert und verwaltet wird. Aus diesem Grund müssen von Anfang an angemessene Leitplanken und Kontrollmechanismen festgelegt werden, damit KI als vertrauenswürdiger Begleiter im globalen Bankensystem funktionieren kann.

Und es ist von entscheidender Bedeutung, dass diese Leitplanken ein angemessenes Gleichgewicht zwischen Risikomanagement und der Ermöglichung von nachhaltiger Innovation und Wachstum darstellen.


Kris Lovejoy ist Global Cybersecurity and Resiliency Leader bei der auch in Zürich ansässigen Firma Kyndryl. Das in New York domizilierte Unternehmen ist ein weltweit führender Anbieter von IT-Infrastrukturdiensten für Tausende von Firmenkunden in mehr als 60 Ländern.