Zusammenfassung – Die Banken stehen vor einer großen Herausforderung: Generative KI einzusetzen, um das Kundenerlebnis zu verbessern und den Support zu automatisieren, dabei aber PSD2- und DSGVO-Konformität sowie Datensicherheit durch Nachverfolgbarkeit und starke Authentifizierung zu gewährleisten.
Um dies zu erreichen, überarbeiten sie ihre Architektur und setzen auf maßgeschneiderte On-Premise- oder Hybrid-Instanzen mit Tokenisierung, Zero-Trust-Isolation und Compliance-Copilots, um jede Interaktion zu überwachen, zu filtern und zu protokollieren.
Lösung: Ein regulatorisches und technisches Audit durchführen, modulare Workflows für Authentifizierung und Einwilligungsmanagement einführen und anschließend einen agilen Modernisierungsplan starten, um Souveränität, Innovation und ROI zu vereinen.
In einem Umfeld, in dem Künstliche Intelligenz die Bankdienstleistungen rasch verändert, steht eine enorme Herausforderung bevor: Innovation zum Zweck der Erfüllung der Kundenerwartungen mit gleichzeitig strenger Einhaltung regulatorischer Vorgaben und Gewährleistung der Vertraulichkeit von Daten. Banken müssen ihre Architekturen, Prozesse und Governance neu ausrichten, um Generative KI verantwortungsvoll einzusetzen. Dieser Artikel beschreibt die wesentlichen Herausforderungen sowie technische und organisatorische Lösungsansätze und illustriert jeden Punkt durch konkrete Beispiele Schweizer Akteure, um zu zeigen, dass Innovation und Sicherheit Hand in Hand gehen können.
Hintergrund und Herausforderungen der Generativen KI im Digitalbanking
Generative KI etabliert sich als Hebel für Effizienzsteigerung und Kundenbindung im Finanzdienstleistungssektor, erfordert jedoch eine strikte Anpassung, um Sicherheits- und Nachvollziehbarkeitsanforderungen der Branche zu erfüllen.
Anwenderboom und Chancen
Seit einigen Jahren haben intelligente Chatbots, virtuelle Assistenten und prädiktive Analysewerkzeuge die Bankenlandschaft erobert. Die Fähigkeit der Modelle, natürliche Sprache zu verstehen und personalisierte Antworten zu generieren, bietet ein enormes Potenzial zur Verbesserung der Kundenerfahrung, zur Reduzierung der Supportkosten und zur Beschleunigung von Entscheidungsprozessen. Marketing- und Customer-Relationship-Abteilungen setzen verstärkt auf diese Lösungen, um reibungslosere und interaktivere Abläufe zu gestalten.
Gleichzeitig wirft diese rapide Einführung Fragen zur Zuverlässigkeit der gelieferten Informationen und zur Fähigkeit auf, einen servicekonformen Standard in Einklang mit regulatorischen Anforderungen zu gewährleisten. Institute müssen sicherstellen, dass jede Interaktion die Sicherheits- und Vertraulichkeitsvorgaben einhält und dass die Modelle keine sensiblen Daten unkontrolliert reproduzieren oder preisgeben. Für weiterführende Informationen siehe den Fall von KI und Fertigungsindustrie: Anwendungsfälle, Nutzen und Praxisbeispiele.
Kritische Anforderungen: Sicherheit, Compliance, Vertraulichkeit
Der Schutz finanzieller und personenbezogener Daten ist für jede Bank von zentraler Bedeutung. Der Einsatz Generativer KI beinhaltet die Übertragung, Verarbeitung und Speicherung großer Mengen potenziell sensibler Informationen. Jede Eingabe und jede Ausgabe muss nachvollziehbar dokumentiert werden, um Audits zu bestehen und Nichtabstreitbarkeit zu garantieren.
Zudem muss die Sicherheit der Modelle, ihrer APIs und der Ausführungsumgebungen akribisch gewährleistet sein. Risiken durch adversarielle Angriffe oder bösartige Injektionen sind real und können sowohl die Verfügbarkeit als auch die Integrität der Dienste gefährden.
Maßgeschneiderte Lösungen erforderlich
Obwohl öffentliche Plattformen wie ChatGPT einen leicht zugänglichen Einstieg bieten, gewährleisten sie nicht die notwendige Nachvollziehbarkeit, Auditierbarkeit oder Datenlokalisierung, wie sie im Bankensektor verlangt wird. Banken benötigen daher fein abgestimmte Modelle, die in kontrollierten Umgebungen betrieben und in Compliance-Workflows integriert sind.
Ein regionales Kreditinstitut hat beispielsweise eine eigene Instanz eines generativen Modells entwickelt, trainiert ausschließlich auf internen Datenbeständen. Dadurch wird sichergestellt, dass jede Anfrage und jede Antwort im autorisierten Rahmen bleibt und keine Daten an Dritte gelangen. Dieses Beispiel zeigt, dass eine individuelle Lösung schnell implementiert werden kann, ohne die Sicherheits- und Governance-Anforderungen zu vernachlässigen.
Hauptanforderungen an die Compliance und Auswirkungen auf die KI-Lösungsarchitektur
Die Richtlinien PSD2, DSGVO und FIDO stellen hohe Anforderungen an Authentifizierung, Einwilligung und Datenschutz. Sie bestimmen die Architektur, die Datenflüsse und die Governance von KI-Projekten im Digitalbanking.
PSD2 und starke Kundenauthentifizierung
Die Zweite Zahlungsdiensterichtlinie (PSD2) verpflichtet Banken, eine starke Kundenauthentifizierung für jede Zahlungsinitiierung oder Abfrage sensibler Daten umzusetzen. Im KI-Kontext bedeutet dies, dass jede als kritisch eingestufte Interaktion eine zusätzliche Verifizierung auslösen muss, sei es durch einen Chatbot oder einen Sprachassistenten.
Technisch müssen Authentifizierungs-APIs in die Dialogketten integriert werden, einschließlich Session-Timeouts und Kontextprüfungen. Die Workflow-Architektur sollte klare Unterbrechungspunkte vorsehen, an denen die KI auf den zweiten Faktor wartet, bevor sie fortfährt.
So hat ein mittelgroßes Kreditinstitut ein hybrides System eingeführt, bei dem der interne Chatbot bei Anfragen für Überweisungen oder Profiländerungen stets eine 2FA-Authentifizierung anstößt. Diese Lösung gewährleistet eine reibungslose Nutzererfahrung bei gleichbleibend hohem Sicherheitsniveau gemäß PSD2.
DSGVO und Einwilligungsmanagement
Die Datenschutz-Grundverordnung (DSGVO) fordert, dass jede Erhebung, Verarbeitung oder Übermittlung personenbezogener Daten auf einer ausdrücklichen, dokumentierten und widerrufbaren Einwilligung beruht. In KI-Projekten muss daher jede verwendete Datenquelle im Training, bei der Personalisierung der Antworten oder der Verhaltensanalyse nachvollzogen werden können.
Architekturen sollten ein Consent-Log enthalten, das mit jeder Anfrage und jeder Modellaktualisierung verknüpft ist. Verwaltungsoberflächen müssen es erlauben, Daten auf Kundenwunsch zu löschen oder zu anonymisieren, ohne die Gesamtleistung der KI-Dienste zu beeinträchtigen. Dieser Ansatz ist Teil einer umfassenden Daten-Governance-Strategie.
Ein E-Commerce-Anbieter hat beispielsweise ein Einwilligungsmodul entwickelt, das in sein Dialogsystem integriert ist. Kunden können ihre Einwilligungen in ihrem persönlichen Bereich einsehen und widerrufen, wobei jede Änderung automatisch in die Trainingsprozesse der Modelle einfließt und so kontinuierliche Compliance sicherstellt.
FIDO und lokale Regulierungsanforderungen
FIDO (Fast Identity Online) bietet biometrische und kryptographische Authentifizierungsprotokolle, die weit sicherer sind als herkömmliche Passwörter. Lokale Aufsichtsbehörden (FINMA, BaFin, ACPR) empfehlen zunehmend den Einsatz von FIDO, um die Sicherheit zu erhöhen und Betrugsrisiken zu minimieren.
In einer KI-Architektur ermöglicht die Integration von FIDO eine zuverlässige Verknüpfung einer realen Identität mit einer Benutzersitzung – auch wenn die Interaktion über einen virtuellen Agenten erfolgt. Es müssen Module implementiert werden, die biometrische Nachweise oder Hardware-Token validieren, bevor sensible Aktionen genehmigt werden.
Edana: Strategischer Digitalpartner in der Schweiz
Wir begleiten Unternehmen und Organisationen bei ihrer digitalen Transformation.
Entwicklung von KI-Compliance-Agenten
Automatisierte Compliance-Agenten überwachen Datenflüsse und Interaktionen in Echtzeit, um die Einhaltung interner und gesetzlicher Vorgaben sicherzustellen. Ihre Integration reduziert Fehlerrisiken und stärkt die Nachvollziehbarkeit.
Funktionsweise der Compliance-CoPilots
Ein KI-basierter Compliance-Agent fungiert als Filter zwischen den Nutzern und generativen Modellen. Er analysiert jede Anfrage, stellt sicher, dass keine unautorisierten Daten übermittelt werden, und wendet die definierten Governance-Regeln an.
Technisch basieren diese Agenten auf Regel-Engines und Machine-Learning-Modellen, um verdächtige Muster zu erkennen und sensible Informationen zu blockieren oder zu maskieren. Gleichzeitig führen sie ein detailliertes Protokoll jeder Interaktion für Audit-Zwecke.
Die Einführung eines solchen Agents erfordert die Definition eines Regelwerks, dessen Integration in die Daten-Pipelines und die Koordination der Alarmmeldungen mit Compliance- und Sicherheitsteams.
Anomalieerkennung und Risikominimierung
Neben der Verhinderung unkonformer Austausche können Compliance-Agenten auffällige Verhaltensweisen wie ungewöhnliche Anfragemuster oder abnormale Verarbeitungslasten erkennen. Sie generieren in solchen Fällen Alarme oder setzen betroffene Sessions automatisch aus.
Diese Analysen basieren auf überwachten und unüberwachten Modellen, die Abweichungen von üblichen Profilen detektieren. Dank dieser vorausschauenden Erkennung werden mögliche Betrugs- und Datenabflussrisiken frühzeitig eingeschränkt.
Zudem unterstützen sie bei der Erstellung von Compliance-Berichten, die sich in GRC-Systeme (Governance, Risk, Compliance) exportieren lassen, um den Dialog mit Prüfern und Aufsichtsbehörden zu erleichtern.
Anwendungsbeispiele und operative Vorteile
Mehrere Banken testen bereits solche Agents in ihren Online-Services. Sie berichten von deutlich reduzierten manuellen Alarmen, beschleunigten Compliance-Reviews und besserer Transparenz in Bezug auf sensible Datenflüsse.
Compliance-Teams können sich so auf hochriskante Fälle konzentrieren, anstatt tausende Interaktionen manuell zu prüfen. Gleichzeitig profitieren IT-Abteilungen von einem stabilen Rahmen, der Innovationen ermöglicht, ohne Compliance-Risiken befürchten zu müssen.
Diese Erfahrungswerte belegen, dass ein richtig konfigurierter KI-Compliance-Agent zur Säule der digitalen Governance wird und Benutzerfreundlichkeit mit regulatorischer Strenge vereint.
Datenschutz durch Tokenisierung und sichere Architektur
Tokenisierung ermöglicht die Verarbeitung sensibler Daten über anonyme Kennungen und minimiert das Risiko von Datenlecks. Sie lässt sich in On-Premise- oder Hybrid-Architekturen integrieren, um volle Kontrolle zu behalten und ungewollte Exfiltration zu verhindern.
Prinzip und Vorteile der Tokenisierung
Bei der Tokenisierung werden kritische Informationen (Kartennummern, IBAN, Kundenkennungen) durch Token ersetzt, die außerhalb des Systems keinen Wert haben. KI-Modelle können diese Token verarbeiten, ohne jemals mit den Originaldaten in Berührung zu kommen.
Im Fall eines Sicherheitsvorfalls erhalten Angreifer lediglich nutzlose Token, wodurch das Datenrisiko erheblich reduziert wird. Diese Methode unterstützt zudem die Pseudonymisierung und Anonymisierung gemäß DSGVO.
Ein unternehmensinterner Tokenisierungsdienst erfordert die Definition von Mapping-Regeln, einen kryptografischen Vault zur Schlüsselverwaltung und eine sichere API zur Token-Generierung und ‑Auflösung.
Ein mittelgroßes Institut hat diese Lösung für seine KI-gestützten Support-Prozesse implementiert. Dabei zeigte sich, dass Tokenisierung die Performance nicht beeinträchtigt und gleichzeitig Audit- und Löschprozesse vereinfacht.
Sichere On-Premise- und Hybrid-Architekturen
Viele Banken bevorzugen es, sensible Modelle und Verarbeitungsdienste lokal zu hosten, um sicherzustellen, dass keine Daten das interne Netzwerk ohne validierte Kontrollen verlassen.
Hybrid-Architekturen kombinieren private Clouds und On-Premise-Umgebungen mit sicheren Tunneln und End-to-End-Verschlüsselung. Container und Zero-Trust-Netzwerke komplettieren diesen Ansatz für eine strikte Isolation.
Solche Deployments erfordern eine präzise Orchestrierung, Richtlinien für Secret Management und kontinuierliches Access Monitoring. Sie bieten jedoch die nötige Flexibilität und Skalierbarkeit, um KI-Dienste weiterzuentwickeln, ohne die Sicherheit zu gefährden.
Mehrschichtige Erkennung zur Vorbeugung von Datenabfluss
Ergänzend zur Tokenisierung kann ein finaler Verifikationsmodul jede Ausgabe vor der Freigabe prüfen. Es vergleicht die generierten Daten mit einem Musterkatalog sensibler Informationen und blockiert potenziell riskante Antworten.
Diese Filter arbeiten mehrstufig: Erkennung persönlicher Entitäten, kontextuelle Abgleichung und Anwendung fachlicher Regeln. So wird sichergestellt, dass keine vertraulichen Daten – selbst versehentlich – ausgegeben werden.
Ein Fail-Safe-Modus erhöht die Robustheit der Lösung und schafft Vertrauen bei Kunden und Aufsichtsbehörden. Diese letzte Kontrolleebene rundet die umfassende Datensicherheitsstrategie ab.
Verantwortliche und souveräne KI im Digitalbanking gewährleisten
Der Aufbau einer verantwortungsvollen KI erfordert lokales oder hoheitliches Hosting, konsequente Verschlüsselung und verständliche Modelle. Ein klarer Governance-Rahmen, der menschliche Aufsicht mit Auditierbarkeit verbindet, ist unerlässlich.
Banken, die in diesen Ansatz investieren, stärken ihre Wettbewerbsposition und das Vertrauen ihrer Kunden, während sie gleichzeitig mit den sich ständig weiterentwickelnden Regulierungen Schritt halten.
Unsere Edana-Experten begleiten Sie bei der Entwicklung Ihrer KI-Strategie, dem Aufbau sicherer Architekturen und der notwendigen Governance, um Compliance und Innovation zu vereinen. Gemeinsam implementieren wir skalierbare, modulare und ROI-orientierte Lösungen – ganz ohne Vendor-Lock-in.
Besprechen Sie Ihre Herausforderungen mit einem Edana-Experten







Ansichten: 7