3 Mrz, 2021

Regulierung Künstlicher Intelligenz

Auf dem Weg zu erfolgreichen KI-Anwendungen in der Finanzbranche

INSIGHTS Stellungnahmen

Auf dem Weg zu erfolgreichen KI-Anwendungen in der Finanzbranche

Stellungnahme

Auf dem Weg zu erfolgreichen KI-Anwendungen in der Finanzbranche

Die technologischen Fortschritte im Bereich der Künstlichen Intelligenz (KI) spielen weiterhin eine wichtige Rolle für die globale Wettbewerbsfähigkeit und Produktivität, da KI immer mehr zum Mainstream wird. Die Präsenz von KI bei drängenden globalen gesellschaftlichen Themen wie Datenschutzfragen und Covid-19-Tests hat zu einem verstärkten Interesse der politischen Entscheidungsträger und der Öffentlichkeit geführt. Beispiele hierfür sind:

  • Die Europäische Union (EU) strebt einen Ruf für „vertrauenswürdige KI“ an, die „made in Europe“ ist und einen starken Fokus auf ethische und menschenfreundliche Ansätze legt, die sich an den Werten der Menschenrechte und demokratischen Prinzipien orientieren.
  • Im Dezember 2020 forderte das britische House of Lords Liaison Committee die Regierung auf, ihre KI-Politik und die Nutzung von Daten und Technologie durch nationale und lokale Regierungen besser zu koordinieren.
  • Die britischen Aufsichtsbehörden haben das erste Treffen des AI Public Private Forum ins Leben gerufen, um die Auswirkungen von KI auf Finanzdienstleistungen zu bewerten.
  • Die EU hat im vergangenen September ein neues Gesetz für digitale Finanzen verabschiedet.
  • Der Strategic Hub for Innovation and Financial Technology (FinHub) der SEC führt derzeit virtuelle Meetings mit Branchenvertretern durch, um besser zu verstehen, wie KI eingesetzt wird, um z. B. neue Produkte zu entwickeln, neue Dienstleistungen anzubieten, Effizienzen zu schaffen und die Einhaltung gesetzlicher Vorschriften zu verbessern.

Für eine erfolgreiche Anwendung von KI müssen aufgrund des selbstlernenden Charakters von KI Herausforderungen in Bezug auf die Erklärbarkeit von Modellen (d. h. die Fähigkeit, die Logik des Modells zu erkennen), die Datenintegrität und den Datenschutz angegangen werden. Arabesque AI stellt im Folgenden Lösungen zur Diskussion, um die Wissenslücke zwischen Praktikern, politischen Entscheidungsträgern und Öffentlichkeit zu schließen.

Erklärbarkeit von Modellen – Modellierung des Risikomanagements

Herausforderung: Die Erklärbarkeit von Modellen stellt eine besondere Herausforderung für KI-Anwendungen dar, insbesondere im Bereich des Deep Learning, wo nichtlineare Abhängigkeiten auftreten können. Bei komplexen Modellen fungieren solche Nichtlinearitäten als Black Boxes, die es schwierig machen, die Modellüberlegungen zu erklären.

Lösungsvorschlag: Unserer Meinung nach sollte sich ein umfassendes Risikomodell auf die Modellentwicklung, -evaluierung und -validierung sowie auf laufende Tests und Überwachung konzentrieren. Dies sollte mit der Transparenz der durchgeführten Forschung verbunden sein, um die Bedeutung der Erklärbarkeit zu berücksichtigen. KI-Modelle lernen die zugrundeliegende Verteilung aus den Daten, mit denen sie programmiert wurden. Daher sollte ein besonderer Fokus auf Tail-End-Ereignisse (z. B. noch nie dagewesene Marktbedingungen) gelegt werden, um zu beurteilen, wie gut diese Modelle auf Daten generalisierbar sind, die im Trainingsprozess nicht beobachtet wurden oder unterrepräsentiert sind.

Datenintegrität

Herausforderung: Im Newsletter Februar 2021 wurde auf die Problematik der Datenverzerrung für erfolgreiche KI-Anwendungen hingewiesen, die große Datenmengen zum Simulieren und Validieren benötigen.

Lösungsvorschlag: Wir sind der Ansicht, dass eine kontinuierliche Kontrolle und Bewertung der Eingabedaten unabdingbar sind. Der Aufbau von Modellen, die darauf programmiert sind, Datenverzerrungen oder abnormale Daten zu erkennen, kann beim Aufbau robusterer KI-Pipelines hilfreich sein. Darüber hinaus belegen aktuelle Studien, dass vielfältigere Forscherteams besser in der Lage sind, Datenverzerrungen zu erkennen, was die Notwendigkeit eines gewissen Maßes an menschlicher Kontrolle von KI-Anwendungen unterstreicht.

Derzeit beobachten wir einen Trend, alternative Datenquellen in KI-Pipelines einzubinden, z. B. soziale Medien, Nachrichten oder geo-räumliche Daten. Die Verifizierung der Datenquellen ist ein wichtiger Schritt in der Datenpipeline, um Zuverlässigkeit zu gewährleisten, zumal wir eine Zunahme an Medien-Manipulationskampagnen beobachten. Wir sind davon überzeugt, dass eine robuste Pipeline für die Datenaufnahme, -überprüfung und -speicherung dazu beiträgt, KI-Anwendungen zu sichern und zu robusteren KI-Implementierungen zu gelangen.

Datenschutz

Herausforderung: Jüngste Veröffentlichungen zeigen, wie KI Kundendaten, wie z. B. Kreditkartenabrechnungen, nutzen kann. Da solche Datenquellen in KI-Anwendungen integriert werden, müssen Datenschutz- und Sicherheitsaspekte berücksichtigt werden.

Lösungsvorschlag: Unserer Meinung nach ist der Schutz personenbezogener Daten eine zentrale Verpflichtung für KI-Anwender und von entscheidender Bedeutung, um Vertrauen in die Technologie aufzubauen. Es gibt verschiedene Techniken innerhalb der KI, personenbezogene Daten zu schützen. Dies sollte in allen Phasen der Modellentwicklung berücksichtigt werden, von der Ideenfindung bis zur Veröffentlichung des Produkts selbst. Zu den relevanten Gesetzen gehört die europäische Datenschutzgrundverordnung (GDPR), die strenge Bedingungen für die Verwendung personenbezogener Daten vorschreibt.

Während KI ein enormes Potenzial hat, die Finanzbranche radikal zu verändern, bringt sie auch einzigartige Herausforderungen, Risiken und regulatorische Überlegungen mit sich. Es ist unerlässlich, KI-Strategien sowohl auf Unternehmensebene als auch auf Branchen- und nationaler Ebene kontinuierlich zu bewerten. Nur durch den Aufbau von Vertrauen in robuste KI-Anwendungen kann die transformative Kraft von Künstlicher Intelligenz zum Guten genutzt werden.