Im folgenden Artikel soll erläutert werden, ob und wie sich künstliche Intelligenz (KI) als Lösung (II.) zur Erfüllung der Verpflichtungen nach dem Geldwäschegesetz (GWG) (I.) anbietet und wie dies unter Beachtung der daten- schutzrechtlichen Vorgaben (III.) möglich sein könnte.

I. Was ist Geldwäscheprävention (Anti-Money-Laundering/AML)?

Wer glaubt, sich über einen Neukunden einfach nur freuen zu können, wird kontinuierlich (insb. durch wachsende EU-Regulierung) eines Besseren belehrt: Nicht nur Finanzinstitute und Versicherungen müssen inzwischen prüfen, mit wem sie sich vertraglich binden (Know-Your-Custo- mer/KYC). Insbesondere nach der letzten (fünften) Geldwäsche-Richtlinie (vom 30.05.2018) kann (beinahe) jeder Unternehmer zu dem Kreis der »Verpflichteten« gehören.

Was also ist Geldwäsche, wie wird dieser vorge- beugt und wer ist von welchen Verpflichtungen betroffen?

Zunächst ist festzuhalten, dass Geldwäsche überall dort stattfindet, wo Einnahmen aus illegalen Geschäften in den legalen Finanzkreislauf eingeführt werden, unter Verschleierung ihres eigentlichen Ursprungs (vgl. § 261 StGB). Da hierdurch erhebliche Nachteile für alle ehrlichen Markteilnehmer entstehen und dem Problem nur durch internationale Kooperation begegnet werden kann, wurden in den vergangenen 30 Jahren diverse Gesetzgebungsvorhaben auf den Weg gebracht. Ursprünglich wurden nur Finanzunternehmen (Banken und Versicherungen) angesprochen (verpflichtet), bestimmte Maßnahmen zu ergreifen, um sicherzustellen, dass ihre Institutionen nicht zum Zweck der Geldwäsche missbraucht werden.

Seitdem ist der Kreis der Verpflichteten deutlich erweitert worden (vgl. § 2 GWG). So gehören inzwischen auch die »Güterhändler« (§ 2 Abs.1 Nr. 16 GWG), wobei hierunter »jede Person, die gewerblich Güter veräußert« zu verstehen ist (§ 1 Abs.9 GWG), ebenfalls zu den Verpflichteten, sofern sie Bargeld in Höhe von 10.000 EUR annehmen oder selbst zahlen.

All diese Verpflichteten haben für ein angemessenes Risikomanagementsystem (vgl. § 4 GWG) zu sorgen, durch welches u.a. sichergestellt wird, dass die Geschäftspartner identifiziert und ihre “wirtschaftlich Berechtigten” (§ 11 GWG) offen- gelegt werden und ob es sich bei diesen Personen um eine politisch exponierte Person handelt (PEP). Dabei muss ein System bestehen, welches die Geschäftsbeziehung kontinuierlich überwacht, um im Falle eines Verdachts auf Geldwäsche eine entsprechende Meldung (§ 43 GWG) abgeben zu können.

Daraus folgt, dass diverse Unternehmen (als Verpflichtete) vor der Herausforderung stehen, hochkomplexe Vorgänge innerhalb ihres Unternehmens “live” zu überwachen, wenn sie sich nicht selbst eines Bußgeldes in erheblicher Höhe ( § 56 Abs. 2 GWG) ausgesetzt sehen wollen.

II. Was hat das alles mit KI zu tun?

Wie kann bzw. soll nun also diese Aufgabe wahr- genommen werden, ohne dass der gesamte Betrieb “lahmgelegt” oder aber ein erheblicher personeller und kostenintensiver Aufwand betrieben wird? Aktuell wird der Einsatz von KI in einer Vielzahl von Bereichen erprobt und in einer noch größeren Vielzahl von möglichen Einsatzgebieten diskutiert. Hierzu gehört auch der umfangreiche Bereich der Fraud Prevention.

Grundsätzlich ist unter KI das Bestreben zu verstehen, Maschinen dahingehend zu bauen bzw. Programme dahingehend zu programmieren, dass diese sich – ähnlich der menschlichen Intelligenz – verhalten bzw. denken. Dabei wird zwischen einer starken und einer schwachen KI unterschieden. Letztere ist in der Lage, in komplexen ungeordneten Daten Strukturen zu finden. Detaillierte Definitionen zu KI existieren zwar, jedoch hat sich hier bislang keine als herrschend durchgesetzt.

Grundlage von KI sind Algorithmen. “Einfache” Algorithmen basieren auf dem Prinzip der wenn- dann-Logik (wenn “0” dann “aus”), ein Verhalten muss also präzise beschreibbar sein, um es zu verarbeiten. KI soll diese Logik weit hinter sich lassen, indem die Algorithmen “trainiert” werden, d.h. Muster werden in den unstrukturierten Daten ermittelt und es werden entsprechende Klassen gebildet. So müsste im hier diskutierten Fall der Algorithmus mit Trainingsdaten gefüttert werden, bei denen “normale” Transaktionen aufgezeigt werden, die als “unbedenklich” und so- dann “auffällige” Transaktionen, die als “risikobehaftet” deklariert werden.

Hierbei zeigt sich auch sogleich eine der ersten großen Herausforderungen der KI: Sie ist nicht von Anfang an intelligent, sondern sie wird es erst durch Lernen. Dies bedeutet, dass selbst der beste Algorithmus angelernt und folglich mit reichlich Trainingsdaten angefüttert werden muss (die erforderliche Anzahl von Datensätzen kann hier durchaus in die Millionen gehen). Hat die KI genug Trainingsdaten zum Lernen, so entfernt sie sich zunehmend von dem einfachen (wenn-dann-) Algorithmus. Die KI ist jetzt nämlich in der Lage, eigene Muster, Verbindungen und Zusammenhänge zu erkennen, die weit über diese einfache Logik hinausgehen. Problematisch hieran ist jedoch, dass dadurch das Ergebnis nur noch beschränkt nachvollziehbar ist, da der Vorgang der KI mit einer “black box” zu vergleichen ist: Auf der einen Seite wird die Aufgaben-/Fragestellung eingegeben, auf der anderen Seite kommt das Ergebnis raus. Die “gedankliche” Leistung dazwischen tritt nicht nach außen. Übertragen auf die zwei Klassen “normale” und “auffällige” Transaktion sind die Entscheidungen des Kategorierers nicht trivial nachvollziehbar. Sie liegt in dem aus Trainingsdaten konditionierten Netz, welches sich zudem kontinuierlich weiter entwickeln kann.

Hieran schließt sich auch nahtlos die nächste Frage an: Wenn keiner weiß, wie aus der Ausgangslage eine Entscheidung der KI wurde, wer ist dann hierfür verantwortlich? Wer wäre (in unserem Fall) dafür verantwortlich, wenn beispielsweise eine Überweisung (grundlos) angehalten wird und damit dem Überweisenden ein Schaden entsteht? Diese Frage zu beantworten würde zweifelsohne den Rahmen dieses Artikels sprengen. Gleichzeitig ist diese Frage von großer Erheblichkeit bei der Einrichtung eines KI-basierten AML-Systems, insbesondere unter Beachtung der datenschutzrechtlichen Anforderungen.

III. Und wie vereint man dies mit dem Datenschutz?

Die Erfüllung der Pflichten nach dem GWG bezieht sich zu einem erheblichen Teil auf die Verarbeitung von personenbezogenen Daten, weshalb die DSGVO und das BDSG grundsätzlich einschlägig sind. Die Rechtsgrundlage für die Verarbeitung ist schnell gefunden, lässt sie sich doch eindeutig aus Art. 6 Abs. 1 lit. c) DSGVO i.V.m. dem GWG begründen. Damit wäre zwar die grundsätzliche Zulässigkeit der Datenverarbeitung begründet, jedoch ist davon noch nicht das »Wie« erfasst.

Dieser Art der Verarbeitung könnte Art. 22 Abs. 1 DSGVO entgegenstehen, wonach jeder Betroffene das Recht auf eine »menschliche« – mit- hin nicht vollautomatisierte – Entscheidung hat. Diese Einschränkung trifft vorliegend allerdings nicht zu, da zum einen der europäische Gesetzgeber in Art. 22 Abs. 2 DSGVO eine Ausnahme zugunsten gesetzlicher Verpflichtungen geschaffen hat und zum anderen laut Erwägungsgrund 71 (zur DSGVO) es die Absicht des Gesetzgebers war, dass Art. 22 DSGVO auf Verfahren zur Überwachung von Betrug und Steuerhinterziehung nicht anwendbar ist. Dies geschah wohl vor dem Hintergrund, dass sich dem Gesetzgeber aufdrängte, dass die Erfüllung der Vielzahl von Verpflichtungen im laufenden Geschäftsbetrieb ohne automatisierte Entscheidungen schlicht- weg nicht möglich ist.

Von diesen Überlegungen abgesehen stellt sich aber auch die Frage, ob es sich bei einem entsprechenden KI-basierten AML-System überhaupt um eine automatisierte Entscheidung handelt. Von Art. 22 DSGVO werden Verfahren nämlich nicht erfasst, die lediglich der Entscheidungsvorbereitung dienen. Vorbereitend kann allerdings nur ein solches Verfahren sein, bei dem der Schwerpunkt der Entscheidung beim Menschen verbleibt und dieser nicht nur lediglich »einen Knopf drückt«. Ein AML-System, welches aus der Masse der Transaktionen einer organisatorisch zuständigen Stelle Verdachtsfälle präsentiert, ohne dass sich hieraus eine direkte/ zwangsläufige Konsequenz ergibt, wird wohl ohnehin nur als vorbereitend und somit nicht als eine nicht dem Art. 22 DSGVO unterfallende Verarbeitung zu werten sein. Sofern jedoch eine direkte »Außenwirkung« von dieser Entscheidung ausgeht (bspw. Einfrieren einer Überweisung), so wäre diese – wenn auch nicht endgültig – möglicherweise als vollautomatisiert zu betrachten.

Ob nun vollautomatisiert oder nicht, so wird aus der Nutzung eines entsprechenden AML-Systems jedenfalls die Pflicht zur Vornahme einer Datenschutzfolgenabschätzung (DSFA) gem. Art. 35 Abs. 1 DSGVO (neue Technologie) oder Art. 35 Abs. 3 lit. a) DSGVO (automatisierte Verarbeitung als Grundlage von Entscheidungen) folgen. Bei der nach Art. 35 Abs. 7 DSGVO vorzunehmenden Abwägung dürften sich jedoch grundsätzlich keine größeren Schwierigkeiten auftun, da der Bekämpfung von Geldwäsche und der Funktionalität des Marktes wohl größeres Gewicht als dem Interesse des Betroffenen an einer Einzelfallentscheidung zuzumessen wäre.

Schwieriger stellt sich da die Wahrung der Betroffenenrechte, insbesondere nach Art. 12 DSGVO, dar. Hiernach müssen Betroffene transparent und in klarer und verständlicher Weise über die Verarbeitung ihrer personenbezogenen Daten informiert werden. Wie soll nun aber der Verantwortliche den Betroffenen über eine Verarbeitung informieren, von der er selbst nicht weiß, wie sie geschieht (»black box«)? Letztendlich wird es wohl darauf ankommen, dem Betroffenen in groben Zügen das grundsätzliche Verfahren mit den einschlägigen Parametern zu erläutern. Hierfür könnte gegebenenfalls das sog. LIME-Verfahren (Local Interpretable Model-Ag- nostic Explanations) herangezogen werden, welches zwar keine exakten Maßstäbe, dafür jedoch wenigstens Näherungswerte liefert.

Alternativ, für den Fall des nicht vollautomati- sierten Verfahrens, wäre es auch möglich dem Betroffenen mitzuteilen, dass seine Daten im Rahmen einer vorbereitenden Maßnahme durch einen Algorithmus vorverarbeitet werden. Die algorithmische Einteilung in Klassen ist nun wirklich nichts Neues (siehe SCHUFA). Der einzige Unterschied ist, dass die Zuordnung früher algorithmisch exakt beschrieben werden konnte. Dennoch bekamen Betroffene vormals auch keinen uneingeschränkten Einblick in die Algorithmen (denn diese waren z.T. gut gehütete Geschäftsgeheimnisse), sondern bekamen die Information, dass sie klassifiziert wurden. Es geht also in der Frage vielmehr um das »Wie« als um das »Ob«. Entscheidend wird daher vielmehr sein, dass sichergestellt wird, dass am Ende jeder Fall durch eine sachkundige Person entschieden wird.

Selbst unter Beachtung all dieser datenschutzrechtlichen Vorgaben bleibt die grundsätzliche Problematik der Pflichten nach dem GWG unberührt: Es werden immer mehr Daten von immer mehr Stellen/Verarbeitern gesammelt zu dem einzigen Zweck diese – über nationale Grenzen hinweg – zusammenzuführen und auszutauschen. So hilft auch das strengste Datenschutzgesetz nicht, wenn es der Gesetzgeber ist, der stets neue Rechtsgrundlagen zur Durchbrechung des Prinzips der Datensparsamkeit schafft und sich vielmehr selbst als der größte Datensammler entpuppt.

IV. Fazit:

Die DSGVO ist grundsätzlich Technologie-neutral und somit stets entsprechend auf die aktuellen Entwicklungen auszulegen. Dementsprechend ist es, wie oben aufgezeigt, durchaus möglich KI datenschutzkonform zur Erfüllung von gesetzlichen »Compliance-Pflichten« einzusetzen. Ausschlaggebend für die Datenschutzkonformität wird daher vor allen Dingen die Einteilung in vorbereitende und vollautomatisierte Verfahren sowie die Wahrung der Informationspflichten sein.