Verlässliche KI – was verbirgt sich hinter diesem Begriff?
Christian Meyer: Man spricht von einer „verlässlichen“ KI-Anwendung, wenn sie datenschutzkonform aufgebaut ist, vorurteilsfreie und nachvollziehbare Entscheidungen trifft und durch den Menschen kontrollierbar ist. Das sieht der Artificial Intelligence Act (AI ACT) der Europäischen Kommission vor, der noch in diesem Jahr oder spätestens 2023 in Kraft treten wird. Der AI ACT will dazu beitragen, dass KI-Anwendungen gegen Risiken abgesichert sind: Wenn beispielsweise eine KI-Anwendung diskriminierend ist und somit Persönlichkeitsrechte verletzt, könnten der Firma, die sie entwickelt hat, oder der Organisation, die sie bereitstellt, Klagen drohen. Um solche Risiken zu minimieren, müssen die Systeme im Sinne der Definition von „verlässlicher KI“ aufgebaut sein und arbeiten.
Warum ist die „Verlässlichkeit“ von KI wichtig?
Christian Meyer: Auch wenn KI vielerorts längst und unhinterfragt im Einsatz ist, sind Vorbehalte gegenüber KI weit verbreitet. Die sind durchaus nachvollziehbar und berechtigt. Denn KI agiert wie eine „Blackbox“: Warum ein System so oder so entscheidet, ist nicht unmittelbar zu erkennen. In einigen Fällen könnten die Entscheidungen unseren Werten und geltendem Recht entgegenlaufen. Das gilt es unbedingt zu vermeiden. Daher ist eine strengere Regulierung von KI-Anwendungen absehbar. Der eingangs erwähnte AI ACT ist ein solcher Schritt. Wenn sich die Regeln als wirksam erweisen, wird sich das auch positiv auf das Vertrauen in KI-Anwendungen auswirken – und die demokratische Gesellschaft schützen.
Wer jetzt eine neue KI-Anwendung aufsetzen will, ist gut beraten, die Frage nach der „Verlässlichkeit“ bereits mitzubedenken.
Wer sollte sich mit den Anforderungen an eine verlässliche KI beschäftigen?
Christian Meyer: Projektleiter, Stakeholder und Lenkungsausschüsse müssen sich mit den Anforderungen an eine verlässliche KI befassen. Denn am Ende sind sie diejenigen, die die Verantwortung für das Projekt tragen und zur Rechenschaft gezogen werden, falls etwas schief geht. Um die Risiken zu minimieren, empfiehlt es sich, KI-Systeme bzw. KI-Projekte zu auditieren.
Welche Schritte sind in der Umsetzung zu gehen?
Christian Meyer: Durch den Einsatz neuer und kreativer Prüfverfahren lässt sich gewährleisten, dass die Trainingsdaten kein Bias beinhalten und dass das System das gewünschte Entscheidungsverhalten gelernt hat – sowie ebenso, dass das System in der realen Welt – und nicht nur unter Laborbedingen – richtig funktioniert. Wir haben ein solches Prüfverfahren entwickelt. Es orientiert sich an dem „Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz“ von Fraunhofer IAIS, der sechs Dimensionen identifiziert, die für ein KI-System relevant sein können. Der erste Schritt ist also zu klären, welche dieser sechs Dimensionen für die jeweilige Anwendung von Bedeutung sind. Dabei geht es um folgende Punkte:
Erstens „Fairness“: Ist die Gleichbehandlung aller Nutzerinnen und Nutzer der KI-Anwendung sichergestellt? Zweitens „Autonomie und Kontrolle“: Haben die Nutzerinnen und Nutzer Kontrollmöglichkeiten über das KI-System? Können sie eingreifen und Entscheidungen revidieren? Drittens „Erklärbarkeit“: Produziert das KI-System nachvollziehbare und erklärbare Resultate? Viertens „Robustheit“: Wie stabil ist die KI-Anwendung? Fünftens „Sicherheit“: Ist das System vor einem unbefugten Zugriff geschützt? Und sechstens „Datenschutz“: Sind die personenbezogenen Daten geschützt?
In manchen Fällen ist es zweckmäßig, nicht alle Menschen gleich zu behandeln, sondern etwa Menschen mit Behinderung zu bevorzugen. Andere verarbeiten keine personenbezogenen Daten, weswegen die Dimension Datenschutz an Relevanz verliert. Oder: Anwendungen, die lediglich Musikstücke empfehlen, müssen nicht unbedingt erklärbar sein.
Hat man die für den jeweiligen Fall relevanten Dimensionen ausgemacht, ist zu untersuchen, welche Risiken in Bezug auf die einzelnen Dimensionen bestehen. Dafür stellen wir in unserem Prüfverfahren detaillierte Fragebögen, die alle Aspekte abklopfen. So entsteht ein klares Profilbild und eine Bewertung, aus der sich Handlungsempfehlungen ableiten lassen.
Unser Prüfverfahren bringt Klarheit, Transparenz und Auditfähigkeit von KI-Anwendungen.
Können Sie den Weg zu einer Bewertung an einem Beispiel erläutern?
Christian Meyer: Bei der Dimension Erklärbarkeit zum Beispiel muss man sich mit Aspekten wie diesen befassen: Wurden qualitative oder quantitative Kriterien definiert und erläutert, anhand derer der Grad der Transparenz der KI-Anwendung gegenüber Nutzerinnen und Nutzern sinnvoll beurteilt werden kann? Wurde die Verständlichkeit der Kriterien von Testpersonen bestätigt? Passt die Qualifikation der Testpersonen zur Zielgruppe der KI-Anwendung? Unser Prüfverfahren listet über 250 solcher Fragen (oder Aspekte), die betrachtet werden müssen. Nur dann kann man sich ein akkurates Bild von der Verlässlichkeit des KI-Systems verschaffen, Schwachpunkte identifizieren, um diese dann natürlich auch zu beheben.
Was leistet Euer Angebot für Kunden, die verlässliche KI implementieren wollen?
Christian Meyer: Unser Prüfverfahren bringt Klarheit, Transparenz und Auditfähigkeit von KI-Anwendungen. Wir haben die Dimensionen der Verlässlichkeit von KI-Systemen operationalisiert und machen damit eine äußerst komplexe Aufgabe greifbar. Wir werten sämtliche Fragen in der Risiko-Analyse aus und kommen damit zu einem Profil und einer Bewertung in einem Score. Daraus lässt sich ableiten, ob evtl. Schwächen ausgeräumt werden müssen. Dazu formulieren wir klare Handlungsempfehlungen. Die Ergebnisse fassen wir in einem Abschlussbericht zusammen. Dieser kann auch als Grundlage für Projektprüfungen und Audits dienen.
Interviewpartner
Christian Meyer
ist Principal Consultant bei msg system ag in Hamburg und leitet die Entwicklung des Prüfverfahrens der msg. Er beschäftigt sich seit über 20 Jahren mit KI und hat mehrere Startups mit KI-Lösungen geleitet.