06.09.2022
Im Zuge der Business Transformation kommt Künstlicher Intelligenz (KI) eine Schlüsselrolle zu. Um bei diesen Systemen weiterhin den Nutzen für den Menschen in den Vordergrund zu stellen, soll voraussichtlich 2024 der AI Act der Europäischen Kommission in Kraft treten. Er wird EU-weit Künstliche Intelligenzen regulieren, und zwar tiefgreifend. Mark-W. Schmidt leitet seit einigen Monaten den Bereich KI bei msg. Gemeinsam mit seinem Kollegen Christian Meyer erklärt er im Standpunkte-Interview, warum Unternehmen spätestens jetzt beginnen sollten, sich auf den europäischen AI Act vorzubereiten.
Sind künstliche Intelligenzen wie im Filmklassiker "2001: A Space Odyssey" eine Gefahr für Menschen, oder warum will die EU sie regulieren?
Schmidt: Bestimmte KI-Anwendungen könnten sicherlich Gefahren mit sich bringen. Wir müssen diese Gefahren adressieren. KI-Systeme werden immer auf Grundlage von Daten trainiert, die sich durch Aktualisierungen laufend ändern. Das heißt, auch wenn wir Daten heute diskriminierungsfrei erstellen, so könnten sie morgen durch Data-Shift eine Diskriminierung entwickeln. Ein Ausweg ist, KI-Systeme auf ihre Verlässlichkeit hin zu prüfen. Denn: Bei allen wirtschaftlichen Vorteilen, die KI bieten kann, muss sichergestellt sein, dass die Technologie in erster Linie den Menschen zugutekommt. Unter der „Verlässlichkeit“ verstehen wir deshalb Aspekte eines KI-Systems von der Vorurteilsfreiheit, über Autonomie, Erklärbarkeit, Robustheit bis hin zu Sicherheit und Datenschutz. Der AI Act der EU-Kommission sieht vor, dass diese Prüfung von KI-Systemen als ein „on-going“-Prozess verstanden wird.
Birgt der Regulierungsansatz der EU auch Risiken?
Schmidt: Die Verordnung der EU fasst KI zu breit. Somit werden zu viele Anwendungen als KI-Systeme aufgefasst. Dadurch entsteht das Risiko, dass wir zu viel regulieren und das große Potenzial von KI in Europa ersticken. Europa strebt zurzeit das wichtige Ziel der digitalen Souveränität an. Demnach wollen wir uns weder von amerikanischen noch von chinesischen digitalen Lösungen abhängig machen. Aber wie können wir dieses Ziel erreichen, wenn wir gleichzeitig dafür sorgen, dass die innovativsten Technologien nicht bei uns in Europa entwickelt werden, weil wir zu stark reguliert sind?
Wie kann man sich den AI Act konzeptionell vorstellen?
Meyer: Der AI Act teilt KI-Systeme in vier Risikoklassen ein – je nachdem, wie viel Gefahr für Menschenrechte und Verbraucherschutz die Gesetzgeber im jeweiligen System sehen. Die Risikoklassen reichen von Stufe 4, verbotene Praktiken, über Stufe 3, Hochrisiko-KI-Systeme, und Stufe 2, Systeme mit Transparenzpflichten, bis hin zu Stufe 1, Systeme mit minimalem Risiko. Zur dritten Stufe gehören unter anderem Finanzdienstleistungen oder Personalmanagementsysteme, zur zweiten beispielsweise Chatbots.
Somit sind KI-Systeme in den unterschiedlichsten Bereichen von der Verordnung betroffen?
Schmidt: Genau. Und deswegen sollten Unternehmen jetzt mit internen Bestandsaufnahmen beginnen: Welche KI-Systeme nutzen sie? Wie werden sie von der EU-Kommission klassifiziert? Sind die Mitarbeitenden für die anspruchsvolle Aufgabe gewappnet, den kommenden Transparenz- und Reportingpflichten nachzukommen?
Und das wird aufwendig.
Meyer: Aufwendig? Ja. Aber es muss nicht, wie etwa bei Einführung der DSGVO, chaotisch werden. Auch damals hatten Unternehmen jahrelang Zeit, um Vorkehrungen zu treffen, aber als die Verordnung 2018 in Kraft getreten ist, herrschte Verunsicherung und Unklarheit. Unternehmen haben jetzt die Chance, sich rechtzeitig und umfassend vorzubereiten. Abteilungsübergreifend müssen Expertinnen und Experten zusammenkommen, um alle Aspekte der neuen Verordnung – von juristischen Anforderungen über technische Notwendigkeiten bis hin zu neuen Ansätzen, beispielsweise „Datasheets for Datasets“ und „Model Cards for Model Reporting“ – vorzubereiten.
Wie können Unternehmen damit bestmöglich umgehen?
Schmidt: Der AI Act stellt Unternehmen und Institutionen vor die Herausforderung, die teils sehr abstrakten Vorgaben in der Praxis ihrer KI-Anwendung einzusetzen. Auch deshalb ist ein konkretes Prüfverfahren für KI-Systeme unerlässlich, welches die Anforderungen des AI Acts in eine umsetzbare und konkrete Praxis übersetzt. msg hat mit dem Prüfverfahren zu Verlässlicher KI bereits eine praxiserprobte Methode im Einsatz, um unseren Kunden ihre ersten Schritte hin zur Konformität mit dem AI Act zu erleichtern.