Zuerst erschienen in der .public Ausgabe 01-2024
Interview mit Prof. Dr. Patrick Glauner
msg: Im AI Act Trilog gibt es nun seit Dezember endlich eine politische Einigung. Was glauben Sie, welche Folgen die Umsetzung der beschlossenen Maßnahmen auf die KI-Nutzung und KI-Entwicklung in Europa haben wird?
Prof. Glauner: Ich befürchte, dass der AI Act die EU im Bereich KI in erster Linie schwächen wird, da die Auflagen einfach zu hoch sind. Innovation wird zu einem gewissen Grad nicht mehr stattfinden können oder wird ins außereuropäische Ausland abwandern. Die Anzahl der im AI Act festgelegten Bestimmungen ist beachtlich und umfasst ebenso viele Verbote. Viele Anwendungen würden auch in den Hochrisikobereich fallen, der nicht nur hohe Dokumentationsanforderungen, sondern auch hohe Standards für Datenqualität und Risikomanagement vorsieht. Solche Maßnahmen werden zunächst einmal die Kosten für Innovation erhöhen. Dadurch wird auch die Wettbewerbsfähigkeit der Europäischen Union eingeschränkt. Mit diesen Anforderungen gehen hohe Kosten für Dinge wie Dokumentation und Risikomanagement einher, die in erster Linie die kleineren europäischen KI-Unternehmen, etwa Aleph Alpha, schwächen werden. Die großen KI-Anbieter aus den USA wie OpenAI begegnen diesen Problemen mit mehr Kapital und können solche Dinge eher aussitzen.
msg: Kann der AI Act vielleicht trotzdem als Erfolg gesehen werden oder hätten Sie sich ein anderes Vorgehen der EU gewünscht?
Prof. Glauner: Ich bin der Meinung, dass wir den AI Act gar nicht benötigt hätten. KI ist immer nur ein Teil von Systemen und viele Bereiche, die der AI Act jetzt versucht abzudecken, werden bereits vertikal durch andere Gesetzgebungen reguliert, beispielsweise im Urheberrecht oder beim Einsatz in Autos. Ich denke, wir hätten diesen horizontalen Ansatz der Regulierung nicht gebraucht, gerade da in sensiblen Bereichen oder Bereichen, in denen große Risiken bestehen, bereits reguliert wurde. Der AI Act und die Einigung werden aus politischen Gründen natürlich als großer Erfolg gefeiert, aber wie genau das Resultat aussieht, ist noch immer nicht ganz klar. Die technischen Arbeitsgruppen tagen noch, und es herrschen teilweise noch immer Unklarheiten bei gewissen Auflagen, auch da Begriffe verwendet wurden, die nicht definiert sind. Damit will ich nicht sagen, dass es im AI Act keine guten Ansätze und Ideen gibt, die vielleicht auch in anderen Teilen der Welt Verbreitung finden werden, aber mit der Gesamtheit der Auflagen glaube ich nicht, dass der AI Act als Vorbild für den Umgang mit KI gesehen werden wird.
msg: Ich habe häufig das Gefühl, dass wir bei der Diskussion über KI immer mehr Risiken als Chancen betrachten. Wie sehen Sie das? Sind wir in Europa zu skeptisch, was neue Technologien angeht?
Prof. Glauner: Da stimme ich zu. Dabei sind der AI Act und KI nur ein Beispiel von vielen. Viele der großen Technologiekonzerne kommen aus den USA und aus China, und es besteht eine inzwischen große Diskrepanz in der Wettbewerbsfähigkeit zwischen Anbietern aus der EU und diesen Technologiekonzernen. Diese Lücke lässt sich aber nicht dadurch schließen, dass wir in Europa noch mehr über theoretische Risiken sinnieren und härtere Regulierungen schaffen als der Rest der Welt. Da herrscht zu viel Angst vor Neuem, und es wird zu wenig die Frage gestellt, wie wir noch wettbewerbsfähig bleiben können.
msg: Wie unterscheidet sich denn das Vorgehen der USA und Chinas von dem der EU?
Prof. Glauner: In erster Linie wird dort unter dem Begriff „Regulierung“ etwas anderes verstanden. In Europa sind Regulierungen immer gleichbedeutend mit Verboten und Auflagen, aber wenn wir in die USA oder nach China schauen, beinhaltet Regulierung auch Fördermöglichkeiten. Beispielsweise geht es in der jüngsten Executive Order des US-Präsidenten zu KI auch darum, wie Fachpersonal im KI-Bereich gewonnen werden kann, und nicht nur um Auflagen und Pflichten für Unternehmen. In China tangiert die KI-Regulierung in erster Linie die Sprachmodelle, was natürlich vor allem politisch bedingt ist. Zusätzlich dazu investiert der chinesische Staat massiv in KI. Grund dafür ist unter anderem, dass China in KI eine Chance zur Bekämpfung substanzieller Probleme sieht. China sieht KI als Möglichkeit, dem Fachkräftemangel, dem demografischen Wandel und der relativen Armut der durchschnittlichen chinesischen Bevölkerung entgegenzuwirken, weshalb auch sehr viel Geld in diesem Bereich investiert wird. Es gab vor einiger Zeit eine Marktstudie dazu, was einzelne chinesische Städte in KI investieren. Da lag die Stadt mit der zehnthöchsten Investitionssumme in etwa auf Augenhöhe mit den geplanten Investitionen der damaligen Bundesregierung im Bereich KI, nur um einmal die Relationen der chinesischen Investments aufzuzeigen. Grundsätzlich wird dem Thema KI deutlich positiver begegnet.
msg: Glauben Sie, dass ein solches „optimistischeres“ Vorgehen irgendwann auch in Europa ankommt?
Prof. Glauner: Das hoffe ich sehr. Die große Hoffnung ist, dass so etwas mit einer neuen Kommissionspräsidentschaft geschehen könnte. Mein Eindruck ist, dass die aktuelle Kommission sehr große Regulierungswünsche hat. Dabei müssten wir den Ablauf unseres Vorgehens einmal umdrehen. Wir müssen erst fördern und dann kann über Regulierungen nachgedacht werden. Das bringt uns deutlich mehr im Wettbewerb.
Der AI Act ist international das erste gesetzliche Regelwerk, das darauf abzielt, Standards in Bezug auf die Sicherheit sowie die Wahrung von Grundrechten und Werten für die Entwicklung und den Einsatz von künstlicher Intelligenz (KI) festzulegen. Der erste Vorschlag wurde von der Europäischen Kommission im April 2021 veröffentlicht und ist Teil von Bestrebungen, die EU zu einem globalen Vorreiter im Bereich der KI-Regulierung zu machen. Im Dezember 2023 einigten sich die EU-Institutionen nach langen Verhandlungen auf das Gesetzespaket.
Der AI Act verfolgt einen risikobasierten Ansatz. Er legt insbesondere für Hochrisiko-KI-Systeme klare Regeln fest. Darunter fallen etwa KI-Anwendungen in den Bereichen Gesundheit, Verkehr, Polizeiarbeit und kritische Infrastrukturen. Diese Systeme müssen hohe Transparenz, Zuverlässigkeit und Rechenschaftspflicht aufweisen. Zudem sieht der AI Act die Schaffung eines EU-weiten KI-Registers vor, welches Hochrisiko-Anwendungen erfasst und von den zuständigen nationalen Behörden überwacht wird.
Die Verordnung verbietet bestimmte KI-Praktiken, die als besonders gefährlich oder diskriminierend gelten, wie beispielsweise Social Scoring und manipulative KI. Sie betont auch die Bedeutung der Datenschutz-Grundverordnung (DSGVO) und berücksichtigt ethische Prinzipien, einschließlich der Achtung der Privatsphäre und der Menschenwürde.
Der AI Act sieht Strafen von bis zu 20 Millionen Euro oder 4 % des weltweiten Jahresumsatzes für Unternehmen vor, die gegen die Verordnung verstoßen.
msg: Müsste die EU also einfach mehr in KI investieren, um diese Wettbewerbsnachteile aufzuholen?
Prof. Glauner: Ich glaube, ein Problem, das wir in vielen Ländern der EU haben, ist der Mangel an Venture Capital. Es geht nicht nur um Investitionen seitens der EU oder der Bundesregierung, auch viele Investoren, Versicherungen und Banken agieren hier noch zu konservativ. Es fehlt die Bereitschaft, in Dinge wie KI zu investieren. Die EU könnte sich neben eigenen Investitionen also auch darüber Gedanken machen, wie man solche Formen der Finanzierung fördern könnte. Zusätzlich, das bezieht sich nicht nur auf den AI Act, sollte die EU sich darum bemühen, bei Fördermitteln die Antragsverfahren zu entschlacken und hinderliche Bürokratie abzubauen. Auch das würde zu Vorteilen in derFörderlandschaft führen. Darüber hinaus braucht es gut ausgebildetes Fachpersonal. Ein positives Beispiel, wie in Deutschland dem Thema KI begegnet wird, ist Bayern. Mit der Hightech-Agenda hat der Freistaat Bayern etwa 5,5 Milliarden Euro in innovative Transferzentren und Projekte gesteckt und neue Professuren im Hightech-Bereich geschaffen, auch mit großem Fokus auf KI. Neben etwa 1.000 neuen Professuren im Technologiebereich wurden auch sehr viele KI-Studiengänge auf Bachelor- und Masterniveau geschaffen. Es wird also intensiv daran gearbeitet, Fachexpertise zu vermitteln und Fachkräfte auszubilden. Es wäre schön, wenn andere Bundesländer diesem Vorbild folgen würden. Es gibt natürlich auch andernorts weitere Vorhaben im Bereich KI-Förderung und ein derartiges Projekt ist auch mit hohen Kosten und Herausforderungen verbunden, beispielsweise neue Professuren in einem solchen Maßstab zu besetzen. Bayern tut hier aber deutlich mehr als die anderen Bundesländer.
msg: Wenn wir unseren Blick weg von Deutschland und der EU auf den Rest der Welt richten, sieht man viele internationale Bestrebungen zu Regulierung von KI, beispielsweise durch die UNESCO oder die OECD. Wie sehen Sie die Erfolgsaussichten eines solchen Vorgehens?
Prof. Glauner: Die Erfolgsaussichten für solche Vorhaben sind schwierig einzuschätzen. Im Augenblick ist KI das große Thema, weshalb viele Akteure darum bemüht sind, sich gut zu positionieren. Das Problem bei solchen globalen Vorhaben ist allerdings, dass die Summe aller Akteure am Ende doch sehr unterschiedlich ist. Je größer die Menge an vertretenden Interessen wird, desto schwieriger wird es, einen Kompromiss zu finden. Es ist eher denkbar, dass die USA und die EU sich auf Regeln und Standards verständigen, aber die meisten Teile der Welt sind am Ende doch zu unterschiedlich. Selbst wenn man sich auf einen Kompromiss einigt, bleibt auch immer die Frage, inwieweit dieser Kompromiss verbindlich ist und befolgt wird. Darauf aufbauend auch, ob es eine Kontrolle oder Sanktionen bei Verstößen gibt und wie sich diese gestalten. Hier stellt sich für mich allerdings wieder die Frage, ob es so eine globale Regulierung überhaupt braucht.
msg: Nun ist der AI Act zumindest schon mal beschlossen. Was wünschen Sie sich von Politik und Regulierungsbehörden, wenn es in die Anwendung geht?
Prof. Glauner: Mir wäre wichtig, dass wir die Regeln mit Maß umsetzen. In Deutschland tendieren wir bei solchen Fragen häufig dazu, übers Ziel hinauszuschießen, und das wird uns hier nicht helfen. Wir haben schon bei der DSGVO gesehen, dass es nicht nur unterschiedliche Interpretationen innerhalb der EU gibt, sondern auch, dass die Datenschutzbehörden in den Bundesländern Dinge unterschiedlich auslegen. Einen solchen regulatorischen Flickenteppich mit lokalen Unterschieden müssen wir beim AI Act unbedingt vermeiden. Darüber hinaus sollte das Thema KI nicht nur von der Politik finanziell mehr gefördert werden, es sollte vor allem Bürokratie abgebaut werden. Das würde die Förderung an vielen Stellen vereinfachen. Wir müssen insgesamt an den Punkt kommen, an dem wir uns die Chancen von neuen Technologien bewusst machen und nicht so viel Zeit darauf verwenden, ausschließlich mögliche Risiken abzuwägen.