Der AI Act ist das weltweit erste Regelwerk für die Anwendung von Künstlicher Intelligenz. Eine KI-Expertin der HAW Hamburg erklärt, was es damit auf sich hat und was es für Nutzer*innen bedeutet.
Marina Tropmann-Frick ist seit dem Sommersemester 2018 als Professorin für Data Science an der HAW Hamburg tätig und forscht gleichzeitig in diesem Bereich. Einen großen Teil ihrer Forschung widmet sie Responsible Artificial Intelligence (ethische KI) sowie Explainable AI (erklärbare KI). Während sich Responsible AI unter anderem damit beschäftigt zu überprüfen, ob bei KI-Systemen eine ethisch korrekte Datenverarbeitung erfolgt und keine diskriminierenden Inhalte vorkommen, soll mithilfe von Explainable AI die Bedeutung von KI-Modellen Nutzer*innen nähergebracht werden.
Tropmann-Frick arbeitet unter anderem an Projekten mit Wirtschaftsprüfenden und Ärzt*innen. In einem Interview mit FINK.HAMBURG erklärt die KI-Expertin, was der AI Act ist und worauf sich Unternehmen künftig einstellen müssen.
FINK.HAMBURG: Frau Prof. Dr. Marina Tropmann-Frick, einmal zusammengefasst für Leute, die mit dem Thema noch nicht vertraut sind: Was ist der AI Act?
Marina Tropmann-Frick: Das ist natürlich schwierig, dieses große Dokument zusammenzufassen. Es ist ein EU-Gesetz zur Möglichkeit der Regulierung von Künstlicher Intelligenz oder von Systemen, die künstliche Intelligenz einsetzen. Was steckt da drin? Der AI Act ist ein Versuch, einen rechtlichen Rahmen zu schaffen, um so die Sicherheit von Daten, aber auch von Datenverarbeitung zu gewährleisten. So sollen auch die Grundrechte von uns Menschen geschützt werden.
Was sind die wichtigsten Inhalte des AI Acts?
Tropmann-Frick: Der AI Act definiert, grob heruntergebrochen, bestimmte Risiken im Zusammenhang mit KI-Systemen. Durch den Gesetzesvorschlag wird versucht die Transparenz zu erhöhen, das ist auch wirklich notwendig. Der nächste Aspekt ist die ethische Betrachtung und die ethische Nutzung der KI. Es muss zukünftig dargelegt werden, dass ein KI-System so gebaut ist, dass es ethisch handelt. Zudem muss man aufklären, dass es strafbar ist, wenn bestimmte Systeme falsch genutzt oder nicht ethisch eingesetzt werden. Auch das regelt der AI Act.
Was wird sich durch den AI Act für Unternehmen verändern, die bereits mit KI arbeiten? Werden sie viel anpassen müssen?
Tropmann-Frick: Zum einen müssen Unternehmen ein Bewusstsein für den Einsatz solcher Systeme schaffen. Man wird abwägen müssen, welche Risikopotenziale bestimmte KI-Systeme in den Unternehmen haben. Natürlich wird das auch herausfordernd sein, da es wieder mit einer Dokumentationspflicht verbunden sein wird. Dieser bürokratische Aufwand wird wahrscheinlich nicht wenig sein. Diese Transparenz zu ermöglichen, dazu bedarf es noch zusätzlicher Forschung, beziehungsweise Entwicklung. Wir haben noch keine Software oder technischen Systeme, die so eine Art Zertifizierung für KI herausbringen. So etwas wie ein TÜV. Man braucht letztendlich ein Zertifizierungstool, das so eine Prüfung machen könnte. Aktuell gibt es das noch nicht. In dieser Übergangsphase bedeutet das sehr viel Aufwand für die Unternehmen.
Ist der bürokratische Aufwand für alle Unternehmen gleich oder gibt es da Unterschiede?
Tropmann-Frick: Das kommt so ein bisschen darauf an, in welchem Risikobereich sie sich befinden. Wenn sie in dem Bereich “Verbotenes Risiko” unterwegs sind, dann werden sie ihre Arbeit einstellen müssen. Das wird bei uns dann nicht mehr geduldet. Aber das ist auch in Ordnung. So etwas wie ein Punktesystem, wie wir es aus China kennen, darf es nicht geben.
Sie sprechen von Social Scoring?
Tropmann-Frick: Genau. So etwas wird bei uns in der EU nicht geduldet. Da sind wir, glaube ich, alle ganz froh. Grundsätzlich muss man also im ersten Schritt eine Risikobewertung durchführen. Wenn ein Unternehmen in das hohe Risiko reinfällt, dann sind die Anforderungen sehr streng und das wird vor allem für die Start-ups herausfordernd sein. Bei dem minimalen Risiko sind die Firmen ziemlich schnell mit den Nachweisen fertig. Hier müssen sie nur darlegen, was ihre KI-Systeme machen und welche Nutzergruppen davon betroffen sind.
Was ist Social Scoring?
Social Scoring ist ein Vorgehen, bei dem das Verhalten und die sozialen Interaktionen von Individuen überwacht und bewertet werden, um daraus eine Punktzahl abzuleiten. Wer sich zum Beispiel ehrenamtlich engagiert, erhält dafür Punkte. Wer hingegen seine Miete nicht pünktlich zahlt, bekommt Abzüge. Der Score kann Konsequenzen für die einzelne Person zur Folge haben, wie z.B. Reisebeschränkungen oder Vorteile bei bestimmten Dienstleistungen.
Und bei einem begrenzten Risiko?
Tropmann-Frick: In diese Kategorie fallen zum Beispiel AI-generierte Deepfakes. Da wird es schon etwas schwieriger, vor allem die Transparenz nachzuweisen.
Wie erfolgt die Risikobewertung?
Das Tool capAI, entwickelt von Forschern der Universität Oxford, soll die Konformitätsbewertung von KI-Systemen gemäß den neuen Richtlinien leichter machen. Es hilft Organisationen, ethische Grundsätze in überprüfbare Kriterien zu übersetzen, um die Entwicklung und Nutzung ethischer KI zu unterstützen. Damit kann die Vertrauenswürdigkeit von KI-Systemen nachgewiesen werden. Das Tool wird derzeit mit Unternehmen getestet.
Was sind die Fristen für die Umsetzung?Es gelten unterschiedliche Fristen für die Umsetzung aller Bestimmungen des KI-Gesetzes. Zunächst soll der AI Act spätestens im Juli im Amtsblatt der EU erscheinen. 20 Tage später tritt das Gesetz in Kraft. Ab dann gelten Fristen. Eine vollständige Liste aller Meilensteine ist im Zeitplan des AI Acts aufgeführt.
Beispiele dafür sind:
– Das Verbot von AI mit unannehmbarem Risiko wird sechs Monate nach Inkrafttreten des Gesetzes wirksam.
– Nach 36 Monaten gelten alle weiteren Vorgaben gemäß Artikel 6 Absatz 1.
Bleiben wir direkt bei den Transparenzpflichten. Wie kann ich als Nutzer*in in Zukunft sehen, ob ein Inhalt mithilfe von KI generiert wurde?
Tropmann-Frick: Das ist genau der Punkt. Deswegen gibt es diese ganze Dokumentationspflicht für die Unternehmen: Damit Sie als Nutzerin die Möglichkeit haben, sich informieren zu können, wie die einzelnen Inhalte generiert wurden. Und vielleicht auch tatsächlich womit und welche neuronalen Netzarchitekturen vielleicht sogar zum Einsatz kamen. Oder ob bestimmte Tools benutzt wurden. Diese Informationsweitergabe muss stattfinden.
Wenn man insgesamt die Auswirkungen des AI Acts betrachtet, glauben Sie, dass das Regelwerk eher lähmend auf die Industrie wirkt? Oder kommt jetzt der erhoffte KI-Boom?
Tropmann-Frick: Das ist eine schwierige Frage, wünschen Sie eine ehrliche Antwort?
Ja.
Tropmann-Frick: Ich glaube, durch diese Regulierung stoppt man die Entwicklung oder man bremst sie aus. Das ist immer so, das müssen wir einfach hinnehmen. Die Frage ist aber, warum machen wir das. Nicht, um die Unternehmen zu stoppen, irgendeine gute Entwicklung anzugehen. Wir versuchen vielmehr, KI-Systeme für uns Menschen brauchbar zu machen und in unserem ethischen Sinne mit unseren Moralvorstellungen ein gutes Handeln zu erzeugen. Und natürlich sind wir dann in Konkurrenz mit den Vereinigten Staaten, aber auch mit China, wo die Situation ganz anders aussieht. Ich würde daher sagen: Der Boom kommt. Vielleicht nicht direkt aus Europa, aber auf jeden Fall aus der internationalen Kooperation von Unternehmen. Es gibt kein Unternehmen im KI-Bereich, das nur in einem Land aktiv ist. Wir sind sehr vernetzt.
Denken Sie, dass das EU-Regelwerk die gewünschte Wirkung auf große KI-Player wie China und die USA haben wird? Wird man sich dort an den EU-Regeln orientieren?
Tropmann-Frick: Ich glaube nicht, dass China oder die USA sich direkt daran orientieren werden. Aber alles, was sie dann in Europa betreiben, werden sie diesen Regeln anpassen müssen. Ich vermute, dass es auch in Zukunft mit den USA eine gemeinsame Initiative geben wird. Ob es in Richtung China so laufen kann, das ist schwer zu sagen.
Zum Abschluss haben wir noch eine Frage und bitten hierbei um Ihre persönliche Meinung: Was denken Sie, brauchen wir den AI Act überhaupt?
Tropmann-Frick: Ja und wir haben auch ganz lange darauf gewartet.