Wie gesetzestreu ist KI? ETH-Forschende machen den Test
Der AI Act der Europ?ischen Union zielt auf transparente und vertrauenswürdige KI ab. ETH-Informatiker haben das EU-Gesetz nun erstmals in messbare technische Anforderungen für KI übersetzt. Dabei zeigen sie auf, wie gut heutige KI-Modelle die Rechtsregeln schon erfüllen.
- Vorlesen
- Anzahl der Kommentare
In Kürze
- Forschende der ETH Zürich haben zusammen mit Partnern die erste umfassende technische Interpretation des EU AI Acts für allgemeine KI-Modelle (engl. General Purpose AI) vorgelegt.
- Sie haben das erste dezidiert Compliance-bezogene Benchmarking entwickelt. Damit l?sst sich überprüfen, wie gut verschiedene KI-Modelle die Anforderungen des EU KI-Gesetzes voraussichtlich erfüllen.
- Sie haben ihr Benchmarking auf zw?lf prominente grosse Sprachmodelle (LLM) angewendet. Dabei stellten sie einige grunds?tzliche Herausforderungen bei der technischen Umsetzung von KI-Gesetzen fest.
Forschende der ETH Zürich sowie des – in Zusammenarbeit mit ETH und EPFL gegründeten – bulgarischen KI-Forschungsinstituts INSAIT und des ETH Spin-offs LatticeFlow AI haben die erste umfassende technische Interpretation des EU AI Acts für allgemeine KI-Modelle (engl. General Purpose AI, GPAI) vorgelegt. Damit sind sie die ersten, die die rechtlichen Anforderungen, welche die EU an künftige KI-Modelle stellt, in konkrete, mess- und überprüfbare technische Anforderungen übersetzen.
Eine solche ?bersetzung ist für den weiteren Umsetzungsprozess des EU AI Acts sehr relevant: Die Forschenden pr?sentieren ein praktisches Vorgehen für Modellentwickler:innen, um einzusch?tzen, wie gut ihre Modelle mit den zukünftigen EU-rechtlichen Anforderungen übereinstimmen. Eine solche ?bersetzung von regulatorischen Anforderungen hin zu tats?chlich ausführbaren Benchmarks hat es bisher nicht gegeben und kann daher sowohl als wichtiger Referenzpunkt für das Modelltraining als auch für den sich derzeit entwickelnden Verhaltenskodex, den EU AI Act Code of Practice, dienen.
Getestet haben die Forschenden ihren Ansatz an zw?lf beliebten generativen KI-Modellen wie ChatGPT, Llama, Claude oder Mistral – schlie?lich haben diese grossen Sprachmodelle (LLM) enorm zur wachsenden Popularit?t und Verbreitung von künstlicher Intelligenz (KI) im Alltag beigetragen, da sie sehr leistungsf?hig und intuitiv zu bedienen sind. Mit der zunehmenden Verbreitung dieser – und anderer – KI-Modelle steigen auch die ethischen und rechtlichen Ansprüche an einen verantwortungsvollen Umgang mit KI: So stellen sich zum Beispiel sensible Fragen zu Datenschutz, Schutz der Privatsph?re und zur Transparenz der KI-Modelle. Diese sollten keine ?Black Boxes? sein, sondern m?glichst erkl?rbare und nachvollziehbare Ergebnisse liefern.
Umsetzung des KI-Gesetzes muss technisch klar sein
Ausserdem sollten sie fair funktionieren und niemanden diskriminieren. Vor diesem Hintergrund ist der EU AI Act, den die EU im M?rz 2024 verabschiedete, weltweit das erste KI-Gesetzespaket, das umfassend versucht, das Vertrauen der ?ffentlichkeit in diese Technologien zu maximieren und ihre unerwünschten Risiken und Nebenwirkungen zu minimieren.
?Der EU AI Act ist ein wichtiger Schritt zur Entwicklung verantwortungsvoller und vertrauenswürdiger KI?, sagt ETH-Informatikprofessor Martin Vechev, Leiter des Labors für sichere, verl?ssliche und intelligente Systeme sowie Gründer von INSAIT, ?aber uns fehlt bisher eine klare und pr?zise technische Interpretation der übergeordneten rechtlichen Anforderungen aus dem EU AI Act. Das erschwert sowohl die Entwicklung rechtskonformer KI-Modelle als auch die Beurteilung, inwieweit diese Modelle tats?chlich den Rechtsvorschriften entsprechen.?
Der EU AI Act setzt einen klaren rechtlichen Rahmen, um die Risiken sogenannter Allgemeiner Künstlicher Intelligenz (GPAI) einzud?mmen. Damit sind KI-Modelle gemeint, die in der Lage sind, sehr viele Aufgaben auszuführen. Das Gesetz legt jedoch nicht fest, wie die breit gefassten rechtlichen Anforderungen technisch zu interpretieren sind. Die technischen Standards werden noch entwickelt, bis die Vorschriften für hochriskante KI-Modelle im August 2026 in Kraft treten.
?Der Erfolg der Umsetzung des Gesetzes wird jedoch wesentlich davon abh?ngen, wie gut es gelingt, konkrete, pr?zise technische Anforderungen und Compliance-orientierte Benchmarks für KI-Modelle zu entwickeln?, sagt Petar Tsankov, CEO und zusammen mit Vechev Gründer des ETH-Spin-offs LatticeFlow AI, das sich mit der praktischen Umsetzung vertrauenswürdiger KI befasst. ?Wenn es keine einheitliche Auslegung gibt, was Schlüsselbegriffe wie Sicherheit, Erkl?rbarkeit oder Nachvollziehbarkeit in (GP)AI-Modellen genau bedeuten, bleibt es für Modellentwickler:innen unklar, ob ihre KI-Modelle dem AI Act entsprechen?, erg?nzt Robin Staab, Informatiker und Doktorand in Vechevs Forschungsgruppe.
Test von zw?lf Sprachmodellen zeigt M?ngel auf
Hierzu bietet die Methodik, die die ETH-Forschenden entwickelt haben, eine Einstiegshilfe und Diskussionsgrundlage. Zudem haben die Forschenden einen ersten ?Compliance Checker? entwickelt, also eine Benchmark-Methode, mit der sich bewerten l?sst, wie gut KI-Modelle die Anforderungen des EU KI-Gesetzes voraussichtlich erfüllen.
Mit Blick auf die in Europa laufende Konkretisierung der Gesetzesbestimmungen haben die ETH-Forschenden ihre Erkenntnisse in einer Studie ?ffentlich zug?nglich gemacht. Sie haben ihre Ergebnisse auch dem KI-Büro der Europ?ischen Kommission zur Verfügung gestellt, das eine Schlüsselrolle bei der Umsetzung und Einhaltung des KI-Gesetzes spielt – und damit auch für die Modellbewertung.
In der gr?sstenteils allgemeinverst?ndlichen Studie kl?ren die Forschenden zun?chst die Schlüsselbegriffe. Ausgehend von sechs zentralen ethischen Prinzipien des EU AI Acts (menschliche Entscheidungsfreiheit, Datenschutz, Transparenz, Vielfalt, Diskriminierungsfreiheit, Fairness) leiten sie 12 zugeh?rige, technisch klare Anforderungen ab und bringen diese mit 27 State-of-the-Art-Evaluationsmethoden in Verbindung. Wichtig ist, dass die Forschenden auch darauf hinweisen, in welchen Bereichen konkrete technische Prüfungen für KI-Modelle weniger gut entwickelt oder sogar gar nicht existent sind. Zudem ermutigen sie sowohl Forschende, Modellanbieter:innen als auch Regulierungsbeh?rden dazu, diese Bereiche weiter voranzutreiben, um eine effektive Umsetzung des AI Acts zu gew?hrleisten.
Anstoss zur weiteren Verbesserung
Die Forschenden haben ihren Benchmark-Ansatz auf zw?lf prominente Sprachmodelle (LLMs) angewendet. Die Ergebnisse machen deutlich, dass keines der heute analysierten Sprachmodelle die Anforderungen des EU AI Acts vollst?ndig erfüllt. ?Unser Vergleich dieser grossen Sprachmodelle zeigt, dass es besonders bei Anforderungen wie Robustheit, Vielfalt und Fairness noch M?ngel gibt?, sagt Robin Staab. Dies hat auch damit zu tun, dass sich Entwickler:innen und Forschende in den letzten Jahren vor allem auf allgemeine Modellf?higkeiten und -leistung konzentriert haben, anstatt auf ethische oder soziale Anforderungen wie Fairness oder Nicht-Diskriminierung.
Die Forschenden haben jedoch auch festgestellt, dass selbst zentrale KI-Konzepte wie die Erkl?rbarkeit unklar sind. In der Praxis fehlen geeignete Tools, um nachtr?glich zu erkl?ren, wie die Ergebnisse eines komplexen KI-Modells zustande kamen: Was begrifflich nicht ganz klar ist, l?sst sich auch technisch fast nicht bewerten. Die Studie macht deutlich, dass verschiedene technische Anforderungen, einschliesslich derjenigen, die sich auf Urheberrechtsverletzungen beziehen, derzeit nicht zuverl?ssig messbar sind. Für Robin Staab ist eines klar: ?Die Modellbewertung allein auf Leistungsf?higkeit zu fokussieren, reicht nicht aus.?
Der Blick der Forschenden geht jedoch über die Bewertung bestehender Modelle hinaus. Für sie ist der EU AI Act ein erster Fall, wie die Gesetzgebung die Entwicklung und Bewertung von KI-Modellen in Zukunft ver?ndern wird. ?Wir sehen unsere Arbeit als Anstoss, um die Umsetzung des AI Acts zu erm?glichen und um praktikable Empfehlungen für Modellanbieter:innen zu erhalten?, sagt Martin Vechev, ?aber eine solche Methodik kann über den EU AI Act hinausgehen, da sie auch auf andere, vergleichbare Gesetzgebungen anpassbar ist.?
?Letzten Endes wollen wir eine ausgewogene Entwicklung von LLMs anstossen, die sowohl technische Aspekte wie die Leistungsf?higkeit als auch ethische Aspekte wie Fairness und Inklusion berücksichtigt?, erg?nzt Petar Tsankov. Um die technische Diskussion anzukurbeln, stellen die Forschenden ihr Benchmark-Tool COMPL-AI auf einer GitHub-Webseite zur Verfügung. Dort lassen sich die Ergebnisse und Methoden ihrer Benchmarking-Studie analysieren und visualisieren. ?Wir haben unsere Benchmark-Suite als Open Source ver?ffentlicht, damit weitere Forschende aus Industrie und Wissenschaft sich daran beteiligen k?nnen?, sagt Petar Tsankov.
Die Ergebnisse von fünf LLM-Modellen in der neuen COMPL-AI-Benchmark-Suite, gruppiert nach ethischen Grunds?tzen. Das Benchmarking arbeitet mit Werten: 1 bedeutet, dass die Anforderungen des KI-Gesetzes vollst?ndig erfüllt sind. Bei O werden sie gar nicht erfüllt. (Tabelle: Lattice Flow, SRI Lab, INSAIT)
Literaturhinweis
Guldimann, P, Spiridonov, A, Staab, R, Jovanovi?, N, Vero, M, Vechev, V, Gueorguieva, A, Balunovi?, Misla, Konstantinov, N, Bielik, P, Tsankov, P, Vechev, M. COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act. In: arXiv:2410.07959 [cs.CL]. DOI: externe Seite https://doi.org/10.48550/arXiv.2410.07959