Neue EU-Regeln für große KI-Modelle sind in Arbeit

Informationsaustausch, Einhaltung des Urheberrechts und Transparenz: Das sind die neuen Verpflichtungen, die Unternehmen, die General-Purpose-KI-Modelle (GPAI) entwickeln, ab heute in Europa erfüllen müssen. Ein Jahr nach Inkrafttreten des Artificial Intelligence Act , der nach dem Verbot unzulässiger KI-Praktiken und der Einführung verpflichtender Schulungen nun die Regeln für große KI-Modelle an die Reihe bringt.
Was ist ein GPAI?Dabei handelt es sich um Modelle, die mit großen Datenmengen trainiert wurden und ein breites Aufgabenspektrum erfüllen können. Sie sind häufig in andere KI-Systeme integriert. In den GPAI-Leitlinien stellte die Kommission klar, dass ein Algorithmus in diese Kategorie fällt, wenn er mit Rechenressourcen von mehr als 10^23 FLOPs trainiert wurde und in der Lage ist, aus Text Sprache (in Form von Text oder Audio), Bilder oder Videos zu generieren.
Das Modell muss zudem eine hohe Allgemeingültigkeit aufweisen und in der Lage sein, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Daher umfassen GPAIs Sprachmodelle, die mit der angegebenen Rechenleistung trainiert wurden, nicht solche, die zum Schachspielen, für Videospiele oder zur Verbesserung der Fotoauflösung entwickelt wurden.
Darüber hinaus gibt es systemische Risikomodelle, für die das KI-Gesetz zusätzliche Verpflichtungen vorsieht. Dabei handelt es sich um Algorithmen, die erhebliche Auswirkungen auf den europäischen Markt haben können. In diesem Fall liegt der zu berücksichtigende Schwellenwert bei 10^25 FLOPs, und die Kommission ist befugt, sie von Amts wegen zu benennen.
TransparenzpflichtenIn erster Linie müssen die Anbieter transparenter sein. Das KI-Gesetz verpflichtet sie, technische Dokumentationen zum Modell, einschließlich Details zum Trainingsprozess, zu erstellen und aufzubewahren, die sie den Behörden auf Anfrage zur Verfügung stellen können.
Darüber hinaus müssen die Unternehmen ihren nachgelagerten Lieferanten – also denjenigen, die eine GPAI in ein KI-System integrieren möchten – Informationen und Unterlagen zur Verfügung stellen, um ihnen zu helfen, die Fähigkeiten und Grenzen des Modells zu verstehen und ihren gesetzlichen Verpflichtungen nachzukommen.
Das KI-Gesetz listet die mindestens zu erhebenden Informationen auf. Darüber hinaus wurde im GPAI- Verhaltenskodex eine standardisierte, benutzerfreundliche Vorlage veröffentlicht, um diese Anforderungen zu erfüllen.
UrheberrechtsschutzDas Gesetz verpflichtet die Anbieter außerdem dazu, wirksame Maßnahmen zur Einhaltung des europäischen Urheberrechts umzusetzen und dabei modernste Technologien zur Erkennung und Durchsetzung von Rechtsvorbehalten einzusetzen.
Der Verhaltenskodex listet auch eine Reihe praktischer Lösungen auf, um dieser neuen Verpflichtung nachzukommen.
ModelltrainingsberichtKI-Unternehmen müssen zudem eine ausreichend detaillierte Zusammenfassung der Inhalte veröffentlichen, die zum Trainieren des Algorithmus verwendet wurden. Um die Anbieter bei der Einhaltung dieser Verpflichtung zu unterstützen, hat die Kommission eine Vorlage veröffentlicht, die Unternehmen als Referenz dienen kann und die es Bürgern und Urheberrechtsinhabern ermöglicht, sich zu informieren und zu schützen.
Regeln für den Fall eines systemischen RisikosAb heute müssen auch für systemisch risikobehaftete Modelle zusätzliche Anforderungen erfüllt werden. Anbieter müssen eine Modellbewertung mithilfe standardisierter Protokolle und modernster Tools durchführen. Potenzielle systemische Risiken, die sich aus diesen Modellen ergeben, müssen ebenfalls bewertet und gemindert werden. Schwerwiegende Vorfälle müssen den Behörden gemeldet werden.
Diese Unternehmen sind außerdem verpflichtet, einen angemessenen Cybersicherheitsschutz sowohl für das Modell als auch für seine physische Infrastruktur zu gewährleisten, um Diebstahl, Missbrauch oder weitreichende Folgen durch Fehlfunktionen zu verhindern.
Der Verhaltenskodex widmet KI-Modellen mit systemischen Risiken ein ganzes Kapitel und listet konkrete Praktiken zum Umgang mit diesen Risiken auf.
La Repubblica