Carina Tolle-Lehmann LL.M.
Rechtsanwältin, Fachanwältin für Urheber- und Medienrecht
Das Thema „Künstliche Intelligenz“ (kurz „KI“) ist in aller Munde. Kaum ein Tag vergeht, ohne das Neuerungen präsentiert werden, was mit der KI-Technologie alles erschaffen werden kann. Es eröffnen sich dadurch ungeahnte Möglichkeiten im Bereich der Erstellung von Content.
Insbesondere Unternehmen haben den praktischen Nutzen von KI-Systemen erprobt und häufig feststellen können, dass der Einsatz von KI-Systemen durchaus Potenzial hat, Prozesse kostengünstig zu optimieren. Durch die Veröffentlichung des berühmtesten Vertreters in dieser Sparte namens „ChatGPT“ ist KI mittlerweile auch nicht mehr nur ein Thema bei Unternehmen. Vielmehr ist diese Technologie auch bereits in den Kinderzimmern dieser Welt eingezogen und hilft z.B. bei der Erstellung eines Schulaufsatzes. Wer selbst einmal ein KI-Tool ausprobiert hat, kommt teilweise aus dem Staunen nicht mehr heraus, wie geeignet die Ergebnisse bereits sind. Doch wie so häufig im Leben liegen die großen Möglichkeiten durch den Einsatz der technischen Innovation und das Missbrauchspotential sehr nah beieinander. Bleibt insofern die Frage - Wer kontrolliert eigentlich, was dort erschaffen wird oder wie der Inhalt generiert wird? Gibt es da Grenzen? Brauchen wir nicht einen sogenannten „Aufpasser“, damit nicht irgendwann alles aus dem Ruder läuft?
Unabhängig davon, wie die persönliche Antwort ausfallen würde, hat es sich die EU zur Aufgabe gemacht, den Einsatz bzw. die Nutzung von KI zu reglementieren. Die EU ist bereits seit 2021 dabei, eine Verordnung auf den Weg zu bringen, nämlich den Artificial Intelligence Act (AI-Act – auf Deutsch, das sogenannte „Gesetz über die Künstliche Intelligenz“). Ende des Jahres 2023 war es so weit und die EU einigte sich auf einen Entwurf. Denn aus Sicht der EU kann der Einsatz von KI-Systemen ohne rechtlichen Rahmen sehr schädlich sein. Es müsse gewährleistet sein, dass eine Balance zwischen Innovation, Sicherheit und Respekt vor den Grundrechten bzw. Werten in der EU hergestellt wird. Das wesentliche Ziel des AI-Acts ist es insofern sicherzustellen, dass der Einsatz von KI-Systemen demokratisch und menschenrechtskonform ist.
Um dies zu gewährleisten, ordnet der AI-Act die KI-Systeme in Risikoklassen ein (Low Risk, Limited Risk, High Risk und Unacceptable Risk). Je nach Einordnung des KI-Systems treffen ein Unternehmen strengere Anforderungen an die Transparenz sowie andere Pflichten. Betroffen sind alle Unternehmen in der EU, die KI-Systeme entwickeln, dessen Produkte oder Dienstleistungen darauf beruhen sowie Unternehmen, die die Ergebnisse von KI-Systemen nutzen. Dabei reichen die Pflichten von Registrierung in einer Datenbank für die Risikobewertung (z.B. bei Hochrisiko-KI-Systemen im Bereich von kritischer Infrastruktur oder auch biometrische Verfahren zur Identifizierung von Personen) bis hin zum schlichten Hinweis, dass ein KI-System zum Einsatz gekommen ist.
Mit dem AI-Act wird die EU nunmehr den Einsatz von KI reglementieren und einen rechtlichen Rahmen schaffen. Das ist weltweit bisher einmalig. Die Zeit wird zeigen müssen, ob wir Europäer durch die strengen Regelungen im weltweiten Vergleich an Wettbewerbsfähigkeit verlieren werden. Die EU geht jedoch davon aus, dass Unternehmen ein Anreiz gegeben wird, KI-Systeme mit besonderer Rechtssicherheit „Made in Europe“ zu erschaffen und somit im globalen Wettbewerb weit vorne sein werden. Jedenfalls sollte die weitere Entwicklung im Auge behalten werden. Wir von SKNvonGEYSO halten Sie auf dem Laufenden und werden berichten, sobald feststeht, wann der AI-Act in Kraft treten soll.
Rechtsanwältin, Fachanwältin für Urheber- und Medienrecht