Schmuckbild
Was gilt für Medieninhalte über die Transparenz hinaus?
25. September 2024
Mario Martini/Christiane Wendehorst (Hrg.), KI-Verordnung - Verordnung über künstliuche Intelligenz - Kommentar, Verlag C.H.Beck, München 2024, 199,00 €.
Der AI-Act, den die Europäische Union in diesem Sommer verabschiedet hat, ist schrittweise anwendbar, die wichtigsten Vorschriften im Sommer 2026. Bis dahin müssen Unternehmen, die irgendetwas mit AI zu tun haben - also alle - sich vorbereiten. Wie, das beschreibt der vorliegende Kommentar. Er hebt hervor, dass das Regulierungsmodell anders ist als etwa die DSGVO, denn es fehlen individuelle Rechte Betroffener oder Aspekte des Verbraucherschutzes. Es wird eine Gefährdungshaftung des Betreibers geregelt und Anforderungen formuliert, wie die Gefahren gesenkt werden.
Wenn man liest, wie Juristen mit Gefahren durch eine Technik, die sie nicht völlig verstehen, umgehen und sich mit Definitionen und Gefährdungshaftung auseinandersetzen, erinnert man sich an die industrielle Revolution: Die Gefahr kam von der Eisenbahn und deren Betrieb. Die Definition, wiedergegeben vom Reichsgericht (I 23/80 vom 17. März 1879) ist legendär. Vielleicht liest sich der AI-Act in einer etwas ferneren Zukunft ähnlich an das eigentliche Problem herantastend.
Die Gefahr von AI ist in Kategorien aufgeteilt. Da gibt es die gänzlich verbotenen Praktiken wie beispielsweise unterschwellige Beeinflussung (Art. 5). Danach kommt die Hochrisiko-KI (Art. 6f bis 49), die umfängliche Pflichten zu befolgen hat und intensiver Kontrolle unterliegt. Zu Recht wird am Ende der Kommentierung kritisiert, dass entgegen Forderungen im Gesetzgebungsverfahren die VLOPS (große Online-Plattformen) im Sinne des DSA nicht darunter gezählt werden, obwohl das folgerichtig gewesen wäre. Es folgen die KI-Modelle mit allgemeinem Verwendungszweck (Art. 51 bis 56) mit Dokumentationspflichten, Transparenzanforderungen, Praxisleitfäden und der Überwachung durch die neu eingeführten Gremien.
Irgendwo dazwischen in einem eigenen Kapitel steht Art. 50 mit der der ein wenig technokratisch ausfallenden Überschrift "Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme". In Art. 50 Abs. 4 sind die Medien aufgeführt, auch wenn sie nicht so heißen (im Übrigen auch nicht im Stichwortverzeichnis der Kommentierung auftauchen). Es sind diejenigen angesprochen, die Text, Bild, Ton und Audiovisuelles mit AI verändern (und es veröffentlichen). Für Sie sind Kennzeichnungspflichten und eine besonderen Transparenz definiert.
Alle KI-Anwender müssen zum Beispiel die "KI-Kompetenz" der für sie tätigen Personen (also nicht der Allgemeinheit) schärfen, damit beim Betrieb der KI die Risiken in jedem Fall minimiert werden. Die Medienanstalten werden vermutlich hier andocken und das mit dem Begriff der Medien-Kompetenz verknüpfen.
Womit man bei der Frage ist, wie der AI-Act sich zu anderen Rechtstexten verhält. Es handelt sich um eine Verordnung, die unmittelbar gilt und zwar in ganz Europa einheitlich. Auch wenn es (wie die Kommentierung zu Recht anmerkt) wohl nicht notwendig gewesen wäre, ist trotzdem klargestellt, dass die Haftung nach dem DSA neben den Regeln des AI-Act steht - das ist jener Bereich, der landläufig als "Providerhaftung" genannt wird, wie sie bis vor nicht allzu langer Zeit in Deutschland noch im TMG stand (aus der ECommerce-RL kommend).
Viel interessanter ist für die Medienordnung die Frage, was ein Mitgliedsstaat bei AI noch regeln darf. Eindeutig heißt es in der Kommentierung, das Inverkehrbringen und die Inbetriebnahme von KI-Systemen sei durch die europäische Verordnung in vollem Umfang harmonisiert, die Mitgliedsstaaten seien hier zukünftig außen vor. Bei der "Verwendung" wird ein Beispiel aus dem Bereich der Verwaltung genannt, zu dem der AI-Act nichts sage, weshalb der Mitgliedsstaat noch etwas regeln dürfe.
In die Tiefe geht diese Kommentierung nicht. Für die Medien geht es ganz konkret um die Frage, ob das nationale Medienrecht die Verwendung von AI über die Transparenzvorgaben des Art. 50 Abs. 4 hinaus regulieren oder einengen darf. Der Konflikt ist absehbar: Die Medienanstalten werden das bejahen (wohl auch die Länder), die Betroffenen werden das verneinen, zumal wenn ihr Angebot aus dem Ausland kommt. Man wird wohl tiefer in die Absicht der einzelnen medienrechtlichen Regelungen eintauchen müssen: die journalistischen Sorgfaltspflichten, die immer im Journalismus gelten und nicht erst mit der Verwendung von AI erfunden wurden, werden nicht durch Beachtung von Transparenzvorgaben beiseite geschoben. Dass die abstrakten Gefährdungen von AI bei der Erfüllung der allgemeinen Sorgfaltspflichten besondere Probleme bereiten, dürfte allzu spezifischen Anwendungen, beispielsweise der Sorgfaltspflichten auf AI-Produkte nicht entgegen stehen. Wo genau die Grenze zwischen vollharmonisierten Regelungen und der Verwendung von AI in der neuen Verordnung verläuft, wo die mitgliedsstaatliche Rechtsetzung möglich bleibt, wird noch einiges an Diskussion und wissenschaftlicher Begutachtung auslösen. Dass damit auch Zuständigkeitsfragen der neu im AI-Act geregelten Gremien und der bestehenden nationalen Aufsichtsbehörde angesprochen ist, liegt auf der Hand.
Die Unternehmen sind gehalten, für ihre Anwendungen zu prüfen, in welcher Kategorie sie sich befinden und wie sie ihre Transparenzpflichten und sonstigen Anforderungen erfüllen, sobald der AI-Act scharf geschaltet ist. Die Kommentierung bietet hierzu wesentliche Informationen.
Release 25. September 2024, 15:39 - OR