Alle News & Events anzeigen

04.04.2024

Veröffentlichung der Landesmedienanstalten zur Nutzung von KI in den Medien

Nur wenige Tage nach dem Beschluss der KI-Verordnung durch das Europäische Parlament (vgl. hierzu bereits) haben die Landesmedienanstalten ein Papier veröffentlicht, das den Umgang mit KI in den Medien in den Blick nimmt. Damit positionieren sich nun auch die Landesmedienanstalten, die in Deutschland über die Einhaltung medienregulatorischer Vorgaben wachen, zu den Herausforderungen und Lösungsansätzen im Umgang mit Künstlicher Intelligenz. Das Papier ist im Volltext hier abrufbar.

Schutz der Meinungsvielfalt bei der Nutzung von KI-Systemen

Kern des Papiers ist der Schutz der Meinungsvielfalt bei der Nutzung von KI-Systemen. Von der KI-Verordnung bleibt dieser Aspekt weitestgehend unberücksichtigt. Ohne Relevanz für die Risikobewertung eines KI-Systems ist nach der KI-Verordnung etwa, welche Wirkungen das System für die Meinungsvielfalt hat, ob und wie es genutzte Information auf ihren Wahrheitsgehalt prüft und ob das System aufgefundene Meinungen anderslautenden Meinungen gegenüberstellt. Zutreffend stellen die Landesmedienanstalten daher fest, dass mit der KI-Verordnung „zumindest für den Bereich des Medienrechts eher neue Fragen aufkommen, als dass Antworten gegeben werden.“

„Vielfalt stärken, Verantwortung regeln, Vertrauen wahren“

Das Papier selbst gliedert sich in drei Kernpunkte („Vielfalt stärken, Verantwortung regeln, Vertrauen wahren“). Beim Einsatz von KI zum Zwecke der Generierung oder Verbreitung audiovisueller oder Textangebote sei darauf hinzuwirken und transparent zu machen, wie den Gefahren einer Vielfaltsverengung entgegengewirkt werden könne und eine möglichst breite, vielfältige Ausleuchtung statt einer engen Sichtweise und Festlegung gewährleistet sei. Auch bei Nutzung von KI-Systemen müssten Anbieter für die erstellten Inhalte haftbar und ihren journalistischen Sorgfaltspflichten verpflichtet bleiben.

Um das Medienvertrauen zu wahren und die Entwicklung und Nutzung Künstlicher Intelligenz als Chance zu begreifen, erscheine es sinnvoll, die medienrechtlichen Prinzipien der Transparenz und Diskriminierungsfreiheit auch auf den Einsatz von KI zu übertragen. Eine Diskriminierung nach Maßgabe des Medienstaatsvertrages läge dann etwa vor, sofern ein audiovisuelles oder Textangebot Material mit einer bestimmten politischen Ausrichtung ohne sachlichen Grund bevorzugt. Zielführend seien zudem, so die Landesmedienanstalten, selbstverpflichtende Kennzeichnungen von KI-generierten Inhalten entlang festgelegter Richtlinien. Darüber hinaus seien Transparenz- und Offenlegungspflichten unter anderem zu Datenherkunft und Trainingsmethoden relevanter KI-Systeme in den Katalog vielfaltssichernder Angaben des Medienstaatsvertrags aufzunehmen. Das dürfte Medienanbieter vor die Herausforderung stellen, vorbestehende Datenbanken und bereits trainierte KI-Systeme nachträglich auf die Wahrung von Vielfaltsstandards zu überprüfen. Dies setzt wiederum voraus, dass Anbieter von KI-Systemen dem Medienanbieter nach der Vorgabe der KI-Verordnung Zugriff auf den Inhalt ihrer Datenbank gewähren.

Ausblick

Bei der Regulierung und dem Umgang mit KI-Systemen werden die Landesmedienanstalten künftig eine wesentliche Rolle spielen. Entsprechend sehen sich die Landesmedienanstalten zur Umsetzung ihrer Forderungen und Lösungsansätze auch selbst in der Verantwortung. Das nun veröffentlichte Papier darf als Grundstein einer ganzheitlichen Strategie der Landesmedienanstalten über die Regulierung und den Umgang mit KI-Systemen zum Schutz der Meinungsvielfalt in den Medien verstanden werden.  

Der Beitrag entstand unter freundlicher Mithilfe von Sten Rohmann.

Autor/innen

Christian Schepers

Dr. Christian Schepers

Associate

Profil anzeigen