
KI & Medien
Es bedarf neben der Stärkung von KI-Kompetenzen, die durch eine umfassende Integration in Bildungscurricula und gezielte Fortbildungsprogramme gekennzeichnet ist, auch einer medienrechtlichen KI-Regulierung, die unter anderem im AI Act geregelt ist. Die Medienanstalten beschäftigen sich intensiv mit dem Thema KI in Medien, sie wollen den Medienanbietern einen rechtssicheren und innovativen Einsatz von KI bei der Produktion und Distribution von Medieninhalten eröffnen.
1. KI regulieren
1.1 Leitlinien und Positionen
Eine zeitgemäße Medienaufsicht muss sowohl das Potenzial als auch die Herausforderung Künstlicher Intelligenz in den Blick nehmen, Impulse setzen und die wachsende Rolle von KI bei der Erstellung, Distribution und Rezeption von Medieninhalten im Blick behalten.
Vor diesem Hintergrund leuchten die Medienanstalten die für ihre Arbeit im Bereich der Regulierung sowie der Förderung von Medienkompetenzen wesentlichen Anschlussstellen aus. Es bedarf einer medienrechtlichen KI-Regulierung, denn der AI Act lässt zumindest für den Bereich des Medienrechts eher neue Fragen aufkommen, als Antworten zu geben. Die Medienanstalten beschäftigen sich intensiv mit dem Thema KI in Medien, sie wollen den Medienanbietern einen rechtssicheren und innovativen Einsatz von KI in der Produktion und Distribution von Medieninhalten eröffnen.
Mit den nachstehenden Positionen und Leitlinien, die insbesondere die Herausforderungen für die Medienvielfalt und öffentliche Meinungsbildung in den Blick nehmen, leisten die Medienanstalten ihren Beitrag zu einer zentralen Debatte.
KI und Medien – Vielfalt stärken, Verantwortung regeln, Vertrauen wahren
Positionierung der Direktorenkonferenz der Landesmedienanstalten (DLM)
Vielfalt stärken:
Der Einsatz von Künstlicher Intelligenz darf die Vielfalt in den Medien nicht beeinträchtigen. Das bedeutet, dass sowohl bei der Erstellung als auch bei der Distribution von Medien durch KI-Systeme die Unterschiedlichkeit von Meinungen und Perspektiven sichtbar bleiben muss.
Verantwortung regeln:
Journalistische Medien haben einen starken Einfluss auf die öffentliche Meinungsbildung. Deshalb müssen sie bestimmte Sorgfaltspflichten wahren. Diese Verantwortung gilt auch für den Einsatz Künstlicher Intelligenz und liegt in letzter Konsequenz immer beim Menschen. Medienschaffende und ‑anbieter haben deshalb beim Einsatz von KI besondere Prüfpflichten. Auch aus medienrechtlicher Sicht müssen taugliche Kontroll- und Prüfmechanismen aufgesetzt werden.
Vertrauen wahren:
Das Vertrauen in Medieninhalte ist entscheidend für die Vielfalt der Meinungen im demokratischen Diskurs. Um Vertrauen zu bewahren und KI als Chance zu begreifen, sind medienrechtliche Prinzipien wie Transparenz und Diskriminierungsfreiheit auch auf KI anzuwenden. Maßgeblich ist hierfür insbesondere die Kennzeichnung des KI-Einsatzes durch die Medienanbieter. Und weil Vertrauen auch auf Verstehen gründet, fördern die Medienanstalten die Vermittlung von KI-Kompetenzen.
1.2 Der AI Act
Die EU gehört mit dem AI Act zu den globalen Vorreitern in der Regulierung von Künstlicher Intelligenz, da es sich um das erste weltweite Regelwerk handelt, das spezifische Vorschriften für KI festlegt. Ziel ist es, allen beteiligten Akteuren im privaten und öffentlichen Sektor beim Einsatz von KI-Systemen Rechtssicherheit zu bieten. Der AI Act soll die Einführung von menschenzentrierten und vertrauenswürdigen KI-Systemen fördern und gleichzeitig einen hohen Schutz für Gesundheit, Sicherheit und Grundrechte, einschließlich Demokratie und Rechtsstaatlichkeit, gewährleisten.
Der AI Act schreibt vor, dass KI-Anwendungen keine verbotenen Praktiken beinhalten dürfen, und verfolgt einen sogenannten risikobasierten Ansatz. Das heißt, je höher das Risiko bei der Anwendung eingeschätzt wird, desto strenger sind auch die Vorgaben. Ein inakzeptables Risiko stellen zum Beispiel KI-Systeme dar, die eingesetzt werden können, um das Verhalten von Personen gezielt zu beeinflussen und sie so zu manipulieren. Für sie gilt ein Verbot, genauso wie für KI-basiertes „Social Scoring“, also die Vergabe von Punkten nach erwünschtem Verhalten.
Ziele des AI Acts
Der AI Act wurde entwickelt, um einen einheitlichen Rechtsrahmen für alle Aspekte im Zusammenhang mit KI-Systemen zu schaffen. Ziel des AI Acts ist es, den Binnenmarkt zu stärken und die Einführung einer menschenzentrierten und vertrauenswürdigen Künstlichen Intelligenz zu fördern. Gleichzeitig soll ein hohes Schutzniveau für Gesundheit, Sicherheit sowie die in der Charta verankerten Grundrechte gewährleistet werden, einschließlich der Bereiche Demokratie, Rechtsstaatlichkeit und Umweltschutz, um schädliche Auswirkungen von KI-Systemen innerhalb der Europäischen Union zu verhindern. Darüber hinaus soll der AI Act Innovationen unterstützen (Art. 1 Abs. 1 AI Act). Der AI Act umfasst:
- Harmonisierte Vorschriften für die Markteinführung, Inbetriebnahme und Nutzung von KI-Systemen in der Europäischen Union
- Verbote bestimmter Praktiken im Bereich der KI
- Besondere Anforderungen und Verpflichtungen für Hochrisiko-KI-Systeme und deren Akteure
- Einheitliche Transparenzvorschriften für bestimmte KI-Systeme
- Harmonisierte Regelungen für die Vermarktung von KI-Modellen mit allgemeinem Verwendungszweck
- Vorschriften zur Marktbeobachtung sowie zur „Governance“ und Durchsetzung der Marktaufsicht
- Maßnahmen zur Förderung von Innovationen, mit einem besonderen Fokus auf kleine und mittlere Unternehmen (KMU) sowie Start-ups.
Zentrale Regulierungsinhalte
Bei der Umsetzung der genannten Zielsetzung berührt der AI Act originäre Aufgabenfelder der Medienanstalten im Bereich des Jugendmedienschutzes, der Werbung, der Vielfaltssicherung und der Meinungsfreiheit, also das gesamte Aufsichtsregime der Medienanstalten. Die Medienanstalten sind daher aufgrund ihrer staatsfernen Ausrichtung an der Umsetzung des AI Acts immer dann zu beteiligen, wenn Bereiche betroffen sind, die unter das Medienprivileg fallen. Bezüge des AI Acts zu den Aufgaben der Medienanstalten ergeben sich unter anderem:
KI-Kompetenz | Art. 4 AI Act, ErwG 20 |
Verbotene Praktiken | Art. 5 AI Act, ErwG 28ff |
Einstufungsvorschriften für Hochrisiko-KI-Systeme | Art. 6 AI Act, ErwG 46 – 48, 50 – 63 |
Transparenz und Bereitstellung von Informationen für Betreiber | Art. 13 AI Act, ErwG 66/72 |
Pflichten der Anbieter von Hochrisiko-KI-System | Art. 16 AI Act, ErwG 79 – 80 |
Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme | Art. 50 AI Act, ErwG 132 – 137 |
Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck | Art. 53 AI Act, ErwG 114/116/169 |
Praxisleitfäden | Art. 56 AI Act, ErwG 116/117/135 |
KI-Reallabore | Art. 57-63 AI Act, ErwG 138 – 146 |
Benennung von zuständigen nationalen Behörden und zentrale Anlaufstelle | Art. 70 AI Act, ErwG 148/153f. |
Sanktionen | Art. 99 AI Act |
2. Unsere Angebote rund um KI
KI-Vortragsreihe 'AI Insights'
Künstliche Intelligenz (KI) hat mittlerweile ganz nebenbei Einzug in unser Leben gefunden: Alexa und Siri im Wohnzimmer, Navigationsgeräte im Auto oder Sprach- und Gesichtserkennungssysteme im Handy. KI vereint dabei verschiedenste Disziplinen wie Informatik, Statistik oder Mathematik, aber auch Psychologie und Linguistik. Die LMS und das Bundesamt für Sicherheit in der Informationstechnik (BSI) setzten sich in ihrer Vortragsreihe mit der KI-Transformation und deren Auswirkungen intensiv auseinander. Sie diskutierten sowohl die Chancen als auch die Risiken von Künstlicher Intelligenz. Potentiale für Innovation, Effizienzsteigerung und bessere Lebensqualität waren ebenso Themen wie Fragen der Regulierung, der Privatsphäre, der Verantwortung und der möglichen Auswirkungen auf die Gesellschaft. Die Aufzeichnungen finden Sie hier:
KI-Seminare & Termine
Die LMS spielt eine Schlüsselrolle bei der Förderung von Medienkompetenz im Saarland. Ihr vielfältiges Angebot an Veranstaltungen rund um Künstliche Intelligenz (KI) ist besonders wichtig, um Fachleuten, Unternehmen und der breiten Öffentlichkeit die Chancen und Herausforderungen dieser Technologie näherzubringen. Mit ihren Seminaren und Veranstaltungen sorgt die LMS dafür, dass die Region im digitalen Zeitalter nicht nur mithält, sondern aktiv mitgestaltet – und das in einem zunehmend KI-geprägten Umfeld. Hier gelangen Sie zu den Seminaren und Terminen rund um KI.
KI-Themenwelt
Die KI-Themenwelt bietet einen faszinierenden Einblick in die Zukunft der Technologie. Hier können Besucher:innen mehr über die neuesten Entwicklungen in der Künstlichen Intelligenz erfahren und lernen, wie diese Innovationen Medien und Gesellschaft verändern und für verschiedene Zwecke sinnvoll und sicher eingesetzt werden können.
KI-Veranstaltungsreihe "Medien Triennale Südwest"
KI & Medien gemeinsam gestalten: Das ist das Motto der Medien Triennale Südwest, ein gemeinsames, interdisziplinär ausgerichtetes Veranstaltungsformat der Landesanstalt für Kommunikation (LfK), der Medienanstalt Rheinland-Pfalz und der LMS, welche jährlich stattfindet. Die Stärkung des Wissenstransfers zwischen Medienaufsicht, Politik und Wissenschaft sowie die Schaffung von Sichtbarkeit für medienpolitische und gesellschaftliche Themen sind Ziele der Fachkonferenz. Die MTSW 2025 findet am 12.11.2025 in Saarbrücken statt.
KI-Forschungsprojekte MarKIer & PABeLA
Im Rahmen von MarKIeR wurde untersucht, wie Regulierungsbehörden durch KI-Systeme unterstützt werden können, die Einhaltung von Transparenzpflichten, die Medienintermediären (bspw. Suchmaschinen, Sozialen Medien oder Videoportalen) auferlegt sind, effektiv zu kontrollieren. Diese müssen offenlegen, was bei der Suche nach einer Information durch Nutzer:innen im Hintergrund passiert und sind dazu verpflichtet, transparent zu machen, nach welchen selbstgewählten algorithmischen Kriterien sie Inhalte auswählen. Darüber hinaus ist es ihnen verboten, Angebote journalistisch-redaktioneller Inhalte systematisch besser oder schlechter zu behandeln als andere und sie damit zu diskriminieren. Weitere Informationen zum Projekt:

PABeLA ist ein Kooperationsprojekt des DFKI und der LMS, das erforscht, wie große KI-Sprachmodelle wie zum Beispiel ChatGPT die Meinungsbildung und den Journalismus in unserer Demokratie beeinflussen. Ziel ist es, Prüfverfahren zu entwickeln, welche die Antworten von KI-basierten Diensten systematisch anhand eines Prüfkatalogs bewerten. Das Forschungsprojekt läuft bis Ende 2025. Die Ergebnisse sollen in der Praxis der Medienregulierung nutzbar sein. Das Saarland hatte im vergangenen Jahr als erstes Bundesland verbindliche Regeln für den Einsatz von KI im Rundfunk in sein Mediengesetz aufgenommen. Weitere Informationen zum Projekt:

3. Unsere Expertise: KI & Medien
Die LMS verantwortet im Kreis der Medienanstalten federführend das Schwerpunktthema Künstliche Intelligenz:
Innerhalb der Gemeinschaft der Landesmedienanstalten ist LMS-Direktorin Ruth Meyer seit 2023 die Themenbeauftragte für Künstliche Intelligenz. Sie vertritt damit die Interessen der 14 Landesmedienanstalten bei einer transparenten, diskriminierungsfreien und vielfaltssichernden Ausrichtung, insbesondere in der Medienaufsicht und ‑regulierung in diesem Bereich.
