Bild
Gebäude LMS

Projekt zur Bewertung von KI im Medienbereich gestartet

Förderung durch die Staatskanzlei des Saarlandes

Gemeinsame Pressemitteilung DFKI, LMS und Staatskanzlei

Saarbrücken, 08.10.2024: Welche Auswirkungen hat Künstliche Intelligenz auf die Meinungsbildung in unserer Demokratie? Dieser Frage geht ein interdisziplinäres Forscherteam des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) und der Landesmedienanstalt Saarland (LMS) nach. Das gemeinsame Projekt mit dem Namen „PABeLA“ fördert die Staatskanzlei des Saarlandes mit 200.000 Euro.

PABeLA steht für Prüflabor zur automatisierten Bewertung LLM-basierter KI-Systeme und deren Auswirkungen auf Journalismus und Meinungsbildung.
Das Projekt befasst sich mit großen Sprachmodelle oder „LLMs": KI-basierte Dienste wie Chat-GPT und Google Gemini, die in einem Dialog mit den Nutzerinnen und Nutzern stehen. Aufgrund der Komplexität und Dynamik dieser selbstlernenden Systeme ist es kaum möglich, ihre Funktionsweise im Detail nachzuvollziehen. PABeLA soll eine Art Prüfstand für die systematische Auswertung der Antworten KI-basierter Dienste entwickeln.

Die Ministerpräsidentin des Saarlandes, Anke Rehlinger: „Im Saarland findet weltweite Spitzenforschung auf dem Gebiet der Künstlichen Intelligenz statt. Das Forschungsprojekt soll wichtige Erkenntnisse liefern, welche Auswirkungen die neuen Dienste auf unsere Medienvielfalt haben. Das ist auch gesellschaftlich ein wichtiges Themenfeld, zu dem wir noch viel zu wenig wissen.“

Dazu Prof. Dr. Antonio Krüger, DFKI-CEO und Leiter des Forschungsbereichs Kognitive Assistenzsysteme: „Wir planen, den jeweiligen KI-Dienst mit gezielten Anfragen zu testen, indem wir ihn in automatisierten ‚Gesprächen‘ mit einer Reihe von Themen oder Meinungen konfrontieren. Eine Herausforderung besteht darin, einen repräsentativen Testdatensatz und ein Verfahren zur systematischen Auswertung der Ergebnisse anhand zuvor entwickelter Metriken aufzubauen. Dabei werden ‚traditionelle‘ maschinelle Lernverfahren zur semantischen Textanalyse, aber voraussichtlich auch LLM-basierte Verfahren zur Bewertung bestimmter Kriterien zum Einsatz kommen.“

Ruth Meyer, Direktorin des LMS: „Demokratische Gesellschaften leben von der Pluralität und dem Aushandeln von Meinungen. Daher stellen potentiell vielfaltsverengende Technologien eine konkrete Gefahr für unsere Medien- und Meinungsvielfalt dar. Der Einsatz von KI darf das medienrechtlich übergeordnete Ziel der Vielfaltssicherung nicht beeinträchtigen. Es geht darum, dass Meinungen, Perspektiven und Informationen in ihrer Breite und Unterschiedlichkeit sichtbar und nicht etwa eingeengt oder verfälscht werden. Um dies trotz erheblich wachsender technologischer Einflüsse bestmöglich nachvollziehen und absichern zu können, setzten wir auf die Ergebnisse aus diesem Forschungsprojekt.“

Das Forschungsprojekt läuft bis Ende 2025. Die Ergebnisse sollen in der Praxis der Medienregulierung nutzbar sein. Das Saarland hatte im vergangenen Jahr als erstes Bundesland verbindliche Regeln für den Einsatz von KI im journalistischen Bereich in sein Mediengesetz aufgenommen.

 

Kontakt Pressestelle LMS
Denise Dräger
Telefon: 0681/38 988-11

DOWNLOADS