Sichere Gesellschaft

„Wie Fake News fühlen Sie sich?“

Forschung stärkt Vertrauen – VeNIM zeigt Wege zur Echtheitsprüfung digitaler Inhalte

Im Gespräch nach der Podiumsdiskussion: Dr. Fabian Schrumpf, Marcel Roth, Caroline Lindekamp, Prof. Dr. Daniel Loebenberger und Florian Meesmann (v. l.) beim Austausch über die gesellschaftliche und technologische Verantwortung im digitalen Informationszeitalter.
Im Gespräch nach der Podiumsdiskussion: Dr. Fabian Schrumpf, Marcel Roth, Caroline Lindekamp, Prof. Dr. Daniel Loebenberger und Florian Meesmann (v. l.) beim Austausch über die gesellschaftliche und technologische Verantwortung im digitalen Informationszeitalter. Foto: Cyberagentur

Mit dem Forschungsprojekt VeNIM legten das Fraunhofer AISEC und die Universität Passau im Auftrag der Agentur für Innovation in der Cybersicherheit GmbH (Cyberagentur) die Grundlage für eine offene Vertrauensarchitektur zur Überprüfung der Authentizität und Integrität multimedialer Inhalte. Die Ergebnispräsentation am 11. November 2025 in Halle (Saale) markierte den Abschluss eines Projekts, das einen entscheidenden Schritt in Richtung Abwehr von Deepfakes und rechtssicherer Nachvollziehbarkeit digitaler Daten geht.

Im KI-Zeitalter können Digitale Bilder, Videos oder Audiodateien täuschen – und sie tun es immer häufiger. Die wachsende Zahl von Fälschungen und gezielten Desinformationen gefährdet nicht nur individuelle Urteile, sondern auch das Vertrauen in Medien, Wissenschaft und Politik. Mit VeNIM („Vertrauenskonzept für eine nachhaltige Informations- und Medienarchitektur“) wurde erstmals systematisch erforscht, wie sich digitale Inhalte künftig auf Echtheit und Herkunft prüfen lassen.

Das von der Cyberagentur finanzierte Projekt wurde Ende 2024 durch das Fraunhofer AISEC gemeinsam mit der Universität Passau abgeschlossen. Ziel war die Entwicklung einer technischen und rechtlichen Vertrauensarchitektur, die Authentizität und Integrität von Daten überprüfbar macht und zugleich den Schutz der Privatsphäre wahrt – etwa für Journalistinnen, Aktivisten oder Whistleblower. Grundlage war der internationale Standard C2PA (Coalition for Content Provenance and Authenticity), der in VeNIM durch das Konzept C2PAExt weiterentwickelt wurde.

Prof. Dr. Daniel Loebenberger, Leiter des Departments Secure Infrastructure am Fraunhofer AISEC, stellte die Ergebnisse vor: „Mit C2PAExt schaffen wir ein System, das über Standards zur Echtheitsprüfung medialer Inhalte hinausgeht. Es verbindet kryptographische Nachweise, resilientes Watermarking und Deepfake-Erkennung mit einem privacy-preserving Provenance Store. Damit lassen sich digitale Inhalte künftig nicht nur technisch verifizieren, sondern auch nachträglich prüfen, ob sie verändert oder manipuliert wurden – und das bei voller Wahrung der Privatsphäre der Nutzenden.“

Darüber hinaus skizzierte Loebenberger die praktische Anwendbarkeit der entwickelten Technologien: „Ich sehe eine realistische Realisierung der in VeNIM vorgestellten Konzepte insbesondere in regulierten, beispielsweise militärischen Kontexten. Denkbar sind etwa Aufklärungsbilder, die nach Aufnahme innerhalb bestimmter Systeme weiterverarbeitet werden. Ein solcher Dienst enthält Metadaten ausgewählter medialer Inhalte einschließlich Änderungs-, Modifikations- oder Zusammenführungshistorien und macht diese auf Anfrage zugänglich. Neben der einfachen Prüfung, ob bestimmte Inhalte korrekt im Store abgelegt sind, soll es möglich sein, Manipulationen zu erkennen oder nachzuvollziehen, aus welchen Teilstücken Daten zusammengesetzt sind – alles strikt kryptographisch abgesichert.“

Loebenberger betonte zudem die Zukunftsfähigkeit der entwickelten Architektur: „Unsere Verfahren sind post-quanten-resistent – sie bleiben also auch dann sicher, wenn künftige Quantencomputer die heute verbreiteten Verschlüsselungen brechen können.“

Zuvor hatte Florian Meesmann, stellvertretender Chefredakteur und Redaktionsleiter MDR Aktuell TV beim MITTELDEUTSCHER RUNDFUNK, in seiner Keynote die gesellschaftliche Bedeutung der Forschung unterstrichen: „VeNIM steht für den Versuch, journalistische, wissenschaftliche und technologische Perspektiven miteinander zu verbinden. Hier werden nicht Algorithmen zu Richtern über Wahrheit, sondern Kooperation und Transparenz zur Basis von Vertrauen.“ Vertrauen sei, so Meesmann weiter, „das, was unser Gemeinwesen zusammenhält – zwischen Wissenschaft und Öffentlichkeit, zwischen Medien und Bürgerinnen und Bürgern.“

In der anschließenden Podiumsdiskussion wurde deutlich, dass VeNIM mehr als ein technisches Forschungsprojekt ist – es ist ein Beitrag zu einer „Kultur des Vertrauens“. Gemeinsam mit Florian Meesmann und Prof. Dr. Daniel Loebenberger diskutierte Caroline Lindekamp, Director CORRECTIV.Faktencheck unter Leitung von Moderator Marcel Roth über die Verantwortung im Umgang mit neuen Technologien und Plattformen sowie über die Grenzen technischer Kontrolle.

„Früher reichte Medienkompetenz“, erklärte Florian Meesmann, „heute müssen wir Technologien einsetzen, um Vertrauenswürdigkeit überhaupt prüfen zu können. Das Visionäre an VeNIM kann sein, Vertrauen herzustellen. Es zeigt, dass Technik und Ethik zusammen gedacht werden müssen. Die Resonanzräume für Fake News müssen kleiner werden – das ist eine zentrale Aufgabe öffentlich-rechtlicher Medien. Und: Transparenz ist das wichtigste Instrument zur Vertraulichkeit.“

„Wir haben in Deutschland sehr gute Informationsmedien, denen man vertrauen kann“, versicherte Caroline Lindekamp von Correctiv. „Wenn man misstrauisch unterwegs ist, dann ist man empfänglicher für Desinformation, zeigen unsere Analysen. Jeder hat daher die Verantwortung dafür, was er konsumiert.“

Auch Fragen der technologischen Souveränität und der Abhängigkeit von globalen Plattformen standen im Fokus: „Das ist genau die Herausforderung“, so Prof. Dr. Loebenberger, „dass wir auf die Zusammenarbeit mit großen Plattformen angewiesen sind und zugleich digitale Souveränität hochhalten müssen. Nur wenn sie diese Technologien breit implementieren, kann Vertrauen wirklich systemisch werden.“ Caroline Lindekamp wandte ein: „Wie sieht es jedoch mit der technologischen Souveränität gegenüber den großen Plattformen aus?“

Im zweiten Teil der Veranstaltung nahmen Studierende des Studiengangs Medien- und Kommunikationswissenschaft der Martin-Luther-Universität Halle-Wittenberg an praxisnahen Workshops teil. Unter Leitung von Caroline Lindekamp und Prof. Dr. Daniel Loebenberger diskutierten sie über KI-gestützte Verifikationsverfahren, Faktenchecks und die Rolle von Redaktionen in Zeiten generativer KI. Für die Studierenden bestand die Möglichkeiten, sich auch über Deepfake-Erkennung auszutauschen.

Dr. Fabian Schrumpf, Leiter des Forschungsprojektes der Cyberagentur, fasste den Tag zusammen: „Mit VeNIM haben wir eine belastbare Grundlage geschaffen, um in einem Folgeprojekt den Transfer in konkrete Anwendungsfälle vorzubereiten. Die Forschung hat gezeigt: Eine vertrauenswürdige digitale Öffentlichkeit ist kein Zustand, sondern ein Prozess – den wir gemeinsam mit Wissenschaft und Medien gestalten müssen.“

Am Ende des Tages stand die gemeinsame Erkenntnis, dass Vertrauen im digitalen Raum neu erarbeitet werden muss – technologisch, gesellschaftlich und ethisch.

Mit Blick auf die künftige Forschung der Cyberagentur fügt sich VeNIM damit unmittelbar in das Leitmotiv der Cybervigilanz ein: die Fähigkeit, digitale Bedrohungen frühzeitig zu erkennen, vertrauenswürdige Informationsräume zu schaffen und damit die Widerstandsfähigkeit einer vernetzten Gesellschaft zu stärken. VeNIM liefert hierfür den wissenschaftlichen Bauplan.

Weitere Informationen:

https://www.cyberagentur.de/

https://cyberraum-podcast.podigee.io/11-vertrauensarchitektur (Podcast zum Thema)

Newsletter

Ihr Update in puncto Forschung, Vergabe und Co.

Abonnieren Sie unseren wissenschaftlichen Newsletter. So erfahren Sie zeitnah, welche Forschungsprogramme wir gerade vergeben, wann Partnering Events, Symposien oder auch Ideenwettbewerbe anstehen und was es Neues in der Forschung gibt.