Digitale Desinformation im KI-Zeitalter

Veröffentlicht am 20.08.2024

Digitale Desinformation hat viele Gesichter und Namen: Alternative Fakten, Fake News und Deepfakes sind nur einige davon. Durch KI-gestützte Tools werden manipulierte Inhalte immer raffinierter und schwerer zu erkennen – eine neue Herausforderung auch für den Schutz digitaler Identitäten.

Desinformation ist in Zeiten des US-Präsidentschaftswahlkampfs brisanter denn je. Das zeigt besonders die aktuell viel diskutierte Bildmanipulation des republikanischen Kandidaten Donald Trump. Trump erweckte zuletzt den Eindruck, die prominente US-Popsängerin Taylor Swift und ein Teil ihrer als „Swifties“ bezeichneten Fans hätten sich bereits für ihren Präsidentschaftskandidaten entschieden: Auf seinem Online-Dienst Truth Social veröffentlichte er jüngst ein Plakat, auf dem die Sängerin dazu aufruft, ihm die Stimme zu geben. Weitere Bilder zeigen zudem Frauen, auf deren T-Shirts übersetzt zu lesen steht: „Swifties für Trump“. Das Problem dabei: Laut Fachleuten wurden das Swift-Plakat und weitere Bilder durch Künstliche Intelligenz erstellt oder manipuliert. Swift selbst hatte in der Vergangenheit Kritik an Trump geäußert und im Jahr 2020 auch für den derzeitigen US-Präsidenten Joe Biden geworben.

Der Fall zeigt beispielhaft, dass mithilfe von Künstlicher Intelligenz manipulierte Inhalte für eine neue Dimension digitaler Desinformation stehen: absichtlich verbreitete Falschinformationen, die im Netz tausendfach geteilt werden und bei denen der Unterschied zwischen Realität und Fälschung verschwimmt. Welche Quellen und Inhalte vertrauenswürdig sind und welche nicht, wird dabei immer schwieriger zu beurteilen. Mittels manipulierter Videos ist es mittlerweile sogar möglich, realen Personen Falschinformationen in den Mund zu legen. Eine Gefahr für Demokratie und Gesellschaft – und für unsere digitalen Identitäten.

 

Was bedeutet Desinformation?

Desinformation bezeichnet die vorsätzliche Verbreitung falscher oder irreführender Informationen. Die Begriffe Desinformation und Fehlinformation werden im öffentlichen Diskurs oft synonym verwendet, sind allerdings klar voneinander abzugrenzen. Denn der grundlegende Unterschied zwischen Desinformation und Fehlinformation besteht in der Absicht dahinter: Fehlinformationen werden aus Versehen in Umlauf gebracht. Das klassische Beispiel dafür ist eine versehentliche Falschmeldung in der Zeitung, die zum Beispiel aufgrund eines Zahlendrehers entsteht und oft korrigiert wird.

Falschinformationen dagegen liegt eine Absicht zugrunde. Es geht darum, Rezipienten gezielt in Ihrer Meinung zu beeinflussen und damit Prozesse zu manipulieren – bis hin zur Verstärkung gesellschaftlicher Spaltungen. Gerade im politischen Kontext spielt Desinformation daher eine zunehmend große Rolle.

Manipulierte Wahrheiten: Desinformation als politisches Instrument

Während des US-Wahlkampfs im Jahr 2016 erlangte der Begriff „Fake News“ Popularität. Und zwar nicht nur, weil Wahlsieger Donald Trump ihn für sich adaptierte. Eine Studie der University of Southern California belegte im Nachgang der Präsidentschaftswahl, dass mindestens 400.000 Bots während des Wahlkampfs Botschaften über Twitter verbreitet hatten. Etwa 20 Prozent aller Tweets zur Wahl stammten demnach von Accounts, hinter denen keine Menschen, sondern automatisierte Programme steckten – Programme, die über Fake-Profile gezielt Unwahrheiten und Falschinformationen streuten. Viele reale User verbreiteten die Botschaften der Bots in den Sozialen Netzwerken weiter. Für sie war nicht zu erkennen, dass es sich bei den vermeintlichen Twitter-Nutzern nicht um echte Personen handelte. Die Studien zur Desinformation im US-Wahlkampf regten eine öffentliche Diskussion rund um den Einfluss von unwahren Informationen und der Vielzahl von Fake-Accounts auf Wahlergebnisse an.

„Gerade in einer digitalen Welt wie heute kann eigentlich jeder niedrigschwellig Informationen und Aussagen ins Netz stellen. Fake News sind damit ein Stück weit eine Bedrohung für unsere Gesellschaft geworden. Sie können politische Stimmungen beeinflussen und gesellschaftliche Institutionen nachhaltig schädigen, deswegen müssen wir hinschauen.“

Bettina Stark-Watzinger
Bettina Stark-Watzinger, Bundesforschungsministerin
Quelle: Deutscher Bundestag / Achim Melde

Fakt ist: Desinformation kann Misstrauen in Regierungen säen, die öffentliche Wahrnehmung verzerren und sogenannte falsche Wahrheiten etablieren. Selbst Journalisten und Journalistinnen fällt es zunehmend schwerer, Fakten zu verifizieren. Sind die zugespielten Bilder wirklich echt? Und ist die Quelle vertrauenswürdig? Diese Fragen sind für Berichterstattende oft nur schwer zu beantworten. Das liegt vor allem daran, dass die Urheber und Urheberinnen von Falschinformationen inzwischen hochkomplexe KI-Tools nutzen, um manipulierte Inhalte zu erstellen und zu verschleiern. Zum Beispiel mit sogenannten Deepfakes: mittels Künstlicher Intelligenz erzeugte oder manipulierte Videoaufnahmen, die es ermöglichen, eine Person Dinge sagen oder tun zu lassen, die sie in Wirklichkeit nie gesagt oder getan hat.

Seit der US-Wahl hat sich viel getan: KI-gesteuerte Bots sind noch authentischer, Deepfakes noch realistischer geworden. Fake-Profile von echten Accounts zu unterscheiden, ist ohne technische Hilfsmittel beinahe unmöglich geworden. Mit Blick auf die Präsidentschaftswahlen 2024 und die Bundestagswahl 2025 gewinnen daher folgende Fragen erneut an Brisanz: Mit welchen Formen von Desinformation wird die Gesellschaft zunehmend konfrontiert? Und welche Technologien helfen dabei, KI-gestützte Manipulationen zu enttarnen?

Arten von Desinformation

Mittlerweile gibt es viele unterschiedliche Formen von Desinformation, die sich stetig verändern und kontinuierlich weiterentwickeln. Viele der verbreiteten Falschinformationen kursieren heutzutage in sozialen Netzwerken, sodass auch hier immer neue Formate für unwahre Behauptungen entstehen, die sich in enormer Geschwindigkeit verbreiten.

Die bekanntesten Arten der Desinformation sind unter anderem:

Fake News

Der Begriff Fake News wird oft als Synonym für Desinformation verwendet. Im Kern sind Fake News schlicht Falschinformationen, die als seriöse journalistische Berichterstattung getarnt werden und so Adressaten und Adressatinnen das Gefühl vermitteln, vertrauenswürdige Nachrichten zu konsumieren.

Deepfakes

Unter Deepfakes werden Bilder, Videos und Sprachaufnahmen einer Person subsummiert, die mithilfe Künstlicher Intelligenz gefälscht oder manipuliert worden sind. So können Personen Worte in den Mund gelegt, Taten zugeschrieben oder in einen anderen Kontext gesetzt werden. Für einen Deepfake werden zunächst viele Daten in Form von Bildern und Videos einer Person gesammelt, um einen Algorithmus – meist ein sogenanntes neuronales Netzwerk – damit zu trainieren. Auf diese Weise lernt das System, das Gesicht und die Stimme eines Menschen realistisch zu imitieren. Anschließend wird diese nachgeahmte Version auf das Video einer anderen Person gelegt. Mittlerweile sind die manipulierten Inhalte so perfekt, dass mit dem menschlichen Auge ohne technische Hilfsmittel kaum festzustellen ist, was Realität und was Fälschung ist.

Social Bots

Die selbstständigen Computerprogramme – die viel zitierten Bots – agieren als Fake-Profile in sozialen Netzwerken und kommentieren, liken oder erstellen Beiträge mit unwahren Behauptungen. Für andere User und Userinnen ist es dabei oft sehr schwer, zu erkennen, ob sich hinter dem Profil tatsächlich ein Mensch oder ein Bot versteckt.

Desinformation aufdecken

Unabhängig vom Einsatz technischer Lösungen gibt es einige grundsätzliche Strategien, um Falschinformationen von vertrauenswürdigen Inhalten zu unterscheiden. Die folgenden Tipps geben einen ersten Überblick über mögliche Hilfestellungen. Auf den Seiten der Bundesregierung wurde ein ausführlicher Ratgeber bereitgestellt.

 

  • Erst prüfen, dann teilen
    Bevor Inhalte geteilt werden, ist das Prüfen offensichtlicher Widersprüche ratsam.
  • Urheberschaft prüfen
    Ist der Urheber oder die Urheberin einer Nachricht nicht vertrauensvoll, trifft das oft auch auf den Inhalt zu. Echte Accounts nutzen Klarnamen und haben vollständige Impressumsangaben.
  • Quellen vergleichen
    Haben andere seriöse Medien eine Nachricht ebenfalls gemeldet, ist ihre Glaubwürdigkeit höher.
  • Fake Bilder? Eine Rückwärtssuche hilft
    Ob ein Bild zum Inhalt einer Nachricht passt, lässt sich mithilfe der Bilder-Rückwärtssuche testen. Unvollständige Quellenangaben zu Bildern können auf Ungereimtheiten hindeuten.

Manipulation von digitalen Identitäten

Mit KI-basierten Fälschungstools lässt sich jedoch nicht nur Desinformation im politischen Kontext verbreiten. Immer häufiger kommen sie auch zum Einsatz, um digitale Identitäten zu missbrauchen. Im Namen bekannter Persönlichkeiten werden immer häufiger Falschinformationen veröffentlicht. Mithilfe von Deepfakes ist es mittlerweile möglich, Inhalte zu erstellen, die eine Zielperson in Echtzeit imitieren, und dadurch biometrische Systeme zu überwinden. Cyberkriminelle können so zum Beispiel ein Konto unter falschem Namen eröffnen.

Desinformation im KI-Zeitalter: So engagiert sich die Bundesdruckerei

Ohne geeignete Tools und Systeme ist es kaum noch möglich, durch KI manipulierte Identitäten und Inhalte zu enttarnen. Die technologischen Grundlagen zu erforschen und Lösungen zu entwickeln, ist daher essenziell, um effektiv gegen digitale Desinformation vorzugehen. Die Lösungen setzen Urhebern und Urheberinnen von gefälschten Informationen inzwischen ihre eigenen Mittel entgegen, um Manipulation und Betrug zu identifizieren: Plattformen und Tools, die ebenfalls mithilfe Künstlicher Intelligenz agieren. Aktuelle Lösungsansätze begegnen der Bedrohung aus drei verschiedenen Richtungen: sogenannte multimodale Analysen umfassen Deep Learning, Biometrie und Content Credentials. Auch die Bundesdruckerei-Gruppe beschäftigt sich intensiv mit KI-Anwendungen und beteiligt sich an Forschungsprojekten und Kooperationen in allen drei Bereichen, um Sicherheit und Vertrauen im digitalen Raum zu schaffen:

Personengruppe mit Smartphones

Personengruppe mit Smartphones.

Das geförderte Forschungsprojekt FAKE-ID befasst sich mit linearen sowie KI-Verfahren, um Deepfakes aufzuspüren. Entwickelt wurden spezielle Detektoren als Proof of Concept, um falsche und manipulierte Identitäten einfacher erkennen zu können. Das Forschungsprojekt läuft seit Mai 2021 und wird vom Bundesministerium für Bildung und Forschung bis Ende 2024 gefördert. Das Projektteam besteht neben der Bundesdruckerei GmbH aus dem Fraunhofer Heinrich-Hertz-Institut, der Hochschule für Wirtschaft und Recht Berlin sowie der BioID GmbH. Im ersten Schritt untersuchte das Konsortium Angriffsmöglichkeiten und Fälschungen von Videomaterial und beschrieb Merkmale und Eigenschaften echter und gefälschter Identitäten formal. Im zweiten Schritt wurde sowohl die jeweilige Erkennung erster Merkmale trainiert als auch generell mittels Künstlicher Intelligenz erlernt, binär als „echt“ oder „verfälscht“ annotierte Videos richtig zu deklarieren. Entstanden ist ein Demonstrator in Form einer Softwareplattform, der untersucht, zu welchem Grad das geprüfte Bewegtbildmaterial authentisch ist. Die Plattform beinhaltet verschiedene Deep-Fake-Detektoren und wird aktuell in Anwendertests auf ihre Praxistauglichkeit überprüft.

Der Demonstrator analysiert Bild- und Videodatenströme zur Laufzeit mithilfe trainierter Algorithmen auf verschiedene Verdachtsmomente hin. Dazu zählen beispielsweise für den Menschen unsichtbare Merkmale von Fake-Generatoren, abweichende Augenbewegungen wie das Schließen von Augenlidern oder die Detailtiefe von Mund und Zähnen. Entdeckt der Demonstrator von FAKE-ID solche Ungenauigkeiten oder Hinweise auf Manipulation, werden diese in Form von Risiko- und Verdachtslandkarte visualisiert und nachvollziehbar gemacht. Menschliches Handeln könnte so unterstützt, aber nicht ersetzt werden.  

„Das Projekt zeigt, dass wir der Bedrohung durch KI für digitale Identitäten auch mit KI begegnen können. Im Konsortium haben wir einen Demonstrator mit Detektoren entwickelt, die einen Großteil des Videomaterials zumindest vorfiltern können. Eine hundertprozentige Sicherheit wird es durch diese Methodik aber nicht geben. Die können wir nur dann gewinnen, wenn wir beginnen, die Quelle zu signieren. Wenn man ein Video mit einem klaren Autor verbindet, der sich zum Beispiel mit der eID-Funktion ausgewiesen hat – und es entsprechend signiert.“

Florian Peters, Fellow bei der Bundesdruckerei

Auch für die journalistische Berichterstattung werden durch KI verfälschte oder gänzlich neu erstellte Bilder zunehmend zum Problem. Manipulationen werden dadurch einfacher. Zugleich wird es immer schwerer, nachzuvollziehen, ob ein Bild von einem seriösen Herausgeber veröffentlicht wurde und womöglich Veränderungen erfahren hat. Um die Echtheit von Bildmaterial zu gewährleisten, stellt die Bundesdruckerei-Tochter D-Trust spezielle Signaturzertifikate bereit, die die Authentizität von Bildern absichern. Bereits beim Erfassen eines Fotos können Gerätezertifikate in Kameras etwa den entsprechenden Inhalt und den angehefteten Satz von Metadaten aus Urheberschaft, Ort, Datum und Uhrzeit mit einer digitalen Signatur versehen. Ein Personenzertifikat kann weitere Bearbeitungsschritte absichern, beispielsweise die Arbeit eines Fotografen in Photoshop. Für die verschiedenen Anwendungsfälle liefert D-Trust die passenden Zertifikate. Zukünftig könnten die Inhaltsurheberrechtsnachweise, auch Content Credentials genannt, verschiedenstes digitales Bild- und Medienmaterial gegen Manipulation absichern. Redakteure und Redakteurinnen würde es dadurch möglich, die Herkunft von Mediendateien einfacher zu überprüfen und eine eventuelle Manipulation für Desinformationszwecke leichter zu erkennen.

„Gerätezertifikate ermöglichen auch in Zeiten grenzenloser digitaler Bildbearbeitung Vertrauen in die Authentizität der Inhalte. Das ist für die seriöse Nachrichtenberichterstattung essenziell – und damit nicht zuletzt auch für eine funktionierende Demokratie.“

Jochen Felsner, D-Trust Geschäftsführer

Als Reaktion auf die zunehmenden Herausforderungen durch Bildmanipulation haben sich viele Technologie- und Medienunternehmen in der sogenannten Content Authenticity Initiative (CAI) zusammengefunden. Das Hauptziel der CAI ist die Unterstützung des Industriestandards „Coalition for Content Provenance and Authenticity“ (C2PA). Dieser dient dazu, die Authentizität digitaler Inhalte mithilfe von Content Credentials zu bestätigen. Die Leica M11-P ist die weltweit erste Kamera, die Metadaten von Fotos nach dem C2PA-Standard der Content Authenticity Initiative signiert. Ermöglicht wird das durch eine Public-Key-Infrastruktur (PKI) von D-Trust. Diese erstellt die relevanten Gerätezertifikate während der Produktion der Kamera individuell und integriert sie in den Sicherheitschip.

Das Projekt SENSIBLE-KI befasst sich ebenfalls mit der Abwehr von Deepfake-Angriffen. Im Rahmen des geförderten Forschungsprojekts haben die Bundesdruckerei GmbH, die neXenio GmbH und die Hochschule Darmstadt unter Konsortialleitung des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit AISEC die Integrität und Authentizität von KI-Systemen erforscht. Dafür klassifizierten die Konsortialpartner über insgesamt drei Jahre hinweg KI-Systeme, bestimmten deren Schutzbedarf und identifizierten geeignete Schutzmaßnahmen für charakteristische Anwendungsfälle. Im Fokus standen dabei Android-Systeme und -Hardware sowie der Schutz von besonders vertraulichen Informationen wie medizinischen Daten oder Betriebsgeheimnissen. 

Im Rahmen des Forschungsprojekts entwickelte die Bundesdruckerei GmbH einen Prototyp zur Echtzeiterkennung von Deepfake-Angriffen in Videokonferenzen. Darin kommt die Technologie „Self-ID“ zum Einsatz, die in einem Innovationsprojekt der Bundesdruckerei GmbH zuvor entwickelt wurde. Diese nutzt die visuelle Erkennung des eigenen Gesichts als biometrischen Identifizierungsmechanismus. Vereinfacht gesagt zeichnet die Technologie die Augenbewegungen der Videokonferenzteilnehmer und -teilnehmerinnen auf und analysiert, inwiefern das Verhalten einer natürlichen Selbstbetrachtung entspricht. Gibt es Auffälligkeiten, meldet das System einen mutmaßlichen Angriff. Das Projekt SENSIBLE-KI wurde durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert. Die Ergebnisse des Projekts, das seit dem Frühjahr 2024 abgeschlossen ist, sind auf der öffentlichen Website des Projekts detailliert nachzulesen.

Desinformation als solche zu entlarven ist auch deshalb so schwer, weil im digitalen Raum die Vertrauenswürdigkeit von Websites und ihren Urhebern oder Urheberinnen nicht immer einfach festzustellen ist. Eine wichtige Rolle bei der Bekämpfung digitaler Desinformation können daher qualifizierte Zertifikate zur Website-Authentifizierung – sogenannte QWACS – spielen. QWACs verifizieren die Identität von Domain-Inhabenden und machen sie für User und Userinnen transparent. Diese können so sicher sein, dass sie mit einer authentischen und vertrauenswürdigen Quelle interagieren. Als Vertrauensdienst gemäß der eIDAS-Verordnung der Europäischen Union dürfen QWACs nur von qualifizierten Vertrauensdiensteanbietern (QTSPs) ausgegeben werden, die streng reguliert werden. Zu ihnen zählt auch die Bundesdruckerei-Tochter D-Trust.

Wahrheit oder Fake? Das bringt die Zukunft

Deepfakes und Co. von vertrauenswürdigen Inhalten zu unterscheiden, wird zukünftig noch schwerer sein als heute schon. Die Bandbreite an unterschiedlichen Formen von Desinformation wächst, aber auch die Komplexität der Techniken, mit denen sie verbreitet wird. Gleichzeitig entwickeln sich aber auch unterschiedlichste technologische Lösungsansätze weiter, die zur Enttarnung von Desinformationskampagnen beitragen. Im Kampf gegen digitale Desinformation spielen deshalb schnelle Antworten auf neue Technologien eine entscheidende Rolle. Dafür braucht es Grundlagenforschung, Aufklärungskampagnen und technologische Expertise. Politische Institutionen können Bürger und Bürgerinnen mit praktischen Hilfestellungen dabei unterstützen, Falschinformationen zu erkennen. Aber auch ihre eigenen Inhalte zu schützen, wird für politische Institutionen immer relevanter. Denn der Einsatz von KI in der öffentlichen Verwaltung erfordert auch neue Schutzmechanismen für sensible Daten und Vorgänge.

Medienschaffende sehen sich durch digitale Desinformation ebenfalls neuen Herausforderungen ausgesetzt. Um eine zuverlässige Berichterstattung sicherzustellen und das Vertrauen ihrer Rezipienten und Rezipientinnen nicht zu riskieren, müssen Journalisten und Journalistinnen nach neuen Möglichkeiten suchen, Quellen zu überprüfen und Inhalte zu verifizieren. Content Credentials können dabei eine entscheidende Rolle spielen.

Die Bundesdruckerei trägt mit ihren Produkten und Forschungsprojekten dazu bei, digitaler Desinformation entgegenzuwirken. Dazu gehört insbesondere der Schutz von digitalen Identitäten. Neben bestehenden Lösungen – zum Beispiel in Form qualifizierter Zertifikate – arbeitet die Bundesdruckerei-Gruppe mit starken Partnern aus Politik, Wissenschaft und Wirtschaft daran, neue Technologien und KI-Anwendungen zu entwickeln, die Sicherheit und Vertrauen in der Digitalisierung schaffen.

Das könnte Sie auch interessieren

Event Remote D-trust GmbH
10:00 - 10:45 Uhr
Artikel
Artikel
Artikel
Artikel