News

Mobile KI-Systeme: sicher und vertrauenswürdig gestalten

Die Bundesdruckerei hat im Rahmen des Projekts SENSIBLE-KI einen Prototyp zur Echtzeiterkennung von Deepfake-Angriffen in Videokonferenzen entwickelt. In dem vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) geförderten Forschungsprojekt haben die Konsortialpartner aus Wissenschaft und Wirtschaft die Sicherheit und Vertrauenswürdigkeit von mobilen und eingebetteten KI-Systemen analysiert.

Die Potenziale von Künstlicher Intelligenz für Wirtschaft, Wissenschaft und Gesellschaft sind unumstritten. KI-Methoden kommen bereits in einer Vielzahl von Anwendungen zum Einsatz, beispielsweise in biometrischen Verifikationsverfahren wie bei Videokonferenz-Systemen. Durch die weit verbreitete Spracherkennung auf Smartphones ist KI ist zudem mehr und mehr direkt auf Endgeräten implementiert. Bisher stehen jedoch keine einheitlichen Herangehensweisen zur Absicherung von KI-Systemen in mobilen und eingebetteten Systemen zur Verfügung, was zu signifikanten Sicherheitslücken führen kann.

Integrität und Authentizität von KI-Systemen

Im Projekt SENSIBLE-KI haben die Bundesdruckerei, die neXenio GmbH und die Hochschule Darmstadt unter Konsortialleitung des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit AISEC die Integrität und Authentizität von KI-Systemen erforscht. Gemeinsam haben sie in den letzten drei Jahren KI-Systeme klassifiziert, deren Schutzbedarf bestimmt sowie geeignete Schutzmaßnahmen für charakteristische KI-Anwendungsfälle identifiziert. Der Fokus lag dabei auf Android-Systemen und -Hardware sowie dem Schutz von besonders vertraulichen Daten (z. B. Patientendaten oder Betriebsgeheimnissen). Das Ergebnis: Softwarebasierte Security-Maßnahmen sind bereits heute gut einsetzbar. An hardwarebasierten Maßnahmen wird intensiv geforscht und gearbeitet, aktuell ist ihr Einsatz jedoch nur eingeschränkt möglich.

Robustere Echtzeiterkennung von Deepfake-Angriffen in Videokonferenzen

Ein Biometrie-Demonstrator veranschaulicht den praktischen Einsatz von Security-Technologien im Projekt. Die Bundesdruckerei entwickelte den Prototypen zur Echtzeiterkennung von Deepfake-Angriffen in Videokonferenzen auf Basis ihrer Self-ID-Technologie. Sie nutzt visuelle Selbsterkennung als biometrischen Identifikationsmechanismus. Durch Qualitätschecks der Eingabedaten sowie mittels „Adversarial Retraining“ konnte die Robustheit des KI-Systems gegen gezielte Manipulationen verbessert werden. Das Ausfiltern personenbezogener Daten, die Rückschlüsse auf die Trainingsdaten des KI-Modells geben könnten, erhöhte den Schutz der Privatsphäre. Die aus der Anwendung resultierenden Erkenntnisse wurden in Form eines Best-Practice-Dokuments festgehalten, welche wissenschaftlich sowie industrienah publiziert wurden, und der Öffentlichkeit hier zur Verfügung stehen.