Per KI manipulierte Medieninhalte („Deep Fakes“) haben sich von einer Spielerei zu einer realen Bedrohung für Unternehmen und Politik entwickelt. Die Abteilung Cognitive Security Technologies des Fraunhofer AISEC hat vier Bereiche identifiziert, in denen Deep Fakes schon jetzt eine Herausforderung sind.
Während die Manipulation von Bildmaterial mittlerweile praktisch zum Alltag gehört, ist die Bearbeitung von Audio- und Videoinhalten ungleich komplizierter. Durch KI-Verfahren wie Machine Learning sind nun auch hier automatisiert hergestellte hochwertige Fälschungen möglich – und dank Open Source Software für Jedermann zugänglich. Das Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) forscht in diesem Bereich und warnt, dass die fortschrittliche Technik schon jetzt zur Sicherheitsherausforderung wird. Ist genügend Audio- und Videomaterial einer Person vorhanden, lässt sich die KI so trainieren, dass überzeugende Deep Fakes entstehen. Derartig professionell manipulierte Inhalte zu erkennen, ist Laien kaum noch möglich.