Wo Deep Fakes schon jetzt eine Gefahr darstellen

deep fake

Per KI manipulierte Medieninhalte („Deep Fakes“) haben sich von einer Spielerei zu einer realen Bedrohung für Unternehmen und Politik entwickelt. Die Abteilung Cognitive Security Technologies des Fraunhofer AISEC hat vier Bereiche identifiziert, in denen Deep Fakes schon jetzt eine Herausforderung sind.

security insiderWährend die Manipulation von Bildmaterial mittlerweile praktisch zum Alltag gehört, ist die Bearbeitung von Audio- und Videoinhalten ungleich komplizierter. Durch KI-Verfahren wie Machine Learning sind nun auch hier automatisiert hergestellte hochwertige Fälschungen möglich – und dank Open Source Software für Jedermann zugänglich. Das Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) forscht in diesem Bereich und warnt, dass die fortschrittliche Technik schon jetzt zur Sicherheitsherausforderung wird. Ist genügend Audio- und Videomaterial einer Person vorhanden, lässt sich die KI so trainieren, dass überzeugende Deep Fakes entstehen. Derartig professionell manipulierte Inhalte zu erkennen, ist Laien kaum noch möglich.

external link https://www.security-insider.de/

Durch die weitere Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen