Berlin - Bundesbehörden haben wenige Monate vor der Bundestagswahl vor Desinformationskampagnen durch sogenannte "Deep Fakes", technisch aufwendig verfälschte Videos, gewarnt. "Wie jede Art der Desinformation können auch Deep Fakes zur Beeinflussung der öffentlichen Meinung genutzt werden", teilte das Bundesamt für Sicherheit in der Informationstechnik (BSI) den Zeitungen der Funke-Mediengruppe (Mittwochausgaben) mit.

"Die Wahrscheinlichkeit des Einsatzes erhöht sich sicher noch einmal vor besonderen Anlässen wie einer Wahl." Auch die Stelle der Beauftragten der Bundesregierung für Kultur und Medien (BKM) warnte vor den durch aufwendige Computertechnik gefälschten Videos. "Das Verständnis und die Einordnung von Informationen sind die entscheidenden Voraussetzungen für demokratische Teilhabe und Mitwirkung an gesellschaftlichen Debatten", so die Stelle der Medienbeauftragten. Nur auf der Basis solider Informationen ließen sich gute Entscheidungen treffen. Das gelte insbesondere für Wahlen. "Deep Fakes haben das Potential, diese Basis solider Informationen zu erschüttern. Kurzfristig könnte so illegitimer Einfluss auf Wahlen genommen werden. Langfristig könnten sich Deep Fakes auch negativ auf das Vertrauen auswirken, das die Bevölkerung in die Seriosität und Glaubwürdigkeit der Medien hat", teilte ein Sprecher der Stelle der Beauftragten für Kultur und Medien den Funke-Zeitungen mit. Beide Bundesbehörden verwiesen auf Gegenstrategien im Kampf gegen Manipulation durch sogenannte "Deep Fakes", zu der etwa die Verbesserung der "Medienkompetenz" vor allem der jungen Menschen in Deutschland gehöre. Aus Sicht der Cyberabwehrbehörde BSI seien zudem "technische Gegenmaßnahmen" denkbar, wie etwa eine "automatisierte Fake-Erkennung" oder die "Echtheitsüberprüfung" von Medieninhalten durch "digitale Signaturen". Als "Deep Fakes" bezeichnen Fachleute gefälschte Videos von Auftritten bekannter Persönlichkeiten wie Regierungs- oder Staatschefs. Das BSI schreibt: "Zum Beispiel kann in einem Video das Gesicht einer Person mit dem Gesicht einer anderen Person ausgetauscht werden oder in einem Audiosignal die Stimme eines Sprechers so verändert werden, dass sich die Stimme wie die eines anderen Sprechers anhört."

So werden mit Hilfe aufwendiger Software und der Nutzung sogenannter "Künstlicher Intelligenz" täuschend echte Fälschungen beispielsweise von Reden bekannter Politiker erstellt.

Foto: Tastatur (über dts Nachrichtenagentur)

Dir gefällt, was dts Nachrichtenagentur schreibt?

Dann unterstütze dts Nachrichtenagentur jetzt direkt: