Gefälschte Videos und Bilder, die mit Hilfe künstlicher Intelligenz geschaffen wurden nennt man Deepfake. Dabei ist Deepfake zusammengesetzt aus Deep Lerning (tiefgehendes Lernen) und Fake (Fälschung). Je mehr Bilder aus unterschiedlichen Perspektiven und je mehr Videos man von einer Person hat um so realistischer wirkt das gefälschte Video. Diese Manipulation von Bildern und Videos könnte ein gefährliches Ende nehmen, da man beispielsweise Politikern etwas vorwerfen kann, was sie nie getan oder gesagt haben, hierfür haben Sicherheitsforscher bereits einen Namen: „diplomacy manipulation“. Der KI-Experte Alex Champandard sagte in einem Interview mit dem Magazin „Vice“, dass es leicht sei Fake-Bilder und -Videos zu erstellen und dass diese schon in wenigen Monaten nicht mehr als Fälschungen zu erkennen sein werden. In einem Interview mit dem Massachusetts Institute of Technology deutete Ian Goodfellow, ein Google-KI-Ingenieur, an, dass man sich bald auf Videobeweise nicht mehr verlassen kann.
Es sind auch komplexe Manipulationen wie das Übertragen von Lippenbewegungen in Echtzeit möglich, daran arbeiten Forscher der Friedrich-Alexander-Universität Erlangen-Nürnberg gemeinsam mit Forschern der Universität Stanford und des Max-Planck-Instituts für Informatik in Saarbrücken zusammen. Und am Silicon Valley wird daran gearbeitet, Gesichter mit hoher Auflösung so zu rekonstruieren, dass man mit diesen Gesichtern arbeiten kann um dreidimensionale Avatare für virtuelle Welten zu schaffen wovon die Filmindustrie auch profitieren kann.
Der Technologieforscher Aviv Ovadya meint, dass die Werkzeuge von Deepfake dazu führen werden, dass Menschen das Vertrauen in den Nachrichten verlieren könnten, da die Realität nicht mehr von Fälschungen unterschieden werden kann. Er ruft die Technologiekonzerne dazu auf, schnell Tools zur Enttarnung von Fakevideos zu entwickeln.
Hinterlasse jetzt einen Kommentar