die Risiken einer neuen Technologie

Deepfake ist eine erstaunliche Technologie und macht je nach Anwendung auch extrem viel Spaß. Leider wird dies auch von vielen Cyberkriminellen genutzt, die das Potenzial erkannt haben und den Ball ergriffen haben, um ahnungslose Benutzer zu treffen.

Manchmal verwenden Black-Hat-Hacker Video und Audio, die als Deepfakes bezeichnet werden, um Menschen zu Betrügereien zu verleiten, die sonst nur schwer durchführbar sind. Wenn wir bis vor einigen Jahren Videos als Quelle der fast absoluten Wahrheit betrachteten, ist es heute gut, sehr vorsichtig zu sein, um nicht in die Falle eines erfahrenen Kriminellen zu tappen, der künstliche Intelligenz beherrscht.

Beste Smartphones für Sicherheit

Deepfakes sind alles andere als neu

Bereits Ende des 19. Jahrhunderts wandten einige kreative Fotografen einfache Tricks an, um gefälschte Bilder zu erstellen. In den Augen der Zeitgenossen war es daher leicht, in diese Fallen zu tappen. Es reichte aus, zwei Fotos zu überlagern, Schnitte zwischen den Bildern vorzunehmen und andere kleine Änderungen vorzunehmen, um ein beeindruckendes Ergebnis für weniger erfahrene Fotografen zu erzielen.

Heutzutage ist dies alles sehr einfach, nur Photoshop oder eine Alternative zu dieser Software, um äußerst glaubwürdige Fotomontagen zu erstellen. Mit ein wenig Übung und den richtigen Programmen kann auch ein Unerfahrener beeindruckende Bilder erstellen.

Obwohl Software dieser Art große Fortschritte gemacht hat, können selbst unerfahrene Personen die Änderungen erkennen, wenn sie auf Details wie Schatten, Texturen und Hintergründe achten. Was aber würde passieren, wenn ein Schuss durchaus plausibel erscheint? An diesem Punkt wird es schwierig, die Realität von der Fantasie zu unterscheiden: Dies ist eine großartige Gelegenheit für einige Bösewichte, die all dies zu ihrem Vorteil nutzen können.

Von Bildern bis hin zu synthetischem Video und Audio

Deepfakes können mit filmischen Effekten verglichen werden. Tatsächlich verwenden wegweisende Regisseure seit Jahrzehnten Spezialeffekte und Tricks, um zwei Probleme zu lösen, die sie bedrängen:

  • Etwas zu filmen, das tatsächlich passieren könnte, aber unpraktisch zu filmen war, wie zum Beispiel eine Gebäudeexplosion
  • Etwas zu drehen, das einfach unmöglich war, wie der epische King Kong, der Wolkenkratzer zerstört.

Das Finden einer Lösung für diese beiden Probleme hat die massive Spezialeffektindustrie hervorgebracht, die wir heute haben.

In Bezug auf Audio bedeutete die Hinzufügung von Ton und Dialog das Ende von Stummfilmen und den Aufstieg von Filmen mit Umgebungsgeräuschen und Dialogen. Einige frühe Filmstars kamen mit dem Übergang nicht gut zurecht: Ihre Stimmen passten nicht in den Kontext oder sie konnten ihre Zeilen nicht mit Überzeugung und Timing vortragen, da sie sich jahrelang auf ihre Körperbewegungen konzentriert hatten. Bis das Synchronisieren zur gängigen Praxis wurde, gab es keine andere Lösung, als sich für jemand anderen zu entscheiden.

Heute ist es gängige Praxis, die Stimmen der Schauspieler zu manipulieren, sogar in ihrer eigenen Muttersprache. Denken Sie nur an Filme oder Musicals, in denen Schauspieler singen müssen: Auch wenn sie hervorragende Profis sind, können sie nicht immer auch Sänger sein, die in wenigen Zeilen von der Kür zum Falsett wechseln können.

Systeme, die diese Art von Video- und Tonmanipulation durchführen können, sind groß und teuer und erfordern Experten zur Handhabung.

Im Laufe der Jahre können jedoch überzeugende Endergebnisse erzielt werden, indem eine Vielzahl leicht erhältlicher und relativ einfacher Software verwendet wird, die auf gewöhnlichen Heim-PCs und Notebooks läuft. Video und Audio sind zwar nicht in Hollywood-Qualität, aber für Cyberkriminelle sicherlich gut genug, um gefälschte Bilder, Videos und Audios zu ihren böswilligen Strategien hinzuzufügen.

Hacker

Was bedeutet Deepfake?

Der Begriff Deepfake wurde geprägt, um digitales Filmmaterial zu beschreiben, das so manipuliert wird, dass jemand im Video buchstäblich das Gesicht einer anderen Person trägt. Der Begriff Deep (wörtlich tief) des Namens stammt tiefes Lernen, dem Zweig der künstlichen Intelligenz, aus dem die Modelle stammen, die diese komplexen Operationen ausführen können. Wie ist das möglich? Die Algorithmen, die versuchen, die Verbindungen unserer Synapsen nachzuahmen, werden darauf trainiert, Video und Audio so real wie möglich zu erzeugen: Während dieser langen Prozedur sehen die Modelle mehrere echte Videos / Audios / Bilder, um zu lernen, wie sie plausible erzeugen können. Am Anfang werden die generierten Multimedia-Inhalte überhaupt nicht von guter Qualität sein, aber mit genügend Geduld und Datenquellen, aus denen man sich inspirieren lassen kann, wird das System immer realistischer.

Um ein Beispiel zu nennen: Wenn Sie einem Vorhersagesystem genügend Fotos von jemandem zur Verfügung stellen, wird es das Gesicht dieser Person so gut verstehen, dass es verstehen kann, wie sie aussehen würde, wenn sie einen beliebigen Ausdruck aus jedem Winkel zeigt. Er kann dann Bilder des Gesichts dieser Person erstellen, die zu allen gängigen Ausdrücken passen, und gleichzeitig seinen Kopf entsprechend der Position des restlichen Körpers in einem bestimmten Kontext neigen.

Wenn diese Bilder in das Video eingefügt werden, passt das neue Gesicht perfekt zur Handlung des Videos. Da die künstlich erzeugten Gesichtsausdrücke, die Lippensynchronisation und die Kopfbewegungen mit denen des ursprünglichen Videomotivs identisch sind, kann das Ergebnis eine sehr überzeugende Fälschung sein. Denken Sie daran, dass sich die Ergebnisse jedes Jahr verbessern werden, angesichts des Fortschritts der Forschung in der Welt des maschinellen Lernens, der Kosten für GPUs, die bei gleicher Leistung immer niedriger werden, der größeren Verfügbarkeit und Verwendbarkeit der Daten, die zum Trainieren der Modelle erforderlich sind.

Jenseits verrückter Mashups und lustiger Videomontagen finden diese Techniken anderswo funktionale Verwendung. Beschreiben ist ein Ton- und Videoeditor, der eine Texttranskription der Aufnahme erstellt. Durch die Änderung des Textdokuments werden diese gleichzeitig mit der Buchung übernommen. Wenn Ihnen die Aussprache eines Satzes nicht gefällt, können Sie den Text einfach bearbeiten. Descript synthetisiert fehlendes Audio über die ausgewählte Stimme.

Zu den vielen möglichen Anwendungen von Deepfake gehört die vom koreanischen Fernsehsender MBN. Tatsächlich wurde innerhalb der Nachrichtensendung eine echte virtuelle Kopie der Moderatorin Kim Joo-Ha erstellt, die die Sendung tatsächlich präsentieren kann, ohne tatsächlich im Studio zu sein. Ein positiver Einsatz dieser Technologie, die aber potentiell für jeden zugänglich und damit für jeden und für jeden Zweck nutzbar ist.

Deepfake und Kriminalität

Cyberkriminelle sind immer bereit, neue Lösungen zu finden, um ihre Strategien effektiver zu machen. Gefälschtes Audio wird so raffiniert, dass Sie einen Spektrumanalysator und mit KI ausgestattete Systeme benötigen, die Multimedia-Inhalte unabhängig analysieren können, um ihre Authentizität zu bestimmen. Während Audio bereits so überzeugend (und so schwer zu erkennen) sein kann, wird es in Kombination mit Video noch schwieriger, da Deepfake-Erkennungssysteme für die breite Öffentlichkeit nicht leicht zugänglich sind.

Die Entwicklung von Phishing

Bei einem altmodischen Phishing-Angriff wird dem Opfer eine E-Mail gesendet, in der beispielsweise behauptet wird, dass es ein Video von ihm in einer kompromittierenden oder peinlichen Position hat. Sofern die Zahlung nicht in Bitcoin oder einer anderen nicht rückverfolgbaren Kryptowährung eingeht, wird das Filmmaterial an die Freunde und Kollegen des Opfers gesendet. Aus Angst, dass ein solches Video tatsächlich existieren könnte, zahlen manche das Lösegeld, ohne die Polizei um Hilfe zu bitten.

Die Deepfake-Variante dieses Angriffs besteht darin, einige Bilder an die E-Mail anzuhängen, um die Realität der Bedrohung durch vergrößerte Videobilder zu demonstrieren. Das Gesicht des Opfers, das den größten Teil des Rahmens einnimmt, wurde digital in die Bilder eingefügt, wobei eine Strategie folgte, die der zuvor erläuterten sehr ähnlich war. Wenn man bedenkt, dass die meisten von uns in mindestens einem sozialen Netzwerk mit verschiedenen Fotos präsent sind, wird es für einen Angreifer überhaupt nicht schwierig sein, Fotos zu finden, um sie in die Deep-Learning-Modelle einzuspeisen.

Vishing-Angriffe

Phishing-E-Mail-Angriffe verwenden eine Vielzahl von Techniken, um ein Gefühl der Dringlichkeit zu erzeugen, damit die Menschen schnell handeln, ohne nachzudenken und um Hilfe zu bitten. Phishing-Angriffe, die über das Telefon durchgeführt werden, werden als Vishing-Angriffe bezeichnet. Sie verwenden die gleichen psychologischen Techniken wie Phishing, die die Grundlage der meisten Betrügereien bilden.

Ein Beispiel für Vishing kann das Folgende sein:

Ein Anwalt in den USA erhielt einen Anruf von seinem offensichtlich verzweifelten Sohn. Er sagte, er habe eine schwangere Frau bei einem Autounfall angefahren und befinde sich nun in Untersuchungshaft. Er sagte seinem Vater, er solle mit dem Anruf eines Staatsanwalts rechnen, der als Vermittler für eine Kaution in Höhe von 15.000 Dollar fungieren würde.

Der Anruf kam nicht von seinem Sohn, sie waren Betrüger, die ein Text-to-Speech-System verwendeten, das sie mit den Audioclips seines Sohnes aus sozialen Netzwerken trainiert hatten, um einen Audio-Deepfake zu erstellen. Während er auf den Anruf der Staatsanwaltschaft wartete, hatte das Opfer die geniale Idee, seine Schwiegertochter und die Arbeitsstelle seines Sohnes anzurufen, um sie über den Vorfall zu informieren. Der Sohn war natürlich leise bei der Arbeit und bestätigte, dass alles ein Betrug war.

Ein CEO in Großbritannien hatte nicht so viel Glück. Er erhielt angeblich eine Spear-Phishing-E-Mail vom CEO der deutschen Muttergesellschaft des Unternehmens. Dies erforderte innerhalb einer Stunde eine Zahlung von ungefähr 335.000 US-Dollar an einen ungarischen Lieferanten (es wurde erneut Druck ausgeübt, um das Opfer zu beeilen). Unmittelbar darauf folgte ein Anruf des CEO, der bestätigte, dass die Zahlung dringend sei und sofort erfolgen sollte.

Das Opfer sagt, er habe nicht nur die Stimme seines Chefs und den leichten deutschen Akzent erkannt, sondern auch den Rhythmus und die sorgfältige Aussprache. Also zahlte er gerne.

So schützen Sie sich vor Deepfakes

Die potenzielle Bedrohung durch Deepfakes wurde von der US-Regierung erkannt. In der englischsprachigen Welt sind sie bereits eine konkrete Realität, aber wie allzu oft machen ausländische „Moden“ ihren Weg auch auf dem alten Kontinent und natürlich auch in Italien.

Unter diesem Gesichtspunkt sollten Unternehmen also bereit sein, dieses Problem anzugehen und es mit den Grundsätzen der IT-Sicherheit (die nie schadet) zu verbinden. In dieser Perspektive können wir uns an einige Praktiken erinnern, die jeder kennen sollte, um unangenehme Ereignisse zu vermeiden:

  • Es sollten keine Finanzüberweisungen ausschließlich für eine E-Mail-Anfrage vorgenommen werden. Bitten Sie immer um Bestätigung über einen anderen Kommunikationskanal, wie z. B. einen Telefonanruf, Videoanruf oder ein persönliches Gespräch;
  • Verwenden Sie bestimmte Phrasen oder Schlüsselwörter für die Kommunikation zwischen Kollegen oder mit Vorgesetzten: Auf diese Weise ist es einfacher zu verstehen, wenn etwas mit der Kommunikation nicht stimmt. Je mehr Fragen Sie stellen, desto wahrscheinlicher erhalten Sie Antworten ohne Bedeutung oder mit völlig unterschiedlichem Tonfall
  • Seien Sie sehr vorsichtig, wenn der Absender zu drängen oder zu eilen scheint, um die Zahlung zu leisten.
  • Wenden Sie sich unverzüglich an die zuständigen Strafverfolgungsbehörden (die Postpolizei in Italien), um den Vorfall zu melden

Quelle cloudavvyit.com

Similar Posts

Leave a Reply

Your email address will not be published.