In den letzten Jahren waren Fake-News eine große Sorge. Es wird angenommen, dass diese Falschmeldungen eine wichtige Rolle bei Wahlprozessen wie den US-Präsidentschaftswahlen 2016 und dem Referendum über den Rückzug des Vereinigten Königreichs aus der EU im selben Jahr gespielt haben.

Wir haben bereits vor zwei Wochen darüber berichtet

Deepfakes sind der Einsatz künstlicher Intelligenz, um vermeintlich reale Videos und Audioaufnahmen von Menschen zu erstellen und zu bearbeiten. Um dies zu erreichen, verwenden Deepfakes „Generative Adversarial Networks“ (GANs), eine Art Algorithmus, der aus bestehenden Datensätzen neue Daten erzeugen kann. So kann GAN Tausende von Aufnahmen einer Personenstimme analysieren und daraus eine vollkommen neue Audiodatei erstellen, die genauso klingt und die gleichen Sprachmuster verwendet. Die Beunruhigung um diese Technologie liegt in der Tatsache, dass sie dazu genutzt werden könnte, gefälschte Videos und Aufzeichnungen von Politikern und anderen Persönlichkeiten des öffentlichen Lebens zu verbreiten. So könnte beispielsweise ein Deepfake eines Politikers, der eine rassistische Rede hält, das Ergebnis einer Wahl beeinflussen oder sogar zu gewalttätigen Ausschreitungen führen.

Obwohl der so genannte „Sprachbetrug“ nichts Neues ist, ist dieser Vorfall der erste seiner Art mit Deepfake-Technologie. Zwischen 2013 und 2017 stiegen die Vishing-Vorfälle (Voice Phishing) um 350%. Cybersicherheitsexperten befürchten, dass dieser Vorfall der Beginn eines neuen cyberkriminellen Trends sein könnte, künstliche Intelligenz zu missbrauchen.

CyberScams: eine wachsende Bedrohung

Die Bestrebungen von Cyberkriminellen, Unternehmen zu betrügen, haben deutlich zugenommen. Die finanziellen Schäden aufgrund von BEC-Betrug (Business Email Compromise) haben sich zwischen 2017 und 2018 verdoppelt. Wir sehen regelmäßig Schlagzeilen im Zusammenhang mit dieser cyberkriminellen Taktik. Vor Kurzem wurden 281 Personen nach Deep Fake-Betrug verhaftet. Toyota gab bekannt, dass eine Tochtergesellschaft des Unternehmens 37 Millionen Dollar durch diese Betrugsform verloren hatte.

Künstliche Intelligenz, für Gut und Böse

Das hier gezeigte Beispiel zeigt zwar, dass künstliche Intelligenz zur Bekämpfung von Cyberkriminalität eingesetzt werden kann, aber auch, um sie zu stoppen. Deep Learning und Machine Learning sind wichtig für die Automatisierung der Erkennung von Anomalien und Cyber-Bedrohungen, die die IT-Systeme eines jeden Unternehmens gefährden können. Cyberkriminelle sind immer auf der Suche nach neuen Techniken, um in die Netzwerke von Unternehmen zu gelangen, Unternehmensdaten zu stehlen und Geld zu verdienen. Aus diesem Grund ist es wichtig, über die neuesten Cybersicherheitstrends auf dem Laufenden zu bleiben.