Geschäftslösungen
Informatik, Telefonie
13.10.2023 10:00

Mit anderen teilen:

Aktie

Deepfake-Videos stellen eine Bedrohung für die breite Öffentlichkeit dar

Künstliche Intelligenz (KI) kann uns helfen, aber auch eine Bedrohung darstellen, wie die aktuellen Deepfake-Videos eines bekannten YouTubers namens MrBeast belegen, der ahnungslose Nutzer mit den neuen iPhone 15-Handys für nur zwei Dollar begeisterte.
Deepfake-Videos stellen eine Bedrohung für die breite Öffentlichkeit dar

Die Frage ist, wie viele Menschen zu spät erkannten, dass es sich um einen Betrug handelte, aber wir befürchten, dass es sich um eine sehr hohe Zahl handelt.

Deepfake-Aufnahmen gab es bereits vor dem Aufkommen der künstlichen Intelligenz in der Form, wie wir sie heute kennen (ChatGPT, Bard, Bing, Midjourney...). Doch mit dem Aufkommen großer Sprachmodelle sind diese Aufnahmen erschreckend realistisch geworden. Es war nur eine Frage der Zeit, bis Schurken diese fortschrittliche Technologie für böse Zwecke nutzen würden.

Sie wählten das bestmögliche Ziel. MrBeast ist bekannt für seine extravaganten YouTube-Videos, in denen er seine Fans und Passanten mit teuren Autos, Privatjets, Telefonen, Häusern und ähnlichen Geschenken erfreut. Ein Szenario, in dem MrBeast fast kostenlose iPhone 15s verschenkt, ist nicht einmal ungewöhnlich. Sogar die Böswilligen wetten darauf. Der gefälschte MrBeast forderte die Zuschauer dazu auf, auf einen Link im Video zu klicken, doch hinter den Kulissen steckte die Absicht, Daten zu stehlen.

Ein Deepfake-Video von MrBeast ist kürzlich auf TikTok aufgetaucht, wo es wahrscheinlich massiven Schaden angerichtet hat, nicht nur bei den Nutzern, sondern auch bei der Plattform, die sich nun mit der Frage auseinandersetzen wird, wie man dies in Zukunft verhindern kann.

MrBeast ist nicht das einzige Opfer von KI-Betrug. Auch Putins Image wurde in der Vergangenheit zur Verbreitung falscher Informationen missbraucht.

Obwohl Prominente attraktivere Ziele darstellen, sind auch Normalsterbliche gefährdet. Auch die BBC-Journalisten Matthew Amroliwala und Sally Bundock haben dies aus erster Hand erlebt. Ihr Bild wurde zur Förderung eines Finanzbetrugs verwendet. In dem Video soll der Journalist vom reichsten Erdenmenschen, Elon Musk, moderiert werden, der ihn über die aktuell vermeintlich profitabelste Anlagemöglichkeit befragen soll. Auch Elon Musk wurde in der Vergangenheit Opfer von Deepfake-Videos, in denen er angeblich sein Vermögen verschenkte und Ratschläge zu Kryptowährungen gab.

Bisher warnte Meta (ehemals Facebook) solche Videos mit Warnungen vor möglichen Falschinformationen, die von der Organisation FullFact entdeckt wurden. Letzteres hat es sich zur Aufgabe gemacht, alle möglichen Unregelmäßigkeiten zu überprüfen, die in den Nachrichten und in den sozialen Medien auftauchen. Es sprach auch ein Vertreter von Meta. „Wir erlauben solche Inhalte nicht auf unseren Plattformen und haben sie sofort entfernt. Wir arbeiten ständig daran, unsere Systeme zu verbessern und ermutigen alle, die Inhalte sehen, die ihrer Meinung nach gegen unsere Richtlinien verstoßen, diese mithilfe der In-App-Tools zu melden. Dann können wir es untersuchen und Maßnahmen ergreifen.“

TikTok mischte sich ebenfalls ein und entfernte das gefälschte Video von MrBeast wenige Stunden nach seiner Veröffentlichung und sperrte das Konto, das gegen die Nutzungsbedingungen verstoßen hatte. TikTok hat diese Art von „synthetischem“ Filmmaterial in seinen Richtlinien als verbotenen Inhalt hervorgehoben.

Der echte MrBeast forderte unterdessen Plattform X (ehemals Twitter) und andere Plattformen auf, die Frage zu beantworten, ob sie auf die Zunahme solcher Betrügereien vorbereitet sind.

Wie erkennt man Deepfake-Aufnahmen?

Obwohl klassische Phishing-Angriffe und Ransomware-Angriffe derzeit noch die häufigsten und auch erfolgreichsten Angriffsformen sind, wird es wahrscheinlich eine Zeit geben, in der Deepfakes und Angriffe auf künstliche Intelligenz häufiger auftreten werden.

Kürzlich musste sich sogar Tom Hanks wegen künstlicher Intelligenz wehren. Sein Bild wurde gestohlen, um für einen umstrittenen Zahnplan zu werben.

KI-Systeme werden nur noch fortschrittlicher. Mit der Entwicklung werden die Bedenken hinsichtlich der Erkennung solcher Betrügereien zunehmen. Die goldene Regel lautet: Seien Sie misstrauisch, wenn Sie auf ein Video, einen Beitrag oder eine Nachricht stoßen, in der Ihnen jemand etwas kostenlos anbietet, insbesondere wenn es sich um ein Produkt oder eine Dienstleistung handelt, für die normalerweise größere Beträge erforderlich sind.

Das Bild von MrBeast entwertet diese Regel etwas. Gerade aufgrund seiner Videos, in denen die Teilnehmer auch um attraktive Preise konkurrieren, war das besagte Deepfake-Video schwer als Betrug zu erkennen.

Uns bleibt nichts anderes übrig, als immer vorsichtig zu sein und jede Information vorher zu prüfen. Den aufmerksamsten Benutzern werden auch einige andere verdächtige Anzeichen auffallen, die darauf hindeuten könnten, dass es sich um einen Betrug handelt.

In den Clip von MrBeast (zu sehen unter bit.ly/DeepfakeRN) fügten die Angreifer den Namen eines berühmten YouTubers mit dem blauen Häkchen ein, das wir von offiziellen Profilen gewohnt sind. Wenn Sie häufig TikTok nutzen, wissen Sie, dass diese Art der Namensplatzierung nicht notwendig ist, da alle Videos bereits den Namen des Uploaders unter dem TikTok-Logo enthalten.

Im Fall der BBC-Journalisten waren die Verdachtsgründe eher grammatikalischer Natur. Der Moderator spricht die Zahl 15 falsch aus und spricht das Wort „Projekt“ mit einer ungewöhnlichen Betonung aus. Es gibt auch einige kleinere grammatikalische Fehler, die Sie leicht übersehen können (z. B. die falsche Verwendung von „was, were“). Da die Aufzeichnungen mit der Zeit immer realistischer werden, werden solche Fehler für die Betrugserkennung wichtig. Im selben Clip ist kaum zu erkennen, dass Elon Musk über seinem linken Auge ein zusätzliches Auge hat. Augen, Finger und ähnliche Details sind bei KI-Aufnahmen oft verzerrt, aber für uns stellt dies eine Chance dar, eine Katastrophe zu vermeiden.

Auch Rechtsexperten haben sich geteilter Meinung zum Verbot solcher Aufnahmen geäußert. Wenn wir die Deepfake-Technologie verbieten würden, würden wir auch echten Inhalten in Filmen und Serien schaden, die mit Spezialeffekten erstellt wurden.

Titelbild: Bild von rawpixel.com auf Freepik


Interessiert an mehr zu diesem Thema?
Elon Musk Facebook Minze Twitter künstliche Intelligenz


Was lesen andere?