Generative AI-Bedrohungen
ChatGPT-Schutzmaßnahmen können Missbrauch verhindern, aber Jailbreaking-Tools können böswilligen Akteuren die Oberhand geben, wenn sie diese Schutzmaßnahmen umgehen, um glaubhaftere Phishing-E-Mails zu erstellen
Wichtige Punkte
- Tools mit großen Sprachmodellen wie ChatGPT können verwendet werden, um überzeugende Phishing-E-Mails in großem Umfang zu generieren.
- Diese überzeugenden E-Mails können schwerer zu erkennen sein als herkömmliche Phishing-E-Mails, die mit Rechtschreib- und Grammatikfehlern übersät sind.
- ChatGPT und ähnliche Tools verfügen über Sicherheitsvorkehrungen, um Missbrauch zu verhindern, aber Jailbreaking-Tools können diese Sicherheitsvorkehrungen umgehen.
Tools, die auf großen Sprachmodellen basieren, wie ChatGPT, können verwendet werden, um überzeugende, gut formulierte und grammatikalisch korrekte Phishing-E-Mails in großem Umfang zu erstellen. Sie können auch zur Erforschung von Zielpersonen und -organisationen eingesetzt werden.
BEC-Angriffe (Business Email Compromise) beinhalten oft ein Gespräch zwischen dem Angreifer und dem Opfer, bevor der Angreifer sein Ziel erreicht (Erhalt einer Überweisung, sensibler Daten usw.). Diese Dienste werden nicht nur zur Erstellung der ursprünglichen Nachricht verwendet, sondern können Angreifern auch dabei helfen, relevante und genaue Antworten auf die Antworten ihrer Opfer zu verfassen.
ChatGPT Sicherheitsvorkehrungen und Jailbreaking
ChatGPT hat Sicherheitsvorkehrungen und Einschränkungen, um Missbrauch und die Erstellung schädlicher Inhalte zu verhindern. Es gibt jedoch verschiedene Websites und Foren, die "Jailbreaks" für ChatGPT anbieten. Diese Jailbreaks sind spezielle Aufforderungen, die die Umgehung der Schutzmaßnahmen ermöglichen und ChatGPT dazu bringen, jeder Befehlseingabe des Benutzers zu folgen. Dazu könnte die Erstellung von Inhalten gehören, die vertrauliche Informationen preisgeben oder bösartig sind, wie z. B. die Erstellung von bösartigem Code und Phishing-E-Mails.
Vier von Hackern verwendete ChatGPT-Varianten
Ein Jailbreaking von ChatGPT ist nicht unbedingt erforderlich, damit Cyberkriminelle diese Technologie missbrauchen können. Im Dark Web werden inzwischen zahlreiche Varianten zum Verkauf angeboten, die sich im Wesentlichen wie eine uneingeschränkte Version des Tools verhalten und angeblich auf bösartige Zwecke abgestimmt sind. Sie kosten in der Regel mehrere hundert Dollar pro Jahr, wobei auch monatliche Abonnements möglich sind:
- WormGPT ist ein ChatGPT-ähnliches Tool, das auf dem GPTJ-Sprachmodell basiert und Angreifern hilft, bösartigen Code und Phishing-E-Mails zu erstellen. Berichten zufolge wurde er für große Datenmengen geschult, insbesondere für Daten im Zusammenhang mit malware.
- XXXGPT ist eine weitere Variante, die mit einem Experten-Support-Paket ausgestattet ist. XXXGPT wurde entwickelt, um Angreifern zu helfen, Code für Botnets, Trojaner, Key-Logger, Infostealer und andere Arten von malware zu entwickeln.
- WolfGPT ist ein in Python entwickeltes Tool mit dem Schwerpunkt auf Vertraulichkeit. Zu den Spezialgebieten von WolfGPT gehören die Erstellung von kryptografischen malware (für das Krypto-Mining) und fortgeschrittene Phishing Angriffe.
- FraudGPT kann Phishing-E-Mails mit dem Thema Bank erstellen, bei denen der Benutzer lediglich den Namen der Zielbank eingeben und Phishing-Links in die Platzhalter im Ausgabeinhalt einfügen muss. Er kann nicht nur E-Mails generieren, sondern auch Anmeldeseiten programmieren, um Anmeldedaten zu stehlen. Die Macher behaupten, dass es bösartigen Code erstellen, unentdeckbare malware erstellen, Schwachstellen finden und Ziele identifizieren kann. Es wird im Dark Web und über Telegram verkauft, wobei alle paar Wochen Updates veröffentlicht werden.
Die Quintessenz
Unternehmen müssen sich darüber im Klaren sein, dass Tools wie ChatGPT auf absehbare Zeit ein Teil ihrer Cybersicherheitslandschaft sein werden. Die Mitarbeiter werden die Tools nutzen, aber auch die Angreifer. Diese böswilligen Akteure werden alles daran setzen, den Sicherheitsvorkehrungen zuvorzukommen, die sie daran hindern könnten, große Sprachmodell-Tools zu verwenden, um fein abgestimmte Phishing-E-Mails und bösartige Webseiten zu erstellen, die keine verräterischen Anzeichen von Rechtschreibfehlern und schlechter Grammatik mehr enthalten.
Abonnieren Sie Cyber Resilience Insights für weitere Artikel wie diesen
Erhalten Sie die neuesten Nachrichten und Analysen aus der Cybersicherheitsbranche direkt in Ihren Posteingang
Anmeldung erfolgreich
Vielen Dank, dass Sie sich für den Erhalt von Updates aus unserem Blog angemeldet haben
Wir bleiben in Kontakt!