WormGPT: Oder wie das ChatGPT für Hacker für Unternehmen gefährlich werden kann

0

WormGPT - oder wie das ChatGPT für Hacker für Unternehmen gefährlich werden kann

Jeder, der ChatGPT im Alltag anwendet, weiß die zahlreichen Möglichkeiten und Erleichterungen zu schätzen. Die Arbeit wird deutlich effizienter und nicht selten ergeben sich völlig neue Ansätze für die jeweilige Arbeit. Doch ChatGPT kann gefährlich sein.

WormGPT & FraudGPTVerschiedene Arten von Attacken verbreiten sich

WormGPT & FraudGPT: Die KI wird manchmal auch gefährlich

Als die Anwendung ChatGPT herauskam, waren alle begeistert. So leicht lassen sich also Texte, Grafiken und mehr erstellen? Nicht bedacht wurde dabei aber, dass ChatGPT nicht ungefährlich für die Gesellschaft sein kann.

Denn auch Kriminelle wissen die Möglichkeiten zu schätzen und haben jetzt mit WormGPT eine Möglichkeit gefunden, wie Phishing-Mails noch wirksamer und schnell erzeugt und Schutzmaßnahmen umgangen werden können.

Genau davor haben Experten schon lange gewarnt und waren der Meinung, dass KI von Kriminellen missbraucht werden könne. Cyberkriminelle können mithilfe von WormGPT in Sekundenschnelle eine Fake-E-Mail erstellen, die sogar in mehreren Sprachen veröffentlicht werden kann.

Diese Mail kann personalisiert werden, was die Aussichten auf Erfolg bei diesem Betrug deutlich erhöht. Wer nun meint, dass dies doch bisher auch mit ChatGPT möglich war, irrt sich, denn hier wurden die entsprechenden Eingaben bisher blockiert.

Auch Kriminelle wissen die Möglichkeiten zu schätzen und haben jetzt mit WormGPT eine Möglichkeit gefunden, wie die Ängste bezüglich Phishing-Mails umgangen werden können. (Foto: AdobeStock - 605698536 ExQuisine)

Auch Kriminelle wissen die Möglichkeiten zu schätzen und haben jetzt mit WormGPT eine Möglichkeit gefunden, wie die Ängste bezüglich Phishing-Mails umgangen werden können. (Foto: AdobeStock - 605698536 ExQuisine)

Cyberkriminelle mussten bislang auf aufwendige Weise Umschreibungen vornehmen, um ChatGPT zu täuschen. Open AI als Herausgeber ist das bewusst und man versucht schon seit dem Release von ChatGPT, gegen die missbräuchliche Anwendung vorzugehen. WormGPT hingegen ist für Kriminelle ideal, denn ethische Standards oder bestimmte Einschränkungen zum Schutz gibt es hier nicht.

Wer trägt die Schuld an WormGPT?

Das Open-Source-Sprachmodell „GPT-J“ von Eleuther AI ist die Grundlage für das so gefährliche WormGPT. Dabei bezeichnet sich Eleuther AI als „Non-profit AI Research Lab“, was erst einmal völlig harmlos klingen soll.

Es ist davon auszugehen, dass WormGPT ein umfassendes Training mit Daten und Informationen erhalten hat, die sich um Viren und verschiedene Hacking-Tools drehen.

Tests von Experten wurden durchgeführt und es zeigte sich etwas Beunruhigendes: Mithilfe von WormGPT war es möglich, eine falsche E-Mail in den Umlauf zu bringen.

Sie schien als Mail von einem hochrangigen CEO eines Großkonzerns zu kommen. Ein Mitarbeiter wurde in der Mail darauf hingewiesen, dass er binnen 24 Stunden eine Rechnung zu begleichen habe.

Niemand bei Eleuther AI will es gewesen sein und die KI-Forscher weisen jegliche Schuld von sich. Angeblich stehen sie nicht mit den Entwicklern von WormGPT in Verbindung, dennoch sind sie über die Entwicklungen zu ihrem Sprachmodell im Bilde.

Die Verantwortlichen im KI-Lab bei Eleuther AI sagten aus, dass ihr Sprachmodell im Einklang mit den Open-Source-Missionen freigegeben worden sei und dass ein öffentlicher Zugang bestünde.

Die Schöpfer von WormGPT hätten auf eigene Faust beschlossen, Modifikationen der öffentlichen Version des Sprachmodells vorzunehmen, weil sie Straftaten begehen wollten.

Die Verantwortlichen geben nun an, dass sie Geld für Forschungsprojekte bereithalten würden, bei denen es um die Einschränkung der Dual-Use-Fähigkeiten ihrer Modelle gehe.

Man arbeite daran, Schwachstellen in den Sicherheitsfiltern zu finden, wofür man mit Computersicherheitsexperten zusammenarbeite. Doch eine Lösung für das Missbrauchsproblem habe bisher noch niemand gefunden.

Können sich Unternehmen vor Cyberattacken schützen?
Können sich Unternehmen vor Cyberattacken schützen?
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) sieht einen neuen Trend in der Veröffentlichung von WormGPT und stuft diese weniger als reale Gefahr ein. Eine Sprecherin des BSI teilte mit, dass die Einführung des Tools und seine Verfügbarkeit außerhalb des Darknets der Sachlage ähnele, die bei anderen Sprachmodellen vorläge. Denn auch sie kämen ohne Filter und Auflagen auf den Markt und könnten sinnvoll oder missbräuchlich genutzt werden.
Das größere Problem wird darin gesehen, dass die Einstiegshürde für kriminelle Aktivitäten gesenkt werden, sodass binnen kürzester Zeit große Mengen an Texten, die seitens der Kriminellen genutzt würden, entstehen könnten.
Laut BSI sind nun vor allem Schulungsmaßnahmen für die Mitarbeiter der Unternehmen wichtig. Sie sollten auf bestimmte Punkte sensibilisiert werden, sodass sie falsche Texte sicher erkennen können. Darüber hinaus ist es empfehlenswert, auf eine Multi-Faktor-Authentifizierung zu setzen, wenn es um Online-Bezahlvorgänge geht.

Video: ChatGPT in KRIMINELL? EvilGPT, WormGPT, FraudGPT und andere schadhafte KI-Chatbots

Ein genauer Blick auf die Gefahrenlage

Für Hacker tut sich eine ganz neue Welt auf, denn sie können Sprachmodelle wie ChatGPT nun für sich nutzen. Sie müssen nicht mehr aufwendige Verschleierungstaktiken anwenden, sondern nutzen die neuen Möglichkeiten der Chatbots. Ihre Angriffe sind direkt an die Fortschritte in der Entwicklung der Künstlichen Intelligenz gekoppelt und bleibt zu erwarten, dass Hackerangriffe in Qualität und Quantität zunehmen. Und das ganz ohne Mehrarbeit für die Cyberkriminellen, die sich einen Wettlauf um die Entwicklung neuer KI-Technologien liefern.

Im Fokus stehen jetzt ChatGPT(Open AI), Bard (Google) und Bing (Microsoft) sowie die Möglichkeiten, wie die eigentlich gut gemeinten Sprachmodelle auf kriminelle Art und Weise abgewandelt und angepasst werden können. Das am schnellsten wachsende Tool der Geschichte der Künstlichen Intelligenz wird nun zur Eintrittspforte für Kriminelle. Doch gerade das Tempo, mit dem das Programm arbeitet, wird zum Problem, denn Cyberkriminelle können damit schnell und häufig auf ein Ziel einwirken. Genau das macht sie so gefährlich.

Die aktuelle Sicherheitslage in Unternehmen
Fakt ist, dass zunehmende Cyberattacken gegen Unternehmen zu verzeichnen sind. Das BSI stellt dabei auch fest, dass vor allem die zu Opfern werden, die leicht angreifbar erscheinen.
Darüber hinaus geht das BSI davon aus, dass KI große Risiken berge, wenn es beispielsweise um die Bildung der öffentlichen Meinung gehe. Über Desinformationskampagnen werde versucht, die öffentliche Meinung zu manipulieren.
Es sei daher empfehlenswert, dass KI-Modelle nur unter Kontrolle durch einen Menschen arbeiten könnten. Persönliche Abfragen seien daher wichtig.
Für Hacker stehe im Fokus, nicht zwingend so viel Lösegeld wie möglich herauszuholen, sondern ein sinnvolles Kosten-Nutzen-Verhältnis zu erreichen.
Sie kalkulieren rational und gehen den Weg des geringsten Widerstands. Wo lässt sich mit so wenig Aufwand wie möglich so viel wie möglich herausholen?
Daher werden auch kleine Unternehmen, die Verwaltungen der Länder und Kommunen sowie Schulen vermehrt von Ransomware-Angriffe gepeinigt.
Sie legen meist einen geringeren Wert auf eine umfassende Datensicherung und Verschlüsselung ihrer Systeme, was es Cyberkriminellen deutlich leichter macht, an sensible Daten zu gelangen.
Sie dringen in das System ein und stehlen die Daten nicht, sondern verschlüsseln diese. Zur Entschlüsselung wird ein Lösegeld verlangt.

Phishing feiert große Erfolge

Eine Malware wie WormGPT erlaubt es den Kriminellen, unendlich viele Variationen von Codes zu erstellen. Sie sind damit den Erkennungsprogrammen, die solche Malware eigentlich herausfiltern soll, immer einen großen Schritt voraus. Doch auch sogenannte BEC-Angriffe werden immer häufiger und vor allem sind sie immer häufiger erfolgreich.

Es handelt sich dabei um „Business E-Mail Compromise“, also um gezielte Versuche, finanzielle Daten oder diesbezügliche Informationen von den Opfern zu erhalten. Damit solche Versuche erfolgreich sein können, müssen personalisierte Nachrichten verschickt werden, andernfalls fühlen sich die Opfer nicht genügend angesprochen. ChatGPT wird aktuell als „Bereicherung“ für derartige Betrugsversuche betitelt.

Die E-Mails, mit denen die potenziellen Opfer angesprochen werden, sind gut geschrieben und sehr persönlich gehalten. Sie werden in Massen verschickt und führen zu einer hohen Erfolgsquote. Diesen Angriffen sei Experten zufolge nicht beizukommen, wenn die herkömmlichen Abwehrmethoden benutzt werden. Es gibt inzwischen aber Versuche, mithilfe von KI Angriffe, die durch KI gesteuert werden, abzuwehren.

Eine Malware wie WormGPT erlaubt es den Kriminellen, unendlich viele Variationen von Codes zu erstellen. (Foto: AdobeStock - 136513074 Rawpixel.com)

Eine Malware wie WormGPT erlaubt es den Kriminellen, unendlich viele Variationen von Codes zu erstellen. (Foto: AdobeStock - 136513074 Rawpixel.com)

Verschiedene Arten von Attacken verbreiten sich

Derzeit gibt es mehrere Varianten, bei denen ChatGPT an Betrugsversuchen beteiligt ist.

Zu den gängigen Attacken zählen unter anderem:

  • Nutzung generativer KI für das Phishing:

    Die Erstellung individualisierter E-Mails und Nachrichten läuft per ChatGPT schnell, effektiv und unkompliziert ab. Die Erfolgsrate von Social Engineering und Phishing wächst dramatisch, wenn KI eingesetzt wird, darüber sind sich Cyberexperten einig.

    Die E-Mails weisen nicht mehr die typischen sprachlichen und grammatikalischen Fehler auf, sondern sind in fehlerfreier Sprache formuliert. Sie scheinen glaubwürdig zu sein und sogar Kenner der Materie haben es schwer, sie als Malware zu identifizieren.

    Sogar Folgemails werden erstellt und es können komplexe Unterhaltungen geführt werden, die dank der lernenden KI-Chatbots durchaus real erscheinen. Cyberkriminelle haben mit WormGPT eine maßgeschneiderte Lösung an die Hand bekommen, mit der überzeugende Betrugsmails formuliert werden können.

  • Erstellung von Deepfakes:

    Nicht nur in schriftlicher Form werden Betrugsversuche gestartet, sondern auch Audio-Deepfakes verbreiten sich rasant. Der Enkeltrick, der mittlerweile in allen Nachrichten eine feste Größe zu sein scheint, ist eine dieser perfekten Betrugsmaschen.

    Es geht dabei darum, dass sich der Chatbot als Kind oder Enkelkind einer Person ausgibt und diese um finanzielle Unterstützung in einer Notlage bittet.

    Die KI imitiert bekannte Stimmen sehr genau und braucht dafür nur rund eine halbe Stunde Audiomaterial von den betreffenden Personen.

    Daraus wird ein vollständiges Stimmenprofil erstellt, das sich nur schwer vom Original unterscheiden lässt. Meist findet die KI das nötige Audiomaterial auf Social Media Plattformen. Deepfakes werden zudem per Video und Foto erstellt, was nur wenig Aufwand bedeutet. Vor allem Prominente sind hier betroffen, denn von ihnen findet sich unglaublich viel Material im Internet.

  • Programmierung von Malware:

    ChatGPT ist ebenso wie andere generative KI in der Lage, Programme zu schreiben. Damit entsteht auch Malware, wobei es sich meist um Ransomware handelt.

    Anfänger lernen damit ihre ersten Schritte und erfahren, was es bei der Programmierung von Schadsoftware zu beachten gibt. Generative KI unterstützt Hacker zudem dabei, eine flexible Malware zu erstellen, die bestimmte Elemente ändern oder neue Domänen registrieren kann. KI ist zwar noch nicht so gut wie andere Tools von Cyberkriminellen, doch sie lernt schnell.

  • Experten hatten schon lange Zeit vorhergesagt, dass es einst eine generative KI schaffen würde, Schwachstellen in APIs zu finden. (Foto: AdobeStock - 527970463 Andrey Popov)

    Experten hatten schon lange Zeit vorhergesagt, dass es einst eine generative KI schaffen würde, Schwachstellen in APIs zu finden. (Foto: AdobeStock - 527970463 Andrey Popov)

  • Angriffe auf Unternehmen:

    Experten hatten schon lange Zeit vorhergesagt, dass es einst eine generative KI schaffen würde, Schwachstellen in APIs zu finden.

    Dieser Vorgang braucht normalerweise viel Zeit und Fachwissen, doch mithilfe einer KI könnte der Weg dahin abgekürzt werden. ChatGPT kann dazu gebracht werden, eine Überprüfung von API-Dokumenten vorzunehmen.

    Darauf werden Informationen gesammelt und API-Abfragen gestellt. Darüber hinaus ist ChatGPT in der Lage, Programm-Codes zu übersetzen, wobei der ursprüngliche Code erhalten bleiben würde. Signatur-Scanner würden ins Leere laufen, da der Code trotz der Veränderungen noch funktioniert.

Grundsätzlich ist also davon auszugehen, dass es Hacker dank ChatGPT eher schaffen werden, die üblichen Verteidigungsmechanismen bei privaten und geschäftlich genutzten Netzwerken und Rechnern auszuhebeln. Gleichzeitig steigen die Forderungen, die Sicherheitslandschaft in Unternehmen deutlich zu verbessern, was jedoch nicht mehr ohne kompetente Partner möglich ist. Die zahlreichen Security-Techniken wachsen mit den Herausforderungen. Allerdings hinken sie stets ein wenig hinterher und reagieren nur, während die Cyberkriminellen agieren.

Wichtige technische Schutzmaßnahmen sind beispielsweise:

  • Next-Generation-Firewalls
  • Identitätsmanagement
  • Zugriffsmanagement
  • Cloud Access Security Broker
  • Security-Information- und Event-Management-Systeme

Lassen Sie eine Antwort hier