WormGPT: Wie ChatGPT für Hacker Unternehmen gefährlich werden kann

0

ChatGPT für Hacker: wie WormGPT Unternehmen gefährlich werden kann

Jeder, der Chat GPT im Alltag anwendet, weiß die zahlreichen Möglichkeiten und Erleichterungen zu schätzen. Die Arbeit wird deutlich effizienter und nicht selten ergeben sich völlig neue Ansätze für die jeweilige Arbeit. Doch Chat GPT kann gefährlich sein.

Chat GPT für Kriminelle: KI wird gefährlichWer trägt die Schuld?Verschiedene Arten von Attacken verbreiten sich

Chat GPT für Kriminelle: KI wird gefährlich

Als die Anwendung Chat GPT herauskam, waren alle begeistert. So leicht lassen sich also Texte, Grafiken und mehr erstellen? Nicht bedacht wurde dabei aber, dass Chat GPT nicht ungefährlich für die Gesellschaft sein kann.

Denn auch Kriminelle wissen die Möglichkeiten zu schätzen und haben jetzt mit Worm GPT eine Möglichkeit gefunden, wie die Ängste bezüglich Phishing-Mails umgangen werden können.

Genau davor haben Experten schon lange gewarnt und waren der Meinung, dass KI von Kriminellen missbraucht werden könne. Cyberkriminelle können mithilfe von Worm GPT in Sekundenschnelle eine Fake-E-Mail erstellen, die sogar in mehreren Sprachen veröffentlicht werden kann.

Diese Mail kann personalisiert werden, was die Aussichten auf Erfolg bei diesem Betrug deutlich erhöht. Wer nun meint, dass dies doch bisher auch mit Chat GPT möglich war, irrt sich, denn hier wurden die entsprechenden Eingaben bisher blockiert.

Auch Kriminelle wissen die Möglichkeiten zu schätzen und haben jetzt mit Worm GPT eine Möglichkeit gefunden, wie die Ängste bezüglich Phishing-Mails umgangen werden können. (Foto: AdobeStock - 605698536 ExQuisine)

Auch Kriminelle wissen die Möglichkeiten zu schätzen und haben jetzt mit Worm GPT eine Möglichkeit gefunden, wie die Ängste bezüglich Phishing-Mails umgangen werden können. (Foto: AdobeStock - 605698536 ExQuisine)

Cyberkriminelle mussten bislang auf aufwendige Weise Umschreibungen vornehmen, um Chat GPT zu täuschen. Open AI als Herausgeber ist das bewusst und man versucht schon seit dem Release von Chat GPT, gegen die missbräuchliche Anwendung vorzugehen. Worm GPT hingegen ist für Kriminelle ideal, denn ethische Standards oder bestimmte Einschränkungen zum Schutz gibt es hier nicht.

Wer trägt die Schuld?

Das Open-Source-Sprachmodell „GPT-J“ von Eleuther AI ist die Grundlage für das so gefährliche Worm GPT. Dabei bezeichnet sich Eleuther AI als „Non-profit AI Research Lab“, was erst einmal völlig harmlos klingen soll.

Es ist davon auszugehen, dass Worm GPT ein umfassendes Training mit Daten und Informationen erhalten hat, die sich um Viren und verschiedene Hacking-Tools drehen.

Tests von Experten wurden durchgeführt und es zeigte sich etwas Beunruhigendes: Mithilfe von Worm GPT war es möglich, eine falsche E-Mail in den Umlauf zu bringen.

Sie schien als Mail von einem hochrangigen CEO eines Großkonzerns zu kommen. Ein Mitarbeiter wurde in der Mail darauf hingewiesen, dass er binnen 24 Stunden eine Rechnung zu begleichen habe.

Niemand bei Eleuther AI will es gewesen sein und die KI-Forscher weisen jegliche Schuld von sich. Angeblich stehen sie nicht mit den Entwicklern von Worm GPT in Verbindung, dennoch sind sie über die Entwicklungen zu ihrem Sprachmodell im Bilde.

Die Verantwortlichen im KI-Lab bei Eleuther AI sagten aus, dass ihr Sprachmodell im Einklang mit den Open-Source-Missionen freigegeben worden sei und dass ein öffentlicher Zugang bestünde.

Die Schöpfer von Worm GPT hätten auf eigene Faust beschlossen, Modifikationen der öffentlichen Version des Sprachmodells vorzunehmen, weil sie Straftaten begehen wollten.

Die Verantwortlichen geben nun an, dass sie Geld für Forschungsprojekte bereithalten würden, bei denen es um die Einschränkung der Dual-Use-Fähigkeiten ihrer Modelle gehe.

Man arbeite daran, Schwachstellen in den Sicherheitsfiltern zu finden, wofür man mit Computersicherheitsexperten zusammenarbeite. Doch eine Lösung für das Missbrauchsproblem habe bisher noch niemand gefunden.

Können sich Unternehmen schützen?
Können sich Unternehmen schützen?
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) sieht einen neuen Trend in der Veröffentlichung von Worm GPT und stuft diese weniger als reale Gefahr ein. Eine Sprecherin des BSI teilte mit, dass die Einführung des Tools und seine Verfügbarkeit außerhalb des Darknets der Sachlage ähnele, die bei anderen Sprachmodellen vorläge. Denn auch sie kämen ohne Filter und Auflagen auf den Markt und könnten sinnvoll oder missbräuchlich genutzt werden.
Das größere Problem wird darin gesehen, dass die Einstiegshürde für kriminelle Aktivitäten gesenkt werden, sodass binnen kürzester Zeit große Mengen an Texten, die seitens der Kriminellen genutzt würden, entstehen könnten.
Laut BSI sind nun vor allem Schulungsmaßnahmen für die Mitarbeiter der Unternehmen wichtig. Sie sollten auf bestimmte Punkte sensibilisiert werden, sodass sie falsche Texte sicher erkennen können. Darüber hinaus ist es empfehlenswert, auf eine Multi-Faktor-Authentifizierung zu setzen, wenn es um Online-Bezahlvorgänge geht.

Video: ChatGPT in KRIMINELL? EvilGPT, WormGPT, FraudGPT und andere schadhafte KI-Chatbots

Ein genauer Blick auf die Gefahrenlage

Für Hacker tut sich eine ganz neue Welt auf, denn sie können Sprachmodelle wie Chat GPT nun für sich nutzen. Sie müssen nicht mehr aufwendige Verschleierungstaktiken anwenden, sondern nutzen die neuen Möglichkeiten der Chatbots. Ihre Angriffe sind direkt an die Fortschritte in der Entwicklung der Künstlichen Intelligenz gekoppelt und bleibt zu erwarten, dass Hackerangriffe in Qualität und Quantität zunehmen. Und das ganz ohne Mehrarbeit für die Cyberkriminellen, die sich einen Wettlauf um die Entwicklung neuer KI-Technologien liefern.

Im Fokus stehen jetzt Chat GPT(Open AI), Bard (Google) und Bing (Microsoft) sowie die Möglichkeiten, wie die eigentlich gut gemeinten Sprachmodelle auf kriminelle Art und Weise abgewandelt und angepasst werden können. Das am schnellsten wachsende Tool der Geschichte der Künstlichen Intelligenz wird nun zur Eintrittspforte für Kriminelle. Doch gerade das Tempo, mit dem das Programm arbeitet, wird zum Problem, denn Cyberkriminelle können damit schnell und häufig auf ein Ziel einwirken. Genau das macht sie so gefährlich.

Die aktuelle Sicherheitslage in Unternehmen
Fakt ist, dass zunehmende Cyberattacken gegen Unternehmen zu verzeichnen sind. Das BSI stellt dabei auch fest, dass vor allem die zu Opfern werden, die leicht angreifbar erscheinen.
Darüber hinaus geht das BSI davon aus, dass KI große Risiken berge, wenn es beispielsweise um die Bildung der öffentlichen Meinung gehe. Über Desinformationskampagnen werde versucht, die öffentliche Meinung zu manipulieren.
Es sei daher empfehlenswert, dass KI-Modelle nur unter Kontrolle durch einen Menschen arbeiten könnten. Persönliche Abfragen seien daher wichtig.
Für Hacker stehe im Fokus, nicht zwingend so viel Lösegeld wie möglich herauszuholen, sondern ein sinnvolles Kosten-Nutzen-Verhältnis zu erreichen.
Sie kalkulieren rational und gehen den Weg des geringsten Widerstands. Wo lässt sich mit so wenig Aufwand wie möglich so viel wie möglich herausholen?
Daher werden auch kleine Unternehmen, die Verwaltungen der Länder und Kommunen sowie Schulen vermehrt von Ransomware-Angriffe gepeinigt.
Sie legen meist einen geringeren Wert auf eine umfassende Datensicherung und Verschlüsselung ihrer Systeme, was es Cyberkriminellen deutlich leichter macht, an sensible Daten zu gelangen.
Sie dringen in das System ein und stehlen die Daten nicht, sondern verschlüsseln diese. Zur Entschlüsselung wird ein Lösegeld verlangt.

Phishing feiert große Erfolge

Eine Malware wie Worm GPT erlaubt es den Kriminellen, unendlich viele Variationen von Codes zu erstellen. Sie sind damit den Erkennungsprogrammen, die solche Malware eigentlich herausfiltern soll, immer einen großen Schritt voraus. Doch auch sogenannte BEC-Angriffe werden immer häufiger und vor allem sind sie immer häufiger erfolgreich.

Es handelt sich dabei um „Business E-Mail Compromise“, also um gezielte Versuche, finanzielle Daten oder diesbezügliche Informationen von den Opfern zu erhalten. Damit solche Versuche erfolgreich sein können, müssen personalisierte Nachrichten verschickt werden, andernfalls fühlen sich die Opfer nicht genügend angesprochen. Chat GPT wird aktuell als „Bereicherung“ für derartige Betrugsversuche betitelt.

Die E-Mails, mit denen die potenziellen Opfer angesprochen werden, sind gut geschrieben und sehr persönlich gehalten. Sie werden in Massen verschickt und führen zu einer hohen Erfolgsquote. Diesen Angriffen sei Experten zufolge nicht beizukommen, wenn die herkömmlichen Abwehrmethoden benutzt werden. Es gibt inzwischen aber Versuche, mithilfe von KI Angriffe, die durch KI gesteuert werden, abzuwehren.

Eine Malware wie Worm GPT erlaubt es den Kriminellen, unendlich viele Variationen von Codes zu erstellen. (Foto: AdobeStock - 136513074 Rawpixel.com)

Eine Malware wie Worm GPT erlaubt es den Kriminellen, unendlich viele Variationen von Codes zu erstellen. (Foto: AdobeStock - 136513074 Rawpixel.com)

Verschiedene Arten von Attacken verbreiten sich

Derzeit gibt es mehrere Varianten, bei denen Chat GPT an Betrugsversuchen beteiligt ist.

Zu den gängigen Attacken zählen unter anderem:

  • Nutzung generativer KI für das Phishing:

    Die Erstellung individualisierter E-Mails und Nachrichten läuft per Chat GPT schnell, effektiv und unkompliziert ab. Die Erfolgsrate von Social Engineering und Phishing wächst dramatisch, wenn KI eingesetzt wird, darüber sind sich Cyberexperten einig.

    Die E-Mails weisen nicht mehr die typischen sprachlichen und grammatikalischen Fehler auf, sondern sind in fehlerfreier Sprache formuliert. Sie scheinen glaubwürdig zu sein und sogar Kenner der Materie haben es schwer, sie als Malware zu identifizieren.

    Sogar Folgemails werden erstellt und es können komplexe Unterhaltungen geführt werden, die dank der lernenden KI-Chatbots durchaus real erscheinen. Cyberkriminelle haben mit Worm GPT eine maßgeschneiderte Lösung an die Hand bekommen, mit der überzeugende Betrugsmails formuliert werden können.

  • Erstellung von Deepfakes:

    Nicht nur in schriftlicher Form werden Betrugsversuche gestartet, sondern auch Audio-Deepfakes verbreiten sich rasant. Der Enkeltrick, der mittlerweile in allen Nachrichten eine feste Größe zu sein scheint, ist eine dieser perfekten Betrugsmaschen.

    Es geht dabei darum, dass sich der Chatbot als Kind oder Enkelkind einer Person ausgibt und diese um finanzielle Unterstützung in einer Notlage bittet.

    Die KI imitiert bekannte Stimmen sehr genau und braucht dafür nur rund eine halbe Stunde Audiomaterial von den betreffenden Personen.

    Daraus wird ein vollständiges Stimmenprofil erstellt, das sich nur schwer vom Original unterscheiden lässt. Meist findet die KI das nötige Audiomaterial auf Social Media Plattformen. Deepfakes werden zudem per Video und Foto erstellt, was nur wenig Aufwand bedeutet. Vor allem Prominente sind hier betroffen, denn von ihnen findet sich unglaublich viel Material im Internet.

  • Programmierung von Malware:

    Chat GPT ist ebenso wie andere generative KI in der Lage, Programme zu schreiben. Damit entsteht auch Malware, wobei es sich meist um Ransomware handelt.

    Anfänger lernen damit ihre ersten Schritte und erfahren, was es bei der Programmierung von Schadsoftware zu beachten gibt. Generative KI unterstützt Hacker zudem dabei, eine flexible Malware zu erstellen, die bestimmte Elemente ändern oder neue Domänen registrieren kann. KI ist zwar noch nicht so gut wie andere Tools von Cyberkriminellen, doch sie lernt schnell.

  • Experten hatten schon lange Zeit vorhergesagt, dass es einst eine generative KI schaffen würde, Schwachstellen in APIs zu finden. (Foto: AdobeStock - 527970463 Andrey Popov)

    Experten hatten schon lange Zeit vorhergesagt, dass es einst eine generative KI schaffen würde, Schwachstellen in APIs zu finden. (Foto: AdobeStock - 527970463 Andrey Popov)

  • Angriffe auf Unternehmen:

    Experten hatten schon lange Zeit vorhergesagt, dass es einst eine generative KI schaffen würde, Schwachstellen in APIs zu finden.

    Dieser Vorgang braucht normalerweise viel Zeit und Fachwissen, doch mithilfe einer KI könnte der Weg dahin abgekürzt werden. Chat GPT kann dazu gebracht werden, eine Überprüfung von API-Dokumenten vorzunehmen.

    Darauf werden Informationen gesammelt und API-Abfragen gestellt. Darüber hinaus ist Chat GPT in der Lage, Programm-Codes zu übersetzen, wobei der ursprüngliche Code erhalten bleiben würde. Signatur-Scanner würden ins Leere laufen, da der Code trotz der Veränderungen noch funktioniert.

Grundsätzlich ist also davon auszugehen, dass es Hacker dank Chat GPT eher schaffen werden, die üblichen Verteidigungsmechanismen bei privaten und geschäftlich genutzten Netzwerken und Rechnern auszuhebeln. Gleichzeitig steigen die Forderungen, die Sicherheitslandschaft in Unternehmen deutlich zu verbessern, was jedoch nicht mehr ohne kompetente Partner möglich ist. Die zahlreichen Security-Techniken wachsen mit den Herausforderungen. Allerdings hinken sie stets ein wenig hinterher und reagieren nur, während die Cyberkriminellen agieren.

Wichtige technische Schutzmaßnahmen sind beispielsweise:

  • Next-Generation-Firewalls
  • Identitätsmanagement
  • Zugriffsmanagement
  • Cloud Access Security Broker
  • Security-Information- und Event-Management-Systeme

Lassen Sie eine Antwort hier