Melanie Hahner, März 2024

Ransomware und AI: Hype oder Bedrohung?

Künstliche Intelligenz wird „mit großer Sicherheit“ in den nächsten zwei Jahren das Volumen und die Auswirkungen von Cyberangriffen erhöhen, so ein Bericht der britischen Regierung. Seit Tools wie ChatGPT Anfang 2023 massenhaft populär wurden, ist AI ständig in den Schlagzeilen. Aber es ist nicht nur Hype: Verschiedene Arten von Bedrohungsakteuren – staatliche und nichtstaatliche, erfahrene und weniger erfahrene – nutzen AI, um bösartige Aktivitäten durchzuführen. Lassen Sie uns erkunden, wie Cyberkriminelle AI nutzen und vor allem, was wir dagegen tun können.

Wie Ransomware-Kriminelle AI einsetzen


Ransomware ist bösartige Software, die es Hackern ermöglicht, in das Netzwerk eines Unternehmens einzudringen. Sie verschlüsseln die Daten, fordern Lösegeld für deren Freigabe und leaken sie oft im Darknet. Diese Angriffe können jede Art von Organisation betreffen, und der durchschnittliche Datendiebstahl kostet 4,45 Millionen Dollar.

Nun verstärkt AI Ransomware-Kampagnen, macht sie zielgerichteter, schwerer zu erkennen und schwieriger zu bekämpfen.

Hier ist eine Übersicht darüber, wie Kriminelle AI-Technologie nutzen, um Angriffe zu starten:

  • Ransomware-as-a Service Plattformen

Ransomware as a Service (RaaS) Plattformen bieten ein Abo-Modell, das angehenden Cyberkriminellen ermöglicht, einen Ransomware-Angriff durchzuführen, selbst ohne technische Fähigkeiten.

Mit AI-Integration sind RaaS-Plattformen intelligenter geworden, automatisieren die Auswahl von Zielen und passen Angriffe an, um ihre Trefferquote zu erhöhen. Algorithmen analysieren umfangreiche Datensätze, um verwundbare Systeme und lukrative Ziele zu identifizieren, was die Bereitstellung von Angriffen erleichtert.

  • Fortgeschrittene Ausweichtechniken

AI hilft Malware, der Entdeckung zu entgehen. Ein primäres Beispiel ist polymorphe Malware, die AI verwendet, um ihren Code zu modifizieren. Die ständige Veränderung macht sie für viele Antivirenprogramme fast unmöglich, sie zu entdecken.

Darüber hinaus kann AI die Verteidigungsstrategien von Antivirensoftware analysieren. Sie ermittelt, wie das System Malware erkennt, und passt ihr Verhalten an, um sich in die normale Netzwerkaktivität einzufügen. Dies erschwert die Erkennung, sodass Malware für längere Zeiträume unentdeckt bleiben und mehr Schaden anrichten kann.

  • Raffinierte Phishing-Kampagnen

Generative AI erleichtert es Kriminellen, realistisch klingende Phishing-E-Mails in perfektem Englisch (oder einer anderen Sprache) zu erstellen.

ChatGPT und ähnliche Tools haben Einschränkungen, um zu verhindern, dass sie schädlich eingesetzt werden. Dennoch haben Kriminelle ihre eigenen großen Sprachmodelle (LLMs) wie WormGPT und FraudGPT entwickelt, die dazu verwendet werden können, betrügerische E-Mails zu erstellen und bösartigen Code zu erstellen.

  • Ausnutzen von Zero-Day-Schwachstellen

Die Fähigkeit von AI, Informationen schnell zu verarbeiten und zu analysieren, ist besonders besorgniserregend, wenn es um Zero-Day-Schwachstellen geht – zuvor unbekannte Softwarefehler. Cyberkriminelle verwenden AI, um kontinuierlich Software und Systeme zu scannen und Schwachstellen schneller zu identifizieren als ein Mensch.

Hacker nutzen dann diese Schwachstellen in automatisierten Angriffen aus, oft bevor Entwickler die Möglichkeit haben Patches zu veröffentlichen, was Systeme gefährdet und einem Risiko aussetzt.

  • Dynamische Lösegeldforderungen

Sie wissen bestimmt, dass ein Uber mehr kostet, wenn die Nachfrage höher ist, oder eine Fluggesellschaft die Preise erhöhen könnte, wenn ein Flug kurz vor dem Ausverkauf steht? Dies wird als dynamisches Pricing bezeichnet, das von AI-Algorithmen unterstützt wird. Und jetzt beginnen auch Ransomware-Kriminelle, diese Technologie zu nutzen.

AI-gesteuerte Ransomware kann den Wert verschlüsselter Daten bewerten und die Lösegeldforderungen flexibel anpassen. Diese intelligente Preisstrategie bedeutet, dass Unternehmen Forderungen erhalten, die eng mit dem wahrgenommenen Wert ihrer Daten und/oder der Zahlungsfähigkeit des Opfers übereinstimmen.

Dieser maßgeschneiderte Ansatz erhöht die Wahrscheinlichkeit der Zahlung, und er ist automatisiert, was es Kriminellen erleichtert, Angriffe durchzuführen.

  • Bot-basierte Verhandlungen

AI kann auch den Lösegeldverhandlungsprozess automatisieren. Bisher würde ein menschlicher Operator mit dem Opfer kommunizieren und die Lösegeldzahlung verhandeln.

Mit AI können Angreifer den Verhandlungsprozess automatisieren und so ihre Operationen skalieren, ohne Raum für Gnade zu lassen.

Die Entwicklung von Ransomware und AI

Hacker nutzen AI, maschinelles Lernen und andere Technologien, um immer raffiniertere Angriffe durchzuführen.

Das Klischee von einem Hacker in einem dunklen Raum, der allein arbeitet, spiegelt nicht mehr die Realität wider. Heutzutage ist Hacking ein Milliarden-Dollar-Unternehmen. Ransomware-Banden haben institutionelle Hierarchien, Forschungs- und Entwicklungsbudgets und Technologien, die jeden Tag intelligenter werden.

Das wirft die Frage auf, wie sich Unternehmen überhaupt schützen können.

Die gute Nachricht ist, AI kann auch zur Verteidigung eingesetzt werden.

Wie man sich gegen Ransomware mit AI schützt

Forschungen legen nahe, dass Unternehmen derzeit nicht genug tun, um sich vor AI-unterstützter Ransomware zu schützen. Laut einer McKinsey-Studie erkennen 53% der Organisationen AI als Risiko für die Cybersicherheit an, aber nur 38% versuchen aktiv, dieses Risiko zu mindern.

Es ist an der Zeit zu handeln. Hier erfahren Sie, wie Sie die Verteidigung Ihrer Organisation gegen AI-verstärkte Ransomware verbessern können:

  • Sicherheitsschulung unter Berücksichtigung von AI anpassen

Moderne Sicherheitsschulungen sollten AI-unterstützte Bedrohungen wie Deepfakes abdecken, um sicherzustellen, dass Mitarbeiter wissen, worauf sie achten müssen. Auf diese Weise ist es unwahrscheinlicher, dass sie auf Phishing-Betrug hereinfallen, wie raffiniert er auch sein mag.

  • Übernehmen Sie die Architektur des Zero Trust

Zero Trust bedeutet, dass sich jeder Benutzer und jedes Gerät authentifizieren muss, egal ob intern oder extern. Jede Zugriffsanfrage zu überprüfen, erschwert es nicht autorisierten Benutzern, in das Netzwerk einzudringen.

  • Nutzen Sie AI für proaktive Verteidigung

Unternehmen sollten AI aktiv in ihre Cybersicherheitsstrategie integrieren. Mit anderen Worten: Bekämpfen Sie Feuer mit Feuer.

AI kann in Echtzeit große Datenmengen analysieren, verdächtige Aktivitäten identifizieren und darauf schneller reagieren, als es ein Mensch könnte. Durch die Verwendung von AI-basierten Analyse- und Bedrohungserkennungstools kann ein Unternehmen sich proaktiv gegen potenzielle Bedrohungen schützen.

ProLion CryptoSpike analysiert den Datenzugriff in Echtzeit, um Ransomware-Angriffe zu erkennen und zu blockieren. Wenn es ungewöhnliche Aktivitäten in Ihrem Dateisystem identifiziert, blockiert es den verdächtigen Benutzer, verhindert den Angriff und löst einen Alarm aus. Im unwahrscheinlichen Fall, dass es einem Angreifer gelingt, durchzukommen, erleichtert die Funktion Single File Restore von ProLion das Wiederherstellen der benötigten Dateien.

Schützen Sie Ihre Organisation im Zeitalter der AI

Während AI neue Herausforderungen in Form von raffinierten Ransomware-Angriffen darstellt, bietet sie auch leistungsstarke Werkzeuge für die Verteidigung. Robuster Ransomware-Schutz und solide Cybersicherheitshygiene sind die effektivsten Möglichkeiten, um Ihre Organisation im Zeitalter der AI zu schützen.

Ist Ihre Organisation auf zunehmend raffinierte Cyberangriffe vorbereitet? Machen Sie den Resilienz-Check für Cyberangriffe, um es herauszufinden, oder lesen Sie unser Whitepaper zu den besten Strategien für Ransomware-Schutz.