Anzeige
Anzeige

AI Security Report 2025: KI verschärft Cyber-Bedrohungen

AI Security Report 2025: KI verschärft Cyber-BedrohungenEin neuer Bericht von Check Point zeigt, wie Cyberkriminelle künstliche Intelligenz immer gezielter einsetzen. Von Darknet-KI-Diensten über automatisierte Malware-Erstellung bis hin zu Deepfake-Angriffen: Die Bedrohungslage verschärft sich durch die Nutzung generativer KI-Modelle erheblich.

Die Nutzung künstlicher Intelligenz (KI) durch Cyberkriminelle nimmt laut AI Security Report von Check Point rasant zu. Hacker verwenden spezialisierte KI-Modelle, sogenannte Hacker-GPTs, zur Erstellung von Schadsoftware und zur Automatisierung von Angriffen. Besonders besorgniserregend: Kriminelle bieten KI-as-a-Service im Darknet an, wodurch selbst weniger versierte Täter Zugriff auf hochentwickelte Angriffswerkzeuge erhalten.

Anzeige

KI-basierte Cyberangriffe: Eine neue Dimension

KI-gestützte Angriffe sind nicht mehr nur theoretische Szenarien. Hackergruppen wie FunkSec setzen bereits in mindestens 20 Prozent ihrer Aktivitäten KI-Tools ein, um Schadsoftware zu erstellen und gestohlene Daten effizient auszuwerten. Auf Dark-Web-Marktplätzen bieten Anbieter wie GoMailPro automatisierte Phishing-Dienste an, die mit generativen Modellen wie ChatGPT verknüpft sind. Kostenpunkt: 500 US-Dollar monatlich.

Ein weiterer Trend ist die Kommerzialisierung von KI-Konten. Über Phishing und Credential Stuffing erlangte Zugangsdaten zu KI-Diensten wie ChatGPT werden im Darknet gehandelt. Diese Konten dienen dazu, anonym bösartige Inhalte zu generieren und Sicherheitsbeschränkungen zu umgehen.

Deepfakes und KI-gestütztes Social Engineering

Auch Social Engineering erfährt durch KI einen gefährlichen Wandel. Deepfakes imitieren täuschend echt Stimmen und Gesichter, was die Gefahr von Business Email Compromise (BEC) und Identitätsdiebstahl deutlich erhöht. Inzwischen können KI-Modelle Text, Audio und bald auch Video in Echtzeit generieren. Diese Entwicklung macht die Abwehr solcher Angriffe zunehmend schwieriger.

Manipulation durch KI und Data Poisoning

Die gezielte Manipulation von KI-Modellen nimmt zu. Ein Beispiel ist das russische Desinformationsnetzwerk Pravda, das 2024 etwa 3,6 Millionen Artikel produzierte, um westliche KI-Systeme gezielt mit falschen Informationen zu füttern. Rund 33 Prozent der Anfragen an bekannte Chatbots gaben infolge dieser Manipulation falsche Informationen wieder. Diese Art von Data Poisoning gefährdet die Integrität moderner KI-Anwendungen massiv.

Hacker-GPTs und Dark LLMs: KI als Cyberwaffe

Ein neuer Trend sind sogenannte Dark LLMs – modifizierte Sprachmodelle wie HackerGPT Lite oder FraudGPT. Diese Modelle wurden speziell darauf trainiert, Sicherheitskontrollen zu umgehen, und werden in Foren des Darknets als Hacking-Tools angeboten. Die Erstellung solcher Modelle gelingt häufig durch Jailbreaking ethischer Systeme oder Modifikationen von Open-Source-KI wie DeepSeek.

Sicherheitsmaßnahmen: Präventive Strategien gefragt

Angesichts der zunehmenden Nutzung von KI in Cyberangriffen müssen IT-Sicherheitsexperten ihre Strategien anpassen:

  1. KI-gestützte Bedrohungserkennung: Systeme zur Identifikation generativer Angriffe einsetzen.
  2. Überwachung von Darknet-Aktivitäten: Früherkennung von Hacker-GPTs und RaaS-Diensten.
  3. Erweiterte Identitätsüberprüfung: Mechanismen zur Erkennung von Deepfakes integrieren.
  4. Datenvalidierung bei LLMs: Modelle auf Manipulationen und vergiftete Trainingsdaten prüfen.
  5. Cyber-Resilienz erhöhen: Proaktive Sicherheitsmaßnahmen gegen automatisierte Angriffe entwickeln.

KI als Risiko und Herausforderung

Der Check-Point-Report zeigt, dass KI längst ein integraler Bestandteil von Cyberangriffen ist. Die Kombination aus hoher Automatisierung und geringem Aufwand macht KI-basierte Angriffe zur wachsenden Bedrohung. Um sich wirksam zu schützen, müssen Unternehmen KI-Technologien nicht nur zur Abwehr, sondern auch zur proaktiven Erkennung von Angriffen nutzen. Sicherheitsteams sollten die Entwicklungen im Darknet aufmerksam verfolgen und sich auf eine neue Ära von Cyberbedrohungen vorbereiten.