Forrester: Neue IT-Security-Probleme durch KI

Cyberkriminalität nimmt auch 2024 an Umfang, Intensität und Komplexität zu. Daran haben sich Unternehmen gewöhnt und es überrascht sie nicht. Die Analysten von Forrester sehen im Zusammenhang mit KI jedoch verstärkt Gefahren durch Angriffsvektoren, die bisher wenig beachtet wurden.

Forrester: Neue IT-Security-Probleme durch KIForrester: Neue IT-Security-Probleme durch KIDie Cybersicherheitslage verschlechtert sich seit Jahren. Das sagen nicht nur die Hersteller von IT-Sicherheitsprodukten. Auch das aktuellste »Bundeslagebild Cybercrime« des Bundeskriminalamtes, der aktuellste Ausblick der europäischen Agentur für Cybersecurity (ENISA) oder die »Tech Trends 2024« des Beratungsunternehmens Deloitte und viele andere, unabhängige Berichte bestätigen diese Entwicklung. Noch unklar ist vielfach jedoch, wie sich die Fortschritte im Bereich der Künstlichen Intelligenz auf die Entwicklung im Bereich Cybersecurity im Detail auswirken werden.

Susanne Dehmel, BitkomSusanne Dehmel, BitkomEin ungutes Gefühl haben jedoch viele. Laut einer Bitkom-Umfrage zu KI und Cybersecurity im Oktober 2023 sehen 57 Prozent der Unternehmen vornehmlich Gefahren durch KI. Auf der anderen Seite sind 35 Prozent überzeugt, dass die Verbreitung von generativer KI die IT-Sicherheit verbessern wird, weil sie bei der Abwehr von Cyberangriffen genutzt werden kann. Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung, legt Unternehmen ans Herz: »In Zukunft wird Künstliche Intelligenz in der Standard-Software zur IT-Sicherheit breit verfügbar sein. Die Sicherheitsexpertinnen und -experten in den IT-Abteilungen sollten darauf aber nicht warten und sich heute bereits mit dem KI-Einsatz in der Cybersecurity beschäftigten.«

Denn die Lage ist schon schwer genug: Laut Forrester Security Survey 2023 schätzten 78 Prozent der Security-Entscheider, dass die vertraulichen Daten ihrer Organisation mindestens einmal in den letzten zwölf Monaten potenziell kompromittiert oder verletzt wurden. Das Problem dabei: Ein erfolgreicher Cyberangriff zieht oft weitere nach sich. Schließlich hat sich das Unternehmen als verwundbar – und möglicherwiese auch als zahlungsbereit – erwiesen. Verglichen mit der Forrester Security Survey 2022 zeigten die Daten von 2023 einen Anstieg von 13 Prozentpunkten bei den Befragten, die schätzten, dass ihr Unternehmen in den vorangegangenen zwölf Monaten sechs bis zehn problematische Vorfälle hatte.

Zu den »klassischen« Angriffen per Phishing oder über (ungepatchte) Schwachstellen kommen den Forrester-Analysten zufolge in Zukunft noch neuartige, KI-gestützte Attacken dazu. Im weltweiten »Superwahljahr 2024« gehören dazu auch Fake News, für Unternehmen bedeutsam sind aber vor allem Deepfakes, Manipulationen an KI-Tools und an er KI-Software-Lieferkette. Auf die soll daher näher eingegangen werden

Deepfakes

Ein sehr anschauliches Beispiel, was mit Deepfakes heute möglich ist, schilderte das Schweizer Bundesamt für Cybersicherheit (BACS) erst kürzlich. Es ging dabei um eine Abwandlung des altbekannten CEO-Betrugs. Demnach sollte im Februar ein Mitarbeiter einer Finanzabteilung mit einen Videoanruf, bei dem Deepfake-Technologie verwendet wurde, dazu bewogen werden, 25 Millionen Dollar zu überweisen.

Ein ähnlicher Fall ereignete sich kürzlich bei LastPass, einem Unternehmen, dass Software für Passwort-Manager entwickelt. Auch da gab sich der Angreifer als CEO des Unternehmens aus und wurde KI für einen Deepfake verwendet. In beiden Fällen vereitelte die Aufmerksamkeit der Mitarbeiter den Angriff: Einmal passte die Kleidung nicht zum Stil des Chefs, das andere Mal erwies sich zwar die Fälschung als gut, der gewählte Kommunikationskanal (WhatsApp) als unüblich und daher verdächtig.

Forrester empfiehlt aber, sich nicht auf die Wachsamkeit der Mitarbeiter zu verlassen. Die Bekämpfung von Deepfakes erfordere:

  • den Einsatz von Algorithmen, die Manipulationen an Bildern und Audio erkennen (z. B. Übergänge in der Tonhöhe, die ein Mensch nicht erzeugen kann oder wiederholtes Auftreten derselben Videoartefakte),
  • die Kontrolle über die Medienquelle (z. B. Authentifizierungs-Apps, die unkontrollierte Eingaben wie manipulierte Treiber von Handykameras und Mikrofonen nicht zulassen),
  • das Hinzufügen zusätzlicher Verifizierungs- und Schutzschichten zu Gesichts- und Stimm-Biometrie, einschließlich Verhaltensbiometrie, Geräte-ID-Fingerabdruck/Reputation, Bot-Management und -Erkennung, digitalem Betrugsmanagement und passwortloser Authentifizierung.

Antworten von KI-Tools

Prompt-Engineering, Prompt-Injektion und das Abfließen vertraulicher Daten sieht Forrester 2024 mit der fortschreitenden Adaption von KI (insbesondere Generativer KI) als weiteres, hochgradiges Risiko. Konkret nennen die Analysten manipulierte Antworten von Anwendungen wie Microsoft Copilot, Einstein GPT von Salesforce, Claude von Anthropic oder von intern entwickelten Anwendungen.

Mit GenAI werde es jedermann möglich in natürlicher Sprache mit Computern zu kommunizieren. Das Verhaltene eines Computers zu ändern, erfordert keine speziellen Fähigkeiten mehr. »Dies öffnet eine Büchse der Pandora hinsichtlich der Bedrohungsfläche für die meisten Unternehmen. Jetzt geht es darum, Computer davon zu überzeugen, dass das, was sie tun, keine Richtlinien und Schutzmaßnahmen verletzt«, schreibt Forrester.

Versuche einer Prompt-Injektion ließen sich bei Anwendungen mit KI-Unterstützung nur auf der Ebene des Prompts unterbinden. Dazu müssten Unternehmen aber, wenn sie zum Beispiel Microsoft Copilot oder AzureAI verwenden, sicherstellen, dass sie die richtigen Lizenzen nutzen, um Logs mit Informationen zu Benutzer-Prompts und dem, was zurückgegeben wurde, zu erhalten.

Außerdem verweisen die Analysten auf neue Technologien zur Inhaltsanalyse und -filterung auf dieser Ebene durchzuführen, wie PrivateAI (eine Datenschutzschicht für ChatGPT), Prompt Security oder ProtectAI. Zudem gehen sie davon aus, dass Anbieter von Produkten für DLP (Data Loss Prevention) versuchen werden, sich neu zu positionieren und Kontrollen auch in diesem Bereich anzubieten. Varonis erfüllt mit Varonis for Microsoft Copilot die Prognose bereits.

Die KI-Software-Lieferkette

71 Prozent der Firmen haben laut Forrester begonnen, mit GenAI zu experimentieren. Ein beliebter Ausgangspunkt ist es dabei, ein vortrainiertes Modell zu verwenden, das dann auf die eigenen Anforderungen zugeschnitten wird. Die Integrität von KI-Modellen sehen die Forrester-Analysten nicht unmittelbar in großer Gefahr. »Stattdessen werden sich böswillige Akteure darauf konzentrieren, die Software-Lieferkette anzugreifen und auszunutzen, die verwendet wird, um KI-gestützte Anwendungen und Systeme zu entwickeln, einzusetzen und zu betreiben«, lautet ihre Prognose.

Open-Source-Modelle und -Frameworks, wie sie auf Hugging Face und GitHub zu finden sind, böten den Vorteil einer community-getriebenen Entwicklung, ermöglichten eine schnelle Funktionserweiterung und Transparenz von Sicherheitskontrollen. Gleichzeitig seien sie aber Angriffsziele der nächsten Generation und Ziel von Angreifern, die Software-Schwachstellen ausnutzen wollen. Als Beispiel nennt Forrester einen Angriff auf ChatGPT über eine Schwachstelle in der Open-Source-Bibliothek Redis im März 2023. Den hat OpenAi ausführlich aufbereitet.

Vorschriften oder restriktive Richtlinien alleine könnten dieses Problem nicht lösen. Es gelte vielmehr, alle Beteiligten zusammenzubringen um die derzeitige Nutzung von KI und künftige KI-Integrationspläne zu verstehen und Lücken zu identifizieren. »Fordern Sie beim Kauf von Software-Dienstleistungen oder Produkten eine Software-Bill of Materials (SBOMs) und für Modelle eine Machine Learning-Bill of Materials (ML-BOM) an«, empfiehlt Forrester.

Während der Entwicklungs-, Bereitstellungs- und Betriebsphase sollten sich Firmen zudem auf die Richtlinien zur sicheren Entwicklung von KI-Systemen (PDF), die zahlreiche europäische Behörden in Zusammenarbeit mit ihren Pendants aus Australien, den USA und Kanada entwickelt haben.