Wie sich Unternehmen vorbereiten und schützen können – KI am Arbeitsplatz

KI kann sowohl für den Datenschutz als auch von Cyberkriminellen für den Datenmissbrauch eingesetzt werden. Unternehmen müssen zur effektiven Verteidigung eine Datenrisikobewertung durchführen, den Zugriff auf die Daten reduzieren und die Daten sowie den Datenfluss permanent überwachen.

Ohne Zweifel: Das derzeit heißeste Thema in der IT ist künstliche Intelligenz. Blockchain hat einige Schwachstellen, das Metaverse spielt in unserem Multiversum (noch) keine Rolle und selbst Big Data wirkt im Vergleich eher klein. Jeder, der im Bereich der Cybersecurity arbeitet, wird wohl derzeit fast täglich nach KI gefragt und was sie für die Datensicherheit bedeutet.

Wie die meisten neuen Technologien birgt auch die generative KI, also künstliche Intelligenz, die in der Lage ist, Texte, Bilder oder andere Medien anhand generativer Modelle zu erzeugen, sowohl Chancen als auch Risiken. KI steigert bereits jetzt die Produktivität, indem sie als virtueller Assistent für Mitarbeitende fungiert. Aus der Risikoperspektive sind dabei allerdings zwei Dimensionen zu berücksichtigen: selbstverursachte und externe Risiken.

Ein selbstverursachtes Risiko entsteht, wenn die Mitarbeitenden eines Unternehmens beginnen, KI zu verwenden, um Inhalte zu erstellen, entweder über eine Abfrage oder im aktuellen Kontext ihrer Tätigkeit. Solange die Daten nicht gesperrt sind, gibt es wenig, was KI daran hindert, den eigenen Datenbestand zu analysieren und die geheime Roadmap, Finanzinformationen oder andere wertvolle Daten an die falschen Leute zu verraten.

Um dieses Risiko zu reduzieren, empfiehlt Microsoft, sensitive (kritische) Daten zu schützen, bevor man den neuen KI-Assistenten Copilot einführt [1]. In einer Erklärung auf der Microsoft-Website heißt es: »Es gibt einige Möglichkeiten, wie Sie sich vorbereiten können… Stellen Sie zum Beispiel sicher, dass Ihr Unternehmen über die richtigen Zugriffskontrollen und -richtlinien für Informationen verfügt.« Leider erweist es sich als weitaus schwieriger, die richtigen Zugriffskontrollen und -richtlinien einzurichten, als den meisten Unternehmen bewusst ist. Dies wird wahrscheinlich noch schwieriger werden, da die KI die Daten, die wir erstellen und schützen müssen, weiter erhöht.

Ohne die richtigen Kontrollmechanismen wird KI nicht wissen, wer was sehen soll. Unternehmen sind dann genauso ungeschützt, wie sie es sind, wenn sie Suchplattformen in Unternehmen aktivieren, bevor sie den Datenzugriff auf das nötige Minimum beschränkt haben – nur wesentlich schlimmer. Durch die Nutzung von KI-Assistenten müssen die Mitarbeitenden nicht einmal mehr nach Inhalten suchen, die sie stehlen oder heimlich ansehen wollen – die KI wird sie für sie freilegen.

Wie Angreifer die KI nutzen. Das externe Risiko wird weiter zunehmen, wenn Angreifer lernen, KI zu nutzen. Leider haben sie bereits damit begonnen. WormGPT und FraudGPT verwenden große generative Sprachmodelle (LLMs), um Angreifern zu helfen, überzeugende Phishing-E-Mails zu erstellen und sie in andere Sprachen zu übersetzen [2] [3].

Cyberkriminelle haben bereits damit angefangen, gefälschte Datensätze auf der Grundlage früherer Sicherheitsverletzungen und anderer verfügbarer Daten zu erstellen. Sie geben vor, dass sie Daten von Unternehmen gestohlen haben, um ihren Ruf als erfolgreiche Angreifer zu stärken oder diese Unternehmen zur Zahlung eines Lösegelds zu bewegen. Generative KI erhöht auf diese Weise das Datenvolumen und erschwert die Unterscheidung zwischen einer echten und einer vorgetäuschten Sicherheitsverletzung.

Sicherheitsforscher konnten auch schon mithilfe von künstlicher Intelligenz eine effektive Malware entwickeln. Es ist davon auszugehen, dass KI-generierte Malware bald in freier Wildbahn auftaucht. Leider wird der Einsatz von künstlicher Intelligenz die Einstiegshürden für alle Arten von Cyberkriminellen weiter senken.

Dies sind nur einige der Risiken, die KI mit sich bringt. Bei der Geschwindigkeit, mit der diese Technologie voranschreitet, werden noch viele weitere hinzukommen. Schon bald könnte die generative KI ganz von alleine neue Cyberbedrohungen erfinden.

KI kann auch Security-Teams stärken. Glücklicherweise bietet die KI auch enorme Chancen für die Cybersicherheit. So ist KI hervorragend im Erkennen von Mustern. Durch die Analyse der richtigen Informationen können KI und maschinelles Lernen Erkenntnisse über Schwachstellen und unerwünschte Verhaltensweisen liefern. In Verbindung mit der Automatisierung wird KI in der Lage sein, Routineaufgaben zu übernehmen, so dass Menschen mehr Zeit haben, sich um Aufgaben zu kümmern, die ihre Aufmerksamkeit erfordern.

Wenn menschliches Eingreifen erforderlich ist, wird KI den Cyberverteidigern helfen, effizienter zu arbeiten, indem sie Erkenntnisse liefert und die Ermittlungen beschleunigt. Diese Anwendungen von KI stehen unmittelbar bevor und viele weitere sind in Planung.

Darüber hinaus könnte generative KI zum Beispiel Unmengen synthetischer Daten erzeugen, die Angreifern als Köder (Honeypot) dienen. Security-Teams sind dadurch in der Lage, ihre Abwehrmaßnahmen zu überprüfen und Angreifer auf frischer Tat zu ertappen.

Wie können sich Unternehmen auf KI vorbereiten? Da sich die Technologie rasant entwickelt, ist es jetzt an der Zeit, sich auf die zunehmende Bedrohungslage vorzubereiten. Mit diesen drei Schritten schafft man eine solide Basis:

Führen Sie eine Datenrisikobewertung durch, um sensitive und allzu leicht zugängliche Daten zu identifizieren, bevor sie von »freundlicher« (also legitimer Assistenten) oder »unfreundlicher« (von Cyberkriminellen genutzte) KI freigelegt werden. Ihre Daten machen die KI wertvoll und genau das müssen Sie schützen. Unternehmen wissen in aller Regel nicht genug darüber, wo ihre wichtigen Daten gespeichert sind, wer sie nutzen kann und sie tatsächlich nutzt. Ein Data Risk Assessment gibt hier wertvolle Aufschlüsse.

Reduzieren sie den Zugriff auf Daten, insbesondere auf sensitive und kritische. Das Ergebnis der allermeisten Datenrisikobewertungen ist, dass sensitive Daten für viel zu viele Mitarbeitende und Partner zugänglich sind, an ungeeigneten Orten gespeichert wurden und auch die Nutzung der Daten nicht immer den Erwartungen entspricht. Gemäß dem Least-Privilege-Ansatz sollte jeder nur den Zugriff haben, den er auch tatsächlich für seine Arbeit benötigt. Nicht umsonst empfiehlt Microsoft, KI nicht ohne die richtigen Zugriffskontrollen und Richtlinien zu aktivieren.

Überwachen Sie Ihre Daten. Wir wissen zwar nicht, welche neuen KI-Techniken Angreifer einsetzen werden, aber wir wissen, wofür sie sie nutzen: um Ihre Daten zu stehlen. Es ist von größter Wichtigkeit zu erkennen, wie Menschen und Anwendungen Daten nutzen, um auf dieser Grundlage auffälliges Verhalten zu identifizieren. Kreditkartenunternehmen und Banken überwachen seit Jahrzehnten Finanztransaktionen, um Finanzkriminalität aufzudecken. An diesem Beispiel sollten sich Sicherheitsverantwortliche orientieren und die Dateiaktivitäten beobachten, um so auffälliges beziehungsweise kriminelles Verhalten zu erkennen (und zu stoppen).

Während die meisten gehypten Technologien ihren Höhepunkt erreichen und dann obsolet werden, wird KI den Hype mit Sicherheit überdauern. Und wenn die Daten nicht adäquat geschützt sind, könnte KI – ob freundlich oder nicht – Datenverletzungen wahrscheinlicher machen. Daten lassen sich nicht unkompromittieren. Sind sie einmal in die falschen Hände gelangt, ist ein bleibender Schaden entstanden. Daran kann nicht einmal künstliche Intelligenz etwas ändern. Umso wichtiger ist es, die Daten ins Zentrum der Sicherheitsstrategie zu stellen, damit die KI für und nicht gegen einen arbeitet.

 


Sebastian Mehle,
Account Manager bei
Varonis Systems
www.varonis.com/de

 

[1] https://learn.microsoft.com/en-us/DeployOffice/privacy/microsoft-365-copilot
[2] https://slashnext.com/blog/wormgpt-the-generative-ai-tool-cybercriminals-are-using-to-launch-business-email-compromise-attacks/
[3] https://hackernoon.com/what-is-fraudgpt

 

Illustration: © Miroslav Nemecek – AI generated | Dreamstime.com