Für die »Story of the Year« haben Sicherheitsexperten die Auswirkungen von künstlicher Intelligenz (KI) auf die Cybersicherheitslandschaft analysiert [1]. Im Fokus steht ihr Einsatz durch Cyberkriminelle, aber auch wie man sie im Bereich Cybersicherheit einsetzen kann. Die Analyse ist Teil des Kaspersky Security Bulletin, einer jährlichen Reihe von Vorhersagen und analytischen Reports im Bereich der Cybersicherheit.
Egal, ob Bildbearbeitung oder das Schreiben von Essays – künstliche Intelligenz hat sich rasend schnell im vergangenen Jahr 2023 entwickelt und verbreitet. Allerdings ist auch die Hälfte (47 Prozent) der Bundesbürger in Deutschland über den Einzug von KI ins alltägliche Leben besorgt [2]. Eng verknüpft mit KI-gestützten Large Language Models (LLMs) ist die Frage nach Cybersicherheit und Datenschutz. Die Experten stellen daher ihre Prognosen im Bereich künstliche Intelligenz für das Jahr 2024 vor.
- Komplexere Schwachstellen: Textbefehlen folgende LLMs werden zunehmend in Verbraucherprodukte integriert. Hierdurch werden neue komplexe Schwachstellen an der Schnittstelle von (probabilistischer) generativer KI und traditionellen (deterministischen) Technologie entstehen. Infolgedessen wird die Angriffsfläche größer. Entwickler müssen daher neue Sicherheitsmaßnahmen schaffen, indem sie beispielsweise Nutzer-Zustimmungen zu von LLM-Agenten eingeleiteten Aktionen fordern.
- Umfassender KI-Assistent für Cybersicherheitsexperten: Red-Team-Mitglieder und Sicherheitsexperten setzen das Potenzial generativer KI zunehmend für innovative Cybersicherheitstools ein. Dies könnte zur Entwicklung von Assistenten führen, die LLM oder Machine Learning (ML) einsetzen, um Red-Team-Aufgaben zu automatisieren.
- Neurale Netzwerke zur Bildgenerierung für Scams: In diesem Jahr könnten Betrüger ihre Taktiken ausweiten, indem sie neurale Netzwerke und KI-Tools nutzen, um überzeugendere Betrugsinhalte zu erstellen.
- KI wird die Cybersicherheitswelt nicht grundlegend verändern: Trotz des KI-Trends erwarten die Experten keine grundlegende Veränderung der Bedrohungslandschaft in naher Zukunft. Genauso wie Cyberkriminelle werden auch IT-Sicherheitsverantwortliche dieselben oder fortschrittlichere generative KI-Tools einsetzen, um die Sicherheit von Software und Netzwerken zu verbessern.
- Mehr Initiativen und Regularien: Synthetische (künstlich erzeugte) Inhalte werden gekennzeichnet werden müssen, so dass weitere Regulierungen und Investitionen in Erkennungstechnologien notwendig sind. Entwickler und Wissenschaftler werden Methoden entwickeln, um synthetische Medien durch Wasserzeichen leichter identifizierbar und rückverfolgbar zu machen.
»Künstliche Intelligenz in der Cybersicherheit ist ein zweischneidiges Schwert. Ihre Anpassungsfähigkeit stärkt zwar die Cyberabwehr und bietet einen proaktiven Schutz gegen sich weiterentwickelnde Bedrohungen. Allerdings birgt dieselbe Dynamik auch Risiken, denn Cyberkriminelle nutzen sie für raffiniertere Angriffe. Die richtige Balance zu finden, die einen verantwortungsvollen Einsatz gewährleistet, ohne übermäßig sensible Daten weiterzugeben, ist entscheidend, um unseren digitalen Raum zu schützen«, kommentiert Vladislav Tushkanov, Sicherheitsexperte bei Kaspersky.