
foto freepik ki
Große Sprachmodelle und die Frage der Data Security – Sicherheitsfragen rund um LLMs.
Angesichts der rasanten KI-Entwicklung wird immer deutlicher, dass die grundlegenden Leitplanken, Plausibilitätsprüfungen und prompt-basierten Sicherheitsmaßnahmen, die derzeit gelten, durchlässig und unzureichend sind. Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln.
VAST Data, Anbieter einer Datenplattform für KI-Workloads erläutert Sicherheitsfragen rund um LLMs:
Moderne generative KI-Workflows verändern die Art und Weise, wie Daten gespeichert und abgerufen werden, grundlegend. Im Gegensatz zur herkömmlichen Datenspeicherung, bei der Metadaten und Zugriffskontrollen eng mit den Daten verknüpft bleiben, fragmentiert und verteilt die KI-Pipeline Daten auf mehrere Komponenten: das Sprachmodell selbst, Eingabeaufforderungen, eingebettete Datenbanken, Vektorspeicher und generierte Ausgaben.
Diese architektonische Verschiebung bedeutet, dass herkömmliche Sicherheitskontrollen wie Active-Directory-Gruppen und Access Control Lists (ACLs), also Zugriffssteuerungslisten, unwirksam sind. Dies liegt daran, dass diese Kontrollen nicht durch den KI-Transformationsprozess weitergegeben werden. Es ist ein neues Sicherheitsparadigma erforderlich, um Daten in diesem verteilten KI-Ökosystem zu schützen.
Die Sicherheitsherausforderung der generativen KI
Chatbots, die auf Large Language Models (LLMs) basieren, sind darauf ausgelegt, hilfreich zu sein für Benutzer. Genau dies macht LLMs jedoch anfällig für Tricks und Lügen, die zur Offenlegung sensibler Informationen oder zur Umgehung von Sicherheitskontrollen führen können. Social-Engineering-KI hat sich als neuartiger und besorgniserregender Angriffsvektor herausgestellt. Im Gegensatz zu herkömmlichen Bedrohungen können KI-Systeme durch sorgfältig ausgearbeitete Eingabeaufforderungen für den Zugriff auf oder die Offenlegung geschützter Daten ausgenutzt werden.
Die Sicherheitsherausforderungen, die sich durch generative KI ergeben, sind vielfältig und komplex. Im Kern sind diese Systeme nicht von Natur aus sicher, denn die Modelle selbst können versehentlich sensible Trainingsdaten speichern und offenlegen. Dieses Risiko wird durch die Tatsache verschärft, dass herkömmliche Sicherheitsmaßnahmen und Zugriffskontrollen, auf die sich Unternehmen verlassen, nicht eindeutig auf KI-Interaktionen anwendbar sind.
Besonders besorgniserregend ist das Aufkommen von Prompt-Injection-Angriffen, bei denen sorgfältig gestaltete Eingaben KI-Systeme so manipulieren können, dass sie geschützte Informationen preisgeben. Bestehende Sicherheitstools und -rahmen wurden nicht mit Blick auf KI-spezifische Schwachstellen entwickelt, sodass gefährliche Lücken in unserer Verteidigung entstehen. Da sich die KI-Einführung beschleunigt, benötigen Unternehmen dringend neue Ansätze und Rahmenbedingungen für die Bewertung und das Management dieser einzigartigen Sicherheitsrisiken.
Obwohl Sicherheitsexperten versucht haben, prompt-basierte Sicherheitsmaßnahmen zu implementieren, haben sich diese Lösungen als unzureichend erwiesen. Zu den gängigen Ansätzen gehören das Hinzufügen von Sicherheitsanweisungen zu Systemaufforderungen, die Implementierung von Schlüsselwortfiltern und Ausgabescans und die Verwendung von Eingabeaufforderungs-Templates und Validierung. Ebenso gängig sind die Überwachung auf verdächtige Interaktionsmuster sowie Ratenbegrenzung und Zugriffskontrollen.
Diese Maßnahmen können jedoch oft durch kreative Eingabeaufforderungsentwicklung, Kontextmanipulation oder durch Ausnutzung der Tendenz der KI, hilfreich zu sein, umgangen werden. So gibt es bereits einige Beispiele dafür, wie Menschen die prompt-basierten Sicherheitsmaßnahmen von ChatGPT umgehen. Dies ist ein Problem, dass alle generativen KI-Workloads betrifft, ChatGPT ist derzeit das beliebteste und das größte Ziel. Folglich sind robustere, systematischere Ansätze für die KI-Sicherheit erforderlich, die KI-Systeme mit der gleichen Sicherheitsstrenge behandeln wie menschliche Benutzer.
Lösungsansätze und Beispielszenarien
Wenn es um den Schutz von Daten in generativen KI-Workloads geht, gilt es zu einer grundlegenden Wahrheit zurückkehren: Der einzige garantierte Weg, Daten vor KI-Systemen zu schützen, ist derselbe Ansatz, der dazu dient, Daten vor Menschen zu schützen. Genauso wie Unternehmen den menschlichen Zugriff auf sensible Informationen durch robuste Authentifizierungs- und Autorisierungsmechanismen sorgfältig kontrollieren, müssen sie nun entsprechende Schutzmaßnahmen auf die KI-Systeme anwenden, die mit ihren Daten interagieren. Dies bedeutet, sicherzustellen, dass Benutzer gemäß den Zero-Trust-Prinzipien über den entsprechenden Zugriff auf Daten verfügen. Ebenso ist es erforderlich, Sicherheitskontrollen auf den Ebenen LLM, Einbettung, Vektorspeicher und Datenbank zu implementieren sowie alle Datenzugriffe zu protokollieren und zu prüfen.
Selbst wenn Unternehmen ein Allzweck-LLM verwenden, können die Daten, mit denen es interagiert, sensibel sein und denselben Schutz erfordern. Die folgenden fiktiven Beispiele verdeutlichen die Notwendigkeit von Sicherheitskontrollen auf jeder Ebene der KI-Pipeline:
Ein Sicherheitsingenieur hat möglicherweise Zugriff auf ein LLM, das auf Sicherheitsdaten abgestimmt ist, und die generative KI-RAG-Pipeline hat Zugriff auf weitere Daten. Die Sicherheitskontrollen müssen auf jeder Ebene angewendet werden.
Ein Marketingmanager wiederum hat vielleicht Zugriff auf ein LLM, das auf Marketingdaten abgestimmt ist, und die generative KI-RAG-Pipeline hat Zugriff auf weitere Daten. Die Sicherheitskontrollen müssen auch in diesem Fall auf jeder Ebene angewendet werden.
Diese Personen haben möglicherweise gleichzeitig Zugriff auf zusätzliche Informationen wie Personalrichtlinien, Verfahren und andere Unternehmensdaten, was die Lösung nicht einfach macht.
Fazit: Umfassende Sicherheit für Generative-AI-Workloads
Die aktuellen Entwicklungen erfordern Lösungen, die eine umfassende Sicherheit für Generative-AI-Workloads im ExaScale-Maßstab bieten können, um das Problem der Datenausbreitung und die damit verbundenen Sicherheitsrisiken der Datenspeicherung an mehreren Standorten zu lösen. Ideal ist eine zentrale Instanz für die Verwaltung komplexer, mehrschichtiger Datei-Authentifizierung. Durch die Kombination sicherer Datenpipelines mit robusten Prüfmöglichkeiten gewährleistet solch eine Instanz Echtzeittransparenz bei Zugriffs- und Betriebsereignissen. Dieser doppelte Fokus auf Sicherheit und Verantwortlichkeit macht die InsightEngine (von VAST) zu einem Eckpfeiler für KI-gesteuerte Prozesse und erfüllt die Anforderungen moderner KI-Ökosysteme mit einem hohen Maß an Präzision, Skalierbarkeit und Compliance.
6711 Artikel zu „Sicherheit KI“
News | Trends 2025 | Trends Security | IT-Security | Künstliche Intelligenz
LLM im SOC: 2025 wird das Jahr des Sicherheitsanalysten mit KI-Unterstützung

aDvens, ein unabhängiges Unternehmen für Cybersicherheit in Europa, hat die Nutzung von Large Language Models (LLMs) als einen der wichtigsten Trends im Bereich Security Operations Center (SOC) für das kommende Jahr identifiziert. LLMs sind eine Art der künstlichen Intelligenz (KI), die durch Machine Learning in der Lage sind, Textinhalte zu verstehen und zu generieren. In…
News | Trends 2024 | Trends Security | IT-Security | Künstliche Intelligenz | Tipps
Großer KI-Optimismus der Sicherheitsexperten trifft auf die Datensilo-Realität

Datensilos hemmen generative KI dabei, Unternehmen zu schützen. Jedem vierten Unternehmen in Deutschland fehlt die klare Strategie zum KI-Einsatz für den Cyberschutz. Das Sicherheitsunternehmen Ivanti hat eine neue Studie veröffentlicht, die sich mit der ambivalenten Einstellung von Sicherheitsteams mit Blick auf generative KI (GenAI) beschäftigt. Der Bericht mit dem Titel »Generative KI und Cybersicherheit:…
News | Trends 2025 | Cloud Computing | Digitalisierung | Effizienz | IT-Security | Künstliche Intelligenz | Strategien | Whitepaper
Sicherheit, KI, Cloud, Effizienz und Kompetenzentwicklung: Herausforderungen der digitalen Transformation

Cybersicherheit, KI und Cloud-Einführung definieren die Rollen von IT-Fachleuten neu, wie die neueste globale Umfrage von Paessler zeigt 77 % der IT-Führungskräfte stufen die Cybersicherheit als ihre größte Herausforderung für die nächsten 2–3 Jahre ein. Die Einführung von KI und Cloud-Diensten verändert die IT-Rollen und treibt die Nachfrage nach neuen Fähigkeiten voran. IT-Teams müssen hybride…
News | IT-Security | Lösungen | Services
KI im Dienste der Sicherheit: Wie Partner mit Microsoft Sentinel ihre Kunden schützen

Zunehmende Cyberangriffe und strengere gesetzliche Vorschriften erfordern eine bessere Bedrohungserkennung und eine schnellere Reaktion auf potenzielle Sicherheitsvorfälle. Mit Sentinel bietet Microsoft eine Lösung, die diesen Anforderungen gerecht wird. Durch den Einsatz der Plattform können Partner nicht nur sich selbst und ihre Kunden besser schützen, sondern auch Effizienz und Kundenbindung steigern. Die Cybergefahren durch…
News | Trends 2024 | Trends Geschäftsprozesse | Geschäftsprozesse | Künstliche Intelligenz | Whitepaper
KI transformiert Rechnungswesen deutscher KMU: hohe Präzision, bessere Entscheidungen, ausgeprägtes Sicherheitsbewusstsein

KMU haben ihre Zurückhaltung beim Einsatz von KI schon vor einiger Zeit abgelegt. Im Rechnungswesen nutzen sie die Technologie je nach Einsatzbereich und Erwartungshaltung bereits mit unterschiedlichem Erfolg. Dies belegt die Studie »Rechnungswesen 2030: Prognosen zu den künftigen Grenzen der KI-gestützten Transformation«, die Forrester Consulting im Auftrag von Sage erstellt hat [1]. So profitieren KMU…
News | Favoriten der Redaktion | IT-Security | Künstliche Intelligenz | Ausgabe 9-10-2024 | Security Spezial 9-10-2024
Generative KI für Sicherheitsteams – Innovative Entwicklungen verantwortungsvoll nutzen
News | IT-Security | Künstliche Intelligenz | Ausgabe 9-10-2024 | Security Spezial 9-10-2024
KI-Copiloten sorgen für maximale Sicherheit und Effizienz – Navigieren durch die Datenflut
News | IT-Security | Künstliche Intelligenz | Ausgabe 9-10-2024 | Security Spezial 9-10-2024
Sensibilisierung für Betrugsversuche, Sicherheitslücken und Datenschutz – Mit IT und KI auf der sicheren Seite
News | Trends 2024 | Trends Security | IT-Security | Künstliche Intelligenz
71 Prozent der Verbraucher sieht KI als Risiko für Datensicherheit

Große Mehrheit der Endkunden prüft Wechsel zur Konkurrenz, wenn Anbieter ihre Daten nicht wirksam schützen. Weltweit sind Verbraucher sehr besorgt über die Menge an Daten, die Unternehmen über sie sammeln, den Umgang damit und sehen auch deren Sicherheit gefährdet – insbesondere durch die den zunehmenden Einsatz von künstlicher Intelligenz. Das belegt eine Umfrage von…
News | Trends 2024 | Trends Security | IT-Security | Künstliche Intelligenz
DevSecOps-Teams zweifeln an der Sicherheit von KI-generiertem Code

Die Umfrage analysiert das »Tauziehen«, das KI-gestützte Codierungstools im Software-Entwicklungsprozess hervorrufen. Der Bericht »Global State of DevSecOps 2024« von Black Duck Software, Inc. (»Black Duck«) analysiert Trends, Herausforderungen und Chancen, die sich auf die Software-Sicherheit auswirken. Die Daten belegen, dass der umfassende Einsatz von KI die Art und Weise, wie Software entwickelt wird, grundlegend…
News | Trends 2024 | Business | Trends Security | IT-Security | Künstliche Intelligenz
7 von 10 Unternehmen wollen generative KI für Sicherheit und IT-Business-Alignment einsetzen

Tenable Studie: 71 Prozent der deutschen Unternehmen planen Einsatz von generativer KI, um Sicherheitsmaßnahmen zu verbessern und IT-Ziele und Business in Einklang zu bringen. In puncto Implementierung sind allerdings nur 17 Prozent zuversichtlich. Laut einer Studie von Tenable, dem Unternehmen für Exposure-Management, planen 71 Prozent der deutschen Unternehmen in den nächsten 12 Monaten den…
News | IT-Security | Künstliche Intelligenz | Produktmeldung
Tenable stellt AI Aware vor: Eine bahnbrechende Lösung für proaktive Sicherheit von KI und Large Language Models (LLMs)

Tenable, das Unternehmen für Exposure-Management, gab die Veröffentlichung von AI Aware bekannt, einer hochentwickelten Erkennungsfunktion, die schnell feststellen kann, ob Lösungen für künstliche Intelligenz im Einsatz sind und ob KI-bezogene Schwachstellen und Sicherheitsschwächen vorliegen. Die Funktion ist ab sofort in Tenable Vulnerability Management, der weltweit führenden Lösung für Exposure-Management, verfügbar [1]. Tenable AI Aware liefert…
News | Trends 2024 | Trends Security | Digitalisierung | Künstliche Intelligenz
KI als Partner in der Medizintechnik zur Verbesserung der Sicherheit von Medizinprodukten

Eine Umfrage unter 200 Führungskräften der Medizintechnikbranche in den USA und Europa zeigt, dass nur sechs Prozent der führenden MedTech-Unternehmen glauben, dass künstliche Intelligenz (KI) die Frühdiagnose verbessern wird. 80 Prozent der Befragten gehen jedoch davon aus, dass sie medizinische Produkte und Geräte sicherer machen wird. Trotz einiger Berichte, dass KI die Ärzte bei…
News | IT-Security | Künstliche Intelligenz
Die Datensicherheit mit KI verbessern

Künstliche Intelligenz kann große Datenmengen schnell und präzise analysieren, um Muster und Anomalien zu erkennen. Das ist auch im Security-Bereich sehr hilfreich. Cyberkriminelle sind äußerst findig darin, ihre Angriffsstrategien und -tools immer wieder anzupassen, um an das Wertvollste zu gelangen, das Unternehmen besitzen: Daten. Traditionelle Sicherheitslösungen erreichen schnell ihre Grenzen, wenn es darum geht,…
News | Healthcare IT | IT-Security | Ausgabe 5-6-2024 | Vertikal 5-6-2024 | Healthcare
Cybersicherheit im Gesundheitswesen – Die Zukunft gehört der KI

Die Cybersicherheit im Gesundheitswesen steht vor großen Herausforderungen. Zur stetig fortschreitenden Digitalisierung gesellt sich nun auch die Einführung der Elektronischen Patientenakte hinzu und bedingt dadurch eine signifikante Vergrößerung der Angriffsfläche für Cyberkriminelle. Besonders Ransomware-Angriffe und DDoS-Attacken, die auf sensible Patientendaten und kritische Infrastrukturen abzielen, sind in den letzten Jahren stark angestiegen.
News | IT-Security | Ausgabe 5-6-2024
Sicherheitsoptimierung: Wie KI und DNS-basierte Funktionen Sicherheitsteams entlasten – First Line of Defense

Die zunehmende Bedrohung durch Cyberangriffe stellt Unternehmen vor große Herausforderungen. Allein die Anzahl der Warnmeldungen, mit denen Sicherheitsteams täglich konfrontiert werden, ist kaum noch zu bewältigen und führt zunehmend zu Überlastung. Sicherheitsverantwortliche sollten auf Automatisierung und künstliche Intelligenz setzen.
News | Cloud Computing | Industrie 4.0 | Internet der Dinge | Künstliche Intelligenz
KI und Edge erhöhen die Sicherheit am Arbeitsplatz

Edge Computing und künstliche Intelligenz haben enormes Potenzial für die Industrie und Wirtschaft: Richtig eingesetzt, können Betriebe Produktion und Prozesse effizienter gestalten und ihre Umsätze steigern. Doch gerade im Verbund erhöhen die Technologien auch den Schutz der Mitarbeiter. Gerade in Industrieanlagen und Fertigungsbetrieben ist die Gefahr für die Mitarbeiter zuweilen extrem hoch. Natürlich kann…
News | Trends 2024 | Business | IT-Security | Künstliche Intelligenz
Riskanter Balanceakt: Führungskräfte fordern Geschwindigkeit bei KI, IT pocht auf Sicherheit

Die Führungskräfte machen Druck auf die IT-Abteilungen für eine schnelle Einführung generativer KI. Die IT-Abteilungen wiederum fordern einen stärkeren Fokus auf Datensicherheit und -qualität. Es gilt Gleichgewicht zwischen Geschwindigkeit, Geschäftswert und Sicherheit herzustellen. Eine kürzlich von Salesforce durchgeführte weltweite Umfrage unter 600 IT-Fachleuten hat ergeben, dass die Geschäftsleitung von der IT-Abteilung erwartet, generative KI schnellstmöglich…
News | Trends 2024 | Trends Security | IT-Security | Künstliche Intelligenz | Whitepaper
KI-gestützte Cybersicherheit bringt Automatisierung, Geschwindigkeit und Skalierbarkeit

KI-gestützte Angriffe werden von deutschen Unternehmen als größte Cyberbedrohung für dieses Jahr angesehen. Die Software-Bewertungsplattform Capterra untersuchte, in welchen Bereichen Unternehmen KI-gestützte Systeme nutzen, um sich vor Angriffen zu schützen und welche Vorteile und Herausforderungen ihnen begegnen [1]. Im Rahmen der Umfrage wurden 670 Teilnehmer befragt, die an den Cybersicherheitsmaßnahmen ihres Unternehmens beteiligt sind und…
News | Effizienz | IT-Security | Künstliche Intelligenz | Services
Generative KI hat enorme Auswirkungen auf Softwareentwicklung und Softwaresicherheit

Seit der Veröffentlichung von ChatGPT im November 2022 arbeitet die Technologiebranche daran, solche auf annähernd menschlichem Level funktionierenden Konversationsschnittstellen zu etablieren und praktisch zu nutzen. Fast jedes größere Unternehmen verbindet heute seine interne oder produktbezogene Dokumentation mit einem großen Sprachmodell, sogenannten »Large Language Models« oder kurz LLMs, um Fragen möglichst schnell zu beantworten. Gleichzeitig kommen…