
foto freepik
Agentic AI hat sich 2025 schnell zu einem der meistdiskutierten Begriffe im Bereich Cybersicherheit entwickelt. Doch was zeichnet Agentic AI nun konkret aus und welche Unterschiede bestehen zu einer grundlegenden Automatisierung oder zu verbesserten Assistenten? Experten für MXDR bringen Licht ins Dunkel.
Für diejenigen, die Agentic AI effizient und zielführend im Bereich Security nutzen möchten, ist es wichtig, über Schlagworte hinauszugehen und die Funktionsweise ins Blickfeld zu rücken. Dabei sollten nach Ontinue, der Experte für Managed Extended Detection and Response (MXDR), fünf Kernmerkmale im Fokus stehen, die Agentic AI wirklich agentisch machen.
- Autonome Aufgabenausführung – nicht nur Automatisierung
Agentic AI geht weit über einfache regelbasierte oder Supervised-Learning-Modelle hinaus. Sie führt End-to-End-Aufgaben aus, ohne dass für jeden Schritt explizite Anweisungen durch Menschen erforderlich sind. Mögliche Beispiele sind:
- das Sammeln von Daten aus mehreren Systemen (etwa Identität, Endpunkt, Cloud oder Log-Quellen)
- die Formulierung von Hypothesen auf der Grundlage von Kontextanalysen
- die Validierung dieser Hypothesen durch eine aktive Untersuchung
- das Vorschlagen oder Einleiten von Maßnahmen auf der Grundlage von Schlussfolgerungen
Während herkömmliche KI oft menschliche Eingaben erfordert oder innerhalb enger, deterministischer Arbeitsabläufe funktioniert, arbeitet Agentic AI eher wie ein Junior-Analyst, der Initiativen ergreifen kann. Sie ist zielorientiert und situationsbewusst.
- Multi-Agent-Zusammenarbeit und Rollenspezialisierung
Ein charakteristisches Merkmal fortschrittlicher Agentic AI ist der Einsatz mehrerer spezialisierter Agenten, die zusammen auf ein gemeinsames Ergebnis hinarbeiten. Anstelle eines monolithischen Modells unterteilen agentenbasierte Systeme den Untersuchungsprozess häufig in einzelne Rollen, etwa:
- Datenerfassungs-Agenten
- Korrelations-Agenten
- Risikobewertungs-Agenten
- Narrative Zusammenfassungs-Agenten
Jeder Agent erfüllt seine Rolle unabhängig, trägt jedoch zu einem kollektiven Untersuchungsprozess bei. Dies spiegelt die Struktur eines menschlichen SOC-Teams wider, in dem die Arbeitsteilung eine komplexere und skalierbare Analyse ermöglicht.
- Kontextuelle Folgerungen und Hypothesentests
Agentic AI erkennt nicht nur Muster, sondern stellt auch Schlussfolgerungen an. Bei der Untersuchung eines Brute-Force-Anmeldeversuchs beispielsweise identifiziert ein agentisches System nicht nur fehlgeschlagene Logins. Es bewertet, ob das Muster zu einem tatsächlichen Angriff oder einer falsch konfigurierten Anwendung passt, indem es historische Verhaltensweisen, IP-Reputation, Geolokalisierung und Authentifizierungsmethoden miteinander vergleicht.
Dieses Vorgehen ist hypothesengetrieben: Die agentische KI fragt sich: »Was könnte dieses Signal erklären? Welche Daten benötige ich, um diese Erklärung zu bestätigen oder zu widerlegen?« Mit einem solchen Ansatz werden Untersuchungen von einer reaktiven Alarmüberprüfung in eine proaktive Erkennung verwandelt.
- Kontinuierliches Lernen und Feedback-Schleifen
Viele Systeme, die behaupten, KI-gestützt zu sein, sind nach ihrer Bereitstellung statisch. Echte Agentic AI hingegen ist darauf ausgelegt, sich weiterzuentwickeln. Sie erfasst das Feedback von Analysten, erfolgreiche (oder fehlgeschlagene) Aktionen und neue Bedrohungsinformationen, um das zukünftige Verhalten zu verfeinern.
Dies umfasst sowohl die überwachte Verstärkung (Human-in-the-Loop) als auch die nicht überwachte Musteranpassung. Agentische Systeme werden mit der Zeit intelligenter, passen ihre Logik an die jeweilige Kundenumgebung an und reagieren auf neue Bedrohungen, ohne dass ein manuelles Retraining erforderlich ist.
- Menschliche Zusammenarbeit ohne menschliche Abhängigkeit
Der vielleicht wichtigste Punkt ist, dass Agentic AI nicht darauf abzielt, Menschen zu ersetzen – sie unterstützt sie vielmehr. Das heißt, sie übernimmt die repetitiven und datenintensiven Teile von Untersuchungen, sodass sich Menschen auf die Beurteilung, Eskalation und Lösung fokussieren können.
Im Gegensatz zu älteren Automatisierungslösungen ist Agentic AI auch nicht auf Menschen angewiesen, um Kontextlücken zu füllen oder vage Warnmeldungen zu interpretieren. Wenn die KI einen Vorfall an einen menschlichen Analysten weiterleitet, stellt sie Folgendes bereit:
- vollständige Untersuchungsschritte
- eine Argumentation
- Sicherheitslevels für die Ergebnisse und mögliche Einschränkungen
- Next-Best-Action-Vorschläge
Auf diese Weise wird die Lösungsfindung und -umsetzung beschleunigt.

Theus Hossmann, Chief Technology Officer bei Ontinue (Quelle: Ontinue)
»Agentic AI ist keine Funktion, sondern ein Framework für die Entwicklung intelligenter, anpassungsfähiger und kollaborativer Systeme. Im Bereich von Sicherheitsmaßnahmen ermöglicht uns dieser Ansatz endlich, das Skalierungsproblem zu adressieren, das seit jeher eine Herausforderung für traditionelle MDR-Lösungen darstellt: zu viele Warnmeldungen und zu wenige Analysten«, erklärt Theus Hossmann, Chief Technology Officer bei Ontinue. »Indem wir Maschinen in die Lage versetzen, selbstständig zu urteilen, zusammenzuarbeiten und zu handeln, können wir die Untersuchungszeit verkürzen, mehr Bedrohungen ohne menschliche Engpässe beseitigen und Verteidigern tiefere Einblicke in Echtzeit bieten. Mit Agentic AI stehen wir am Anfang eines neuen Kapitels in SecOps – eines, in dem KI nicht nur reaktiv, sondern wirklich agentisch ist.«
Welche Maßnahmen sollten ergriffen werden, bevor man KI-Agenten in der Cybersecurity einsetzt?
Gute Gegenmaßnahmen müssen Identität, Zugriff, Prozess‑Design, Plattform‑Härtung, Überwachung und Governance gleichzeitig adressieren. Ziel: Nutzen von KI‑Agenten sichern, Missbrauchs‑ oder Betriebsrisiken minimieren und Wiederherstellbarkeit gewährleisten.
Identitäten und Zugriffskontrollen
- Agenten als eigene Identitäten:
Jede Agent‑Instanz erhält ein eindeutiges, auditierbares Konto statt gemeinsamer Service‑Accounts. - Kurzlebige Credentials und Delegation:
Verwende kurzlebige Tokens (OAuth/OIDC, AWS STS etc.) oder Just‑In‑Time (JIT)‑Zugriffsdelegation, damit Langzeit‑Geheimnisse nicht auf Geräten liegen. - Principle of Least Privilege:
Vergib nur die minimal nötigen Rechte pro Use‑Case; teste Rechte mit »canary« Accounts, die absichtlich eingeschränkt sind. - RBAC und Scope‑Beschränkung:
Rollenbasierte Zugriffskontrolle mit fein granularen Scopes (z. B. nur Leserechte für Erkennung, Schreibrechte nur nach Freigabe). - Credential Vaulting:
Alle Secrets in einem geprüften Secrets‑Store (HashiCorp Vault, Azure Key Vault) mit strikter Zugriffskontrolle und Aufbewahrungslogik.
KPIs: Prozent Agenten mit kurzlebigen Tokens; Anteil Agenten mit Least‑Privilege (Target ≥ 90 %).
Just‑In‑Time, Just‑Enough, Menschen in der Schleife
- JIT‑Privilegien für kritische Aktionen:
Agenten fordern temporär höhere Rechte an, nur nach validierter Genehmigung. - Mensch‑in‑der‑Schleife‑Modus:
Standard: Agenten erzeugen Empfehlungen; kritische Remediations‑Schritte (Netzwerk‑Isolierung, Kontosperrung, Produktivänderung) benötigen explizite menschliche Bestätigung. - Graduierte Automatisierung:
Stufenmodell — Beobachtung → Vorschlag → Teilautomatisch (niedrigriskant) → Vollautomatisch (nur getestete Playbooks). - Kontextsensitive Freigaben:
Autorisierungsregeln berücksichtigen Zeit, Risikoprofil, Herkunfts‑IP und parallele Alerts vor Freigabe.
KPIs: Anteil automatisierter Aktionen mit Mensch‑Freigabe; Errors prevented by human approvals.
Sichere Playbooks, Modell‑Governance und Explainability
- Sorgfältig geprüfte Playbooks:
Alle automatischen Playbooks durchlaufen Code‑Review, Security‑Review und Test‑Szenarien (Unit, Integration, Chaos‑Tests). - Kontrollierte Modell‑Updates:
Modell‑Retraining und Prompt‑Änderungen nur über Change‑Control mit Canary‑Deployments und A/B‑Vergleich. - Explainability‑Logging:
Jede Empfehlung muss Begründung, Datenbasis (z. B. Indikatoren/Logs) und Konfidenz‑Score liefern; diese Infos werden im Ticket/Case protokolliert. - Rollback‑Mechanismen:
Für jede automatisierte Aktion gibt es präzise Rücksetz‑Playbooks und Fail‑Safe‑Checks.
KPIs: Anzahl fehlerhafter automatischer Aktionen; Zeit bis Rollback.
Plattformhärtung und sichere Entwicklung
- Secure‑by‑Design:
Agentenplattformen mit Hardened‑Baseline (Container Security, WAF, API‑Gateway, Network ACLs). - Secure SDLC:
Threat Modeling, SAST/DAST, Dependency‑Scanning, Geheimnis‑Scans im CI/CD. - Isolationsprinzip:
Laufzeitisolation (Sandboxing) für Agenten, keine direkte Ausführung von Shell‑Befehlen auf Produktions‑Hosts ohne Gateway. - API‑Security:
Ratenbegrenzung, Input‑Sanitization, Strict Content‑Validation, Monitoring auf ungewöhnliche Patterns. - Penetration‑Tests & Red‑Team:
Regelmäßige Tests, inklusive Attack‑Paths, Model Poisoning‑Szenarien und lateral movement über Agenten.
KPIs: Anzahl kritischer Findings pro Test; Zeit bis Remediation.
Monitoring, Auditierung und Forensik
- Umfassende Telemetrie:
Alle Agent‑Aktionen, Entscheidungs‑Inputs, API‑Calls und Credential‑Requests werden unveränderlich (WORM) geloggt. - Real‑Time Detection:
SIEM/EDR korreliert Agent‑Telemetry mit Threat‑Feeds; Alerts für anomale Agentenaktivität (z. B. plötzliche Rechteanfrage, ungewöhnliche API‑Nutzung). - Audit Trails und Revisionssicherheit:
Vollständige, signierte Audit‑Logs mit Hash‑Kette; Aufbewahrung gemäß Compliance. - Forensik‑Playbook:
Vorgefertigte Schritte zur Isolierung eines kompromittierten Agenten, Erfassung von Artefakten und Wiederherstellung. - Drift‑Monitoring:
Erkennung von Modell‑Drift, Performance‑Änderungen und Anomalien in Input‑Distributions (Hinweis auf Data Poisoning).
KPIs: MTTD/MTTR für Agent‑Anomalien; Vollständigkeitsrate der Telemetrie.
Governance, Prozesse und Vendor‑Due‑Diligence
- Policy‑Framework für Agenten:
Richtlinien zu Einsatzbereichen, Privilegien, Data‑Handling, Privacy und Audit. - Vendor‑Assessments:
Sicherheitsbewertungen, Pen‑Test‑Berichte, SLAs, offene Disclosure‑Regeln; vertragliche Anforderungen zu Geheimnismanagement und Patch‑Fenstern. - Change‑Control und Approval‑Boards:
Änderungen an Agenten, Playbooks oder Modellparametern nur nach formalem Review. - Training und Rollenverständnis:
SOC‑Analysten, Incident‑Responder und DevOps geschult im Umgang, Limitations‑Awareness und Troubleshooting von Agenten. - Kontinuierliche Überprüfung:
Vierteljährliche Risiko‑Reviews, jährliche Audits und Policy‑Updates.
KPIs: Anzahl geprüfter Vendoren; Aktualität der Playbooks; Abschlussrate der Trainings.
Albert Absmeier & KI
Welche Probleme können beim Einsatz von KI-Agenten in der Cybersicherheit (SOC) entstehen?
KI‑Agenten können SOC‑Abläufe erheblich beschleunigen, zugleich erzeugen sie neue, teils neuartige Risiken — vor allem wenn Identitäten, Privilegien, Integration und Governance nicht von Anfang an bedacht werden.
Hauptprobleme beim Einsatz von KI‑Agenten im SOC
- Agenten‑Identitäten und privilegierte Zugriffe
KI‑Agenten werden zu einer neuen Identitätsklasse mit potenziell weitreichenden Rechten; unklare oder zu großzügige Berechtigungen erlauben unbeabsichtigte Aktionen oder Missbrauch durch Angreifer. - Fehlende Transparenz und Nachvollziehbarkeit
Agenten treffen autonome Entscheidungen und führen automatisierte Gegenmaßnahmen aus. Ohne nachvollziehbare Entscheidungswege steigen Fehlverhalten, falsch ausgeführte Aktionen und Haftungsfragen. - False Positives, Overfitting und Vertrauen
Schlechte Trainingsdaten oder fehlende Playbooks führen zu vielen Fehlalarmen, Overfitting auf Trainingsszenarien und damit zu Analystenüberlastung statt Entlastung. - Integration und Systemkomplexität
Viele Anbieter liefern einzelne Agenten‑Komponenten statt integrierter Systeme; heterogene Agenten können Workflows stören, Interoperabilität verhindern und Kosten/Troubleshooting erhöhen. - Sicherheitslücken in Agentensoftware
Agenten selbst können Schwachstellen, unsichere APIs oder Geheimnisverwaltungsschwächen enthalten, die Angreifer für laterale Bewegung oder Übernahme nutzen. - Angriffsvektor »Model Poisoning« und Datenmanipulation
Manipulation von Trainingsdaten oder externen Wissensquellen kann Modellantworten vergiften und damit falsche Entscheidungen provozieren. - Regulatorische und Compliance‑Risiken
Automatisierte Aktionen gegen personenbezogene Daten oder kritische Infrastruktur können DSGVO‑/Audit‑Risiken und Verantwortlichkeitsfragen aufwerfen, wenn keine klare Governance besteht.
Operative Folgen für den SOC
- Vertrauensverlust und reduzierte Akzeptanz bei Analysten, wenn Agenten inkonsistent oder falsch handeln.
- Erhöhte Angriffsfläche durch zusätzliche Identitäten, Kommunikationskanäle und Integrationspunkte.
- Kosten‑ und Managementaufwand durch Wildwuchs an nicht harmonisierten Agentenlösungen und notwendige Kontrollen.
Praktische Gegenmaßnahmen (Kurzüberblick)
- Identity as first class citizen:
Agenten eindeutige, kurzlebige, minimal‑privilegierte Identitäten geben; Delegationstoken und Zero‑Trust‑Kontrollen einsetzen. - Strikte Berechtigungs‑ und Lifecycle‑Kontrolle:
Just‑in‑time‑Privilegien, Audit‑Logs, regelmäßige Rezertifizierung und Rollen‑/Policy‑Governance für Agenten. - Kleine, streng kontrollierte Pilotprojekte:
schrittweise Einführung auf klar definierte Use‑Cases; Messung von MTTD/MTTR und Falschalarmraten. - Transparente Playbooks und Mensch‑in‑der‑Schleife:
automatisierte Vorschläge zuerst zur Bestätigung; nur geprüfte Playbooks zur autonomen Ausführung freigeben. - Härtung der Agentenplattform:
sichere Secrets‑/Token‑Stores, Input‑Sanitization, RBAC, API‑Hardening und Pen‑Tests/Red‑Team für Agenten. - Monitoring, Forensik und Explainability:
umfassendes Telemetry, nachvollziehbare Entscheidungsprotokolle und Rückfall‑/Rollback‑Mechanismen. - Governance, Vendor‑Due‑Diligence, SLAs:
klare Anforderungen an Anbieter, Identity‑Security‑Kontrollen und vertragliche SLAs für Sicherheit und Support.
Empfehlung kurz
Starte klein, sichere Agenten‑Identitäten und Privilegien zuerst, integriere menschliche Freigaben für kritische Aktionen und verankere Agenten‑Kontrollen in bestehende SOC‑Governance. So realisiert man Effizienzgewinne, ohne neue, schwer beherrschbare Risiken zu schaffen.
Albert Absmeier & KI
Quellen:
CyberArk zu Identity‑Risiken bei KI‑Agenten;
Zero‑Trust/Delegation für Agenten;
Warnungen vor Wildwuchs und Systemdenken;
Praxiserfahrungen zur schrittweisen Implementierung im SOC;
Risiken einer überstürzten Einführung und Governance‑Defizite.
413 Artikel zu „KI-Agent Cybersicherheit“
Trends 2025 | News | Trends Infrastruktur | Business Process Management | Trends Services | E-Commerce | Geschäftsprozesse | Künstliche Intelligenz | Logistik
KI-Agenten in Logistik und Lieferkette: Hohe Akzeptanz, aber klare Spielregeln gefordert
Laut einer aktuellen Studie des Aachener Softwareunternehmens INFORM unter 114 Fach- und Führungskräften aus Logistik und Supply Chain Management sehen die meisten Unternehmen in KI-Agenten großes Potenzial, vor allem bei der Automatisierung und Effizienzsteigerung logistischer Abläufe. Für den erfolgreichen Einsatz sind gut geschulte Mitarbeitende, klare Richtlinien und transparente Entscheidungsprozesse entscheidend. Hohe Akzeptanz, wachsender Praxiseinsatz…
Ausgabe 9-10-2025 | Security Spezial 9-10-2025 | News | IT-Security | Künstliche Intelligenz
Cybersicherheit mit KI – Hybride SOC-Modelle gegen Cyberbedrohungen
Künstliche Intelligenz (KI) birgt großes Potenzial für die Cybersicherheit in Unternehmen. Insbesondere im Security Operation Center (SOC) kann KI Prozesse optimieren, Analysten entlasten und Bedrohungen frühzeitig erkennen. Das gelingt jedoch nur in Synergie mit menschlichem Know-how und umfassender Cybersecurity-Erfahrung.
News | Business | Favoriten der Redaktion | IT-Security | Künstliche Intelligenz | Services | Strategien | Tipps
Drei zentrale Risiken bei KI-Agenten
KI-Agenten (engl. »AI agents«) erobern die Arbeitswelt, doch der Hype birgt auch Gefahren. Während Unternehmen weltweit auf diese Technologie setzen, zeigt sich: Schnelligkeit geht oft zu Lasten der Sicherheit. Nach einer aktuellen IBM-Studie sehen Unternehmen KI-Agenten nicht länger als Experiment, sondern als unverzichtbaren Bestandteil ihrer digitalen Transformation [1]. Führungskräfte erwarten bis 2025 einen achtfachen Anstieg…
Trends 2025 | News | Trends Wirtschaft | Business | Trends Security | Favoriten der Redaktion | IT-Security | Services
Sind die Deutschen fit beim Thema Cybersicherheit?
Ein Viertel der Befragten in Deutschland haben in einer Umfrage der Statista Consumer Insights angegeben, dass sie sich über das Thema Cybersecurity gut informiert fühlen [1]. Damit liegen die Bundesbürger gleichauf mit den Einwohnern der USA. In Österreich, Frankreich und Spanien liegt der Anteil knapp darunter, in Polen und der Schweiz knapp darüber. China ist…
News | Business | Favoriten der Redaktion | Künstliche Intelligenz | New Work | Strategien | Tipps
Verantwortungsbewusster Einsatz von KI-Agenten: Maßnahmen und Empfehlungen
Es gibt mehr Herausforderungen und Risiken, die mit der Einführung von KI-Agenten in Unternehmen verbunden sind, als bisher angenommen. Gerade Unternehmen, die bereits KI-Agenten einsetzen, haben ein höheres Bewusstsein für die damit verbundene Management-Komplexität, und erkennen, dass diese Komplexität oft die verfügbaren Mitarbeiterressourcen übersteigt. Ohne klare Governance, Ressourcenplanung und Transparenz drohen erhebliche Risiken wie Überlastung,…
News | IT-Security | Kommentar | Künstliche Intelligenz
Warum KI ein Teil der Cybersicherheit von Unternehmen sein sollte
Künstliche Intelligenz beschleunigt die Reaktion auf Cyberangriffe und hilft bei der Entwicklung von Verteidigungsstrategien, die auf neue Bedrohungen zugeschnitten sind. Expertenkommentar von Joel Carusone, Senior Vice President of Data and Artificial Intelligence bei NinjaOne KI ist ein mächtiger Verbündeter im Kampf gegen Cyberbedrohungen. In einer aktuellen Umfrage des Ponemon Institute geben 56 Prozent…
News | Business Process Management | IT-Security | Strategien | Tipps
Cybersicherheit beginnt mit Zweifel – und endet mit operativer Resilienz
Mit der Umsetzung der EU-NIS2-Richtlinie steht Deutschland vor einem Wendepunkt in der Cybersicherheit. Das Bundeskabinett hat im Sommer 2025 den Entwurf des NIS2-Umsetzungsgesetzes verabschiedet, und Anfang 2026 soll das Gesetz endgültig in Kraft treten. Damit fallen erstmals rund 29.000 Unternehmen in Deutschland unter strenge Sicherheitsanforderungen. Für viele mittelständische Betriebe, öffentliche Einrichtungen und Betreiber kritischer Infrastrukturen…
Trends 2025 | News | Trends Kommunikation | Künstliche Intelligenz | New Work | Strategien | Whitepaper
Vertrauen ist Schlüsselfaktor für Akzeptanz von KI-Agenten
KI-Agenten könnten der nächste große Trend sein – ihr Potenzial wird bislang aber kaum ausgeschöpft. Transparenz & Kontrolle sowie Rechtssicherheit sind zentrale Anforderungen. Unternehmen erproben Monetarisierungsansätze – Zahlungsbereitschaft entsteht nur bei klar erkennbarem Mehrwert. KI-Agenten, also Programme, die Aufgaben eigenständig ausführen, entwickeln sich zum nächsten großen Technologietrend. 39 Prozent der Verbraucherinnen und Verbraucher nutzen…
Trends 2025 | News | Trends Security | IT-Security | Trends 2030 | Strategien | Tipps
Die Zukunft der Cybersicherheit liegt in der Prävention – nicht in Erkennung und Reaktion
»Eine rein DR-basierte Verteidigung reicht nicht mehr aus, um Vermögenswerte gegen KI-gestützte Angreifer zu schützen. Unternehmen müssen zusätzliche, präventive und autonom wirkende Gegenmaßnahmen ergreifen, um potenzielle Angriffe zu neutralisieren, bevor sie stattfinden.« Bis 2030 werden präventive Cybersicherheitslösungen mehr als die Hälfte der weltweiten IT-Sicherheitsausgaben beanspruchen. 2024 lag ihr Anteil noch bei unter 5 %.…
News | Favoriten der Redaktion | IT-Security | Künstliche Intelligenz | Tipps
Die Zukunft der Cybersicherheit: Multi-Agenten-Systeme im Einsatz
Multi-Agenten-Systeme (MAS) haben das Potenzial, die Cybersicherheit in Unternehmen maßgeblich zu steigern. Allerdings müssen die KI-Agenten nicht nur intelligent, sondern auch interoperabel, vertrauenswürdig und resilient sein. Experten für Managed Extended Detection and Response (MXDR), nennen die größten Herausforderungen, die MAS im Cybersecurity-Bereich mit sich bringen – und skizzieren praktische Lösungsansätze. Künstliche Intelligenz ist im…
News | Business | Favoriten der Redaktion | Geschäftsprozesse | IT-Security | Kommentar | Künstliche Intelligenz | Strategien | Tipps
Der Ansturm auf KI-Agenten: Sind Unternehmen bereit, schnell UND groß zu scheitern?
Unternehmen lassen KI unbeaufsichtigt laufen, als ob sie einem Praktikanten große Entscheidungen anvertrauen, anstatt einfache Aufgaben – obwohl sie noch nicht klug genug sind. Stellen Sie sich vor, Sie kommen an einem Bahnhof während der Hauptverkehrszeit an einem überfüllten Zug irgendwo in Bangladesch oder Indien vorbei. Sie wissen vielleicht nicht, wohin er fährt, aber…
News | Digitalisierung | Favoriten der Redaktion | IT-Security | Künstliche Intelligenz | Logistik | Strategien | Tipps
GenAI-Modelle gefähren die Cybersicherheit der Automobilindustrie
Die Integration von GenAI in Automobilsysteme bringt nicht nur Vorteile, sondern birgt auch Risiken für die gesamte Lieferkette. Die Integration von GenAI in Fahrzeugsysteme bringt neben neuen Funktionen auch die Einbettung eines IT-Systems mit sich, das eigenständig lernt, sich weiterentwickelt und autonom arbeitet. Diese adaptiven und dynamischen, während des gesamten Lebenszyklus im Fahrzeug verbleibenden…
Trends 2025 | News | Business | Trends Security | Trends Kommunikation | Digitalisierung | Favoriten der Redaktion | Geschäftsprozesse | Kommunikation | Künstliche Intelligenz
KI-Agenten im Kommen, aber Governance-Lücken gefährden Vertrauen der Verbraucher
Vier von fünf Verbrauchern wünschen sich eine klare Governance für KI-Interaktionen, aber weniger als ein Drittel der Unternehmen verfügt über umfassende Richtlinien. Genesys, ein Anbieter von KI-gestützter Orchestrierung von Kundenerlebnissen, veröffentlicht die Ergebnisse seiner aktuellen Umfrage: Diese decken eine kritische Diskrepanz auf, zwischen der Art und Weise, wie Unternehmen künstliche Intelligenz (KI) regeln, und den…
News | Favoriten der Redaktion | IT-Security | Künstliche Intelligenz | Tipps
ChatGPT-Agenten: Je eigenständiger KI-Agenten handeln, desto gefährlicher werden sie
Generative KI wird bisher vor allem als Assistenzwerkzeug verstanden, doch mit der Einführung von sogenannten »Agenten« steht ein Paradigmenwechsel bevor. Diese autonomen Systeme führen nicht nur Befehle aus, sondern agieren selbstständig, interagieren mit Systemen, treffen Entscheidungen und können, im schlimmsten Fall, ohne menschliches Zutun Schaden anrichten. In einem neuen Blogbeitrag warnt Trend Micro vor den…
News | Favoriten der Redaktion | IT-Security | Künstliche Intelligenz | Tipps
KI-Agenten im Visier: Die nächste Generation des Phishings bedroht autonome digitale Assistenten
Während Unternehmen und Privatpersonen ihre Abwehrmechanismen gegen traditionelle Phishing-Angriffe stetig verbessern, zeichnet sich am Horizont eine neue, möglicherweise noch gefährlichere Bedrohung ab: Die gezielte Manipulation und die Übernahme von KI-Agenten. Diese autonomen digitalen Assistenten, die im Namen ihrer Nutzer handeln und Zugriff auf sensible Konten und Systeme haben, könnten in naher Zukunft zur Achillesferse der…
News | Business Process Management | Geschäftsprozesse | IT-Security | Services | Strategien | Tipps
DORA: Fünf Chancen, um Cybersicherheit und Resilienz zu erhöhen
Wie der Finanzsektor und dessen IT-Dienstleister ihre DORA-Hausaufgaben jetzt erledigen können. Der Digital Operational Resilience Act (DORA), welcher am 17. Januar 2025 in Kraft getreten ist, betrifft nicht nur Anbieter von Finanzdiensten, sondern auch deren IT-Dienstleister: Dazu gehören sowohl Partner und Distributoren, aber auch indirekte IT-Dienstanbieter, wie die Anbieter von IT-Sicherheitsplattformen. Der Kreis der…
News | Digitalisierung | Effizienz | Favoriten der Redaktion | IT-Security | Services | Strategien
Cybersicherheit: BMI und BSI wollen Deutschland robuster aufstellen
Die Cybersicherheitslage in Deutschland ist angespannt: Desinformation, Hacktivismus, Spionage und Sabotage waren und sind verstärkt zu beobachten. Sie bedrohen Sicherheit und Stabilität von Staat, Wirtschaft und Gesellschaft. Bundesinnenminister Alexander Dobrindt besuchte daher das Bundesamt für Sicherheit in der Informationstechnik (BSI) in Bonn. Er informierte sich bei BSI-Präsidentin Claudia Plattner über die Leistungsfähigkeit des BSI in…
Trends 2025 | News | Trends Services | Künstliche Intelligenz | New Work
KI-Agenten im Job: Das denken Angestellte in Deutschland
Angestellte ohne Führungsverantwortung blicken mit einer Mischung aus Skepsis und Neugier auf eine Zukunft, in der ihnen KI-Agenten im Beruf zur Seite stehen werden. Ob positive oder negative Gefühle überwiegen, hängt ganz davon ab, wen man fragt: Frauen freuen sich beispielsweise eher auf die agentische Zukunft (38 Prozent vergaben positive Attribute, 37 negative) als Männer…
Trends 2025 | News | Trends Services | Favoriten der Redaktion | Künstliche Intelligenz | Services
Fast alle Unternehmen bauen den Einsatz von KI-Agenten aus
Die aktuelle Umfrage unter IT-Führungskräften weltweit ergibt, dass der Großteil KI-Agenten befürwortet, aber Sorgen in Bezug auf Datenschutz, Integration und Datenqualität bestehen. Cloudera , die hybride Plattform für Daten, Analysen und KI, hat die Ergebnisse seiner jüngsten Studie »The Future of Enterprise AI Agents« veröffentlicht [1]. Im Rahmen der Umfrage wurden im Januar und…
Trends 2025 | News | Trends Security | IT-Security
Cybersicherheitsreport 2025: Angriffe nehmen weiter zu
Sicherheitsexperte Dennis Weyel: »Viele Unternehmen segeln durch den Cyberspace wie ein Schiff bei Dunkelheit durch den Nebel. Sie wissen, dass Gefahren lauern und haben Vorsichtsmaßnahmen getroffen, aber sie wissen nicht, ob ihr Schiff einem Angriff standhalten würde.« Die Cyberattacken auf die heimische Wirtschaft werden immer heftiger – diese Entwicklung lässt sich dem »Cyber Security…
