
Illustration Absmeier foto freepik
Während Unternehmen und Privatpersonen ihre Abwehrmechanismen gegen traditionelle Phishing-Angriffe stetig verbessern, zeichnet sich am Horizont eine neue, möglicherweise noch gefährlichere Bedrohung ab: Die gezielte Manipulation und die Übernahme von KI-Agenten. Diese autonomen digitalen Assistenten, die im Namen ihrer Nutzer handeln und Zugriff auf sensible Konten und Systeme haben, könnten in naher Zukunft zur Achillesferse der digitalen Sicherheit werden. Wir schlagen dafür den Begriff AI-Jacking vor.
»Alexa, überweise meiner Tochter 20 Euro Taschengeld. Meine Voice-PIN ist 1102.«
Das Angriffsszenario: Aus den 20 Euro werden 20.000, dem Modell wurde vorher injiziert, Beträge bis 20 Euro als Tausender zu verstehen. Die Überweisungsdaten meiner Tochter wurden ebenfalls mit einem vorherigen Prompt verändert – jetzt hat sie wohl ein Bitcoin-Konto in Malta. Die Stimme? Kann gecloned werden. Die Voice-PIN? Abzufangen, denn die involvierten Devices können kaum als sicher gelten. Selbst mehrstufige Authentifizierungsverfahren könnten abhängig von der Autonomie des Agenten umgangen werden.
Betrug setzt immer an zwei Schwachstellen an: Lücken in Prozessen und menschlichem Versagen. Social-Engineering-Taktiken spielen zum Beispiel mit Emotionen, Zeitdruck oder dem Gehorsam ihrer Opfer gegenüber Autoritätspersonen zum Beispiel Polizisten oder Vorgesetzte).
Etablierte Betrugserkennungssysteme haben sich als effektiv erwiesen, klassische Angriffsmuster zu erkennen: durch Datenvernetzung, Wiedererkennung, Anomaliedetektion und Mustererkennung. Und diese Verfahren werden immer mehr durch selbstlernende Algorithmen unterstützt.
Wesentlich ist für die Prävention allerdings die Risikoanalyse. Wir müssen die Schwachstellen in den Prozessen kennen, um ihnen zu begegnen. Doch mit der Einführung autonomer KI-Agenten, die zunehmend Aufgaben für ihre Nutzer übernehmen, eröffnen sich neue Angriffsvektoren. Vor allem, weil wir die dahinterliegenden Prozesse nur eingeschränkt nachvollziehen können.
Warum KI-Agenten besonders verwundbar sind
Die Eigenschaften generativer KI-Systeme machen sie zu attraktiven Angriffszielen für Betrüger und Cyberkriminelle:
- Strukturelle Schwachstellen:
Die Transformer-Architektur, auf der die meisten modernen KI-Agenten basieren, neigt zum »Halluzinieren« – dem Generieren plausibler, aber falscher Informationen. Das ist kein Fehler, sondern eine Begleiterscheinung der gewünschten Fähigkeit, neue Inhalte zu kreieren.
Ohne (unabhängige) Überprüfung der Ergebnisse nehmen wir diese Halluzinationen leicht als Wahrheit auf.
- Weitreichende Zugriffsrechte:
Um effektiv im Namen ihrer Nutzer handeln zu können, benötigen KI-Agenten Zugang zu verschiedenen Systemen und Konten. Ein kompromittierter Agent wird damit zum Einfallstor.
»Hey Google, buch mir über Booking ein romantisches Hotel für mich und meine Freundin für das nächste Wochenende in Wien, 4-Sterne oder mehr.«
Je nach Kontext braucht der Assistent dazu verschiedene Rechte, hier einen Zugriff auf meinen Account bei Booking und Kreditkarteninformationen .
- Nicht-deterministische Entscheidungsfindung:
Generative KI-Modelle bieten aufgrund ihrer Arbeitsweise verschiedene Angriffspunkte.
In einer Textgenerierung gehe ich davon aus, dass der beste Inhalt auf vorhandenen, qualitätsgesicherten Artikeln beruht oder vielleicht auch auf der Akzeptanz der User vorhergehender Texte – aber wer gibt das vor?
Dem Algorithmus kann als Ziel des »besten Inhalts” auch eine Meinungsveränderung oder ein Kaufverhalten vorgegeben werden. Diese Zielstellungen sind für mich nicht ersichtlich und damit nicht zu überprüfen.
Besonders kritisch ist, dass die Zielstellung eine KI dazu verleiten kann, menschliche Schwächen auszunutzen. Bestätigungsfehler, Katastrophisieren oder Verfügbarkeitsfehler sind nur einige Beispiele.
»Claude, welche Krankheiten treten in Thailand auf und wogegen sollte ich mich impfen lassen?«
Der unklare Prozess der Entscheidungsfindung ist dazu ein grundlegendes Problem für die Absicherung – die klassische Risikoanalyse der Prozessschritte scheidet praktisch aus. Aus Sicht der Prävention ist zurzeit nicht klar, wie der Prozess der Entscheidungsfindung auf Angriffsvektoren hin untersucht werden kann.
- Automatisierung:
Die Autorisierung ist eine Herausforderung, da diese regelmäßig elektronisch über ein Gerät oder vernetzte Geräte erfolgt.
Insbesondere der Gewöhnungseffekt könnte hier schwierig werden: Wie genau schaue ich noch auf die einzeln abgefragten Bestätigungen in Multi-Faktor-Authentifizierungen, wenn die letzten zwanzig Anfragen einfach in Ordnung waren?
- Nichtmenschliche Interaktionsmuster:
Bereits 2016 gewann eine KI im schwierigsten Brettspiel der Welt »GO” gegen den damaligen Weltmeister. Die KI nutzte dabei auch Züge, die von Profis nicht gespielt werden, weil sie in 2.500 Jahren Spielgeschichte als unsinnig galten. Das waren sie aber keineswegs; sie entsprachen nur nicht menschlicher Logik.
Das Fazit daraus: Bei einem Angriff durch eine hochentwickelte KI werden wir unerwartete und völlig neue Verhaltensweisen erleben.
- Ressourcen und Zeit:
Ein menschlicher Angreifer gibt irgendwann auf. Eine KI wird endlos testen – das könnte unser Hase- und Igel-Spiel grundlegend verändern. Gleichzeitig kann sie viele Ressourcen selbst neu generieren, zum Beispiel Mailadressen, Webseiten, Dokumente, Bilder, Videos und Stimmen.
Angriffsvektoren der nächsten Generation
Die Methoden, die Cyberkriminelle im AI-Jacking einsetzen könnten, unterscheiden sich fundamental von traditionellen Phishing-Techniken:
Prompt Injection 2.0
Für aktuelle generative KI-Chatbots gibt verschiedene Beispiele, bei denen durch Prompt-Injection-Manipulation die Sicherheitsprotokolle umgangen werden. Dies wird bei der Nutzung von KI-Agenten deutlich gefährlicher.
Veränderung der Trainingsdaten
Können Trainingsdaten von Angreifern kompromittiert werden, ergeben sich einfachste und großflächig einsetzbare Angriffsmuster.
In einem Test wurden in einem Trainingsdatensatz für Gesichtserkennung Gesichter als »Sicher« gelabelt, bei denen die Personen einen Post-It auf der Stirn hatten. In der Folge war die Gesichtserkennung einfach mit einem Post-It auf der Stirn zu umgehen. Das Merkmal wurde von der KI als hoch signifikantes Sicherheitsmerkmal eingestuft.
Kontextuelle Manipulation
KI-Agenten sind darauf ausgelegt, Kontext zu verstehen und entsprechend zu reagieren. Diese Fähigkeit kann ausgenutzt werden, indem Angreifer Szenarien konstruieren, die den Agenten in eine Zwickmühle bringen, in der er »logischerweise« schädliche Aktionen ausführen muss.
Vertrauensketten-Exploitation
Da KI-Agenten oft mit anderen automatisierten Agenten interagieren, könnten Angreifer versuchen, diese Vertrauensketten auszunutzen. Ein kompromittierter Agent könnte dabei als trojanisches Pferd dienen, um weitere Systeme zu infiltrieren.
Wie kann man sich gegen KI-Agent-Phishing absichern?
Die Verteidigung gegen KI-Agent-Phishing erfordert einen mehrschichtigen Ansatz:
Architektonische Sicherheit
Entwickler müssen bereits beim Design der Agenten Sicherheitsmechanismen implementieren, die über traditionelle Authentifizierung hinausgehen. Dies könnte die Einführung von »Security Boundaries« umfassen – klar definierte Grenzen für Aktionen, die ein Agent ausführen darf. Bei der Autorisierung müssten verschiedene Verfahren eingesetzt und nach Kritikalität unterschieden werden.
Verhaltensanalyse und Device Intelligence
Das Verhalten von KI-Agenten kann mittels spezialisierter (Machine Learning-) Algorithmen überwacht werden, um anormale Aktionen frühzeitig zu erkennen. Hier bietet es sich an, Erfahrungen aus der Cybersecurity zu nutzen, zum Beispiel aus dem Bereich der Netzwerkanalyse.
Hilfreich sind dafür zusätzliche Datenquellen wie etwa Device Fingerprinting. Zum einen liefern diese Daten, die nur von einem kleinen, sehr hoch entwickelten Teil der Betrüger zu manipulieren sind, d.h. Ein Großteil der Angriffe kann besser identifiziert werden. Zum anderen sind diese Daten extrem hilfreich in der Positividentifizierung – denn gute Kunden manipulieren diese Daten nicht.
Trainingsblock
Damit ein Angriffssystem nicht automatisiert aus direkten Reaktionen lernt, ist zu klären, wann eine Aktion aufgehalten wird und welche Alternativen es gibt. Beispiele gibt es aus der Betrugsabwehr bei Dating-Plattformen oder bei Online-Casinos: In hoch entwickelten Präventionssystemen werden erkannte Betrüger in ein Spiegelsystem (»Honeypot«) geleitet, in dem sie keinen Schaden anrichten können.
Zero-Trust-Architektur
Die Implementierung eines Zero-Trust-Modells für KI-Agenten könnte dazu beitragen, das Schadenspotential bei erfolgreichen Angriffen zu minimieren. Jede Aktion des Agenten müsste dabei kontinuierlich validiert werden.
Zero-Trust bedeutet in diesem Umfeld: Jeder Prompt kommt möglicherweise von einem Angreifer.
Schon jetzt mit der Sicherheitsplanung beginnen
Die Bedrohung durch AI-Jacking wird mit der zunehmenden Verbreitung autonomer Systeme wachsen. Unternehmen sollten sich bereits jetzt darauf vorbereiten. Hier sind ein paar konkrete Handlungsempfehlungen:
- Aufbau von Expertise im Bereich KI-Sicherheit
- Klare Limits und Grenzen für Handlungen über KI-Agenten, die nur durch stark gesicherte Verfahren verändert werden dürfen
- Entwicklung spezialisierter Sicherheitsframeworks für KI-Agenten
- Integration von spezifischen Sicherheitsprotokollen in bestehende Cybersecurity-Strategien
- Etablierung von Notfallprotokollen für kompromittierte KI-Agenten
- Einführung von Machine-Learning-gestützter Verhaltensanalyse zur Identifikation anomaler Interaktionen mit KI-Agenten
- Ergänzung der zur Prävention genutzten Datenquellen. Dies hilft auch bei der Abwehr anderer Angriffe
Die Herausforderung wird darin bestehen, die Vorteile autonomer KI-Agenten zu nutzen, ohne dabei neue, mitunter gravierende Sicherheitslücken zu schaffen. Dies erfordert ein Umdenken und die Entwicklung neuer Sicherheitsparadigmen, die den spezifischen Eigenschaften von KI-Systemen Rechnung tragen. Die Integration bewährter Betrugserkennungsmethoden in diese neuen Sicherheitskonzepte wird dabei eine zentrale Rolle spielen.
Wir wissen doch längst: Bequemlichkeit gewinnt. Und ist ein Risiko.
Dass hier das Thema Sicherheit eine größere Rolle spielen muss, werden wir erst lernen.
Wer haftet für Verluste aus AI-Jacking?
Interessant ist die Frage der Haftung für ein Fehlverhalten von teilautonomen KI-Agenten. Gerade unter der kommenden Payment-Service-Regulation könnte dies ein kritisches Thema werden. Geplant ist, die vorhandene Beweislast der Anbieter auch tatsächlich durchzusetzen. Noch ist aber unklar, wie ein tatsächliches Verschulden eines Kunden bewiesen werden soll und kann, insbesondere wenn Angebote von Unternehmen KI-Agenten unterstützen.
Das Kind ist noch nicht im Brunnen
AI-Jacking eröffnet eine neue Dimension für Angreifer, der traditionelle Abwehrmechanismen noch kaum Rechnung tragen. Die Eigenschaften generativer KI-Systeme machen sie zu attraktiven Angriffszielen, deren Absicherung neue Ansätze erfordert. Unternehmen und Organisationen sind gut beraten, sich frühzeitig mit dieser aufkommenden Bedrohung auseinanderzusetzen und schon im Vorfeld entsprechende Gegenmaßnahmen zu entwickeln.
Dirk Mayer, Head of Anti-Fraud Consultants bei RISK IDENT
354 Artikel zu „KI-Agenten Sicherheit“
News | Business Process Management | Geschäftsprozesse | IT-Security | Services | Strategien | Tipps
DORA: Fünf Chancen, um Cybersicherheit und Resilienz zu erhöhen

Wie der Finanzsektor und dessen IT-Dienstleister ihre DORA-Hausaufgaben jetzt erledigen können. Der Digital Operational Resilience Act (DORA), welcher am 17. Januar 2025 in Kraft getreten ist, betrifft nicht nur Anbieter von Finanzdiensten, sondern auch deren IT-Dienstleister: Dazu gehören sowohl Partner und Distributoren, aber auch indirekte IT-Dienstanbieter, wie die Anbieter von IT-Sicherheitsplattformen. Der Kreis der…
Trends 2026 | News | Trends Wirtschaft | Business | Trends Geschäftsprozesse | Geschäftsprozesse | Strategien
Budgetplanung für 2026 in wirtschaftlicher Unsicherheit

Angesichts der anhaltenden Volatilität kann die Einführung von Szenarioplanung dabei helfen, die Kontrolle zurückzugewinnen. Laut den Forrester-Leitfäden zur Budgetplanung für 2026 bremst die Volatilität den Optimismus hinsichtlich der Budgets für 2026 [1]. Zölle, Handelskriege, Cyberbedrohungen und wirtschaftliche Unsicherheit führen zu einer Neujustierung der Budgeterwartungen und signalisieren eine Verlagerung hin zu einer vorsichtigeren Wachstumsplanung. Angesichts anhaltender…
News | Infrastruktur | Künstliche Intelligenz | Produktmeldung | Strategien
Agentenbasierte KI mit einem Höchstmaß an Vertrauen und Sicherheit

Kyndryl nutzt seine jahrzehntelange Erfahrung im Bereich IT-Infrastrukturen, um ein leistungsfähiges unternehmensweites Framework bereitzustellen: Es basiert auf intelligenten KI-Agenten, die lernen, sich anpassen und weiterentwickeln und so Daten in konkretes Handeln übersetzen. Das »Kyndryl Agentic AI Framework« organisiert sich selbst, skaliert flexibel und führt Aufgaben sicher über unterschiedliche IT-Landschaften und komplexe Workflows hinweg aus,…
News | Trends Geschäftsprozesse | Digitalisierung | Trends Services | Effizienz | Künstliche Intelligenz
Unternehmen betrachten KI-Agenten mittlerweile als unverzichtbar

Die befragten Führungskräfte berichten von einem erwarteten Anstieg der KI-gestützten Arbeitsabläufe um das 8-fache bis 2025, wobei KI-Agenten die Prozesseffizienz verbessern, Kosten senken und Arbeitsabläufe verändern. Die Befragten gaben an, dass 64 % der KI-Budgets inzwischen für den zentralen Geschäftsbereich ausgegeben werden. Mehr als zwei Drittel (69 %) der befragten Führungskräfte geben an, dass »verbesserte…
News | Business | Favoriten der Redaktion | IT-Security | Kommentar | Künstliche Intelligenz | Strategien
Sicherheitsprobleme bei Grok: Unkontrollierte KI vergrößert die Angriffsfläche

Das neueste Grok-Debakel liest sich wie eine Fallstudie darüber, wie man keinen AI-Chatbot auf den Markt bringt. Elon Musks xAI, frisch aus dem Hype-Zyklus für Grok 4.0, befand sich im Schadensbegrenzungsmodus, nachdem der Bot antisemitische Klischees verbreitet, Hitler gelobt und mit einer Art von »Wahrheitssuche«-Rhetorik nachgelegt hatte, die zu einem Dog-Whistle für »alles ist erlaubt«…
News | Digitalisierung | Effizienz | Favoriten der Redaktion | IT-Security | Services | Strategien
Cybersicherheit: BMI und BSI wollen Deutschland robuster aufstellen

Die Cybersicherheitslage in Deutschland ist angespannt: Desinformation, Hacktivismus, Spionage und Sabotage waren und sind verstärkt zu beobachten. Sie bedrohen Sicherheit und Stabilität von Staat, Wirtschaft und Gesellschaft. Bundesinnenminister Alexander Dobrindt besuchte daher das Bundesamt für Sicherheit in der Informationstechnik (BSI) in Bonn. Er informierte sich bei BSI-Präsidentin Claudia Plattner über die Leistungsfähigkeit des BSI in…
Trends 2025 | News | Trends Services | Künstliche Intelligenz | New Work
KI-Agenten im Job: Das denken Angestellte in Deutschland

Angestellte ohne Führungsverantwortung blicken mit einer Mischung aus Skepsis und Neugier auf eine Zukunft, in der ihnen KI-Agenten im Beruf zur Seite stehen werden. Ob positive oder negative Gefühle überwiegen, hängt ganz davon ab, wen man fragt: Frauen freuen sich beispielsweise eher auf die agentische Zukunft (38 Prozent vergaben positive Attribute, 37 negative) als Männer…
Trends 2025 | News | Trends Services | Favoriten der Redaktion | Künstliche Intelligenz | Services
Fast alle Unternehmen bauen den Einsatz von KI-Agenten aus

Die aktuelle Umfrage unter IT-Führungskräften weltweit ergibt, dass der Großteil KI-Agenten befürwortet, aber Sorgen in Bezug auf Datenschutz, Integration und Datenqualität bestehen. Cloudera , die hybride Plattform für Daten, Analysen und KI, hat die Ergebnisse seiner jüngsten Studie »The Future of Enterprise AI Agents« veröffentlicht [1]. Im Rahmen der Umfrage wurden im Januar und…
Trends 2025 | News | Trends Security | IT-Security
Cybersicherheitsreport 2025: Angriffe nehmen weiter zu

Sicherheitsexperte Dennis Weyel: »Viele Unternehmen segeln durch den Cyberspace wie ein Schiff bei Dunkelheit durch den Nebel. Sie wissen, dass Gefahren lauern und haben Vorsichtsmaßnahmen getroffen, aber sie wissen nicht, ob ihr Schiff einem Angriff standhalten würde.« Die Cyberattacken auf die heimische Wirtschaft werden immer heftiger – diese Entwicklung lässt sich dem »Cyber Security…
News | Effizienz | Infrastruktur | IT-Security | Logistik | Services | Tipps
Cybersicherheit ist zentral für die erfolgreiche Nutzung gewerblicher Elektrofahrzeuge

So können Betreiber unterschiedlichster Fuhrparks von gestiegenem Kundenvertrauen sowie verbesserter Effizienz und Monetarisierung ihrer EV-Fahrzeuge profitieren. Der globale Lasten- und Personentransport befindet sich inmitten eines großen Wandels, da die Politik den Übergang zu Elektrofahrzeugen (EVs) beschleunigt. In der EU und Ländern wie den USA oder Taiwan werden die Emissionsstandards immer strenger, teilweise sollen städtische…
Trends 2025 | News | Trends Security | Healthcare IT | IT-Security
Zunehmende Risiken für Gesundheitsorganisationen – Cybersicherheitsresilienz rückt in den Fokus

Nur 29 % der Führungskräfte im Gesundheitswesen glauben auf KI-gestützte Bedrohungen vorbereitet zu sein. LevelBlue, ein Anbieter von Managed Security Services, strategischer Beratung und Threat Intelligence, hat seinen 2025 Spotlight Report: Cyber Resilience and Business Impact in Healthcare veröffentlicht [1]. Die Ergebnisse zeigen, wie sich die Gesundheitsbranche gegen zunehmend zahlreichere und ausgefeiltere Angriffe schützt. …
News | Geschäftsprozesse | Infrastruktur | IT-Security | Strategien
Cybersicherheit im Gesundheitswesen: Zwischen regulatorischem Aufbruch und technischer Stagnation

Krankenhäuser und Gesundheitseinrichtungen sind aufgrund sensibler Patientendaten, wertvoller Forschungsergebnisse und ihrer kritischen Dienstleistungen ein attraktives Ziel für Cyberkriminelle. Jüngste Analysen zur Cybersicherheitslage im Gesundheitswesen, etwa die Studie des Hasso-Plattner-Instituts »Alarmsignal Cybersicherheit«, zeichnen ein Bild einer sich zuspitzenden Bedrohungslage. Zwar befindet sich das Gesundheitswesen hinsichtlich seiner Gefährdungslage in »guter Gesellschaft« – man denke an die vielfach…
News | Favoriten der Redaktion | IT-Security | Kommunikation | Services | Tipps
Barrierefreiheit trifft Cybersicherheit: Warum Unternehmen 2025 beides denken müssen

Das Barrierefreiheitsstärkungsgesetz ist mehr als nur eine Pflicht – es ist ein Hebel für digitale Resilienz und strategische Sicherheit. Ab dem 28. Juni 2025 gilt: Digitale Produkte und Dienstleistungen müssen auch für Menschen mit Behinderungen zugänglich sein. Mit dem Inkrafttreten des Barrierefreiheitsstärkungsgesetzes (BFSG) beginnt eine neue Ära der digitalen Verantwortung. Was als Compliance-Thema beginnt,…
Trends 2025 | News | Trends Security | Cloud Computing | IT-Security | Künstliche Intelligenz
KI zwingt Abstriche in Sachen Hybrid-Cloud-Sicherheit zu machen

KI verursacht größeres Netzwerkdatenvolumen und -komplexität und folglich auch das Risiko. Zudem gefährden Kompromisse die Sicherheit der hybriden Cloud-Infrastruktur, weshalb deutsche Sicherheits- und IT-Entscheider ihre Strategie überdenken und sich zunehmend von der Public Cloud entfernen. Gleichzeitig gewinnt die Netzwerksichtbarkeit weiter an Bedeutung. 63 Prozent der deutschen Sicherheits- und IT-Entscheider berichten, dass sie im Laufe…
Trends 2025 | News | Trends Security | IT-Security
Immer mehr Entwicklerteams sind für Anwendungssicherheit verantwortlich

Obwohl der DevSecOps-Reifegrad weiterhin im Fokus steht, basieren laut CISOs nur 39 Prozent der Geschäftsprozesse auf sicheren Anwendungen. Checkmarx, Anbieter im Bereich Cloud-native Application Security, hat seine jährliche Studie »A CISO’s Guide to Steering AppSec in the Age of DevSecOps« vorgestellt [1]. Aufsetzend auf eine Umfrage unter 200 Chief Information Security Officers (CISOs) aus…
News | Digitale Transformation | Künstliche Intelligenz | Strategien | Tipps
KI-Agenten erfolgreich integrieren: Vier zentrale Erfolgsfaktoren

Immer mehr Unternehmen möchten heute auf KI-Agenten setzen, um Prozesse zu beschleunigen und ihre Teams zu entlasten. Doch viele wissen nicht, wo sie anfangen sollen. Es gibt vier zentrale Erfolgsfaktoren, mit denen der effektive Einsatz von KI-Agenten gelingt. Unternehmen setzen vermehrt auf KI-Agenten, um ihre Arbeitsweise zu verbessern – und das aus gutem Grund:…
News | Kommentar | Künstliche Intelligenz
Agent oder Agentic: KI-Agenten etablieren sich

Der Hype rund um Agentic AI ist riesig – und berechtigt. Denn wir haben es mit nicht weniger als einer neuen Qualität künstlicher Intelligenz zu tun. Mit Agentic AI verliert KI zunehmend ihren Werkzeugcharakter und entwickelt sich vielmehr zu einem eigenständig agierenden System. Wie weit Agentic AI bereits praktisch gediehen ist, zeigen ihre verschiedenen Ausprägungen…
News | Infrastruktur | IT-Security | Kommunikation
Weltfernmeldetag: Smarte Städte brauchen smarte Lösungen für die öffentliche Sicherheit

Die kritische Kommunikation im Bereich der öffentlichen Sicherheit durchläuft derzeit einen tiefgreifenden Wandel. Viele Organisationen ersetzen ihre älteren digitalen Schmalbandfunkdienste wie TETRA durch leistungsfähigere Breitbandlösungen. TETRA wird zwar seit den 1990er Jahren für sicherheitskritische Kommunikation genutzt, stößt aber zunehmend an seine Grenzen. Zu den Herausforderungen zählen niedrige Datenübertragungsraten, begrenzte Frequenzverfügbarkeit, eingeschränkte Netzabdeckung, eine geringe…
News | Effizienz | Künstliche Intelligenz
KI-Agenten: Das fehlende Stück im Plattform-Engineering

Die KI verändert die Softwareentwicklung rasch, aber ein großer Teil ihres Werts konzentriert sich auf die Steigerung der Produktivität einzelner EntwicklerInnen. Code-Unterstützung bringt willkommene Effizienzgewinne beim Start neuer Projekte, Frameworks aufzubauen und das »Blank Screen«-Problem zu überwinden.
Trends 2025 | News | Trends Kommunikation | Digitalisierung | Künstliche Intelligenz
KI-Agenten: Führungskräfte erwarten rasante Verbreitung und Renditen über 100 %

Agentenbasierte KI übertrifft generative KI: KI-Agenten könnten fast 40 % der Arbeit automatisieren oder beschleunigen. Eine neue internationale Umfrage von PagerDuty zeigt, dass Unternehmen zunehmend agentenbasierte KI (Agentic-AI) implementieren, um Automatisierung und betriebliche Effizienz zu steigern [1]. Die Studie zeigt: bereits mehr als 51 % setzen KI-Agenten ein. Die neuesten Daten belegen, dass 94…