
Illustration Absmeier foto freepik
Künstliche Intelligenz (KI) wird heute schon vielfach bei der Entscheidungsfindung benutzt. Doch was passiert, wenn die Datengrundlage, auf der diese Entscheidungen beruhen, verzerrt ist? Eine geschlechtsspezifische Voreingenommenheit, die technische und gesellschaftliche Folgen haben kann.
Prof. Dr. Christian Prinz, Molekularmediziner, Professor für Data Science und Künstliche Intelligenz an der »SRH Fernhochschule – The Mobile University« lehrt und forscht rund um das Thema KI. Für ihn ist klar: KI ist nur so objektiv wie die Daten, mit denen sie trainiert wurde. Das Problem: Viele dieser Daten spiegeln gesellschaftliche Vorurteile wider. Besonders deutlich wird das in der Medizin. Studien zeigen, dass Frauen bei Brustschmerzen im Schnitt länger auf ein EKG warten als Männer. Ihre Symptome werden häufiger als psychisch eingestuft, insbesondere wenn sie von der vermeintlich männlichen Herzinfarktsymptomatik abweichen. Und das hat Auswirkungen auf die Ergebnisse, wenn man die KI mit diesen Studiendaten trainiert, um sie dann zur Unterstützung rund um eine Herzinfarktdiagnose einzusetzen.
Die Daten lügen nicht. Oder doch?
»Die vorhandenen Daten sind immer die Grundlage. Wenn sie Bias enthalten, dann produzieren sie Bias behaftete Vorhersagen. Das passiert oft unbemerkt, wenn man nicht genau auf die Daten schaut«, erklärt Prinz. Überlässt man also der KI das Feld unkontrolliert, entsteht laut dem Wissenschaftler bei gesellschaftlich positiven Entwicklungen in der KI oft wieder ein Reset, weil deren Datengrundlage somit massiv überholt ist.
In seiner Forschung beschäftigt sich Christian Prinz unter anderem mit geschlechtsspezifischen Unterschieden in medizinischen Daten und den Risiken algorithmischer Entscheidungen. Aus diesem Bereich liefert er ein konkretes Beispiel: Eine Frau klagt über Übelkeit, Rückenschmerzen und Erschöpfung: Symptome, die durchaus zu einem Herzinfarkt gehören, aber oft übersehen werden. »Die KI erkennt solche Fälle oft schlechter, weil sie auf Datensätzen basiert, in denen Männer überrepräsentiert sind und weibliche Symptomatiken als ›atypisch‹ gelten«, so Prinz.
Wenn Algorithmen benachteiligen
Nicht nur in der Medizin, auch in anderen Bereichen zeigt sich Gender Bias. Ein großer internationaler Onlinehändler stoppte ein Bewerbertool, weil es Frauen systematisch benachteiligte. Die KI bewertete Begriffe und Formulierungen aus alten Bewerbungen – mehrheitlich von Männern – als besonders positiv. Frauen mit ähnlichen Qualifikationen wurden schlechter eingestuft.
Dabei ist Bias nicht nur ein Datenproblem, sondern auch eine Frage der Modellierung. »KI übernimmt nicht nur die Muster aus den Daten, sondern reproduziert auch die Denkweisen ihrer Entwickler«, sagt Prinz. Gerade bei generativer KI sei das besonders kritisch: »Wenn ChatGPT etwa beim Programmieren hilft, übernimmt es oft Codefragmente mit inhärenten Verzerrungen. Diese werden dann weitergetragen.«
Präzise, aber falsch: Bias und Noise
Vorhersagefehler lassen sich grob in zwei Kategorien einteilen: Bias (Verzerrung) und Noise (Zufälligkeit). »Ein gutes Bild liefert das Dartspiel: Wenn man zehnmal in die rechte obere Ecke trifft, ist man sehr präzise, aber nicht richtig. Das ist Bias. Wenn die Pfeile wild um das Zentrum streuen, ist das Noise«, erklärt Prinz.
»Diversität in den Daten ist essenziell«
Vollständig ausschließen lässt sich Bias wohl nie. Doch es gibt wirkungsvolle Maßnahmen, um ihn zu erkennen und zu reduzieren. Technisch helfen Fairnessmetriken, De-Bias-Methoden oder Explainability-Tools, die nachvollziehbar machen, wie eine KI zu ihren Entscheidungen kommt. Organisatorisch sind interdisziplinäre Teams, Audits und Ethikleitlinien notwendig. Und gesellschaftlich braucht es mehr Aufklärung und Verantwortung.
»Ein wichtiger Faktor ist auch die Datenqualität«, betont Prinz. »Wenn wir KI mit verzerrten oder unausgewogenen Daten füttern, dürfen wir uns über diskriminierende Ergebnisse nicht wundern. Diversität in den Daten ist essenziell.« Noch wichtiger ist aber laut dem Professor der SRH Fernhochschule, dass in den Daten das abgebildet sein muss, was vorhergesagt werden soll.
Eine Frage der Gerechtigkeit
Gender Bias in der künstlichen Intelligenz ist kein Randphänomen. Er betrifft viele Lebensbereiche und kann reale Folgen haben: Etwa, wenn eine Frau wegen ihrer »atypischen« Symptome nicht rechtzeitig behandelt wird. Oder wenn qualifizierte Bewerberinnen von einem Algorithmus aussortiert werden.
»Doch die Technik ist nicht unser Feind«, sagt Prinz. Er ist sich sicher: KI kann helfen, Entscheidungen objektiver und besser zu machen, wenn sie richtig eingesetzt wird. Dazu gehört, bestehende Ungleichheiten zu erkennen und nicht unreflektiert in neue Systeme zu übernehmen. Nur so kann KI zu einem Werkzeug der Gerechtigkeit werden; und nicht zu einem Verstärker alter Vorurteile.
Was ist Gender Bias in der künstlichen Intelligenz?
Gender Bias bezeichnet eine systematische Verzerrung in Daten oder Entscheidungen aufgrund des Geschlechts. In der künstlichen Intelligenz entsteht dieser Bias oft, weil die Trainingsdaten gesellschaftliche Ungleichheiten widerspiegeln. Wenn etwa in medizinischen Datensätzen überwiegend Männer vertreten sind, erkennt eine KI typische weibliche Symptome schlechter. Auch Bewerbungs-KIs oder Sprachmodelle wie ChatGPT können Vorurteile übernehmen. Zum Beispiel indem sie Männer mit Führung, Frauen mit Pflege assoziieren.
Bias kann sich in allen Phasen der KI-Entwicklung einschleichen:
- Datenerhebung: Wenn bestimmte Gruppen unterrepräsentiert sind
- Datenverarbeitung: Wenn fehlerhafte Annahmen getroffen werden
- Modelltraining: Wenn Algorithmen bestehende Muster verstärken
- Anwendung: Wenn Entscheidungen ohne menschliches Hinterfragen getroffen werden
Ziel fairer KI-Entwicklung ist es, diese Verzerrungen zu erkennen, zu benennen und zu minimieren.
Den zugehörigen Fachtext mit allen zugrundeliegenden Quellen finden Sie hier:
https://www.mobile-university.de/tw-digitalisierung/gender-bias-in-der-kuenstlichen-intelligenz/
Prof. Dr. Christian Prinz
Christian Prinz ist Molekularmediziner und spezialisiert in MR-Neuroimmunpharmakologie und klinischen Datenwissenschaften. Nach Stationen in Erlangen, Parma, Berlin und Heidelberg als Wissenschaftler, später Projektmanager und Consultant in der medizinischen Softwareentwicklung lehrte Christian Prinz seit 2022 im Bereich Data Science & Analytics an der SRH Fernhochschule – The Mobile University als Fachdozent. Seit März 2025 hält er eine Professur für Data Science und künstliche Intelligenz.
Sicherheitsprobleme bei Grok: KI vergrößert die Angriffsfläche
Das neueste Grok-Debakel liest sich wie eine Fallstudie darüber, wie man keinen AI-Chatbot auf den Markt bringt. Elon Musks xAI, frisch aus dem Hype-Zyklus für Grok 4.0, befand sich im Schadensbegrenzungsmodus, nachdem der Bot antisemitische Klischees verbreitet, Hitler gelobt und mit einer Art von »Wahrheitssuche«-Rhetorik nachgelegt hatte, die zu einem Dog-Whistle für »alles ist erlaubt« geworden ist.
Die Antwort des Unternehmens bestand darin, die Beiträge zu löschen und zu versprechen, dass die Filter beim nächsten Mal funktionieren werden, während der Eigentümer des Unternehmens, Elon Musk, manipulative Eingaben durch Benutzer verantwortlich machte.
Die Kernschwachstelle liegt hier im Design von Grok. Als »wahrheitssuchende« Alternative zu stärker kontrollierten Chatbots vermarktet, wurde Grok mit weniger Schutzmaßnahmen und einer Bereitschaft entwickelt, die rohesten Ränder des Online-Diskurses widerzuspiegeln. Es scheint sehr ähnlich wie X nach Musks Übernahme des Unternehmens zu funktionieren.
Diese Designphilosophie, gepaart mit der berüchtigten »Compliance« des Modells gegenüber Benutzereingaben, schuf einen perfekten Sturm für Prompt-Injection-Angriffe. Dies ist ein äußerst gefährlicher Angriffsvektor, da Bedrohungsakteure, wenn sie die richtigen Fragen stellen, Chatbots dazu bringen können, Anweisungen zu geben, wie man Uran anreichert, eine Bombe baut oder Methamphetamin zu Hause herstellt.
Auf diese Weise könnten Chatbots auch dazu verwendet werden, Hassreden zu verstärken, Verschwörungstheorien zu verbreiten und sogar genozidale Figuren zu loben, alles unter dem Banner der »freien Meinungsäußerung«.
Was aus einer Cybersicherheitsperspektive am besorgniserregendsten ist, ist das Fehlen einer proaktiven Verteidigung. Die Antwort von xAI war eine Lehrbuchreaktion auf Vorfälle (nicht, dass sie jemals gut für die Schuldigen funktioniert) – die Beiträge löschen, die Eingabeaufforderungen patchen und das Beste hoffen.
Aber in der modernen Informationssicherheit ist das nicht genug. Richtige Sicherheit erfordert gegnerisches Red-Teaming vor dem Start, nicht, nachdem der Schaden angerichtet wurde. Es erfordert geschichtete Kontrollen – robuste Eingabevalidierung, Ausgabemonitoring, Anomalieerkennung und die Fähigkeit, Modelle zu isolieren oder zurückzusetzen, wenn sie aus dem Ruder laufen.
Der Rollout von Grok, der mit dem Start der Version 4.0 zusammenfiel, deutet darauf hin, dass das Modell ohne ausreichende Penetrationstests oder ethisches Red-Teaming live geschaltet wurde, wodurch Millionen in Echtzeit einem Risiko ausgesetzt wurden.
Die regulatorischen Konsequenzen einer unverantwortlichen Chatbot-Entwicklung entfalten sich bereits. Die Türkei hat Grok wegen Beleidigungen gegen Erdoğan verboten, und Polen beabsichtigt, den Chatbot bei der EU zu melden, weil er polnische Politiker beleidigt hat. Dies sind Signale dafür, dass die Ära des »schnellen Handelns« für KI vorbei ist.
Unter dem EU-Digitaldienstegesetz und ähnlichen Gesetzen sind Plattformen nun für algorithmische Schäden verantwortlich und es drohen massive Geldstrafen und betriebliche Einschränkungen. Die Kosten unsicherer KI werden in Gerichtsbeschlüssen, Compliance-Audits und dem Verlust des öffentlichen Vertrauens gemessen.
Vielleicht ist das heimtückischste Risiko, wie generative KI wie Grok bestehende Bedrohungen verstärken und Vorurteile verstärken kann. In den falschen Händen ist ein Chatbot ein Megafon.
Koordinierte Gegner könnten solche Systeme für Einflussoperationen, Belästigungskampagnen oder sogar ausgeklügelte Phishing- und Social-Engineering-Angriffe nutzen, alles in beispiellosem Ausmaß und Tempo. Jeder Fehler, jeder verpasste Filter wird sofort zu einer Waffe.
Um unsere Gesellschaften zu schützen, müssen wir erkennen, dass generative KI eine lebendige, sich entwickelnde Angriffsfläche ist, die neue Strategien, neue Transparenz und unermüdliche Wachsamkeit erfordert.
Wenn Unternehmen diese Fehler weiterhin als isolierte Pannen behandeln, werden sie nicht nur von Angreifern überholt, sondern auch von Regulierungsbehörden angegangen und von Nutzern verlassen.
Jurgita Lapienytė
ÜBER DIE AUTORIN
Jurgita Lapienytė ist Chefredakteurin bei Cybernews, wo sie ein Team von Journalisten und Sicherheitsexperten leitet, das Cyberbedrohungen durch Forschung, Tests und datengetriebene Berichterstattung aufdeckt. Mit einer Karriere, die sich über mehr als 15 Jahre erstreckt, hat sie über wichtige globale Ereignisse berichtet, darunter die Finanzkrise 2008 und die Terroranschläge in Paris 2015, und hat durch investigativen Journalismus Transparenz gefördert. Als leidenschaftliche Verfechterin des Bewusstseins für Cybersicherheit und Frauen in der Technik hat Jurgita führende Persönlichkeiten der Cybersicherheit interviewt und unterrepräsentierten Stimmen in der Branche Gehör verschafft. Sie wurde als Cybersecurity-Journalistin des Jahres ausgezeichnet und in der Liste der 40 unter 40 im Bereich Cybersicherheit des Top Cyber News Magazine aufgeführt.
407 Artikel zu „Bias KI“
News | Favoriten der Redaktion | Künstliche Intelligenz | Strategien | Tipps
Fakten statt Fiktion: Was tun gegen KI-Halluzinationen und KI-Bias?

Generative KI ist unglaublich gut darin, Informationen zu recherchieren und aufzubereiten. Unfehlbar ist sie allerdings nicht – sie kann durchaus falsch liegen oder vorurteilsbehaftete Ergebnisse liefern. Doch es gibt Maßnahmen, mit denen Unternehmen das Risiko von Halluzinationen und Bias minimieren können. Immer mehr Unternehmen setzen generative KI (GenAI) ein, um beispielsweise Mitarbeitern den Zugang zu…
News | Trends 2023 | Künstliche Intelligenz
Generative KI: Mehrheit fürchtet Bias, Datenschutzverletzungen und Urheberrechtsprobleme

Applause befragt über 3.000 Fachleute weltweit zu ihrer Nutzung und ihren Bedenken von Nutzung generativer KI am Arbeitsplatz. 90 Prozent der Teilnehmer weltweit befürchten, dass KI-Voreingenommenheit die Genauigkeit der Antworten beeinträchtigen könnte. 67 Prozent glauben, dass generative KI-Dienste den Datenschutz verletzen. Applause, ein Anbieter für Software-Testing und digitale Qualitätssicherung, hat die Ergebnisse seiner ersten…
Ausgabe 5-6-2025 | News | Cloud Computing | Infrastruktur | Strategien
Cloud-Souveränität 2025 – Zwischen Regulierung, KI und technischer Realität
Ausgabe 5-6-2025 | News | Business | Künstliche Intelligenz | Strategien
Solide Data Governance für KI-Projekte – Schlechte Daten verhageln auch die beste KI

Der Erfolg einer KI-Nutzung steht und fällt mit der Qualität ihrer Ergebnisse: Ist nur ein kleiner Teil der Antworten potenziell fehlerbehaftet, müssen Mitarbeitende viel Zeit in die Prüfung und Nachbearbeitung der Ergebnisse investieren – der Nutzen sinkt rapide. Eine Problematik, die mit Agentic AI nun noch eine weitere Dimension gewinnt. Schließlich generieren KI-Agenten nicht nur Informationen, sondern führen auf dieser Basis auch autonome Aktionen aus. Damit das Risiko von Fehlern sinkt und Vertrauen in die Technologie entstehen kann, braucht es mehr als »nur« eine hohe Datenqualität. Eine durchdachte Data Governance ist zum entscheidenden Erfolgsfaktor moderner KI-Szenarien geworden.
News | Digitalisierung | Favoriten der Redaktion | Künstliche Intelligenz | Services | Strategien
KI im Klassenzimmer – Unterstützung für Lehrkräfte und Lernende

Die schnellen Entwicklungen im Bereich der künstlichen Intelligenz (KI) in den letzten Jahren haben zahlreiche Möglichkeiten eröffnet, etwa für Unternehmen, die mit KI ihre Betriebsabläufe optimieren. Doch es ist kein Geheimnis, dass Deutschland im Bereich KI eine Fähigkeitslücke hat. Der schnelle technologische Fortschritt macht keine Anstalten, langsamer zu werden, und Fachkräfte und Unternehmen haben es…
Trends 2025 | News | Business | Trends Kommunikation | Trends Services | Künstliche Intelligenz | New Work
Zwei von drei Bewerbungen mit Hilfe von KI erstellt – es fehlt Individualität

80 % der Recruiter bewerten eingehende Bewerbungen als höchstens mittelmäßig. Bewerbungen erfolgen häufig »auf gut Glück«: Fähigkeiten und Berufserfahrung passen oft nicht zum Job. Fast zwei Drittel (61 %) nutzen KI bei Jobsuche und Bewerbung, schöpfen Potenzial aber nicht voll aus. Bewerbungen scheitern, weil sich Jobsuchende oft auf Verdacht bewerben und ihre Unterlagen zu…
News | Favoriten der Redaktion | Künstliche Intelligenz | Tipps
Überprüfung von KI-Ergebnissen: So bewerten Sie die Zuverlässigkeit künstlicher Intelligenz

Die Nutzung von künstlicher Intelligenz (KI) wird immer alltäglicher – sei es für Texte, Analysen oder Bilder. Doch wie kann man sicherstellen, dass die Ergebnisse korrekt, verlässlich und nicht verzerrt sind? Hier sind einige Methoden, mit denen Sie die Qualität und Genauigkeit von KI-generierten Ergebnissen prüfen können. Faktencheck durch unabhängige Quellen KI kann Fehler…
News | Digitalisierung | Favoriten der Redaktion | Kommunikation | Künstliche Intelligenz | Tipps
Künstliche Intelligenz: Zu sorgloser Umgang mit KI

Nur etwas mehr als ein Viertel der Befragten (27 Prozent) hierzulande sagt, dass sie die Ergebnisse, die die KI für sie generiert gegenchecken. 8 von 10 Usern (80 Prozent) sagen, dass künstliche Intelligenz (KI) ihre Bedürfnisse versteht – Deutschland damit Spitzenreiter im internationalen Vergleich. Westlich geprägte Länder schätzen Möglichkeiten der künstlichen Intelligenz deutlich anders ein…
News | Digitalisierung | Favoriten der Redaktion | Kommentar | Künstliche Intelligenz
Souveränität: KI als Trojanisches Pferd

Wie ein simples Präsidenten-Dekret Europa den KI-Stecker ziehen könnte. Über digitale Souveränität wurde schon viel geschrieben, aber der Begriff bleibt häufig abstrakt. Was er bedeutet, hat Donald Trump vor Kurzem beim Internationalen Strafgerichtshof demonstriert. Er hat dem Chefankläger Karim Khan den Zugang zu seinem Microsoft-E-Mail-Account gekappt, seine britischen Bankkonten gesperrt und US-Bürgern mit Verhaftung…
Ausgabe 3-4-2025 | News | Business | Künstliche Intelligenz | Services | Strategien
Ganzheitliches Datenmanagement, um KI-Initiativen erfolgreich voranzutreiben – Vom Datensumpf zum einfach nutzbaren Datenprodukt

An Daten herrscht in den meisten Unternehmen kein Mangel, doch in der Regel sind sie über unzählige Standorte und Systeme verteilt. Zum Training von KI oder für KI-Auswertungen lassen sie sich daher nur schlecht effizient einsetzen. Unternehmen benötigen neue Ansätze, Daten effizient zu verwalten und nutzbar zu machen.
News | Business Process Management | Digitalisierung | Effizienz | Favoriten der Redaktion | Infrastruktur | Künstliche Intelligenz | Strategien
D&A: Drei Schlüsselbereiche für den erfolgreichen KI-Scale-up

Gartner prognostiziert, dass mangelhafte Datenqualität auch 2025 eine der größten Hürden für den Einsatz fortschrittlicher Analytik wie KI bleiben wird. Deshalb sollten sich D&A-Führungskräfte auf drei eng verzahnte Bereiche konzentrieren, um KI-Initiativen in ihren Unternehmen erfolgreich voranzutreiben: Geschäftsergebnisse, D&A-Kompetenzen und kultureller Wandel. »KI verändert die Unternehmensplanung grundlegend, und mehr als die Hälfte der CEOs…
News | Cloud Computing | Digitale Transformation | Logistik
Produktion und Intralogistik: Cloud-Transformation vor KI-Revolution

Ob als Ratgeber für die Entscheidungsfindung bei komplexen betrieblichen Abläufen oder als Assistent bei der Planung von Geschäftsprozessen – Unternehmen setzen zunehmend auf KI-basierte Software. Ihre volle Leistungsfähigkeit entfaltet sich jedoch erst in einer Cloud-Infrastruktur. Speziell in den Bereichen Intralogistik und Produktion gibt es noch Nachholbedarf. Der Optimierungsspezialist INFORM erklärt, warum die Cloud-Transformation in diesen…
News | Business | Favoriten der Redaktion | Künstliche Intelligenz | Strategien | Tipps
Sechs Bausteine zur KI-Readiness: KI lebt von hochwertigen Daten und intelligenter Planung

Künstliche Intelligenz hat das Potenzial, Prozesse in nahezu allen Branchen zu revolutionieren. Doch der Erfolg jeder KI-Anwendung steht und fällt mit der Qualität der zugrunde liegenden Daten und der richtigen Vorbereitung. NTT DATA erklärt, welche Aspekte bei der Umsetzung eines KI-Projekts relevant sind. Künstliche Intelligenz hat sich in den letzten Jahren zu einem der…
News | Favoriten der Redaktion | IT-Security | Tipps
Die Evolution des KI-unterstützten Internetbetrugs: Neue Betrugsmaschen und Gegenmaßnahmen

Künstliche Intelligenz (KI) macht es Cyberkriminellen immer leichter, ihre eigenen »Produktivitätstools« zu entwickeln. Sie ermöglicht es, täuschend echt wirkende Inhalte für Angriffe in immer schneller werdendem Tempo zu erstellen. Dabei kommen sowohl legitime Apps , die für böswillige Zwecke missbraucht werden, als auch speziell entwickelte Tools, die in der Cybercrime-Unterwelt kursieren, zum Einsatz. KI-Tools durchsuchen…
News | Effizienz | Infrastruktur | Rechenzentrum | Strategien
Neuer Ansatz einer Datenspeicherplattform für KI und HPC im großen Maßstab

Für KI-Workloads optimierte All-Flash-basierte Ultra-Scale-Datenspeicherplattformen liefern ausreichenden Speicherdurchsatz und bieten weitreichende Skalierbarkeit. Mit der zunehmenden Verbreitung von KI-Innovationen erkennen viele Unternehmen schnell den Wert, ihre bestehenden Prozesse durch Modelltraining und Inferenz zu verbessern. Dieser Trend hat die Einführung von KI-Workflows in den Bereichen Vorverarbeitung, Training, Test, Feinabstimmung und Bereitstellung vorangetrieben. Alle diese Teilbereiche der…
News | Kommunikation | Künstliche Intelligenz | Services | Tipps
Zurückhaltung gegenüber KI im Kundenservice

In einer Gartner-Studie aus dem Jahr 2024 gaben zwei Drittel der Befragten an, dass Kunden zögern, wenn es um den Einsatz von KI im Kundenservice geht [1]. Dies stellt Unternehmen vor ein Dilemma, da sie zunehmend auf KI setzen, um Kosten zu senken, Einblicke in Geschäftsprozesse zu gewinnen und mit innovativen Technologien auf dem neuesten…
Trends 2025 | News | Trends Cloud Computing | Cloud Computing | Trends Services | Marketing
Deutsche Channelpartner müssen Skills ausbauen, um in der Cloud zu wachsen

Umfrage mit fast 900 Partnern in Deutschland und sieben anderen Ländern belegt hohe Bereitschaft des Channels, angesichts steigender Kundenanforderungen mehr Cloud-Kompetenz zu entwickeln. Die deutschen Channelpartner wollen ihr Cloud-Business ausbauen, aber beinahe die Hälfte ist der Meinung, noch nicht über die erforderlichen technischen Fähigkeiten zu verfügen. Das ist das Ergebnis einer neuen Studie von…
Trends 2025 | News | Business Process Management | Trends Services | Künstliche Intelligenz
Generative KI könnte Produktivität in der Softwareentwicklung um bis zu 74 Prozent steigern

Fehlende Priorisierung von Tests und mangelnde Integration generativer KI-Tools sorgen für Bedenken, vor allem wegen des zunehmenden Drucks durch KI-Agenten. Über die Hälfte der Software-Profis ist überzeugt, dass Gen-AI-Tools ihre Produktivität deutlich steigern. Dennoch geben 23 Prozent an, dass ihre Entwicklungsumgebung (IDE) keine integrierten Gen AI-Tools enthält. Fast zwei Drittel der Nutzer, die 2025 generative…
Trends 2025 | News | Künstliche Intelligenz | Services | Whitepaper
KI in Europa: Achtung, Fertig, Los?

Europa hinkt in Sachen künstliche Intelligenz (KI) hinterher. Technologische Supermächte wie die USA und China haben einen klaren Vorsprung, insbesondere im Bereich der Large Language Models (LLMs) wie ChatGPT, Copilot oder Deepseek. Aber Europa erwacht langsam aus seinem Dornröschenschlaf, wie verschiedene Initiativen zeigen. Ein wichtiger Meilenstein hierbei ist das europäische Finanzierungsprogramm für KI: Mehr…
News | E-Commerce | Künstliche Intelligenz | Marketing
Modernes Marketing: Marketer-Kreativität und KI-Innovation

KI hält unvermindert Einzug in die verschiedensten Lebens- und Arbeitsbereiche. Wie können Unternehmen mit KI im Marketing gänzlich neue Chancen nutzen? Im Marketing ist es Status quo, dass Fachleute ihre Kampagnen aufwendig manuell entwerfen und durchführen. Mit KI stehen jetzt aber die Werkzeuge zur Verfügung, um in großem Umfang datengesteuert und automatisiert zu arbeiten.…