
Illustration Absmeier foto freepik
Expertinnen und Experten der TU Berlin zum jüngsten Erfolg des Large Language Models (LLM) »DeepSeek« aus China, dem Unterschied zwischen Open-Source-Anwendungen wie DeepSeek und anderen LLMs sowie der Rolle Europas bei der Entwicklung von künstlicher Intelligenz (KI).
Die Expertinnen und Experten:
Dr. Vera Schmitt (Forschungsgruppenleiterin) und Dr. Nils Feldhus (Postdoktorand) forschen in der XplaiNLP-Gruppe des Quality and Usability Lab an der TU Berlin zu Hochrisiko-KI-Anwendungen und entwickeln KI-gestützte Systeme zur intelligenten Entscheidungsunterstützung. Ihr Fokus liegt auf leistungsstarken, transparenten und erklärbaren KI-Lösungen für Anwendungsfelder wie die Erkennung von Desinformation und die Analyse medizinischer Daten. Im Bereich der natürlichen Sprachverarbeitung arbeitet die Gruppe an Schlüsselthemen wie erklärbarer KI, der Robustheit großer Sprachmodelle (LLMs), der Modellierung von Argumentationsstrukturen sowie der Mensch-Maschine-Interaktion.
Dr. Oliver Eberle ist Postdoktorand in der Machine Learning Group des Berlin Institute for the Foundations of Learning and Data (BIFOLD) an der TU Berlin. In seiner Forschung widmet er sich vor allem der erklärbaren künstlichen Intelligenz sowie Natural Language Processing und deren Anwendungen in den Wissenschaften, wie den Digital Humanities (zum Beispiel der computergestützten Textverarbeitung) und der Kognitionswissenschaft. Er fokussiert sich dabei besonders auf die Interpretierbarkeit der Modelle und entwickelt Methoden zum besseren Verständnis der zugrundeliegenden Mechanismen von Large Language Models (LLM).
Wie unterscheiden sich die Konzepte von DeepSeek und ChatGPT?
Schmitt und Feldhus: DeepSeek steht für Open-Source-Transparenz und Effizienz, während ChatGPT auf massive Rechenleistung und Skalierung setzt. Ersteres ermöglicht Anpassung und niedrigere Kosten, letzteres bietet optimierte Performance, bleibt aber proprietär und ressourcenintensiv. Man muss allerdings sehen, dass DeepSeek nicht 100 Prozent Open-Source ist, denn zum Beispiel sind nicht alle Trainingsdaten bekannt, die in das Modell hineingeflossen sind. Die Verfügbarkeit der Modellparameter hingegen und die deutlich offenere Kommunikation seitens DeepSeek erlaubt es Initiativen der Open-Source-Community wie zum Beispiel »Open-R1« die Reproduktion des Modells in Angriff zu nehmen und dabei auf viel weniger Ressourcen zurückgreifen zu müssen im Vergleich zur riesigen und teuren Infrastruktur von OpenAI, Microsoft und anderen.
Eberle: DeepSeek ist integriert in die »Hugginface Community«, eine Plattform, die bereits Hunderte von Open-Source-Modellen und Quellcode der Modelle verfügbar macht und eine wichtige Rolle in der Verfügbarkeit, Zugänglichkeit und Transparenz von LLMs sowohl in der Forschung als auch der Industrie spielt. DeepSeek verwendete in der Vergangenheit bereits andere Open-Source-Modelle (zum Beispiel das Llama-Modell von Meta) als Grundlage (zum Beispiel bei »DeepSeek-R1-Distill-Llama-70b«). Dies spart Rechenaufwand, da die Destillation von Modellen deutlich weniger rechenintensiv ist als das Trainieren eines neuen Modells von Grund auf. DeepSeek veröffentlicht detaillierte Beschreibungen und technische Reports seiner Modelle und beschreibt hierin auch Negativ-Resultate. Dies ist ein hilfreicher Beitrag für die Open-Source-Community, weil so die Verbesserung von künftigen offenen LLM-Systemen vorangebracht wird. ChatGPT ist im Vergleich proprietär und nur das Interface ist zugänglich, die genaue Spezifikation des Modells und die trainierten Parameter sind nicht im Detail bekannt oder offen zugänglich. Der Code zum Trainieren sowie spezifische Datensätze werden meines Wissens nach weder von DeepSeek noch ChatGPT veröffentlicht.
Arbeiten Sie bereits mit anderen Open Source Large Language Modellen (LLMs)?
Schmitt und Feldhus: Wir arbeiten viel mit unterschiedlichen LLMs wie zum Beispiel LLaMa, Mistral, Qwen, Bloom, Vicuna und haben auch angefangen, mit DeepSeek zu experimentieren. Diese Open-Source-Modelle setzen wir gezielt in verschiedenen Anwendungsbereichen ein. Ein besonderer Fokus liegt auf der Desinformationserkennung, wo wir LLMs nutzen, um Narrative in digitalen Medien zu analysieren, Falschinformationen aufzudecken und Erklärungen für erkannte Fehlinformationen bereitzustellen. Wir setzen LLMs auch für die Anonymisierung und Verarbeitung medizinischer Daten in gemeinsamen Projekten mit der Charité ein.
Eberle: Wir arbeiten mit verschiedenen Modellen, zum Beispiel Llama, Mistral, Gemma, Qwen, Mamba und wir fokussieren uns dabei besonders auf die Interpretierbarkeit und entwickeln Methoden zum besseren Verständnis der zugrundeliegenden Mechanismen von LLMs.
Wie unterstützt der Open-Source-Ansatz bei Large Language Modellen konkret Ihre Forschungen? Wird Deepseek Ihre Forschung noch weiter voranbringen?
Schmitt und Feldhus: Ein Open-Source-Ansatz bei LLMs ermöglicht uns, Modelle gezielt für unsere Forschung anzupassen. Durch offenen Zugang können wir Transparenz gewährleisten und spezifische Architekturanpassungen vornehmen. Zudem können wir so Modelle evaluieren, sie weiterentwickeln und in Mensch-KI-Prozesse effektiver integrieren. DeepSeek könnte unsere Forschung weiter voranbringen, da es effizientere Modellarchitekturen und neue Trainingsansätze bietet und diese auf Rechnern der TU Berlin reproduzierbar macht. Besonders spannend sind potenzielle Verbesserungen bei der Ressourceneffizienz, aber auch in der mehrsprachigen Verarbeitung und der Adaptierbarkeit für spezifische Domänen, die unsere bestehenden Methoden ergänzen und optimieren könnten.
Eberle: DeepSeek reiht sich ein in andere Open-Source-Modellfamilien (Llama, Mistral, Qwen und so weiter) und ermöglicht es uns, Aussagen über eine breitere Menge an LLMs zu machen. Die Struktur dieser Modelle ist weitestgehend vergleichbar und unterscheidet sich vor allem durch den Trainingsansatz und die verwendeten Datensätze. DeepSeek ermöglicht uns nun Zugang zu einem Modell mit state-of-the-art Fähigkeiten in logischem Denken (reasoning capabilities), was zu neuen Einblicken in das Lösen komplexer Aufgaben durch LLMs führen könnte.
Warum sind mit dem Erfolg/Misserfolg von KI auch Chiphersteller wie NVIDIA verknüpft?
Schmitt und Feldhus: Der Erfolg oder Misserfolg von KI ist eng mit Chipherstellern wie NVIDIA verknüpft, weil moderne KI-Modelle enorme Rechenleistung benötigen, die hauptsächlich durch spezialisierte GPUs (Graphics Processing Units) und KI-Beschleuniger bereitgestellt wird. NVIDIA ist führend in diesem Bereich mit leistungsstarken Chips wie der H100- und A100-Serie, die speziell dafür entwickelt wurden, künstliche Intelligenz zu trainieren und ihre Ergebnisse schnell bereitzustellen. Dazu bietet NVIDIA mit CUDA auch die passende Software an, die diese Berechnungen effizient ermöglicht. Wenn KI-Technologien florieren, steigt natürlich die Nachfrage nach diesen Chips stark an – Unternehmen, Forschungseinrichtungen und Cloud-Anbieter investieren massiv in GPU-Cluster. Dies treibt den Umsatz und den Aktienkurs von NVIDIA in die Höhe. Umgekehrt würde ein Rückgang der KI-Nachfrage oder technologische Verschiebungen hin zu alternativen Architekturen (wie wir das jetzt mit DeepSeek R1/V3 beobachten können) die Abhängigkeit von NVIDIA verringern und deren Geschäft zum Teil negativ beeinflussen. Die doppelte Monopolstellung NVIDIAs – Hardware und Software – macht es hingegen schwer, die KI-Erfolge von dem Unternehmen zu entkoppeln. Solange auch DeepSeek GPUs von NVIDIA beziehungsweise CUDA benutzt, ist NVIDIA aus dem KI-Diskurs nicht wegzudenken. Kurz gesagt: Die Hardware-Entwicklung und der Erfolg von KI sind symbiotisch – Fortschritte in KI treiben die Chipindustrie an, während leistungsfähigere Chips neue KI-Modelle ermöglichen.
Wussten alle in der Community schon von der großen Durchschlagkraft des neuen, chinesischen LLM?
Schmitt und Feldhus: Ja, es war absehbar, dass China verstärkt in die Entwicklung leistungsfähiger LLMs investiert. Die Fortschritte von DeepSeek und anderen chinesischen Modellen kamen nicht aus dem Nichts – bereits in den letzten Jahren gab es enorme Investitionen und strategische Initiativen im KI-Sektor. Daher ist DeepSeek keine große Überraschung, sondern eine natürliche Weiterentwicklung, ressourceneffizientere LLMs zu erstellen. Zudem baut DeepSeek stark auf bestehende Open-Source-Modellfamilien wie LLaMA, Mistral und Qwen auf und erweitert unsere Möglichkeiten, eine breitere Palette an LLMs zu analysieren. Besonders Qwen, ebenfalls ein Produkt chinesischer Forschung, hat für uns schon deutlich gemacht, dass China hier ein entscheidender, nicht zu unterschätzender Player ist. Bemerkenswert an DeepSeek R1 ist, dass sich die Argumentationsfähigkeit deutlich verbessert hat und uns neue Einblicke in die Fähigkeit von LLMs zur Lösung komplexer Aufgaben eröffnet. Das ist vor allem für schwierigere Aufgaben mit einem höheren Komplexitätsniveau, wie die Desinformationserkennung, interessant.
Eberle: DeepSeek ist durchaus bekannt, und dessen Vorgängermodell DeepSeek-V2 war bereits recht erfolgreich, zum Beispiel in der Generierung von Code. Daher bin ich etwas überrascht über die starke Reaktion der Medien und Märkte. DeepSeek-V3 ist klar eine beeindruckende technische Leistung und kann dazu beitragen, Open-Source-Modelle auf eine Stufe mit den Fähigkeiten von proprietären Modellen wie ChatGPT zu bringen. DeepSeek ist dennoch im Zusammenhang mit der erfolgreichen Entwicklung von anderen Open-Source-LLM zu sehen.
Wie ist die Stellung von Europa auf diesem Gebiet?
Schmitt und Feldhus: Aktuell liegt der Fokus innerhalb der EU vor allem auf der Regulierung von KI und es werden nicht genügend Ressourcen gebündelt bereitgestellt, um auch nur entfernt ein Gegengewicht zu den USA oder China bilden zu können. Vor allem, wenn wir die Investitionspläne wie Stargate berücksichtigen, kann die EU aktuell nicht mithalten. Die EU kann derzeit nicht konkurrenzfähig bleiben, da vielversprechende KI-Startups oft von US-Unternehmen übernommen werden und/oder ihren Hauptsitz in die USA verlagern. Regulierungen und Steuern beeinflussen die Innovationskraft von NLP-Unternehmen (Natural Language Processing) erheblich innerhalb der EU. Wir sehen an der Innovationsfreudigkeit von kleinen europäischen Labs wie Mistral oder Flux (Bildgenerierung), dass die europäische Forschungsgemeinschaft trotzdem an der globalen KI-Entwicklung teilnehmen möchte, auch einen recht großen Einfluss hat und mit mehr Investitionen diese Ambitionen befeuert werden können und Europa zu einem echten KI-Player aufsteigen könnte.
Eberle: Europa und Deutschland fokussieren sich auf die Entwicklung von vertrauenswürdigen und transparenten KI-Methoden. Ich habe auch den Eindruck, dass Europa sich auf spezifische Anwendungen von LLMs spezialisiert, zum Beispiel LLM-Grundlagenmodelle für Anwendungen in der Medizin (z.B. aignostics’ RudolfV-Modell zur Erkennung von Pathologie-Daten), den Rechtswissenschaften (Legal LLMs wie LEGAL-BERT zur Bearbeitung und Erstellung von Rechtstexten) oder KI-Methoden für Quanten-Chemie.
Die Anwendung DeepSeek unterliegt ja der chinesischen Zensur. Inwiefern beeinflussen solche Einschränkungen die Leistungsfähigkeit von Large Language Modellen?
Eberle: Die Einschränkungen werden meist nach dem eigentlichen Modell-Training auferlegt, sind also wie ein Filter zu sehen, der ungewollte Ausgaben unterdrückt. Daher würde ich nicht grundsätzlich davon ausgehen, dass themenoffene Systeme generell leistungsfähiger sind. Falls jedoch größere Datenmengen bereits vor dem Training gefiltert werden, könnte das Auswirkungen auf die Generalisierungsfähigkeit dieser Modelle haben. Es ist hierbei ein wichtiger Unterschied, ob das Modell keine Daten über sensible Themen bekommt, oder ob das Modell nichts über diese sagen soll.
921 Artikel zu „KI Deep“
News | Trends 2025 | Trends Security | IT-Security | Künstliche Intelligenz
KI, Deepfakes und Quantenkryptografie: Die Cybersicherheit steht 2025 auf dem Prüfstand

Die Bedrohungen im Cyberraum entwickeln sich schneller, als viele Unternehmen reagieren können: Sie stehen einer Vielzahl neuer Herausforderungen gegenüber – von KI-unterstützten Angriffen bis hin zu Deepfake-Technologien. Andreas Müller, Vice President Enterprise Sales Central and Eastern Europe bei Delinea, beleuchtet die wichtigsten Cybersicherheitstrends und -herausforderungen für das Jahr 2025. Cybersicherheit der Zukunft: Frühe Erkennung erweitert…
News | IT-Security | Künstliche Intelligenz | Tipps
KI hilft Betrügern: Deep-Fake-Videos zu Dieter Bohlens Ostheoarthritis

Urheber von Gesundheitsspam nutzen KI-Technologien für Social-Media-Kampagnen. Die Bitdefender Labs beobachten weltweite Kampagnen mit KI-generierten Deepfake-Videos und -Audios auf den Social-Media-Plattformen Facebook, Messenger und Instagram. Unter den angeblichen Fürsprechern für Behandlungsmethoden etwa rund um das Thema Knie und Gelenke befinden sich Prominente wie Dieter Bohlen, der bekannte Arzt Dr. Heinz Lüscher, Christiano Ronaldo, Brad Pitt,…
News | Digitalisierung | Favoriten der Redaktion | Künstliche Intelligenz | Services
Pflicht zur KI-Schulung – worauf es ankommt

Ab dem 2. Februar 2025 sind Unternehmen, bei denen KI-Systeme zum Einsatz kommen, grundsätzlich zur Schulung ihrer Mitarbeiterinnen und Mitarbeiter im Umgang mit KI verpflichtet. Dies sieht der am 1. August 2024 in Kraft getretene EU AI Act vor. AI Act, Artikel 4: »Ausreichendes Maß an KI-Kompetenz«. Schulungsangebote sollten individuelle Anforderungen berücksichtigen. Schulungen auch als…
News | Trends 2025 | Cloud Computing | Infrastruktur
IT 2025: Die Rückkehr zu On-Premises und die Revolution der KI

Im Jahr 2025 wird die IT-Landschaft von tiefgreifenden Veränderungen geprägt sein. Unternehmen müssen sich nicht nur den rasanten Entwicklungen in der künstlichen Intelligenz stellen, sondern auch mit zunehmendem Druck auf ihre Budgets und die Notwendigkeit, ihre Technologien effizienter und kostengünstiger zu gestalten, umgehen. In dieser Prognose wirft Sascha Giese, Global Tech Evangelist, Observability, SolarWinds einen…
News | IT-Security | Künstliche Intelligenz
Diese vier KI-gestützten Cybersicherheitstools sichern 2025 Ihr Unternehmen

Die technologische Revolution auf Grund des Einsatzes der künstlichen Intelligenz (KI) hat vielen Bereichen der Wirtschaft große Vorteile ermöglicht. Gegenwärtig können beispielsweise Unternehmen weltweit dank der zahlreichen verfügbaren KI-gestützten Tools und Systeme von einer höheren Produktivität und verbesserten Effizienz profitieren. Diese Fortschritte in der KI-Technologie sind jedoch zu einem zweischneidigen Schwert geworden. Auch die KI-bezogenen…
News | Trends 2025 | Trends Security | IT-Security | Künstliche Intelligenz | Tipps
Verhinderung von KI-gestütztem Identitätsbetrug

Die Finanzinstitute müssen die Lücke schließen und in 2025 in KI-gestützte Identitätsbetrugsprävention investieren. Während KI-gesteuerter Identitätsbetrug stark zunimmt, zeigt der Signicat-Report The Battle Against AI-driven Identity Fraud eine Kluft zwischen Bewusstsein und Handeln [1]. Während über 76 % der Entscheidungsträger die wachsende Bedrohung durch KI bei Betrug erkennen, haben nur 22 % der Unternehmen…
Trends 2026 | News | Trends 2025 | Business | Trends Kommunikation | Digitalisierung | Trends Services | Favoriten der Redaktion | Künstliche Intelligenz
Gestaltung des Wandels durch KI: Ein strategischer Bericht zur Zukunft von Bildung und Ausbildung

Die globale Einführung von KI ist im Begriff, die Industrie weltweit zu revolutionieren. Ein neuer Bericht mit dem Titel »Bildungswege für KI: Wandel bei Know-how und Jobs« enthüllt entscheidende Erkenntnisse über die Bedeutung von Bildung und Ausbildung bei der Vorbereitung der Belegschaft auf den Wandel durch KI. Der von der TEHA Group im Auftrag von…
News | Trends 2025 | Favoriten der Redaktion | Künstliche Intelligenz | Whitepaper
Einführung und Integration verantwortungsvoller KI-Praktiken

Der Einsatz von künstlicher Intelligenz (KI) in Unternehmen nimmt stetig zu. Doch wie lässt sich sicherstellen, dass KI verantwortungsvoll eingesetzt wird? Wie verbreitet sind Prinzipien der verantwortungsvollen KI bereits, und welche Herausforderungen treten bei ihrer Umsetzung auf? Die aktuelle Studie »Implementing Responsible AI in the Generative AI Age« von HCLTech und MIT Technology Review…
News | Trends 2025 | Business | Trends Wirtschaft | Künstliche Intelligenz | New Work | Whitepaper
Ungenutztes Potenzial: 42 Prozent der deutschen Angestellten arbeiten noch ohne KI

Wirtschaft schöpft Leistungsvermögen von künstlicher Intelligenz zu selten aus. Für die tägliche Arbeit nutzen nur 46 Prozent der deutschen Arbeitnehmenden künstliche Intelligenz (KI) wie Chat GPT oder DeepL. Das zeigt die aktuelle Studie »Cybersicherheit in Zahlen« von der G DATA CyberDefense AG, Statista und Brand eins [1]. Dabei bietet der Einsatz von KI für Unternehmen…
News | Trends 2025 | Trends Wirtschaft | Favoriten der Redaktion | Künstliche Intelligenz
KI-Prognosen 2025: Preiswerte, spezialisierte KI und Herausforderungen bei Energie

Die Zeiten von künstlicher Intelligenz als reiner Leuchtturm der Innovation sind vorbei. 2025 muss die Technologie messbaren Mehrwert in konkreten Anwendungen beweisen, Herausforderungen im Bereich Energieverbrauch und der Zukunft des Arbeitsmarktes lösen. KI-Experte Carsten Kraus gibt seine Prognosen zu den technologischen Entwicklungen des Jahres ab. Wirtschaft: Günstigere und innovative KI Preiskampf bei KI-Modellen: Der…
News | Business | Favoriten der Redaktion | Kommentar | Künstliche Intelligenz | Strategien
Stargate und die Streichung der KI-Regulierung sind eine Gefahr für die europäische Wirtschaft und Technologiesouveränität

Donald Trump streicht die bestehenden Vorgaben zur Kontrolle von künstlicher Intelligenz in den USA und kündigt ein 500 Milliarden Investment in die Technologie an. Damit gerät Europa weiter in Gefahr: Die wirtschaftliche Wettbewerbsfähigkeit ist ernsthaft beeinträchtigt, führende KI-Denker wandern ab und Europa wird seine Technologiesouveränität nicht mehr sicherstellen können. Ein Statement von KI-Experte Carsten Kraus.…
News | Künstliche Intelligenz | Strategien
Warum muss KI reguliert werden?

Es gibt einen allgemeinen Trend, KI stärker zu regulieren, sei es durch dedizierte Gesetze, Verordnungen oder zentrale Empfehlungen. Risikobasierte Ansätze wie in der EU dominieren und scheinen am besten geeignet, Menschen in lebenswichtigen Bereichen vor den negativen Auswirkungen von KI zu schützen. Die EU als Vorbild bei der weltweiten KI-Regulierung Mit dem EU AI…
News | Trends Security | IT-Security | Strategien | Tipps
So gehen Unternehmen Sicherheitsrisiken innerhalb der KI- und Softwarelieferketten an

Die Anzahl der Unternehmen, die sogenannte Adversarial Tests (Angriffsfälle) durchführen, hat sich im Vergleich zum Vorjahr verdoppelt. Die Anzahl der Unternehmen, die eine Software Composition Analysis (SCA) für Code-Repositorien nutzen, ist um 67 % gestiegen. Die Zahl der Firmen, die Forschungsgruppen beschäftigen, um neue Angriffsmethoden zu entwickeln, hat sich um 30 % erhöht. Die Zahl…
News | Trends 2025 | Trends Infrastruktur | Industrie 4.0 | Infrastruktur | Künstliche Intelligenz
Die wichtigsten Embedded-KI-Trends in 2025

Intelligente Sensoren sorgen für mehr Energieeffizienz, Souveränität und neue Geschäftsmodelle. Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist mittlerweile aus vielen Bereichen des täglichen Lebens nicht mehr wegzudenken. Insbesondere im Bereich der Embedded-KI, also der Integration von KI direkt auf Sensoren in den entsprechenden Halbleitern, zeichnen sich für 2025…
News | Trends 2025 | Business | Trends Wirtschaft | Künstliche Intelligenz | New Work
Kein Thema für German Jobangst: Bewerbende rechnen mit mehr KI im Job

Neun von zehn Bewerbenden rechnen für 2025 mit einem stärkeren Einsatz von künstlicher Intelligenz in der Arbeitswelt, nur sechs von zehn gehen dabei allerdings von einem direkten Einfluss auf den eigenen Job aus. Befürchtungen im Hinblick auf den eigenen Job hat dabei nur eine kleine Minderheit. Das zeigt eine aktuelle Umfrage von softgarden, für die…
News | Trends 2025 | Trends Security | IT-Security | Künstliche Intelligenz
Wie sich Cybersecurity mit KI im Jahr 2025 weiterentwickelt

Kürzlich veröffentlichte Google Cloud seinen Cybersecurity Forecast für das Jahr 2025 [1]. Der Bericht enthält zukunftsweisende Erkenntnisse mehrerer führender Sicherheitsverantwortlicher von Google Cloud – darunter Google Threat Intelligence, Mandiant Consulting und das Office of the CISO von Google Cloud. Sie beschreiben unter anderem, wie die nächste Phase der künstlichen Intelligenz (KI) sowohl für Angreifer als…
News | Trends 2025 | Trends Security | IT-Security
Cybersecurity-Trends für 2025: Manipulative KI, Techno-Nationalismus und Risiken für Open-Source-Projekte

2025 markiert einen Wendepunkt im Bereich der Cybersecurity: Manipulative KI-Systeme, der wachsende Einfluss von Techno-Nationalismus und gezielte Angriffe auf Open-Source-Projekte treiben die Fragmentierung und Komplexität der Bedrohungsszenarien auf ein neues Niveau. Der aktuelle Threatscape Report 2025 zeigt eindringlich, welche Cyberherausforderungen dieses Jahr zu erwarten sind und wie dadurch die digitale Souveränität von Staaten und die…
News | Digitalisierung | Infrastruktur | Internet der Dinge | Künstliche Intelligenz
KI für die Realwirtschaft

Gründer des RWTH-Startups dataMatters Dr. Daniel Trauth: »Wir sind ein reales Unternehmen und wachsen mit zufriedenen Kunden statt mit Wagniskapital. Unser Zielmarkt ist die Smartisierung der realen Welt, von Smart Buildings über die Smart Factory bis hin zur Smart City.« Beispiel: Mülltonnen mit Internetverbindung zu Künstlicher Intelligenz im Rechenzentrum. »Wir arbeiten in der Realwirtschaft…
News | Trends 2025 | Cloud Computing | Künstliche Intelligenz | Strategien
2025: Bewältigung von Datenherausforderungen zur Entfaltung der KI-Potenziale

Durch den rasanten technologischen Wandel sind datengesteuerte Initiativen in modernen Geschäftsstrategien wichtiger denn je. Im Jahr 2025 stehen die Unternehmen jedoch vor neuen Herausforderungen, die ihre Datenstrategien, ihre Bereitschaft für künstliche Intelligenz (KI) und ihr allgemeines Vertrauen in Daten auf die Probe stellen werden. Insgesamt ist die Bereitschaft für KI in internationalen Unternehmen sehr gering…
News | Trends 2025 | Trends Services | Geschäftsprozesse | New Work | Services
Das bewegt die Service-Branche 2025: KI, Mitarbeiterbindung und Cybersecurity

In einem dynamischen und wettbewerbsintensiven Marktumfeld wird der technische Service zu einem entscheidenden Differenzierungsfaktor – qualitativ hochwertige Produkte allein reichen nicht mehr aus, um sich abzuheben. »Es ist der Service rund um das Produkt, der als Alleinstellungsmerkmal überzeugt. Er beeinflusst die Kundenbindung maßgeblich, stärkt die Wettbewerbsposition und wird dadurch 2025 mehr denn je zu einem…
