Die Chimäre ist in der griechischen Mythologie eine Kreuzung aus Löwe, Ziege und Schlange. Sie hat den Kopf des Löwen, den Körper der Ziege mit einem weiteren Ziegenkopf auf dem Rücken und den Schwanz den Schlange. Nebenbei spuckt das Untier auch noch Feuer. Heute bezeichnet der Begriff unter anderem technische Konzepte, die auf der Kombination verschiedener Ansätze beruhen.
So kann man sich die Kombination von CPU (Central Processing Unit) und DSA (Domain Specific Accelerator) als eine moderne Chimäre vorstellen. Ähnlich wie die mythische Bestie besitzt dieser technologische Hybrid unterschiedliche Stärken, die zu einer einzigen, beeindruckenden Einheit kombiniert werden. Die CPU herrscht über Kontrolle und Logik, sie steuert die Aufgaben und sorgt für Ordnung. Der DSA zeichnet sich durch seine spezialisierte parallele Verarbeitung aus, mit der er sich wiederholende Berechnungen bewältigt, die für die KI unerlässlich sind. Die Konnektivität zwischen ihnen gewährleistet eine nahtlose Kommunikation und Energieübertragung, so dass die Lösung ihre volle Rechenleistung entfalten kann.
CPUs und DSAs für Cloud- und KI-Erfolg
In der heutigen Welt der ständig steigenden Rechenanforderungen ist es wichtig, das richtige Gleichgewicht der Rechenleistung zu finden. Von traditionellen Geschäftsanwendungen bis hin zu modernster KI benötigen Unternehmen eine flexible und effiziente Infrastruktur. Genau hier kommt die Kombination aus CPUs und DSAs zum Tragen.
CPUs sind die Gehirne von Computern, die eine große Anzahl von vielseitigen Anwendungen bewältigen. Sie zeichnen sich durch sequenzielle Verarbeitung und die Bewältigung einer breiten Palette von Aufgaben aus. CPUs allein können hauptsächlich herkömmliche KI-Inferenzmodelle sehr gut zusammen mit (Large Language Models) LLMs mit geringer Stapelgröße ausführen. Wenn jedoch mehr Leistung benötigt wird, kommen DSAs zum Einsatz.
DSAs sind auf Aufgaben wie die KI-Verarbeitung spezialisiert und daher unglaublich schnell bei der gleichzeitigen Ausführung sich wiederholender Berechnungen. Es gibt sie in vielen Formen, Größen und Bezeichnungen: GPUs, TPUs, ASICs, FPGAs, VPUs, usw. Ihre besondere Stärke macht sie zur treibenden Kraft hinter der KI-Inferenz. Wenn es um LLMs oder hochspezialisierte Modelle und Datensätze geht, bieten DSAs die zusätzlich benötigte Rohleistung.
Warum CPUs und DSAs kombinieren?
- Kosteneffiziente Vielseitigkeit:
Durch die Nutzung sowohl von CPUs als auch von DSAs gewinnen Cloud-Umgebungen an Flexibilität. Herkömmliche Workloads können problemlos auf CPUs ausgeführt werden, während die größten oder spezialisiertesten KI-Inferenzaufgaben auf die DSAs verlagert werden können, um die Leistung zu beschleunigen und die Kosten und Ressourcenzuweisung zu optimieren. - Nahtlose Arbeitsabläufe:
Bei komplexen KI-Anwendungen arbeiten CPUs und DSAs auf komplementäre Weise zusammen. Die CPU kann die Vorverarbeitung von Daten, die Aufgabenkoordination und das Gesamtmanagement übernehmen, während der DSA die komplexen und spezialisiertesten Berechnungen für das KI-Modell durchführt. - Einfache Skalierbarkeit:
Cloud-Umgebungen mit einer Mischung aus CPU- und DSA-Instanzen können je nach den Anforderungen herkömmlicher Arbeitslasten und der KI-Inferenz einfach nach oben oder unten skaliert werden, um sicherzustellen, dass die Ressourcen stets effizient genutzt werden.
KI wird Teil aller Anwendungen werden
Isolierte künstliche Intelligenz ist Geschichte. Die Zukunft erfordert KI als wesentlichen Baustein für jeden Service und jede Anwendung. Da Server länger im Einsatz bleiben, müssen Unternehmen Ihre Infrastruktur der nächsten Generation mit möglichst vielen Rechenkernen und KI-Beschleunigung ausstatten. So stellen sie sicher, dass ihre Services heutigen und zukünftigen Anforderungen genügen.
Jeff Wittich, Chief Product Officer bei Ampere Computing
KI-Inferenz-Workloads brauchen keine GPU
Es ist unbestritten, dass die Entwicklung von KI eine der größten Herausforderungen unserer Zeit ist. Laut Next Move Strategy Consulting wird der Markt für KI-Technologien im Jahr 2023 rund 200 Milliarden US-Dollar betragen und bis 2028 auf über 1,8 Billionen US-Dollar anwachsen.
Zumindest im letzten Jahr konzentrierte sich der größte Teil dieses Marktes auf das KI-Training, bei dem Hochleistungs-GPU-Produkte eingesetzt wurden, um Modelle zu entwickeln und für den Einsatz vorzubereiten. Jetzt, da diese Modelle trainiert und eingesetzt werden, ist der Markt bereit für die nächste Phase der KI, dem sogenannten »Inferencing«. Tatsächlich ist dieser Wandel bereits im Gange – eine aktuelle Schätzung von D2D Advisory besagt, dass KI-Inferencing heute 85 Prozent der KI-Landschaft ausmacht, während KI-Training nur 15 Prozent des aktuellen Marktes belegt.
Diese Zunahme des KI-Inferencing erfordert ein grundlegendes Umdenken in Bezug auf die Rechenleistung, die für diese Arbeitslasten verwendet werden sollte. Während GPUs für ihre KI-Trainingsfähigkeiten sehr geschätzt werden, ist die Verwendung dieser Prozessoren für KI-Inferencing nicht die beste Wahl. Der Wechsel zu CPUs und der Verzicht auf GPUs für Inferencing wird dazu beitragen, den Energieverbrauch der Rechenzentren in unseren Netzwerken zu senken, eine bessere Leistung zu erzielen und eine leichter zugängliche, kosteneffiziente und skalierbare Lösung anzubieten.
- Unsere Energienetze können die Nachfrage nach KI-Inferenz mit GPUs nicht decken
Nach Angaben der Internationalen Energieagentur werden Rechenzentren im Jahr 2022 etwa 2 Prozent des weltweiten Energieverbrauchs ausmachen. Dieser Anteil könnte sich bis 2026 auf 4,6 Prozent mehr als verdoppeln, wenn man bedenkt, dass die KI-Branche bis 2023 voraussichtlich mindestens zehnmal so viel Energie verbrauchen wird.
Während der Energiebedarf steigt, nimmt der Zugang zu Energie ab, insbesondere in Europa. Die Strompreise in der Region haben vor kurzem Rekordhöhen erreicht, und in England wurden bereits Moratorien für Rechenzentren verhängt, da die Nachfrage die im Netz verfügbare Energie überstieg.
In diesem schwierigen Umfeld wird der Einsatz zusätzlicher, energieintensiver GPUs für KI-Inferenzlasten die Nachhaltigkeitsproblematik weiter verschärfen. Durch den Einsatz von CPUs – insbesondere Cloud-nativen CPUs, die speziell für diese Art von Arbeitslasten entwickelt wurden – können wir mehr Leistung aus unseren bestehenden Rechenzentren und Stromverbrauchsflächen herausholen, anstatt neue Gebäude und zusätzliche Stromquellen zu benötigen.
- GPUs sind zu rechenintensiv für KI-Inferenzanwendungen
Grafikprozessoren verbrauchen nicht nur mehr Strom, sondern sind auch für viele Inferenzanwendungen der KI zu rechenintensiv. Da Inferenzanwendungen weniger anspruchsvolle Workloads darstellen und nicht die Rechenleistung eines Grafikprozessors benötigen, ist die Verwendung von Grafikprozessoren für diesen Zweck vergleichbar mit dem Kauf eines Sportwagens für die morgendliche Fahrt zur Arbeit – es ist mehr, als man braucht. Bei der Verwendung eines Grafikprozessors für Inferenzen wird in der Regel nur ein kleiner Teil der Kapazität des Grafikprozessors genutzt. Da GPUs mehr Strom verbrauchen und teurer sind, spart der Ersatz des Grafikprozessors durch eine CPU in diesen Fällen Strom, Platz und Kosten. In vielen Fällen führt dies auch zu einer besseren Leistung, Erschwinglichkeit und Energieeffizienz.
Zur Einordnung: Bei der Ausführung des Whisper-Modells von OpenAI bieten CPUs bis zu 2,9-mal mehr Leistung als eine Reihe von GPU-basierten Lösungen. Je nach vergleichbarer GPU-Lösung verbrauchen sie auch deutlich weniger Strom pro Schlussfolgerung.
- CPUs sind leicht zugänglich und kostengünstiger, um die Anforderungen der KI-Inferenz zu erfüllen
GPUs sind unglaublich knapp und schwer zu bekommen. Teilweise aufgrund dieser Knappheit sind sie auch sehr teuer. Nach Angaben des Wall Street Journal hat die KI-Branche im vergangenen Jahr 50 Milliarden Dollar für GPUs ausgegeben, die für das Training fortgeschrittener KI-Modelle verwendet werden, aber nur 3 Milliarden Dollar Umsatz erzielt. Da 85 Prozent der KI-Arbeitslasten auf KI-Inferenz entfallen, wird diese Diskrepanz zwischen Aufwand und Ertrag für die meisten Unternehmen schnell untragbar, wenn sie für diese Arbeitslasten GPUs einsetzen.
Im Gegensatz zu GPUs sind CPUs heutzutage leicht verfügbar. Sie können von OEMs für den Einsatz vor Ort erworben oder über eine öffentliche Cloud von einer Vielzahl von Cloud-Dienstleistern bezogen werden. Außerdem sind sie deutlich kostengünstiger. Ein Rack mit vier DGX H100 kann beispielsweise mehr als 41 kW pro Rack verbrauchen und kostet etwa 1,5 Millionen US-Dollar. Dies steht in krassem Gegensatz zu erschwinglicheren und nachhaltigeren CPU-Alternativen für KI-Inferenz. Beispielsweise kann ein einzelnes Rack mit 40 CPUs mit 128 Kernen ein Rack mit vier DGX H100 um 19 Prozent in Bezug auf den Inferenzdurchsatz übertreffen, bei einem Verbrauch von weniger als 15 kW pro Rack und Kosten von etwa 290.000 US-Dollar.
GPU-frei ist die klare Wahl für KI-Inferenz
Während GPUs eine gute Wahl für das KI-Training sind, muss die Industrie ihre Computing-Lösungen für die KI-Inferenzierung überdenken, um die für die Inferenzierung erforderliche Größe zu erreichen. CPUs bieten eine höhere Leistung für diese Arbeitslasten bei geringerem Stromverbrauch und niedrigeren Kosten und sind die klare Wahl für die nächste Phase der KI-Ära.
Jeff Wittich, Chief Product Officer, Ampere
KI-Inferenz: Der Schlüssel zur Anwendung von künstlicher Intelligenz
Künstliche Intelligenz (KI) hat die Art und Weise, wie wir arbeiten, lernen und unser tägliches Leben gestalten, revolutioniert. Ein zentraler Aspekt der KI, der diese Fortschritte ermöglicht, ist der Prozess der KI-Inferenz. Aber was genau ist KI-Inferenz und warum ist sie so wichtig?
KI-Inferenz bezieht sich auf den Prozess, bei dem ein trainiertes maschinelles Lernmodell verwendet wird, um Schlussfolgerungen aus neuen, unbekannten Daten zu ziehen [1]. Dies ist der Schritt, der auf das Training des Modells folgt, bei dem es anhand von Beispieldaten lernt, Muster und Zusammenhänge zu erkennen. Nachdem das Modell ausreichend trainiert wurde, kann es seine »Intelligenz« anwenden, um Vorhersagen zu tätigen oder Entscheidungen zu treffen, wenn es mit neuen Daten konfrontiert wird.
Ein einfaches Beispiel für KI-Inferenz könnte ein E-Mail-Filter sein, der darauf trainiert wurde, Spam von regulären Nachrichten zu unterscheiden. Nach dem Training kann das Modell neue E-Mails analysieren und mit hoher Genauigkeit vorhersagen, ob es sich um Spam handelt oder nicht. Ein weiteres Beispiel ist ein autonomes Fahrzeug, das Stoppschilder erkennen kann, selbst wenn es auf eine Straße trifft, die es zuvor noch nie befahren hat [2].
Die Fähigkeit zur KI-Inferenz ist entscheidend für praktisch alle realen Anwendungen von KI. Von der Spracherkennung über die prädiktive Analyse bis hin zur Cybersicherheit ermöglicht die KI-Inferenz Maschinen, intelligent auf neue Situationen zu reagieren und menschenähnliche Entscheidungen zu treffen. Dies eröffnet unzählige Möglichkeiten für Innovationen in verschiedenen Branchen.
Die Qualität der KI-Inferenz hängt stark von der Qualität des Trainings ab. Je besser ein Modell trainiert ist, desto genauer und zuverlässiger sind seine Inferenzen. Allerdings ist es wichtig zu beachten, dass kein KI-Modell perfekt ist und Fehler immer möglich sind. Daher ist es entscheidend, KI-Systeme kontinuierlich zu überwachen und zu verbessern, um ihre Leistung und Zuverlässigkeit zu optimieren.
Zusammenfassend ist die KI-Inferenz ein faszinierender und komplexer Prozess, der die Grundlage für die Anwendung von KI in der realen Welt bildet. Sie ermöglicht es Maschinen, aus Erfahrungen zu lernen und intelligente Entscheidungen zu treffen, die unser Leben verbessern und vereinfachen können. Mit fortschreitender Entwicklung der KI-Technologie wird die KI-Inferenz zweifellos weiterhin eine Schlüsselrolle in der Gestaltung unserer Zukunft spielen.
Genki Absmeier
[1]: https://www.cloudflare.com/de-de/learning/ai/inference-vs-training/ »«
[2]: https://www.allaboutai.com/de-de/ki-glossar/inferenz-ki/ »«
[3]: https://bing.com/search?q=Was+ist+eine+KI-Inferenz %3f »«
[4]: https://ki-echo.de/glossar/inferenz/ »«
[5]: https://www.datacenter-insider.de/was-ist-inferenz-a-670450/ »«
479 Artikel zu „Rechenleistung KI“
Ausgabe 7-8-2024 | News | Infrastruktur | Nachhaltigkeit | Strategien
Nachhaltigkeit als zentraler Aspekt – Die Zukunft der KI-Infrastruktur wird wahrscheinlich ein Hybridmodell sein
Supermicro bringt Innovationen für die IT-Infrastruktur in den Bereichen Enterprise, Cloud, KI, Metaverse und 5G Telco/Edge oft als Erster auf den Markt. Der Anbieter von IT-Gesamtlösungen im Rack-Scale-Format achtet besonders auf ein umweltfreundliches und energiesparendes Portfolio von Servern, Speichersystemen, Switches und Software. Wir sprachen mit Thomas Jorgensen, Senior Director Technology Enablement bei Supermicro über die Entwicklung und die Marktposition, den KI-Trend und die speziellen Anforderungen an die Infrastruktur, über Nachhaltigkeit, Flüssigkühlungslösungen und die Zukunft von Rechenzentren.
Trends 2024 | News | Cloud Computing | Trends Cloud Computing | Künstliche Intelligenz
Weniger als zehn Prozent der globalen Unternehmen haben KI vollständig integriert
98 Prozent der Führungskräfte planen, in den nächsten zwei Jahren deutlich höheren Anstieg der Investitionen in die Cloud, um AI-First-Unternehmen zu werden. Infosys veröffentlichte seine neue Studie »Reimagining Cloud Strategy for AI-first Enterprises«, die in Zusammenarbeit mit MIT Technology Review Insights entstand [1]. Für den Bericht wurden 500 weltweit führende Unternehmen mit einem Umsatz…
Trends 2024 | News | Cloud Computing | Trends Cloud Computing | Künstliche Intelligenz | Strategien
Ausgefeilte Cloud-Strategien für eine vollständige KI-Integration
Sieben Prozent der globalen Unternehmen haben eine ausgefeilte Cloud-Strategien, aber weniger als zehn Prozent integrieren KI vollständig. 98 Prozent der Führungskräfte planen, in den nächsten zwei Jahren deutlich höheren Anstieg der Investitionen in die Cloud, um AI-First Unternehmen zu werden. Infosys, Anbieter von digitalen Dienstleistungen und Beratung der nächsten Generation, veröffentlichte seine neue Studie…
News | Digitalisierung | Künstliche Intelligenz | Lösungen
Videotechnologie demonstriert den gelungenen Einsatz moderner KI
Künstliche Intelligenz (KI) scheint die Nachrichten zu dominieren, wie es nur wenigen anderen Technologien gelungen ist. Da das Bewusstsein für KI wächst, wird die Technologie immer genauer unter die Lupe genommen. Wie intelligent ist die Software? Stellt Sie womöglich gar eine potenzielle Bedrohung dar? Wie wird sie mit Menschen interagieren? Wird sie den Menschen im…
News | IT-Security | Künstliche Intelligenz | Tipps
KI hilft Betrügern: Deep-Fake-Videos zu Dieter Bohlens Ostheoarthritis
Urheber von Gesundheitsspam nutzen KI-Technologien für Social-Media-Kampagnen. Die Bitdefender Labs beobachten weltweite Kampagnen mit KI-generierten Deepfake-Videos und -Audios auf den Social-Media-Plattformen Facebook, Messenger und Instagram. Unter den angeblichen Fürsprechern für Behandlungsmethoden etwa rund um das Thema Knie und Gelenke befinden sich Prominente wie Dieter Bohlen, der bekannte Arzt Dr. Heinz Lüscher, Christiano Ronaldo, Brad Pitt,…
News | Digitalisierung | Effizienz | Industrie 4.0 | Infrastruktur | Künstliche Intelligenz
Voraussetzungen für den Einsatz von KI in der Produktion
Dank künstlicher Intelligenz können Industrieunternehmen effizienter und kostengünstiger produzieren, die Produktionsqualität erhöhen und Produktionsstörungen vermeiden – die Einsatzmöglichkeiten für smarte Anwendungen in der Branche sind nahezu unbegrenzt. Doch wollen Unternehmen tatsächlich das volle Potenzial von KI ausschöpfen, benötigen sie dafür geeignete IT-Infrastrukturen. Was müssen diese bieten und leisten? KI ist das Herzstück der Smart…
News | Healthcare IT | Künstliche Intelligenz | Vertikal 5-6-2024 | Healthcare
Automatisierung und KI: Innovationen in der Krankenversicherungsbranche
Wie KI und Automatisierung die Krankenversicherungsbranche revolutionieren, von der Verbesserung der Kundeninteraktion bis hin zur Optimierung von Verwaltungsprozessen. In der Krankenversicherungsbranche vollzieht sich ein tiefgreifender Wandel durch die fortschreitende Integration von künstlicher Intelligenz (KI) und Automatisierungstechnologien. Dieser Wandel manifestiert sich in verschiedenen Aspekten des Sektors, von der Kundeninteraktion über die Schadensabwicklung bis hin zur…
News | Künstliche Intelligenz | Lösungen | New Work | Ausgabe 5-6-2024
Fachkräftemangel abfedern – Routine automatisieren mit KI
Die Arbeitslast steigt, die Belegschaft schrumpft – in Zeiten des demographischen Wandels sind Kapazitätsengpässe für viele Unternehmen zum neuen Status quo geworden. Während sich erfahrene Mitarbeiter in den Ruhestand verabschieden, erschwert der zunehmende Fachkräftemangel die Kompensierung oder gar Ausweitung der personellen Ressourcen. Als letzte Stellschraube für mehr Effizienz bleibt da oft nur die Technologie. Sie eröffnet Wege für höhere Automatisierungsgrade im Tagesgeschäft – etwa durch eine geschickte Kombination von Process Mining und KI.
News | Produktmeldung | Rechenzentrum
Rechenzentren: Flüssigkeitsgekühlte KI- und Enterprise-Rack-Scale-Lösungen
Supermicro eröffnet drei neue Produktionsstätten im Silicon Valley und weltweit, um das Wachstum von flüssigkeitsgekühlten KI- und Enterprise-Rack-Scale-Lösungen zu unterstützen. Erweiterte Produktionskapazitäten sollen die weltweite Kapazität an flüssigkeitsgekühlten Racks auf mehr als das Doppelte der heutigen 1.000 pro Monat ausgelieferten KI SuperClusters erhöhen. Supermicro, ein Anbieter von IT-Gesamtlösungen für KI, Cloud, Storage und…
News | Business | Künstliche Intelligenz | Strategien | Ausgabe 5-6-2024
KI: Strategie-Tipps zur Leistungs- und Kostenoptimierung – Kostentreiber bändigen
News | Effizienz | Infrastruktur | Künstliche Intelligenz | Nachhaltigkeit | Rechenzentrum
Die Zukunft der KI-Infrastruktur wird wahrscheinlich ein Hybridmodell sein
Supermicro bringt Innovationen für die IT-Infrastruktur in den Bereichen Enterprise, Cloud, KI, Metaverse und 5G Telco/Edge oft als Erster auf den Markt. Der Anbieter von IT-Gesamtlösungen im Rack-Scale-Format achtet besonders auf ein umweltfreundliches und energiesparendes Portfolio von Servern, Speichersystemen, Switches und Software. Wir sprachen mit Thomas Jorgensen, Senior Director Technology Enablement bei Supermicro über die…
Trends 2024 | News | Trends Infrastruktur | Infrastruktur | Künstliche Intelligenz | Rechenzentrum
Gartner-Prognose: Weltweiter Umsatz mit KI-Chips wächst 2024 um 33 Prozent
Der Wert von KI-Beschleunigern in Servern wird 2024 bis auf 21 Milliarden US-Dollar steigen. Rechenelektronik wird 47 Prozent des Gesamtmarkts für KI-Chips ausmachen. Bis Ende 2026 werden 100 Prozent der PC-Käufe von Unternehmen KI-PCs sein. Laut einer aktuellen Prognose von Gartner wird der weltweite Umsatz mit KI-Halbleitern im Jahr 2024 71 Milliarden US-Dollar…
News | Künstliche Intelligenz | Produktmeldung
MotusAI: KI-Entwicklungsplattform für hocheffiziente GPU-Ressourcenplanung und Task-Orchestrierung
Durch eine effiziente und einheitliche GPU-Planung erzielt MotusAI eine durchschnittliche Leistungsauslastung von über 70 Prozent bei Cluster Computing. KAYTUS, ein Anbieter von IT-Infrastruktur, stell die KI-Entwicklungsplattform MotusAI vor. Die Plattform steht ab sofort weltweit für Tests zur Verfügung. MotusAI ist auf Deep Learning und KI-Entwicklung zugeschnitten. Sie integriert GPU- und Datenressourcen mit KI-Entwicklungsumgebungen, um…
News | Business | Digitalisierung | Geschäftsprozesse | Künstliche Intelligenz
Gastronomie und Hotels: Was der Einsatz von KI in Küche und Betrieb bewirken kann
Gastro 2025: Natürlich effizienter dank künstlicher Intelligenz? Die künstliche Intelligenz (KI) hat sich in den letzten Monaten sprunghaft weiterentwickelt: Nahezu täglich stellen Entwickler neue und innovative Anwendungen von verblüffender Qualität vor. Doch kann auch ein »people business« wie die Gastronomie vom technologischen Fortschritt profitieren? Michael Ebner, CEO der auf digitale Lösungen in Gastronomie und Hotellerie…
News | Digitalisierung | Effizienz | Infrastruktur | Künstliche Intelligenz
Daten für KI effizient nutzen: Von der Ingestion bis zur Innovation
Es wird viel über das Training von KI-Modellen geschrieben, aber Datenwissenschaftler verbringen einen Großteil ihrer Zeit mit den Prozessen, die vor und nach dem Modelltraining ablaufen. In all diesen verschiedenen Phasen werden die Daten umgewandelt und erweitert. Um ein effektives und nützliches KI-Modell zu erstellen, müssen die Daten, die dem Modell zugrunde liegen, leicht zu…
News | Effizienz | Favoriten der Redaktion | Künstliche Intelligenz | Nachhaltigkeit
Je größer das KI-Modell, desto höher der Energiebedarf
Wie Embedded-KI zur Reduzierung des Stromverbrauchs beiträgt und gleichzeitig die Effizienz fördert. Der ungeheure Energiebedarf von künstlicher Intelligenz (KI) gerät zunehmend in den Blickpunkt der Diskussion. Kein Wunder, schon 2019 warnte eine US-Studie davor, dass allein das Training eines einzigen neuronalen Netzwerks so viel CO2-Emissionen verursacht wie fünf (konventionelle) Autos. Allein das Training des GPT-3…
News | Effizienz | Favoriten der Redaktion | Infrastruktur | Nachhaltigkeit | Rechenzentrum
Supercomputer des KIT ist einer der energieeffizientesten der Welt
Der »Hochleistungsrechner Karlsruhe« (HoreKa), der seit Juni 2021 am Karlsruher Institut für Technologie (KIT) in Betrieb ist, zählt derzeit zu den schnellsten Rechnern Europas. Nach einem kürzlich erfolgten Upgrade belegt er nun außerdem Rang 6 in der halbjährlich erscheinenden Green500-Liste der energieeffizientesten Rechner der Welt. Damit verbessert sich der Supercomputer um sieben Plätze im Vergleich…
News | Künstliche Intelligenz | Ausgabe 3-4-2024
Auf dem Weg zur generativen KI – Wie KI-fähig sind die Daten überhaupt?
Mit generativer KI werden Prozesse möglich, die vor kurzem noch undenkbar waren. Kein Wunder, dass sich Unternehmen aller Größen und Branchen deutliche Effizienzsteigerungen und damit Kosteneinsparungen versprechen. Ihr volles Potenzial kann die Technologie jedoch nur entfalten, wenn das Rohmaterial stimmt. Quantität, Qualität und Zugänglichkeit der Daten entscheiden maßgeblich über den Erfolg eines KI-Projekts. Künstliche Intelligenz…
News | Effizienz | Favoriten der Redaktion | Künstliche Intelligenz | Nachhaltigkeit | Rechenzentrum
KI-Inferenz-Workloads brauchen keine GPU
Es ist unbestritten, dass die Entwicklung von KI eine der größten Herausforderungen unserer Zeit ist. Laut Next Move Strategy Consulting wird der Markt für KI-Technologien im Jahr 2023 rund 200 Milliarden US-Dollar betragen und bis 2028 auf über 1,8 Billionen US-Dollar anwachsen. Zumindest im letzten Jahr konzentrierte sich der größte Teil dieses Marktes auf das…
News | Künstliche Intelligenz
KI in der Medizin: Mit Ursache und Wirkung rechnen
Maschinen können mit neuen Verfahren lernen, nicht nur Vorhersagen zu treffen, sondern auch mit kausalen Zusammenhängen umzugehen – Das könnte helfen, Therapien effizienter, sicherer und individueller zu machen, prognostiziert eine internationale Forschungsgruppe – Das Team um LMU-Forscher Stefan Feuerriegel will mit seinen Arbeiten „die Methoden einen Schritt näher an die Praxis bringen“ Künstliche Intelligenz…