Alle Artikel zu Large Language Models

Generative KI plus RAG: Warum sie Kontext braucht und woher sie ihn bekommt

Mit generativer künstlicher Intelligenz (KI) sollen menschliche Fähigkeiten erreicht oder gar übertroffen werden. Dafür braucht sie Kontext – wie wir Menschen auch. Warum das so ist und wie generative KI an Kontext gelangt, erläutert der Datenbankhersteller Aerospike.   Die menschliche Kommunikation ist komplex: Wir drücken uns über Wort, Tonfall und Körpersprache aus. Doch das ist noch…

Large Language Models (LLMs) und Herausforderungen an den Storage – die Bedeutung von Parallelität und Checkpoints

Wenn man die Nachrichten im Bereich Deep Learning verfolgt, hat man sicher zur Kenntnis genommen, dass die Daten und Modelle im Bereich Deep Learning inzwischen sehr groß sind. Die Datensätze können in der Größenordnung von Petabytes liegen, und die Modelle selbst sind ebenfalls Hunderte von Gigabytes groß. Das bedeutet, dass nicht einmal das Modell selbst…