NET 11/2025

www.net-im-web.de 33 11/25 Entwicklung von Rechenzentren unter KI-Einfluss werden, um Ähnlichkeitsvergleiche zu ermöglichen. Diese Transformation kann die Größe des Datensatzes erheblich erhöhen, manchmal um den Faktor 10. Nach dem Training erfordert die Inferenz in der Regel weniger Rechenleistung, aber dennoch eine kontinuierliche Datenspeicherung – sowohl für die Protokollierung der Ergebnisse als auch für die zu analysierenden Daten selbst. Leistung, Umfang, Kompromisse Der wachsende Energieverbrauch von KI ist ein weiterer kritischer Faktor. Einige Quellen gehen davon aus, dass die Verarbeitung durch KI mehr als 30-mal so viel Energie verbraucht wie herkömmliche aufgabenorientierte Software und dass sich der Energiebedarf von Rechenzentren bis 2030 mehr als verdoppeln wird. Auf RackEbene ist der Stromverbrauch von unter 10 kW auf 100 kW gestiegen, in einigen KI-Clustern sogar noch mehr, was vor allem auf den Bedarf der leistungsstarken GPUs zurückzuführen ist. Dies führt zu einem Kompromiss: Jedes Watt, das für die Datenspeicherung verwendet wird, steht den GPUs nicht zur Verfügung. Eine effiziente, leistungsstarke Speicherung ist unerlässlich, um die GPUs zeitnah mit Daten zu versorgen und gleichzeitig die Belastung der ohnehin begrenzten Leistungsbudgets zu minimieren. Die Datenspeicherung kann auch zusätzliche Leistungssteigerungen bringen, beispielsweise durch Key-ValueCaches, die häufig abgerufene Daten, Eingabeaufforderungen und Konversationen speichern, um wiederholte GPU-Verarbeitungsvorgänge zu reduzieren. Zwischengespeicherte Informationen können die Reaktionsfähigkeit verbessern, selbst bei hochfrequenten Workloads wie RAG, Trading und Chatbots. Insgesamt kann Caching die Inferenz um bis zu 20-mal beschleunigen, die GPU-Effizienz maximieren, Kosten und Energieverbrauch senken und skalierbare und reaktionsschnelle KI-Anwendungen für Unternehmen ermöglichen. Speicherung muss Schritt halten Die Aufgabe der Datenspeicherung in der KI-Infrastruktur besteht darin, einen Zugriff mit hohem Durchsatz und geringer Latenz auf große Datensätze zu ermöglichen. Eine schlechte Speicherleistung kann zu GPUEngpässen führen und den Wert teurer Rechenhardware untergraben. KI-Workloads erfordern in der Regel Hunderte von Terabyte, wenn nicht sogar Petabyte an Kapazität und die Fähigkeit, Daten schnell abzurufen – sei es für das Training neuer Modelle, die Ausführung von Inferenz oder die Integration neuer Datenquellen. Dies gilt nicht nur für Echtzeitanforderungen, sondern auch für Archivdaten, die wiederverwendet oder erneut verarbeitet werden können. Hochdichte QLC-Flash-Speichersysteme haben sich aufgrund ihrer Kombination aus Geschwindigkeit, Kapazität, Zuverlässigkeit und Energieeffizienz bei Verwendung in der richtigen modernen Speicherplattform als ideale Lösung für hochleistungsfähige KI-Speicheranforderungen herausgestellt. Durch die Verwendung von QLC können Kunden Daten zu Kosten, die denen von rotierenden Festplatten nahekommen, auf Flash-Speichern speichern, aber mit der für KI-Workloads erforderlichen Geschwindigkeit darauf zugreifen. Integrierte KI-fähige Infrastruktur Einige Anbieter bieten mittlerweile Speichersysteme an, die speziell auf KI-Work- loads zugeschnitten sind, darunter Lösungen, die für die Verwendung mit NvidiaComputing-Stacks zertifiziert sind. Diese können mit optimierten RAG-Pipelines gebündelt und in Nvidia-Mikroservices integriert sein, was die Bereitstellung vereinfacht und die Leistungskonsistenz verbessert. Die Bereitstellung von KI in großem Maßstab erfordert mehr als nur leistungsstarke GPUs. Sie hängt von einer robusten, effizienten und reaktionsschnellen Infrastruktur ab. Die Datenspeicherung spielt dabei eine zentrale Rolle. Von den frühesten Phasen der Datenaufbereitung über das Training bis hin zur kundenorientierten Inferenz sind KI-Workloads auf schnelle, skalierbare und zunehmend energiebewusste Speicherlösungen angewiesen. Ohne diese laufen selbst die am besten finanzierten Projekte Gefahr, unter der Last ihrer eigenen Komplexität zu scheitern. www.purestorage.com Hochdichte QLC-Flash-Speichersysteme haben sich aufgrund ihrer Kombination aus Geschwindigkeit, Kapazität, Zuverlässigkeit und Energieeffizienz als ideale Lösung für hochleistungsfähige KI-Speicheranforderungen herausgestellt (Foto: Divinetechygirl, Pexels)

RkJQdWJsaXNoZXIy MjE2Mzk=