32 www.net-im-web.de 11/25 SPECIAL PMREXPO 2025 Markus Grau KI revolutioniert fast jede Branche, sogar die eigene. Anfang 2025 verdrängte das chinesische Large Language Model (LLM) DeepSeek R1 kurzzeitig ChatGPT aus der öffentlichen Debatte, was Spekulationen über eine Verschiebung des KI-Machtgleichgewichts auslöste und zur Volatilität auf den Technologiemärkten beitrug. Markus Grau ist Enterprise Architect im Office of the CTO bei Pure Storage Weltweit haben Nationen ihre Absicht bekundet, KI-Supermächte zu werden, während Hyperscaler bis 2028 voraussichtlich eine Billion US-Dollar für KI-optimierte Infrastruktur ausgeben werden. Auch Unternehmen investieren massiv. IDC hat in Asien herausgefunden, dass die 100 führenden Unternehmen der Region planen, 50 Prozent ihres IT-Budgets für KI aufzuwenden. Nicht alle Projekte sind jedoch erfolgreich – Gartner berichtet, dass fast ein Drittel der KI-Initiativen keinen geschäftlichen Mehrwert liefern. Es ist klar, dass der KI-Goldrausch nicht ignoriert werden kann, aber die Teilnahme erfordert erhebliche Investitionen. Wie können Unternehmen also die Erfolgschancen von KI-Projekten maximieren, und welche Überlegungen müssen hinsichtlich der zugrundeliegenden Infrastruktur angestellt werden? Rechenleistung und Speicher KI-Workloads lassen sich grob in zwei Kategorien einteilen: Training, wenn ein Modell aus einem Datensatz lernt, und Inferenz, wenn es das Gelernte auf neue Daten anwendet. Schon vor dem Training sind jedoch wichtige Schritte erforderlich, darunter die Datenerfassung, -aufbereitung und -kuratierung. Die Art dieser Daten ist sehr unterschiedlich und reicht von Archivdaten bis hin zu strukturierten Transaktionsdatenbanken, oft mit unvorhersehbarer Datenverwaltung. Was jedoch immer gleich bleibt, ist, dass KI ressourcenintensiv ist. Der Energieverbrauch und die Leistungsfähigkeit von GPUs während des Trainings sind bekannt. Häufige Checkpoints während des Trainings erhöhen die Anforderungen an die Infrastruktur zusätzlich. Diese Checkpoints gewährleisten die Wiederherstellbarkeit des Modells, die Rollback-Fähigkeit und die Compliance, wodurch der Bedarf an Datenspeicherkapazität und der damit verbundene Energieverbrauch weiter steigen. Retrieval-Augmented Generation (RAG), die interne Datensätze in LLMs integriert, führt zu einer zusätzlichen Komplexität der Speicherung, da sie auf vektorisierten Daten basiert. Dies sind Datensätze, die in hochdimensionale Vektoren übersetzt Entwicklung von Rechenzentren unter KI-Einfluss Speicher ist der Schlüssel für Leistung und Effizienz Der wachsende Energieverbrauch von KI ist ein kritischer Faktor. Die Verarbeitung durch KI verbraucht mehr als 30mal so viel Energie wie herkömmliche aufgabenorientierte Software (Foto: Cookiecutter, Pexels)
RkJQdWJsaXNoZXIy MjE2Mzk=