DB Podcast

Hochleistungs-Storage Datenplattform: NetApp bringt neue Lösungen für KI-Nutzung

Verantwortliche:r Redakteur:in: Stefan Girschner 4 min Lesedauer

Anbieter zum Thema

NetApp hat seine Enterprise-Datenplattform für KI-Innovation um neue Produkten erweitert. In Zeiten des KI-Umbruchs, von Pilotprojekten hin zu agentenbasierten Anwendungen, schaffen KI-fähige Daten auf einer Enterprise-Dateninfrastruktur die Basis für die erfolgreiche KI-Nutzung.

(Bild:  NetApp)
(Bild: NetApp)

Das neue NetApp AFX skaliert Leistung und Kapazität individuell, basierend auf einem disaggregierten Ontap-Storage-Betriebssystem für das neue Storage-System AFX 1K. NetApp AI Data Engine erweitert Ontap um eine Integration mit dem Nvidia-Referenzdesign „AI Data Platform“. Mit Hilfe dieser Lösungen vereinfachen und schützen Unternehmen alle ihre KI-relevanten Datenströme und steuern sie über eine einheitliche Managementoberfläche.

Diese Funktionen vereinen Hochleistungs-Storage und intelligente Datenservices in einem einzelnen, sicheren und skalierbaren Lösungsangebot. Es beschleunigt Retrieval Augmented Generation (RAG) und Inferenz in hybriden und Multi-Cloud-Umgebungen. Kunden können die Produkte klassisch erwerben oder über NetApp Keystone STaaS abonnieren. Mit AFX und der AI Data Engine stellt die Datenplattform sicher, dass alle relevanten Daten sofort für KI bereitstehen.

NetApp AFX basiert auf Datenplattform für KI

Syam Nair ist Chief Product Officer bei NetApp.(Bild:  NetApp)
Syam Nair ist Chief Product Officer bei NetApp.
(Bild: NetApp)

„Mit den neuen NetApp-AFX-Systemen erhalten Kunden eine bewährte Lösung für On-premises-Enterprise-Storage, aufbauend auf einer umfassenden Datenplattform für KI-Innovation. NetApp AI Data Engine verbindet sämtliche Datenquellen eines Unternehmens in der gesamten hybriden Multi-Cloud zu einer einheitlichen Datenbasis“, erklärt Syam Nair, Chief Product Officer bei NetApp.

„Damit bilden Anwender mehrere Schritte der Datenvorbereitung und -verwaltung in der NetApp AI Data Engine ab. Diese integriert leistungsfähigen Nvidia-Compute und -AI-Enterprise-Software, inklusive semantischer Suche, Datenvektorisierung und datenspezifischen Sicherheitsrichtlinien. In Kombination liefern NetApp AFX und die AI Data Engine Resilienz und Leistung auf Enterprise-Niveau, mit NetApp ONTAP als bewährter Grundlage – neu als disaggregierte Storage-Architektur, aber weiterhin auf Basis der sichersten Storage-Technologie weltweit“, so Syam Nair.

Mit den neuen NetApp-AFX-Systemen erhalten Kunden eine bewährte Lösung für On-premises-Enterprise-Storage, aufbauend auf einer Datenplattform für KI-Innovation.

Syam Nair, NetApp

Überblick über Lösungen für moderne KI-Workloads

Das neue All-Flash-Storage-System AFX von NetApp unterstützt KI-Workloads auf Enterprise-Niveau.(Bild:  NetApp)
Das neue All-Flash-Storage-System AFX von NetApp unterstützt KI-Workloads auf Enterprise-Niveau.
(Bild: NetApp)

NetApp AFX: AFX ist ein disaggregiertes All-Flash-Storage-System für anspruchsvolle KI-Workloads mit Skalierbarkeit auf Enterprise-Niveau. Als zertifizierter Speicher für Nvidia DGX SuperPOD Supercomputing basiert es auf NetApp Ontap, dem weitverbreiteten Storage-Betriebssystem, das in unterschiedlichsten Branchen auf der ganzen Welt Exabytes an Daten verwaltet. AFX bietet robustes Datenmanagement und integrierte Cyber-Resilienz sowie sichere Mandantenfähigkeit und nahtlose Integration in Cloud- und On-Premises-Umgebungen. Es skaliert linear bis zu 128 Nodes mit einer Bandbreite von Terabytes pro Sekunde und bis in den Exabyte-Bereich. Außerdem skalieren Leistung und Kapazität unabhängig voneinander. Optional läuft eine globale Metadaten-Engine zur Echtzeit-Katalogisierung von Enterprise-Daten mit Nvidia-Compute auf NetApp DX50.

NetApp AI Data Engine (AIDE): AIDE ist ein umfassender KI-Datenservice, der KI-Nutzung einfacher, kosteneffizienter und sicherer macht. AIDE bietet eine globale, immer aktuelle Sicht auf alle NetApp-Daten und ermöglicht schnelle Suchanfragen sowie Kuration, egal ob für Datenaufnahme, Datenaufbereitung oder Bereitstellung für GenAI. Je nach Bedarf versorgt sie unterschiedlichste Modelle oder Werkzeuge On-Premises und in der Public-Cloud nahtlos mit Daten. Sie erkennt Änderungen an den Daten automatisch und synchronisiert sie – das reduziert unnötige Duplikate und hält relevante Informationen immer aktuell.

Sicherheits- und Privacy-Richtlinien begleiten die Daten durch den gesamten KI-Lebenszyklus. AIDE nutzt das Referenzdesign Nvidia AI Data Platform – inklusive schnellem Compute von Nvidia und AI-Enterprise-Software mit Nvidia-NIM-Microservices – für Vektorisierung und Retrieval. Weitere Vorteile sind fortschrittliche Kompression, schnelle Semantik-basierte Suche sowie sichere, Policy-basierte Workflows. Die Engine läuft nativ im AFX-Cluster auf den optionalen DX50 „Data Control Nodes“. Zukünftig werden auch Nvidia RTX PRO Server mit RTX PRO 6000 Blackwell Server Edition GPUs unterstützt.

Object API für Azure Data & AI Services: Kunden können jetzt über eine Object REST API direkt auf Azure NetApp Files zugreifen (Public Preview). Für Azure-Dienste müssen Daten so nicht mehr in einen separaten Objektspeicher kopiert werden. Stattdessen verbinden NFS- und SMB-Daten direkt mit Microsoft Fabric, Azure OpenAI, Azure Databricks, Azure Synapse, Azure AI Search, Azure Machine Learning und anderen Diensten. Kunden analysieren damit ihre Daten, trainieren KI-Modelle, setzen intelligente Suchroutinen auf und entwickeln moderne Anwendungen – alles auf Basis ihrer bestehenden ANF-Daten.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Unified Namespace in Microsoft Azure: Mit neuen FlexCache-Funktionen können Unternehmen ihre Datenbestände über Cloud und On-Premises hinweg in Azure einheitlich abbilden – beziehungsweise On-Premises-Workloads wie Electronic Design Automation aus der Cloud bedienen. Daten aus ONTAP-Storage, egal ob im Rechenzentrum oder verschiedenen Clouds, werden verzögerungsfrei in ANF sichtbar und schreibbar, aber nur bei Bedarf granular übertragen. Der Kunde erschließt so seine gesamte Datenlandschaft nahtlos in Microsoft Azure. Zusätzlich ermöglicht SnapMirror einfache Migration von Daten und Snapshots zwischen verschiedenen Umgebungen, beispielsweise für fortlaufendes Backup, automatische Wiederherstellung und Workload-Balancing.

Mit Nvidia-Compute entsteht KI-native Datenplattform

Justin Boitano, Vice President, Enterprise AI Products bei Nvidia, erklärt: „Unternehmen brauchen eine leistungsstarke Datenbasis, um aus riesigen Datenmengen echte Intelligenz zu gewinnen“, sagt „Die Datenplattform von NetApp ist heute durch die Integration von Nvidia-Compute und -Software samt führender KI-Modelle eine KI-native Datenplattform. Mit ihr können Unternehmen enorme Mengen unstrukturierter Daten unternehmensweit indexieren und durchsuchen, um Innovationen voranzutreiben und echten Mehrwert zu erzielen.“

Michael Leone, Practice Director und Principal Analyst bei Omdia, ergänzt: „Die neuen Lösungen von NetApp zeigen, wie schnell eine ambitionierte Vision zur KI-Datenverwaltung umgesetzt werden kann. Die Art und Weise, wie NetApp-Lösungen Intelligenz in Unternehmensdaten bringen, zeigt ein tiefes Verständnis für die tatsächlichen Herausforderungen der Kunden – und wie man ihnen begegnet. Die Ergänzung einer unabhängigen Skalierung von Leistung und Kapazitätsmanagement zu den robusten Datenverwaltungs-Funktionen von Ontap wird Unternehmen in die Lage versetzen, mit Zuversicht in KI-Projekte zu investieren und Werte zu schaffen.“