DB Podcast

KI-Modelle OVHcloud vereinfacht KI-Entwicklung mit neuen GPUs

Quelle: Pressemitteilung 3 min Lesedauer

Anbieter zum Thema

Der Cloud-Anbieter OVHcloud erweitert sein Angebot an KI-Technologie um Grafikprozessoren von Nvidia. Die neuen KI-Modelle auf Open-Source-Basis, wie Mixtral 8x22B oder Llama 3, sind über OVHcloud AI Endpoints verfügbar. 

(Bild:  OVHcloud)
(Bild: OVHcloud)

Die Lösungen von OVHcloud beschleunigen Projekte, bei denen KI-Modelle erstellt werden, bis hin zur Inferenz der neuesten Large Language Models. So bietet das Unternehmen jetzt in seinem Public-Cloud-Universum ein Portfolio hochmoderner GPUs an, die auf Nachfrage verfügbar sind und alle auf Nvidia-Hardware der neuesten Generation (H100 Tensor Core/L4 Tensor Core/L40S) basieren. Zusätzlich zu den bereits verfügbaren GPUs von Nvidia für Public-Cloud-Projekte (H100/L4) kombinieren die L40S-Einheiten leistungsstarke KI-Rechenleistung mit erstklassiger Grafik- und Medienbeschleunigung für ein breites Spektrum an Workloads, von LLM-Inferenz und Training bis hin zu 3D-Grafik, Rendering und Video. 

KI-Modelle: Dedizierte Server jetzt mit GPU Nvidia L40S

OVHcloud stattet die neuen Bare-Metal-Server mit dem GPU Nvidia L40S aus.(Bild:  Nvidia)
OVHcloud stattet die neuen Bare-Metal-Server mit dem GPU Nvidia L40S aus.
(Bild: Nvidia)

Um dem Bedarf an leistungsstarken, dedizierten KI-Servern gerecht zu werden, hat OVHcloud neue dedizierte Bare-Metal-Server mit Nvidia L40S eingeführt. Der neue Server aus der High-Grade-Reihe zielt auf Anwendungsfälle wie Deep Learning, Machine Learning und High Performance Computing ab. Die Reihe ist mit AMD EPYC 9354 in einer Dual-Prozessor-Konfiguration ausgestattet und verfügt somit über 64 Kerne und 128 Threads mit 384 GB DDR5-Speicher (bis zu 2,3 TB). Um anspruchsvolle KI-Workloads zu bewältigen, verfügt der neue HGR-AI-2 aus der High-Grade-Reihe über 2x Nvidia L40S 48 GB mit der Möglichkeit, bis zu 4x Nvidia L40S 48 GB pro Server zu konfigurieren.

„Wir demokratisieren KI für unsere Public-Cloud- und Bare-Metal-Kunden, indem wir eine große Auswahl an NVIDIA-GPUs anbieten, die strategisch für eine Vielzahl von KI-Workloads ausgewählt und bepreist werden – vom Modelltraining bis zu Inferenzen“, sagt Yaniv Fdida, Chief Product and Technology Officer bei OVHcloud. Die KI-Lösungen von OVHcloud sind in jedem Schritt der KI-Wertschöpfungskette von der Ideenfindung bis zur Produktion integriert. Die nutzungsfreundlichen Services AI Notebooks, AI Training und AI Deploy fungieren als komplettes Set serverloser Tools, die zum Experimentieren mit Daten, Trainieren von Modellen und Überführen in die Produktion entwickelt wurden. 

Neue Open-Source-Modelle über AI Endpoints verfügbar

OVHcloud AI Endpoints ist eine weitere serverlose Lösung, die über Schnittstellen (API Endpoints) Zugriff auf zahlreiche KI-Modelle ermöglicht und daher wenig bis gar kein Vorwissen auf der Anwenderseite erfordert. Bevor Entwickler:innen ihre Schnittstelle nutzen, können sie ihre Endpunkte auf einem Playground testen. Genau wie OVHcloud AI Notebooks, AI Training und AI Deploy nutzt auch AI Endpoints die Infrastruktur von OVHcloud. Das Unternehmen hat stark nachgefragte Open-Source Large Language Models wie Mixtral 8x22b und Llama 3 sowie Nvidia-optimierte Modelle für Aufgaben wie die automatische Spracherkennung (ASR) hinzugefügt.

KI-Modelle mit wenigen Klicks nutzenDie KI-Modelle sind direkt einsatzfähig und verfügbar, ihre Nutzung erfordert wenig Vorwissen auf Seiten der Unternehmen. Damit vereinfacht OVHcloud die Nutzung von KI und senkt die Barrieren zur Entwicklung erfolgreicher KI-basierter Geschäftsmodelle in Europa. OVHcloud konzentriert sich damit konsequent auf die vier Schlüsselelemente, die Unternehmen für einen erfolgreichen KI-Einsatz benötigen: leistungsstarke und dennoch effiziente Rechenressourcen, optimierte Datensätze, Software-Tools und modernste Fähigkeiten. 

Die neuen Optionen für Nvidia-GPUs, darunter H100/L40S/L4, sind ab sofort im Public-Cloud-Universum verfügbar, um KI-gesteuerte Projekte auszuführen. Die neuen HGR-AI-2-Server mit L40S GPU von Nvidia sind ab sofort in Frankreich und Kanada ab 2969,99 Euro pro Monat verfügbar. Die neuen KI-Modelle, darunter Mixtral 8x22b und Llama 3, sind ab sofort über OVHcloud AI Endpoints verfügbar.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung