{"@context":"https://schema.org","@graph":[{"@type":"Service","name":"GPU Cluster für HPC","description":"Multi-Node GPU-Cluster mit NVIDIA B200, NVIDIA B300 oder AMD MI350X und 400/800G RoCEv2-Fabric für Training, HPC und Simulation - in souveränen EU-Rechenzentren.","provider":{"@type":"Organization","name":"Yorizon","url":"https://yorizon.com"},"areaServed":{"@type":"Place","name":"Europe"},"serviceType":"GPU HPC Service","category":"GPU","url":"https://yorizon.com/products/gpu-cluster-hpc"},{"@type":"FAQPage","mainEntity":[{"@type":"Question","name":"Welche GPUs werden eingesetzt?","acceptedAnswer":{"@type":"Answer","text":"NVIDIA B200, NVIDIA B300 (Blackwell) oder AMD MI350X. Pro Knoten 8 GPUs, 128 Cores, 2.304 GB RAM und 30,4 TB lokales NVMe."}},{"@type":"Question","name":"Wie funktioniert das Cluster-Networking?","acceptedAnswer":{"@type":"Answer","text":"400/800G RoCEv2-Fabric auf SONiC-Ethernet-Basis. Damit erreichen Multi-Node-Training und MPI-Workloads InfiniBand-Niveau ohne proprietären Lock-in."}},{"@type":"Question","name":"Welche Software ist vorinstalliert?","acceptedAnswer":{"@type":"Answer","text":"NVIDIA AI Enterprise (NVAIE) als License-Included-Standard. Optional BYOL nach Prüfung. MLOps-Stacks wie Kubeflow, MLflow und Ray sind anbindbar."}},{"@type":"Question","name":"Wie wird die GPU-Performance gewährleistet?","acceptedAnswer":{"@type":"Answer","text":"Direct Liquid Cooling auf Komponentenebene. Knoten werden über OpenStack Host Aggregates exklusiv einem Tenant zugeordnet - keine geteilte Last."}},{"@type":"Question","name":"Welche Workloads sind typisch?","acceptedAnswer":{"@type":"Answer","text":"Foundation-Model-Training, Fine-Tuning, HPC-Simulation (CFD, FEM), Vision-KI, Genomics, Klimamodellierung. Geeignet für Forschung, Industrie und MedTech."}}]}]}

Jetzt bestellen
Jetzt bestellen

Bare Metal GPU

Dedizierte Bare-Metal-GPU-Server für KI-Training, Inferenz und HPC - ohne Hypervisor-Overhead, in von Yorizon betriebenen europäischen YEXIO Rechenzentren.

Forschungseinrichtungen, Industrie und KI-Teams, die Multi-Node-Training, Simulationen und HPC-Workloads in einer souveränen, energieeffizienten europäischen Infrastruktur betreiben.

Was Yorizon liefert

  • Mehrere GPU-Knoten pro Cluster

  • Pro Knoten: 8x B200, 8x B300 oder 8x MI350X, 128 Cores, 2.304 GB RAM

  • 30,4 TB lokales NVMe pro Knoten

  • 400/800G RoCEv2-Fabric

  • Direct Liquid Cooling

  • NVAIE inklusive (License Included)

Architektur & Technologie

Whole-Machine GPU-Knoten, exklusiv per Host Aggregate. OSISM mit Ironic für Bare-Metal-Provisioning, Sovereign Cloud Stack. SONiC-Ethernet-Fabric mit RoCEv2. Direct Liquid Cooling. Holzbau-Rechenzentren mit PUE unter 1,1.

Sicherheit & Souveränität

  • EU-Standorte (Heiligenhaus, Bad Lippspringe und weitere Standorte in Planung)

  • Kein US Cloud Act

  • Roadmap ISO 27001, BSI C5; perspektivisch VS-NfD

  • Customer-Managed-Keys möglich

Service Level

  • 99,9 % Verfügbarkeit

  • Wartung mit Vorankündigung

  • Servicegutschriften gestaffelt

Welche GPUs werden eingesetzt?

NVIDIA B200/B300 (Blackwell) oder AMD MI350X. Pro Knoten 8 GPUs, 128 Cores, 2.304 GB RAM und 30,4 TB lokales NVMe.

Wie funktioniert das Cluster-Networking?

400/800G RoCEv2-Fabric auf SONiC-Ethernet-Basis. Damit erreichen Multi-Node-Training und MPI-Workloads InfiniBand-Niveau ohne proprietären Lock-in.

Welche Software ist vorinstalliert?

NVIDIA AI Enterprise (NVAIE) als License-Included-Standard. Optional BYOL nach Prüfung. MLOps-Stacks wie Kubeflow, MLflow und Ray sind anbindbar.

Wie wird die GPU-Performance gewährleistet?

Direct Liquid Cooling auf Komponentenebene. Knoten werden über OpenStack Host Aggregates exklusiv einem Tenant zugeordnet - keine geteilte Last.

Welche Workloads sind typisch?

Foundation-Model-Training, Fine-Tuning, HPC-Simulation (CFD, FEM), Vision-KI, Genomics, Klimamodellierung. Geeignet für Forschung, Industrie und MedTech.