{"@context":"https://schema.org","@graph":[{"@type":"Service","name":"GPU Cluster für HPC","description":"Multi-Node GPU-Cluster mit NVIDIA B200, NVIDIA B300 oder AMD MI350X und 400/800G RoCEv2-Fabric für Training, HPC und Simulation - in souveränen EU-Rechenzentren.","provider":{"@type":"Organization","name":"Yorizon","url":"https://yorizon.com"},"areaServed":{"@type":"Place","name":"Europe"},"serviceType":"GPU HPC Service","category":"GPU","url":"https://yorizon.com/products/gpu-cluster-hpc"},{"@type":"FAQPage","mainEntity":[{"@type":"Question","name":"Welche GPUs werden eingesetzt?","acceptedAnswer":{"@type":"Answer","text":"NVIDIA B200, NVIDIA B300 (Blackwell) oder AMD MI350X. Pro Knoten 8 GPUs, 128 Cores, 2.304 GB RAM und 30,4 TB lokales NVMe."}},{"@type":"Question","name":"Wie funktioniert das Cluster-Networking?","acceptedAnswer":{"@type":"Answer","text":"400/800G RoCEv2-Fabric auf SONiC-Ethernet-Basis. Damit erreichen Multi-Node-Training und MPI-Workloads InfiniBand-Niveau ohne proprietären Lock-in."}},{"@type":"Question","name":"Welche Software ist vorinstalliert?","acceptedAnswer":{"@type":"Answer","text":"NVIDIA AI Enterprise (NVAIE) als License-Included-Standard. Optional BYOL nach Prüfung. MLOps-Stacks wie Kubeflow, MLflow und Ray sind anbindbar."}},{"@type":"Question","name":"Wie wird die GPU-Performance gewährleistet?","acceptedAnswer":{"@type":"Answer","text":"Direct Liquid Cooling auf Komponentenebene. Knoten werden über OpenStack Host Aggregates exklusiv einem Tenant zugeordnet - keine geteilte Last."}},{"@type":"Question","name":"Welche Workloads sind typisch?","acceptedAnswer":{"@type":"Answer","text":"Foundation-Model-Training, Fine-Tuning, HPC-Simulation (CFD, FEM), Vision-KI, Genomics, Klimamodellierung. Geeignet für Forschung, Industrie und MedTech."}}]}]}
Bare Metal GPU
Dedizierte Bare-Metal-GPU-Server für KI-Training, Inferenz und HPC - ohne Hypervisor-Overhead, in von Yorizon betriebenen europäischen YEXIO Rechenzentren.
Forschungseinrichtungen, Industrie und KI-Teams, die Multi-Node-Training, Simulationen und HPC-Workloads in einer souveränen, energieeffizienten europäischen Infrastruktur betreiben.
Was Yorizon liefert
Mehrere GPU-Knoten pro Cluster
Pro Knoten: 8x B200, 8x B300 oder 8x MI350X, 128 Cores, 2.304 GB RAM
30,4 TB lokales NVMe pro Knoten
400/800G RoCEv2-Fabric
Direct Liquid Cooling
NVAIE inklusive (License Included)
Architektur & Technologie
Whole-Machine GPU-Knoten, exklusiv per Host Aggregate. OSISM mit Ironic für Bare-Metal-Provisioning, Sovereign Cloud Stack. SONiC-Ethernet-Fabric mit RoCEv2. Direct Liquid Cooling. Holzbau-Rechenzentren mit PUE unter 1,1.
Sicherheit & Souveränität
EU-Standorte (Heiligenhaus, Bad Lippspringe und weitere Standorte in Planung)
Kein US Cloud Act
Roadmap ISO 27001, BSI C5; perspektivisch VS-NfD
Customer-Managed-Keys möglich
Service Level
99,9 % Verfügbarkeit
Wartung mit Vorankündigung
Servicegutschriften gestaffelt
Welche GPUs werden eingesetzt?
NVIDIA B200/B300 (Blackwell) oder AMD MI350X. Pro Knoten 8 GPUs, 128 Cores, 2.304 GB RAM und 30,4 TB lokales NVMe.
Wie funktioniert das Cluster-Networking?
400/800G RoCEv2-Fabric auf SONiC-Ethernet-Basis. Damit erreichen Multi-Node-Training und MPI-Workloads InfiniBand-Niveau ohne proprietären Lock-in.
Welche Software ist vorinstalliert?
NVIDIA AI Enterprise (NVAIE) als License-Included-Standard. Optional BYOL nach Prüfung. MLOps-Stacks wie Kubeflow, MLflow und Ray sind anbindbar.
Wie wird die GPU-Performance gewährleistet?
Direct Liquid Cooling auf Komponentenebene. Knoten werden über OpenStack Host Aggregates exklusiv einem Tenant zugeordnet - keine geteilte Last.
Welche Workloads sind typisch?
Foundation-Model-Training, Fine-Tuning, HPC-Simulation (CFD, FEM), Vision-KI, Genomics, Klimamodellierung. Geeignet für Forschung, Industrie und MedTech.

