{"@context":"https://schema.org","@graph":[{"@type":"Service","name":"Yorizon Factory AI","description":"Gemanagte AI-Plattform mit OpenAI-kompatibler Inference, AI-Workbench und Open-Weights-Hosting auf B200 - europäisch, ohne Cloud Act.","provider":{"@type":"Organization","name":"Yorizon","url":"https://yorizon.com"},"areaServed":{"@type":"Place","name":"Europe"},"serviceType":"AI Inference Platform","category":"AI Platform","url":"https://yorizon.com/products/yorizon-factory-ai"},{"@type":"FAQPage","mainEntity":[{"@type":"Question","name":"Welche Modelle sind verfügbar?","acceptedAnswer":{"@type":"Answer","text":"Phase 1: Llama 3.1 70B, Mistral NeMo, DeepSeek-R1. Phase 2: Llama 3.1 405B und Flux.1 (Image). Open-Weights-Modelle mit Hosting-Lizenz, europäische Modelle bevorzugt."}},{"@type":"Question","name":"Ist die API OpenAI-kompatibel?","acceptedAnswer":{"@type":"Answer","text":"Ja, vollständig OpenAI-kompatibles REST-API für Chat-, Completion- und Embedding-Aufrufe. Bestehende Anwendungen lassen sich nahtlos integrieren."}},{"@type":"Question","name":"Wo bleiben meine Daten?","acceptedAnswer":{"@type":"Answer","text":"Daten verlassen niemals das Yorizon-Rechenzentrum - kein US Cloud Act. Adressiert DSGVO Art. 9, NIS2 und EU AI Act."}},{"@type":"Question","name":"Was kostet die Nutzung?","acceptedAnswer":{"@type":"Answer","text":"Pay-per-Use pro Million Token bzw. Requests. Token-Latenzen, Durchsatz pro Modell und garantierte Quoten werden kundenspezifisch vereinbart."}},{"@type":"Question","name":"Kann ich eigene Modelle hosten?","acceptedAnswer":{"@type":"Answer","text":"Hosting fein-getunter Open-Source-Modelle ist optional verfügbar (Spezifikation laut Angebot). AI-Workbench mit PyTorch, JAX und vLLM für Fine-Tuning vorhanden."}}]}]}

Coming soon
Coming soon

Yorizon Factory AI

Die gemanagte AI-Plattform von Yorizon - Inference-API, AI-Workbench und Modell-Hosting auf europäischer GPU-Infrastruktur.

Software-Entwickler, Datenteams und Fachbereiche, die Open-Source-Modelle und RAG-Anwendungen produktiv betreiben wollen, ohne eigene GPU-Infrastruktur, ohne Modell-Hosting-Komplexität und ohne Datenabfluss in US-Clouds.

Was Yorizon liefert

  • Inference-Endpoints für Llama 3.1, Mistral, DeepSeek

  • OpenAI-kompatibles REST-API

  • AI-Workbench mit PyTorch, JAX, vLLM

  • Pay-per-Use pro Million Token

  • Hosting eigener Open-Source-Modelle nach Vereinbarung

  • Multi-Tenant- und White-Label-Modus

Architektur & Technologie

NVIDIA NIMs auf B200-Knoten unter Direct Liquid Cooling. Multi-Node Inferenz via RoCEv2. OSISM (Sovereign Cloud Stack) mit Ceph und Neutron.

Sicherheit & Souveränität

  • Daten verlassen niemals das Yorizon-Rechenzentrum

  • EU-only Datenresidenz, kein US Cloud Act

  • Adressiert DSGVO Art. 9, NIS2, EU AI Act

  • Tenant-Trennung auf Identitäts-, Netz- und Modell-Ebene

  • Audit-Logs für API-Aufrufe

Service Level

  • 99,9 % monatliche Verfügbarkeit

  • Token-Latenz und Durchsatz pro Modell auf Anfrage

  • Servicegutschriften gestaffelt

Welche Modelle sind verfügbar?

Phase 1: Llama 3.1 70B, Mistral NeMo, DeepSeek-R1. Phase 2: Llama 3.1 405B und Flux.1 (Image). Open-Weights-Modelle mit Hosting-Lizenz, europäische Modelle bevorzugt.

Ist die API OpenAI-kompatibel?

Ja, vollständig OpenAI-kompatibles REST-API für Chat-, Completion- und Embedding-Aufrufe. Bestehende Anwendungen lassen sich nahtlos integrieren.

Wo bleiben meine Daten?

Daten verlassen niemals das Yorizon-Rechenzentrum - kein US Cloud Act. Adressiert DSGVO Art. 9, NIS2 und EU AI Act.

Was kostet die Nutzung?

Pay-per-Use pro Million Token bzw. Requests. Token-Latenzen, Durchsatz pro Modell und garantierte Quoten werden kundenspezifisch vereinbart.

Kann ich eigene Modelle hosten?

Hosting fein-getunter Open-Source-Modelle ist optional verfügbar (Details auf Anfrage). AI-Workbench mit PyTorch, JAX und vLLM für Fine-Tuning vorhanden.