{"@context":"https://schema.org","@graph":[{"@type":"Service","name":"Yorizon Factory AI","description":"Gemanagte AI-Plattform mit OpenAI-kompatibler Inference, AI-Workbench und Open-Weights-Hosting auf B200 - europäisch, ohne Cloud Act.","provider":{"@type":"Organization","name":"Yorizon","url":"https://yorizon.com"},"areaServed":{"@type":"Place","name":"Europe"},"serviceType":"AI Inference Platform","category":"AI Platform","url":"https://yorizon.com/products/yorizon-factory-ai"},{"@type":"FAQPage","mainEntity":[{"@type":"Question","name":"Welche Modelle sind verfügbar?","acceptedAnswer":{"@type":"Answer","text":"Phase 1: Llama 3.1 70B, Mistral NeMo, DeepSeek-R1. Phase 2: Llama 3.1 405B und Flux.1 (Image). Open-Weights-Modelle mit Hosting-Lizenz, europäische Modelle bevorzugt."}},{"@type":"Question","name":"Ist die API OpenAI-kompatibel?","acceptedAnswer":{"@type":"Answer","text":"Ja, vollständig OpenAI-kompatibles REST-API für Chat-, Completion- und Embedding-Aufrufe. Bestehende Anwendungen lassen sich nahtlos integrieren."}},{"@type":"Question","name":"Wo bleiben meine Daten?","acceptedAnswer":{"@type":"Answer","text":"Daten verlassen niemals das Yorizon-Rechenzentrum - kein US Cloud Act. Adressiert DSGVO Art. 9, NIS2 und EU AI Act."}},{"@type":"Question","name":"Was kostet die Nutzung?","acceptedAnswer":{"@type":"Answer","text":"Pay-per-Use pro Million Token bzw. Requests. Token-Latenzen, Durchsatz pro Modell und garantierte Quoten werden kundenspezifisch vereinbart."}},{"@type":"Question","name":"Kann ich eigene Modelle hosten?","acceptedAnswer":{"@type":"Answer","text":"Hosting fein-getunter Open-Source-Modelle ist optional verfügbar (Spezifikation laut Angebot). AI-Workbench mit PyTorch, JAX und vLLM für Fine-Tuning vorhanden."}}]}]}
Yorizon Factory AI
Die gemanagte AI-Plattform von Yorizon - Inference-API, AI-Workbench und Modell-Hosting auf europäischer GPU-Infrastruktur.
Software-Entwickler, Datenteams und Fachbereiche, die Open-Source-Modelle und RAG-Anwendungen produktiv betreiben wollen, ohne eigene GPU-Infrastruktur, ohne Modell-Hosting-Komplexität und ohne Datenabfluss in US-Clouds.
Was Yorizon liefert
Inference-Endpoints für Llama 3.1, Mistral, DeepSeek
OpenAI-kompatibles REST-API
AI-Workbench mit PyTorch, JAX, vLLM
Pay-per-Use pro Million Token
Hosting eigener Open-Source-Modelle nach Vereinbarung
Multi-Tenant- und White-Label-Modus
Architektur & Technologie
NVIDIA NIMs auf B200-Knoten unter Direct Liquid Cooling. Multi-Node Inferenz via RoCEv2. OSISM (Sovereign Cloud Stack) mit Ceph und Neutron.
Sicherheit & Souveränität
Daten verlassen niemals das Yorizon-Rechenzentrum
EU-only Datenresidenz, kein US Cloud Act
Adressiert DSGVO Art. 9, NIS2, EU AI Act
Tenant-Trennung auf Identitäts-, Netz- und Modell-Ebene
Audit-Logs für API-Aufrufe
Service Level
99,9 % monatliche Verfügbarkeit
Token-Latenz und Durchsatz pro Modell auf Anfrage
Servicegutschriften gestaffelt
Welche Modelle sind verfügbar?
Phase 1: Llama 3.1 70B, Mistral NeMo, DeepSeek-R1. Phase 2: Llama 3.1 405B und Flux.1 (Image). Open-Weights-Modelle mit Hosting-Lizenz, europäische Modelle bevorzugt.
Ist die API OpenAI-kompatibel?
Ja, vollständig OpenAI-kompatibles REST-API für Chat-, Completion- und Embedding-Aufrufe. Bestehende Anwendungen lassen sich nahtlos integrieren.
Wo bleiben meine Daten?
Daten verlassen niemals das Yorizon-Rechenzentrum - kein US Cloud Act. Adressiert DSGVO Art. 9, NIS2 und EU AI Act.
Was kostet die Nutzung?
Pay-per-Use pro Million Token bzw. Requests. Token-Latenzen, Durchsatz pro Modell und garantierte Quoten werden kundenspezifisch vereinbart.
Kann ich eigene Modelle hosten?
Hosting fein-getunter Open-Source-Modelle ist optional verfügbar (Details auf Anfrage). AI-Workbench mit PyTorch, JAX und vLLM für Fine-Tuning vorhanden.

