GPU Cloud
Virtuelle NVIDIA GPUs für KI, Machine Learning und Rendering — von Tesla T4 bis H200, granular konfigurierbar, 100% datensouverän aus München.
GPU Server konfigurieren
Wählen Sie Ihr GPU-Modell und konfigurieren Sie alle Ressourcen individuell.
Angebot anfordern
GPU Cloud
GPU-Modell
NVIDIA vGPU · dedizierter VRAM
vGPU-Profil
Dedizierter VRAM
Dedizierte vCores
Intel® Xeon® · dediziert
RAM
ECC · fest zugewiesen
NVMe Storage
3N Redundanz · Ceph
Service-Level-Vereinbarung
Verfügbarkeit & Support
GPU-Preise
Alle vGPU-Profile im Überblick — kombinierbar mit frei konfigurierbaren Compute-Ressourcen.
| GPU / Profil | VRAM | FP32 | Preis / Monat |
|---|---|---|---|
| Tesla T4 — T4-4Q | 4 GB GDDR6 | 2,0 TFLOPS | € 69,00 |
| Tesla T4 — T4-8Q | 8 GB GDDR6 | 4,1 TFLOPS | € 129,00 |
| Tesla T4 — T4-16Q | 16 GB GDDR6 | 8,1 TFLOPS | € 249,00 |
| NVIDIA A10 — A10-4Q | 4 GB GDDR6 | 5,2 TFLOPS | € 99,00 |
| NVIDIA A10 — A10-8Q | 8 GB GDDR6 | 10,4 TFLOPS | € 189,00 |
| NVIDIA A10 — A10-12Q | 12 GB GDDR6 | 15,6 TFLOPS | € 279,00 |
| NVIDIA A10 — A10-24Q | 24 GB GDDR6 | 31,2 TFLOPS | € 549,00 |
| NVIDIA A100 — 1g.10gb | 10 GB HBM2e | 2,8 TFLOPS | € 179,00 |
| NVIDIA A100 — 2g.20gb | 20 GB HBM2e | 5,6 TFLOPS | € 349,00 |
| NVIDIA A100 — 3g.40gb | 40 GB HBM2e | 8,4 TFLOPS | € 529,00 |
| NVIDIA A100 — 7g.80gb | 80 GB HBM2e | 19,5 TFLOPS | € 999,00 |
| NVIDIA H200 — 1g.20gb | 20 GB HBM3e | 9,6 TFLOPS | € 349,00 |
| NVIDIA H200 — 2g.40gb | 40 GB HBM3e | 19,1 TFLOPS | € 679,00 |
| NVIDIA H200 — 3g.70gb | 70 GB HBM3e | 28,7 TFLOPS | € 999,00 |
| NVIDIA H200 — 7g.141gb | 141 GB HBM3e | 67,0 TFLOPS | € 1.899,00 |
Alle Preise zzgl. MwSt. · vCores, RAM und Storage werden separat konfiguriert. Multi-GPU auf Anfrage.
Dedizierte GPU-Leistung — volle Kontrolle
Buchen Sie genau die GPU-Leistung, die Sie brauchen — von kleinen vGPU-Slices für Inferenz bis zur vollen GPU für Training. Alle Ressourcen sind dediziert, keine Shared-Instanzen.
Weitere Leistungen
Flexible GPU-Skalierung
Starten Sie mit einer einzelnen vGPU und skalieren Sie bei Bedarf auf Multi-GPU-Setups. Keine langfristige Hardware-Bindung.
CUDA-Ökosystem
Volle Unterstützung für CUDA, cuDNN und TensorRT. Kompatibel mit PyTorch, TensorFlow, JAX und allen gängigen ML-Frameworks.
Datensouveränität
Ihre Trainingsdaten und Modelle bleiben auf deutscher Infrastruktur. Kein US Cloud Act — inhabergeführte GmbH.
Direct Connect
Verbinden Sie GPU-Instanzen nahtlos mit Bare-Metal-Servern und Colocation-Hardware — ideal für hybride KI-Pipelines.
INGATE Premium Support
Support per E-Mail und Telefon, kostenlose 24×7 Notfallhotline, persönlicher Ansprechpartner und hochqualifiziertes Personal vor Ort.
Container-Ready
Vorkonfigurierte NVIDIA Container-Images mit CUDA-Toolkit. Docker & Kubernetes-ready für nahtlose CI/CD-Pipelines.
Technische Highlights
State-of-the-Art Infrastruktur in unseren Rechenzentren für Ihre geschäftskritischen Anwendungen.
Redundante Stromversorgung
Zweipfadige A/B-Versorgung bis ins Rack. Eigene Transformatoren, USV und Notstromgeneratoren.
Hocheffiziente Kühlung
PUE < 1.20 durch freie Kühlung und Cold Aisle Containment. Optimiert für High-Density bis 20 kW pro Rack.
Brandschutz
VESDA-Früherkennung und beschädigungsfreie Gaslöschanlage.
High-Speed Backbone
Redundanter hochperformanter Backbone mit mehrfach 100Gbit/s. Direkte Anbindung an DE-CIX und MuCon-X für niedrigste Latenzen.
Physische Sicherheit
Sicherheitsstufe SK4. Biometrischer Zutritt und lückenlose Videoüberwachung.
Nachhaltigkeit
CO2-neutraler Betrieb mit 100% Ökostrom. zertifizierter Grünstrom und Abwärmenutzung.
Zertifizierte Rechenzentren
Unser Haupt-Rechenzentrum EMC Home of Data in München verfügt über folgende Zertifizierungen. Alle weiteren Rechenzentren sind mindestens ISO 27001 zertifiziert und nutzen 100 % Ökostrom. Einzelne Standorte verfügen zusätzlich über SOC 1, SOC 2 und PCI-DSS Zertifikate.
Häufig gestellte Fragen
Antworten auf die wichtigsten Fragen zur GPU Cloud.
Was ist der Unterschied zwischen Cloud GPU und GPU Server?
Welche GPU-Modelle stehen zur Verfügung?
Was ist der Unterschied zwischen T4, A10 und A100?
Was bedeutet vGPU?
Welche Frameworks werden unterstützt?
Kann ich Cloud GPU mit Bare Metal kombinieren?
Wie wird abgerechnet?
Was sind Egress-Kosten?
Berechnet INGATE Egress-Kosten?
Wie hoch sind Egress-Kosten bei Hyperscalern?
Technologie-Partner und Mitgliedschaften