Zum Inhalt springen
Cloud

GPU Cloud

Virtuelle NVIDIA GPUs für KI, Machine Learning und Rendering — von Tesla T4 bis H200, granular konfigurierbar, 100% datensouverän aus München.

NVIDIA
T4 · A10 · A100 · H200
vGPU
Flexible GPU-Anteile
CUDA
cuDNN · TensorRT

GPU Server konfigurieren

Wählen Sie Ihr GPU-Modell und konfigurieren Sie alle Ressourcen individuell.

Konfiguration

GPU-Modell

NVIDIA vGPU · dedizierter VRAM

vGPU-Profil

Dedizierter VRAM

GB VRAM
€ 0,00

Dedizierte vCores

Intel® Xeon® · dediziert

4 vCores
€ 66,00
4326496128
€ 16,50 / vCore

RAM

ECC · fest zugewiesen

16 GB
€ 71,20
16 GB128 GB256 GB384 GB512 GB
€ 4,45 / GB

NVMe Storage

3N Redundanz · Ceph

100 GB
€ 35,00
100 GB4 TB8 TB12 TB16 TB
€ 0,17 / GB

Service-Level-Vereinbarung

Verfügbarkeit & Support

zzgl. MwSt.
Monatlich netto
€ 0,00

GPU-Preise

Alle vGPU-Profile im Überblick — kombinierbar mit frei konfigurierbaren Compute-Ressourcen.

GPU / Profil VRAM FP32 Preis / Monat
Tesla T4 — T4-4Q 4 GB GDDR6 2,0 TFLOPS € 69,00
Tesla T4 — T4-8Q 8 GB GDDR6 4,1 TFLOPS € 129,00
Tesla T4 — T4-16Q 16 GB GDDR6 8,1 TFLOPS € 249,00
NVIDIA A10 — A10-4Q 4 GB GDDR6 5,2 TFLOPS € 99,00
NVIDIA A10 — A10-8Q 8 GB GDDR6 10,4 TFLOPS € 189,00
NVIDIA A10 — A10-12Q 12 GB GDDR6 15,6 TFLOPS € 279,00
NVIDIA A10 — A10-24Q 24 GB GDDR6 31,2 TFLOPS € 549,00
NVIDIA A100 — 1g.10gb 10 GB HBM2e 2,8 TFLOPS € 179,00
NVIDIA A100 — 2g.20gb 20 GB HBM2e 5,6 TFLOPS € 349,00
NVIDIA A100 — 3g.40gb 40 GB HBM2e 8,4 TFLOPS € 529,00
NVIDIA A100 — 7g.80gb 80 GB HBM2e 19,5 TFLOPS € 999,00
NVIDIA H200 — 1g.20gb 20 GB HBM3e 9,6 TFLOPS € 349,00
NVIDIA H200 — 2g.40gb 40 GB HBM3e 19,1 TFLOPS € 679,00
NVIDIA H200 — 3g.70gb 70 GB HBM3e 28,7 TFLOPS € 999,00
NVIDIA H200 — 7g.141gb 141 GB HBM3e 67,0 TFLOPS € 1.899,00

Alle Preise zzgl. MwSt. · vCores, RAM und Storage werden separat konfiguriert. Multi-GPU auf Anfrage.

GPU Power

Dedizierte GPU-Leistung — volle Kontrolle

Buchen Sie genau die GPU-Leistung, die Sie brauchen — von kleinen vGPU-Slices für Inferenz bis zur vollen GPU für Training. Alle Ressourcen sind dediziert, keine Shared-Instanzen.

NVIDIA Tesla T4, A10, A100 & H200
Granulare vGPU-Profile (4–141 GB VRAM)
CUDA, cuDNN & TensorRT Support
Dedizierte vCores & DDR5 ECC RAM
Kein Vendor Lock-in (Open Source: KVM)
Kein US Cloud Act — inhabergeführte deutsche GmbH
Betrieb in ISO 27001 zertifizierten Rechenzentren
GPU Cloud Infrastruktur

Weitere Leistungen

Flexible GPU-Skalierung

Starten Sie mit einer einzelnen vGPU und skalieren Sie bei Bedarf auf Multi-GPU-Setups. Keine langfristige Hardware-Bindung.

CUDA-Ökosystem

Volle Unterstützung für CUDA, cuDNN und TensorRT. Kompatibel mit PyTorch, TensorFlow, JAX und allen gängigen ML-Frameworks.

Datensouveränität

Ihre Trainingsdaten und Modelle bleiben auf deutscher Infrastruktur. Kein US Cloud Act — inhabergeführte GmbH.

Direct Connect

Verbinden Sie GPU-Instanzen nahtlos mit Bare-Metal-Servern und Colocation-Hardware — ideal für hybride KI-Pipelines.

INGATE Premium Support

Support per E-Mail und Telefon, kostenlose 24×7 Notfallhotline, persönlicher Ansprechpartner und hochqualifiziertes Personal vor Ort.

Container-Ready

Vorkonfigurierte NVIDIA Container-Images mit CUDA-Toolkit. Docker & Kubernetes-ready für nahtlose CI/CD-Pipelines.

Technische Highlights

State-of-the-Art Infrastruktur in unseren Rechenzentren für Ihre geschäftskritischen Anwendungen.

Redundante Stromversorgung

Zweipfadige A/B-Versorgung bis ins Rack. Eigene Transformatoren, USV und Notstromgeneratoren.

Hocheffiziente Kühlung

PUE < 1.20 durch freie Kühlung und Cold Aisle Containment. Optimiert für High-Density bis 20 kW pro Rack.

Brandschutz

VESDA-Früherkennung und beschädigungsfreie Gaslöschanlage.

High-Speed Backbone

Redundanter hochperformanter Backbone mit mehrfach 100Gbit/s. Direkte Anbindung an DE-CIX und MuCon-X für niedrigste Latenzen.

Physische Sicherheit

Sicherheitsstufe SK4. Biometrischer Zutritt und lückenlose Videoüberwachung.

Nachhaltigkeit

CO2-neutraler Betrieb mit 100% Ökostrom. zertifizierter Grünstrom und Abwärmenutzung.

Zertifizierte Rechenzentren

Unser Haupt-Rechenzentrum EMC Home of Data in München verfügt über folgende Zertifizierungen. Alle weiteren Rechenzentren sind mindestens ISO 27001 zertifiziert und nutzen 100 % Ökostrom. Einzelne Standorte verfügen zusätzlich über SOC 1, SOC 2 und PCI-DSS Zertifikate.

ISO 27001
Informationssicherheit
ISO 9001
Qualitätsmanagement
ISO 50001
Energiemanagement
DIN EN 50600
RZ-Verfügbarkeit
CSR 26001
Corporate Responsibility
TÜV Süd
100% Grünstrom

Häufig gestellte Fragen

Antworten auf die wichtigsten Fragen zur GPU Cloud.

Was ist der Unterschied zwischen Cloud GPU und GPU Server?
Cloud GPU bietet virtuelle GPU-Instanzen (vGPU), die flexibel skaliert werden können — ideal für variable Workloads. GPU Server sind dedizierte physische Server mit fest zugewiesenen GPUs — optimal für dauerhaftes Training mit maximaler Performance.
Welche GPU-Modelle stehen zur Verfügung?
Wir bieten vier NVIDIA-GPU-Klassen an: Tesla T4 (16 GB GDDR6) als kosteneffiziente Einstiegs-GPU, A10 (24 GB GDDR6) als Allrounder, A100 (80 GB HBM2e) für anspruchsvolle KI-Workloads und H200 (141 GB HBM3e) für maximale KI-Performance. Jede GPU kann in verschiedene Profile aufgeteilt werden — von kleinen Slices für Inferenz bis zur vollen GPU für Training.
Was ist der Unterschied zwischen T4, A10 und A100?
Die Tesla T4 (Turing, 8,1 TFLOPS FP32) ist ideal für kosteneffiziente Inferenz, VDI und leichte ML-Workloads. Die A10 (Ampere, 31,2 TFLOPS FP32) ist ein Allrounder für ML-Training, 3D-Rendering und Virtual Desktops. Die A100 (Ampere, 80 GB HBM2e, 312 TFLOPS FP16 Tensor) bietet MIG-Isolation für anspruchsvolle KI-Workloads. Die H200 (Hopper, 141 GB HBM3e, 989 TFLOPS FP16 Tensor) liefert maximale Performance für LLM-Training und große Foundation Models.
Was bedeutet vGPU?
vGPU (Virtual GPU) ermöglicht es, eine physische GPU in mehrere virtuelle Instanzen aufzuteilen. Jede vGPU-Instanz erhält dedizierte GPU-Ressourcen und VRAM. So können Sie genau die GPU-Leistung buchen, die Sie benötigen — ohne eine komplette GPU mieten zu müssen.
Welche Frameworks werden unterstützt?
Volle Unterstützung für CUDA, cuDNN und TensorRT. Kompatibel mit allen gängigen ML-Frameworks wie PyTorch, TensorFlow, JAX und ONNX Runtime. Wir stellen vorkonfigurierte Container-Images bereit.
Kann ich Cloud GPU mit Bare Metal kombinieren?
Ja, über Direct Connect können Sie Cloud-GPU-Instanzen nahtlos mit Ihren Bare-Metal-Servern und Colocation-Hardware verbinden — ideal für hybride KI-Pipelines.
Wie wird abgerechnet?
Alle Ressourcen werden monatlich abgerechnet. Sie konfigurieren vGPU, vCores, RAM und Storage individuell und zahlen nur, was Sie nutzen. Keine Mindestvertragslaufzeit.
Was sind Egress-Kosten?
Egress-Kosten sind Gebühren, die Cloud-Anbieter für ausgehenden Datenverkehr berechnen — also für Daten, die das Rechenzentrum in Richtung Internet oder andere Netzwerke verlassen. Jede API-Antwort, jeder Download, jeder Video-Stream und jede Backup-Replikation erzeugt Egress-Traffic. Die meisten Hyperscaler berechnen diese Kosten pro GB, was schnell zu einem erheblichen und schwer kalkulierbaren Kostenfaktor werden kann. Besonders bei datenintensiven Anwendungen summieren sich diese Gebühren rapide.
Berechnet INGATE Egress-Kosten?
Nein. Bei INGATE ist der ausgehende Datenverkehr bereits im Preis enthalten — keine Gebühren pro GB, keine versteckten Aufschläge. Das macht Ihre Kosten vollständig planbar und transparent. Gerade bei datenintensiven Anwendungen wie CDN, Streaming, großen APIs oder Backup-Replikation ergibt sich dadurch ein massiver Kostenvorteil gegenüber den großen Hyperscalern.
Wie hoch sind Egress-Kosten bei Hyperscalern?
AWS berechnet ca. $0,09/GB (erste 10 TB), Azure ca. $0,087/GB und Google Cloud ca. $0,12/GB. Ein Unternehmen, das 10 TB pro Monat überträgt, zahlt allein für ausgehenden Traffic ca. $900–1.200/Monat. Bei 100 TB sind es bereits $8.000–9.000+/Monat. Diese Kosten sind schwer vorhersehbar, da sie von Nutzerverhalten, API-Aufrufvolumen und Traffic-Mustern abhängen — was die TCO-Kalkulation erschwert und häufig zu unerwartet hohen Rechnungen führt (sog. „Bill Shock"). Bei INGATE ist Traffic inklusive, wodurch die Gesamtkosten von Tag eins an vollständig kalkulierbar sind.

Technologie-Partner und Mitgliedschaften

Dell PartnerDirect
Equinix
EMC Home of Data
Juniper Networks
LiveConfig
Microsoft Cloud Solution Provider
Microsoft SPLA Partner
RIPE NCC Member