Nvidia A100 H100 Cloud-Server

Erhalten Sie Zugriff auf unübertroffene Leistung und beschleunigte KI-Funktionen mit Bare-Metal-Cloud-Servern, die von Nvidia A100/H100-GPUs betrieben werden.

Erste Schritte

Nvidia A100 H100-Konfigurationen, perfekt für KI, Deep Learning, Visualisierung und Hochleistungsrechnen.

Häkchen

NVMe-Festplatten

Häkchen

24/7-Support

Häkchen

Unschlagbare Preise

Häkchen

5 Minuten Bereitstellung

NVIDIA A100 GPU

A100-GPU
NVIDIA A100-Spezifikationen:
Videospeicherkapazität 40 GB / 80 GB HBM2
CUDA-Kerne 6912 Stk.
Maximale Bandbreite 1,6 TB/s
Die Nvidia A100-GPUs bieten die für KI- und Deep-Learning-Anwendungen erforderliche Leistung, Skalierbarkeit und Effizienz und sind daher eine hervorragende Option für Unternehmen und Forscher, die nach modernster Rechenleistung suchen.
Ampere-Infrastruktur

Ampere-Infrastruktur

Mit 54 Milliarden Transistoren ist die NVIDIA Ampere-Architektur einer der größten 7-Nanometer-Chips, die jemals gebaut wurden.

Speicher mit hoher Bandbreite

Speicher mit hoher Bandbreite (HBM2)

HBM2 ist für einen schnellen und effektiven Datenzugriff mit einer Speicherbandbreite von bis zu 1,6 TB/s konzipiert.

KI und Deep Learning

KI und Deep Learning

Der Nvidia A100 wurde speziell für Anwendungen im Bereich künstliche Intelligenz und Deep Learning entwickelt und bietet eine bis zu 20-mal höhere Leistung als GPUs der vorherigen Generation.

Raytracing

Raytracing

Erleben Sie Raytracing in Echtzeit – ideal für anspruchsvolle Visualisierungsaufgaben. Die A100 GPU liefert die nötige Rendering-Leistung für realistische und beeindruckende Visualisierungen.

NVLink-Unterstützung

NVLink-Unterstützung

Nutzen Sie die Funktionen von NVLink der 3. Generation für blitzschnelle Datenübertragungen, die bis zu 10- bis 20-mal schneller sind als PCI-Express.

GPU mit mehreren Schnittstellen

GPU mit mehreren Schnittstellen

Ermöglichen Sie jeder A100-GPU, gleichzeitig sieben unterschiedliche und isolierte Anwendungen oder Benutzersitzungen auszuführen.

Konfigurationen ansehen

NVIDIA H100 GPU

NVIDIA H100-Spezifikationen:
Videospeicherkapazität 80 GB HBM3
CUDA-Kerne 8448 Stk.
Maximale Bandbreite 3 TB/s
Die neueste NVIDIA H100 GPU bietet beispiellose Leistung, Skalierbarkeit und Sicherheit für verschiedene Workloads. Sie ist mindestens doppelt so schnell wie ihr Vorgänger, die A100 GPU.
H100 GPU
Hopper-Infrastruktur

Hopper-Infrastruktur

H100-GPUs liefern herausragende Leistung in HPC-Anwendungen, 7-mal höhere Leistung im Vergleich zur A100-GPU.

Konnektivität

Konnektivität

Über das NVIDIA NVLink Switch System können bis zu 256 H100-GPUs angeschlossen werden, wodurch Exascale-Aufgaben beschleunigt werden können.

KI-Training

KI-Training

Die H100-GPU ist die vierte Generation des fortschrittlichsten KI-Systems und bietet außergewöhnliche Leistungsmerkmale.

GPU mit mehreren Schnittstellen

GPU mit mehreren Schnittstellen

Der H100 verfügt über MIG-Technologie der zweiten Generation, die eine sichere Partitionierung jeder GPU in bis zu sieben separate Instanzen ermöglicht.

Close

Type

Deployment

5min - 30min
4h - 24h

Location

Select your option Arrow down
  • Select your option
  • US New York, US
  • US Miami, US
  • US San Francisco, US
  • Netherlands Amsterdam, EU
  • Romania Bucharest, EU

Pricing

0 0

Hardware

Processor(s)

Select your option Arrow down

    GPU(s)

    Select your option Arrow down

      Memory

      Select your option Arrow down

        Storage

        Select your option Arrow down

          OS

          Select your option Arrow down

            Bandwidth

            Select your option Arrow down

              Type

              Deployment

              5min - 30min
              4h - 24h

              Location

              Select your option Arrow down
              • Select your option
              • US New York, US
              • US Miami, US
              • US San Francisco, US
              • Netherlands Amsterdam, EU
              • Romania Bucharest, EU

              Pricing

              0 0

              Hardware

              Processor(s)

              Select your option Arrow down

                GPU(s)

                Select your option Arrow down

                  Memory

                  Select your option Arrow down

                    Storage

                    Select your option Arrow down

                      OS

                      Select your option Arrow down

                        Bandwidth

                        Select your option Arrow down

                          Sort by:

                          Price Low to High Arrow down
                          • Price Low to High
                          • Discount High to Low
                          Loading

                          Loading servers...

                          Warum Primcast?

                          Schnelle Lieferung

                          Schnelle Lieferung

                          Sofortige A100-Konfigurationen werden mit Ihrer bestätigten Zahlung innerhalb von 5 Minuten geliefert.

                          SLA

                          99,9 % SLA

                          Ihr dedizierter GPU-Server wird durch ein branchenführendes SLA mit 99,9 % Betriebszeit unterstützt.

                          Unterstützung

                          24/7-Support

                          Live-GPU-Cloud-Experten sind per Live-Chat, Telefon und E-Mail verfügbar.

                          Rechenzentren

                          Rechenzentren

                          Stellen Sie Ihren dedizierten NVIDIA A100-Server von New York, Miami, San Francisco, Amsterdam oder Bukarest aus bereit.

                          Stellen Sie Ihren A100 H100 Bare-Metal-Cloud-Server in wenigen Minuten bereit!

                          Erste Schritte