NVIDIA dreht an der Ampere-Schraube: Die GeForce RTX 3080 Founders Edition im Test

Veröffentlicht am: von

geforce-rtx-3080Heute ist es endlich soweit. Mit der GeForce RTX 3080 in der Founders Edition schauen wir uns die erste Karte der neuen Ampere-Generation an. Die wichtigsten Details zur Architektur haben wir bereits behandelt und in der vergangenen Woche konnten wir euch die ersten Fotos der GeForce RTX 3080 Founders Edition zeigen. Heute geht es nun also um die Leistung, den Stromverbrauch, die Kühlung und weitere Vergleiche wie die Effizienz oder die Verbesserungen in der Raytracing- und DLSS-Leistung.

Im Zuge des Neustarts bei den Grafikkarten, neben NVIDIA und der GeForce-RTX-30-Serie werden wir in wenigen Wochen auch die nächste Radeon-RX-Generation alias Big Navi sehen, haben wir auch unser Testsystem komplett erneuert – sowohl im Hinblick auf die Hardware als auch hinsichtlich der verwendeten Spiele. Dazu aber dann später etwas mehr.

Auch wenn wir bereits viele Details der GeForce RTX 3080 Founders Edition und der GeForce-RTX-30-Serie behandelt haben, wollen wir dennoch auf ein paar weitere Kleinigkeiten eingehen.

Zunächst einmal aber schauen wir uns die drei neuen Modelle im Vergleich an:

Gegenüberstellung der Karten
  GeForce RTX 3090 GeForce RTX 3080GeForce RTX 2080 GeForce RTX 3070
GPU Ampere (GA102) Ampere (GA102)Turing (TU104) Ampere (GA104)
Transistoren 28 Milliarden 28 Milliarden13,6 Milliarden 17,4 Milliarden
Fertigung 8 nm 8 nm12 nm 8 nm
Chipgröße 628,4 mm²
628,4 mm²
545 mm² 392,5 mm²
FP32-ALUs 10.496 8.7042.944 5.888
INT32-ALUs 5.248 4.3522.944 2.944
SMs 82 6846 46
Tensor Cores 328 272368 184
RT Cores 82 6846 46
Basis-Takt 1.400 MHz 1.440 MHz1.515 MHz 1.500 MHz
Boost-Takt 1.700 MHz 1.710 MHz1.800 MHz 1.730 MHz
Speicherkapazität 24 GB 10 GB8 GB 8 GB
Speichertyp GDDR6X
19,5 GBit/s
GDDR6X
19 GBit/s
GDDR6 GDDR6
14 GBit/s
Speicherinterface 384 Bit 320 Bit256 Bit 256 Bit
Speicherbandbreite 936 GB/s
760 GB/s448 GB/s 448 GB/s
TDP 350 W 320 W225 W 220 W
Preis 1.499 Euro 699 Euro- 499 Euro
Verfügbarkeit 24. September 17. September- Oktober

Die GeForce RTX 3080 und GeForce RTX 3090 basieren auf der GA102-GPU, allerdings in unterschiedlichen Ausbaustufen. Die GeForce RTX 3070 wird die GA104-GPU verwenden. Dazu werden wir aber zum Start der Karte weitere Details nennen können. Allesamt werden die neuen GPUs in 8 nm bei Samsung gefertigt. Laut NVIDIA hat man zusammen mit Samsung entsprechende Anpassungen am Fertigungsprozess vorgenommen, sodass dieser für die GPUs optimiert arbeiten kann. Die GA102-GPU kommt auf eine Fläche von 628,4 mm² und beinhaltet 28 Milliarden Transistoren. Die GA104-GPU bietet 17,4 Milliarden Transistoren auf einer Fläche von 392,5 mm².

Für die GeForce RTX 3080 steigt die Anzahl der FP32-Einheiten gegenüber der GeForce RTX 2080 von 2.944 auf 8.704. Für die INT32-Recheneinheiten geht es von ebenfalls 2.944 auf 4.352. Die Anzahl der Tensor Cores sinkt von 368 auf 272, aber dies hat auch einen guten Grund, zu dem wir noch kommen werden. Die Zahl der RT Cores steigt von 46 auf 68. Wir sehen hier also einen deutlichen Ausbau der Architektur. Wie sich dies in einem vermeintlichen Leistungsplus auswirken wird, werden wir später sehen. Wenig Bewegung gibt es beim Takt der GPUs. Der Boost-Takt fällt auf dem Papier sogar um 100 MHz geringer aus.

Die Breite des Speicherinterface wächst von 256 auf 320 Bit. zusammen mit dem schnelleren GDDR6X-Speicher steigt die Speicherbandbreite von 448 auf 760 GB/s. Auf dem Papier bietet der Wechsel von der GeForce RTX 2080 auf die GeForce RTX 3080 also ein deutliches Leistungsplus.

Interessant ist nun der Vergleich der Fertigung in 8 nm bei Samsung gegenüber der Fertigung in 12 nm bei TSMC für die Turing-Generation.

Gegenüberstellung der GPUs

GA102 TU102GA104TU104GA100
Transistoren 28 Milliarden 18,6 Milliarden17,4 Milliarden13,6 Milliarden54 Milliarden
Chipgröße 628,4 mm² 754 mm²392,5 mm²545 mm²826 mm²
Fertigung Samsung 8 nm TSMC 12 nmSamsung 8 nmTSMC 12 nmTSMC 7 nm
Transistordichte 44,56 MT/mm²
24,67 MT/mm²44,33 MT/mm²24,95 MT/mm²65,37 MT/mm²

Durch die Angabe der Anzahl der Transistoren plus die Chipgröße können wir die Transistordichte errechnen. Die Transistordichte der GA102-GPU liegt bei 44,6 MT/mm². Für die GA104-GPU sind es 44,3 MT/mm². Die Turing-GPUs erreichten einen Wert von 25 MT/mm², waren also nur in etwa halb so dicht gepackt. Die GA100-GPU für den A100-GPU-Beschleuniger lässt NVIDIA bei TSMC in 7 nm fertigen. Hier liegt die Transistordichte bei 65,37 MT/mm².

Für die Ampere-GPUs kann NVIDIA also deutlich mehr Transistoren auf eine kleinere Fläche packen. Mit fast 630 mm² ist die GA102-GPU nicht wirklich klein, aber kleiner als der Vorgänger. Die höhere Packdichte nutzt NVIDIA um den Ausbau der GPU-Architektur zu vergrößern. Wir sehen deutlich mehr FP32-Einheiten in den GPUs und dies soll sich entsprechend in der Leistung niederschlagen.

» zur Galerie

Auf den folgenden Seiten gehen wir nun auf die Details der Ampere-Architektur, das neue Kühldesign und die neuen Funktionen der Hardware ein.

Kein Fokus des Tests wird die Software sein. Mit Reflex möchte NVIDIA beispielsweise dem kompetitiven Spieler ein Werkzeug an die Hand geben, welches die Latenzen zwischen Eingabe über Maus und Tastatur mit einer möglichst schnellen Darstellung auf dem Monitor zusammenbringt. Eine entsprechende Schnittstelle soll es Entwicklern ermöglichen ihre Spiele entsprechend anzupassen.

NVIDIA Broadcast soll das zentrale Element für Streamer werden. Virtuelle Bildschirmhintergründe, automatisch folgende Kameraausschnitte und eine Verbesserung der Audio-Qualität mittels RTX Voice sind hier die zentralen Themen.


Die auf der GeForce RTX 3080 verwendete GA102-GPU basiert auf der Ampere-Architektur, die sich aber wiederum von der Datacenter-Variante unterschiedet, wie sie in der GA100-GPU zum Einsatz kommt.

Der Ampere Streaming Multiprocessor (SM) verzichtet nahezu komplett auf die FP64-Recheneinheiten, die in der GA100-GPU für den HPC-Einsatz noch wichtig sind, im Endkundenbereich aber keine Rolle spielen. Wir sehen 1/60 der FP32-Leistung für in den Berechnungen für doppelte Genauigkeit. Ein Whitepaper würde genauere Details dazu nennen, zum aktuellen Zeitpunkt liegt uns dies aber noch nicht vor.

Stattdessen hat man die Anzahl der FP32-Recheneinheiten verdoppelt. Statt 64 der FP32-Einheiten pro SM gibt es nun 128. Hinzu kommen 64 INT32-Einheiten. Es gibt nun zwei Datenpfade pro Quadrant eines SMs, die teilweise parallel angesprochen werden können. Einer der Datenpfade besteht aus 16 FP32-Einheiten. Hier können also 16 FP32-Berechnungen pro Takt bearbeitet werden. Ein zweiter Datenpfad besteht aus jeweils 16 FP32- und INT32-Einheiten. Jeder der SM-Quadranten kann entweder 32 FP32-Operationen ausführen oder jeweils 16 FP32- und INT32-Operationen pro Takt. Für den gesamten SM bedeutet dies die mögliche Ausführung von 128 FP32-Operationen oder jeweils 64 FP32- und INT32-Operationen pro Takt.

Die GA102-GPU verfügt über sieben GPCs (Graphics Processing Clusters) mit jeweils 12 SMs. Bei der GeForce RTX 3090 und GeForce RTX 3080 sind aber nicht alle SMs aktiviert. Die GA102-GPU käme theoretisch auf insgesamt 10.752 FP32-Einheiten (7 GPCs x 12 SMs x 128 FP32-Einheiten). Für die GeForce RTX 3090 aber sind zwei SMs deaktiviert worden und somit kommt die Karte auf "nur" 10.496 FP32-Einheiten. NVIDIA tut dies, um die Ausbeute der Chips so hoch wie möglich zu halten.

Für die GeForce RTX 3080 ist bei der GA102-GPU ein GPC komplett abgeschaltet und von den verbleibenden sechs nutzen nur vier die vollen 12 SMs – zwei sind auf zehn SMs beschränkt. Damit kommen wir bei 68 SMs auf die 8.704 FP32-Einheiten.

» zur Galerie

Für NVIDIA ist eine FP32-Einheit ein CUDA-Kern und insofern spricht der Hersteller für die GeForce RTX 3080 von 8.704 CUDA-Kernen. Es handelt sich dabei um die aufsummierten FP32-Einheiten in den SMs. Hinzu kommen 4.352 INT32-Einheiten.

Weiterhin pro SM vorhanden sind vier Tensor Cores der dritten Generation, deren Anzahl pro SM nun also halbiert wurde, die aber mindestens doppelt so leistungsfähig sein sollen. Es bleibt bei einem RT Core pro SM, aber auch hier gibt es für die nun zweite Generation einige Verbesserungen.

» zur Galerie

Neben den Änderungen in den SMs gibt es auch solche im Aufbau der ROPs bzw. der Kopplung zwischen den ROPs und den Speichercontrollern. Bis zur Turing-Generation sind die ROPs immer am Speicherinterface angeschlossen. Pro 32-Bit-Speichercontroller waren acht ROPs vorhanden. Änderte sich die Anzahl der Speichercontroller und damit die Größe des Speicherinterface, galt dies auch für die ROPs. Für die Ampere-Architektur sind die ROPs im GPC untergebracht. Pro GPC gibt es zwei ROP-Partitionen, die jeweils acht ROPs enthalten. 

Damit ergibt sich auch eine andere Berechnung für die Anzahl der ROPs bei der GeForce RTX 3080. Wir sprechen hier von sechs GPCs mit jeweils 2x 8 ROPs also 96 ROPs ingesamt. Für die GeForce RTX 3090 sind es sieben GPCs mit 2x 8 ROPs und dementsprechend 112 ROPs.

NVIDIA hat die Integration der ROPs in dieser Form ausgeführt, um das Render-Backend nicht mehr derart abhängig vom Speicherinterface zu machen. So hat man nun zwar ein 320 Bit breites Speicherinterface für die GeForce RTX 3080 umgesetzt, kann aber 96 anstatt nur 80 ROPs verwenden.

L1- und L2-Caches

Entsprechend der Ausbaustufe gibt es unterschiedliche Größen des L2-Caches. Für die GeForce RTX 3080 beläuft sich dieser auf 5.120 kB, bei der GeForce RTX 3070 sind es 4.096 kB und die GeForce RTX 3090 wird auf 6.144 kB zurückgreifen können. Zum Vergleich: Die TU102-GPU brachte es auf 6.144 kB.

NVIDIA hat für Ampere den L1-Data-Cache von 96 kB auf 128 kB vergrößert. Die Datenrate zum L1-Cache wurde abermals verdoppelt. Diese Maßnahme hatte NVIDIA schon einmal von Pascal zur Turing vollzogen. Der Register bleibt mit 16.384 Einträgen zu jeweils 32 Bit identisch. Dies gilt auch für die Anzahl der Load- und Store-Einheiten.

» zur Galerie

Schlussendlich können wir noch einen Blick auf die GA102-GPU werfen, so wie sie auf der GeForce RTX 3090 zum Einsatz kommen wird. Den Aufbau haben wir eben schon beschrieben.

Zweite Generation der RT Cores

Die zweite Generation der RT Cores soll doppelt so viele Intersection-Berechnungen durchführen können wie ihre Vorgänger. Da NVIDIA die Anzahl der RT Cores pro SM belässt, ergibt sich eine theoretische Skalierung der RT-Leistung um den Faktor zwei. Bei mehr SMs für die einzelnen Modelle ist die Leistung natürlich entsprechend höher.

» zur Galerie
» zur Galerie

Eine Herausforderung in der Berechnung der Intersections ist ein Raytracing auf Objekte, die sich bewegen und auf die auch ein Motion Blur angewendet wird. Für Turing-GPUs bzw. deren RT Cores konnte dies zu einem Flaschenhals in der Raytracing-Leistung werden. Die zweite Generation der RT Cores bietet nun parallel arbeitende Einheiten, die eine bessere Annäherung durch Interpolation in Motion Blur Effekten ermöglicht. Über eine zeitabhängige Funktion werden die Intersections vorausberechnet und das Raytracing nur noch auf Bereiche angewendet, die auch wirklich notwendig sind.

Dritte Generation der Tensor Cores

Erwartungsgemäß baut NVIDIA die Tensor Cores in der dritten Generation weiter aus und lässt diese neben INT16 und FP16 als Datensätze mit der bisher höchsten Genauigkeit nun auch FP32- und FP64-Berechnungen durchführen. Dies ist vor allem für die höheren Genauigkeiten im HPC-Segment wichtig. Für die GeForce-GPUs aber spielen geringere Genauigkeiten eine wesentlich wichtigere Rolle.

» zur Galerie

So können die Tensor Cores der Turing-Architektur 64 FP16 Fused Multiply–Add (FMA) pro Tensor Core durchführen. Für Ampere sind es in vollgepackten Matrizzen 128 für die GA102-GPU und sogar 256 für die GA100-GPU. Kommt die Sparsity/Sparse Matrix oder die dünnbesetzte/schwachbesetzte Matrix hinzu, sind es sogar 256 FP16 FMA für die GA102-GPU und 512 für die GA100-GPU. Die Tensor Cores der Turing-Architektur unterstützen keine Sparsity.

Damit erhöht sich die Tensor-Rechenleistung also mindestens um den Faktor zwei. Vor allem die DLSS-Leistung soll davon profitieren, aber theoretisch trifft dies auf alle Anwendungen zu, die AI-Berechnungen verwenden.

GDDR6X

Eine immer höhere Speicherbandbreite ist bei der Vielzahl an Shadern von entscheidender Bedeutung. Die Cache-Hierarchie wird schneller und so muss auch der Speicher immer schneller werden. GDDR6 hätte nur noch über einen höheren Takt eine höhere Speicherbandbreite ermöglicht. Eine Alternative wäre die Verbreiterung des Speicherinterface gewesen. HBM besitzt ein extrem breites Speicherinterface, ist in der Integration und Fertigung aber einfach zu teuer – und kommt daher entsprechend noch nicht zum Einsatz.

NVIDIA hat sich also mit Micron zusammengetan und GDDR6X entwickelt. GDDR6X arbeitet in etwa mit dem gleichen Takt wie GDDR6 und auch die Spannung ist vergleichbar.

» zur Galerie

Für den bisherigen GDDR6-Speicher wird eine Non-Return-to-Zero (NRZ) Pulsamplitudenmodulation verwendet. Zwischen "0" und "1" wird durch einen Unterschied in der High- und Low-Spannung unterschieden. GDDR6X wechselt auf ein PAM4, für die das Trägersignal in vier Spannungslevel pro Taktzyklus unterteilt wird. Die einzelnen Schritte betragen gerade einmal 250 mV. Das PAM4 kommt bei immer mehr Übertragungsstandards zum Einsatz. Auch PCI-Express 5.0 und DDR6 werden auf PAM4 setzen.

NVIDIA und Micron wenden zudem ein paar Tricks an, um eine derartige Übertragung bei den gewünschten Taktraten noch gewährleisten zu können. Das sogenannte Max Transition Avoidance Coding (MTA) sorgt dafür, dass das Signal nur in bis zu zwei Spannungslevel wechselt. Würde der Wert vom niedrigsten auf das höchste Spannungslevel springen können, während die "Augen" im Signal nicht mehr deutlich zu unterscheiden und eine Signalübertragung nicht möglich. Mit MTA setzt sich NVIDIA in die Codierung des Signals und sorgt dafür, dass eine entsprechend kompatible Kodierung vorgenommen wird.

Zuletzt ermöglicht NVIDIA dem System auch eine gewisse Dynamik, denn selbst kleine Unterschiede in der Fertigung von PCB und Speicher sorgen für Unterschiede in der Signallaufzeit. Algorithmen können die Signalübertragung entsprechend anpassen.


Mit der Turing-Architektur und der Möglichkeit, ein Raytracing per RT Cores und ein AI-Upscaling mittels DLSS bzw. der Tensor Cores anzuwenden, sprach NVIDIA erstmals über die Hybrid Rendering Pipeline. Dies beschreibt den Umstand, dass neben einem klassischen Shader-Rendering, ein Raytracing angewendet wird und noch ein DLSS hinzukommt.

» zur Galerie

Für ein Frame in Wolfenstein Youngblood nimmt NVIDIA für eine Turing-GPU ein Renderzeit von 51 ms an. Dies beinhaltet auch die Raytracing-Berechnungen auf den Shadereinheiten durchzuführen. Wird das Raytracing auf die RT Cores ausgelagert, reduziert sich die Renderzeit auf 19 ms. Kommt nun auch noch ein AI-Upscaling hinzu, kann die Renderzeit sogar auf 13 ms reduziert werden.

» zur Galerie

Für eine Ampere-GPU mit einer höheren Shaderleistung reduziert sich die Renderzeit von 13 ms ausgehend auf 7,5 ms. Dies liegt vor allem an der höheren Shaderleistung. Aber auch die Raytracing- und DLSS-Berechnungen werden schneller, was einen Einfluss auf die Reduzierung hat. Für Ampere wendet NVIDIA nun noch einen weiteren Trick an und kann die DLSS-Berechnungen bereits vor dem finalen Rendering ausführen. Dabei spielt ein temporales Feedback eine Rolle – es werden also die vorherigen Frames mit in die Berechnung einbezogen, was man in DLSS 2.0 schon für die Verbesserung der Bildqualität getan hat. Mit Ampere nutzt man dies auch für eine Reduzierung der Renderzeit.

RTX IO

NVIDIA RTX IO arbeitet mit Microsofts kommender DirectStorage-API zusammen, die ab 2021 von Spielen unterstützt werden wird. Dabei handelt es sich um eine Speicherarchitektur der nächsten Generation, die speziell für Gaming-PCs mit NVMe-SSDs ausgelegt wurde. DirectStorage-API bzw. RTX IO sind optimierte und parallelisierte APIs, die speziell auf Spiele zugeschnitten wurden, was eine drastische Reduzierung des IO-Overhead bedeuten soll.

Ein Grund für die Notwendigkeit einer schnelleren IO-Schnittstelle sind Spiele, die immer größer werden und deren Assets auch an Komplexität zugenommen haben.

» zur Galerie

Klassischerweise werden die Spieldaten von einer SSD/HDD gelesen und per SATA oder PCI-Express an den Prozessor übertragen. Bei schnellen PCIe-4.0-SSDs sprechen wir hier von bis zu 7 GB/s. Der Prozessor verschiebt die Daten in den Arbeitsspeicher, von dort geht es wieder über die CPU und das PCI-Express-Interface zur GPU, welche die Daten dann im Grafikspeicher ablegt. Dies belastet vor allem den Prozessor unnötig und bei 7 GB/s ist ohne weitere Limitierung auch das Ende der Fahnenstange erreicht.

» zur Galerie

Es gibt auch die Möglichkeit, die Daten komprimiert zum Prozessor zu übertragen. Entpackt werden sie dann im Arbeitsspeicher und unkomprimiert via PCI-Express zur GPU in deren Speicher übertragen. Zwar können hier bis zu 14 GB/s erreicht werden, allerdings sind dann 24 Kerne mit der Dekomprimierung beschäftigt.

» zur Galerie

RTX IO bzw. DirectStorage ermöglicht die Übertragung der Daten von einer schnellen SSD direkt über das PCI-Express-Interface in die GPU und dort in den Grafikspeicher. Der Prozessor und Arbeitsspeicher wird komplett ausgelassen. Auch hier können 14 GB/s für komprimierte Daten (Kompressionsverhältnis von 2:1) erreicht werden – allerdings ohne dass der Prozessor belastet wird.

Die Dekomprimierung von der GPU erledigt, dass dies einen Einfluss auf die restliche Leistung hätte. Derartige Bedenken räumt NVIDIA selbst für das Arbeiten am PCIe-4.0-Limit aktueller SSDs aus. Sind die Spiele per DirectStorage-API optimiert, werden von der SSD nur die Daten abgerufen, die auch wirklich benötigt werden. Dies soll auch den Grafikspeicher entlasten.

» zur Galerie

NVIDIA nennt auch gleich einige Leistungsdaten und verwendet dafür die eigene Marbles-Techdemo. Diese benötigt unkomprimiert eine Ladezeit von mehr als 60 s mit einer Festplatte. Mit komprimierten Daten über die CPU sind es etwa 37 s. Kommt eine NVMe-SSD zum Einsatz, beträgt die Ladezeit nur noch 5 s - die Daten müssen aber über den Prozessor entpackt werden und benötigen dazu 24 Kerne unter Volllast. Per RTX IO sollen es nur 1,6 s sein.

Die DirectStorage-API spielt für die Xbox Series X von Microsoft ebenso eine Rolle wie ähnliche Konzepte für die PlayStation 5. Mit RTX IO sollen 14 GB/s von der SSD in den Grafikspeicher übertragen werden können. Zum Vergleich: Sonys PlayStation 5 kommt auf 8 bis 9 GB/s und die Microsoft Xbox Series X auf 4,8 GB/s. Man darf gespannt sein, ob AMD für Big Navi ebenfalls an einer Unterstützung von DirectStorage arbeitet.


Nun wollen wir noch einmal einen genauen Blick auf die GeForce RTX 3080 in der Founders Edition werfen.

» zur Galerie

So wie die Karte oben abgebildet ist, zeigt sich die Rückseite der Karte. Der Axiallüfter rechts lässt anderes vermuten. NVIDIA hat sich für die Founders Edition der GeForce RTX 3080 und GeForce RTX 3090 ein neues Prinzip zur Kühlung ausgedacht. Dieses soll sich besser in das bereits bestehende Kühlkonzept im Gehäuse anpassen und den vorhandenen Luftstrom besser nutzen können. Im Rahmen eines ausführlichen Artikels zu den GeForce-RTX-30-Karten sind wir darauf bereits genauer eingegangen.

Die Karte kommt auf eine Länge von 285 mm, ist 112 mm breit und belegt zwei Steckplätze. Im achtförmigen (silbernen) Rahmen sind auf beiden Seiten acht kleine Abdeckungen zu sehen. Unter diesen verbergen sich die Schrauben, die den Kühler auf der Karte halten bzw. welche den Kühler zusammenhalten. In der Mitte im Kreuz befindet sich eine weitere Abdeckung, die entfernt werden muss. NVIDIA stellte uns eine Anleitung zu Verfügung, um die Karte in ihre Einzelteile zu zerlegen. 

» zur Galerie

Auf dem linken "Feld" der Abdeckung befindet sich der "RTX 3080"-Schriftzug. Anders als bei den GeForce-RTX-20-Karten scheint NVIDIA die "8" um 180 ° gedreht zu haben. Rechts befindet sich einer von zwei Axiallüftern, der in Pull-Konfiguration verbaut ist und einen Durchmesser von 85 mm hat. Er saugt die Luft unterhalb der Karte an, fort wird sie durch den Kühlkörper geführt, um sie dann oberhalb der Karte herauszublasen. Die Abwärme des hinteren Lüfters wird also sozusagen vor den CPU-Sockel geblasen. Dort befindet sich dann entweder ein Tower-Kühler, der diese warme Luft ansaugt und mit verarbeiten muss oder aber im Falle eine Wasserkühlung gibt es einen Luftstrom von rechts nach links, der die warme Luft der Grafikkarte mit aufnimmt.

Ob die zusätzliche Abwärme Auswirkungen auf die Kühlung des Prozessors hat, schauen wir uns im weiteren Verlauf an. Laut NVIDIA soll es zu keiner signifikanten Erwärmung der weiteren Komponenten kommen. Dies gilt für den Prozessor, den Arbeitsspeicher oder einen eventuell verbauten Radiator. In der Summe bleibt die Abwärme ohnehin größtenteils im Gehäuse – egal ob bei einem Standard-Axialdesign oder der von NVIDIA gewählten Lösung.

» zur Galerie

Auf der Stirnseite der Karte befindet sich im hinteren Drittel ein beleuchteter "GeForce RTX"-Schriftzug, der im Betrieb der Karte weiß leuchtet. 

» zur Galerie

Auf der Stirnseite befindet sich zwischen den beiden Lüftern zum einen ein teilweiser Auslass der warmen Luft, aber auch der neue 12-Pin-Anschluss. Auch hierzu haben wir in unserer ausführlichen Betrachtung der Ampere-Architektur bereits alle Details genannt. Der 12-Pin-Anschluss steht hochkant auf der Karte und zeigt um 45° nach hinten. Somit kann das von hinten an die Karte herangeführte Kabel recht bequem geführt werden.

» zur Galerie

Auf der Vorderseite der Karte sehen wir den zweiten Axiallüfter, der in einer Push-Konfiguration die Kühlluft ansaugt und dann unterhalb im Kühlkörper verteilt. Auch er hat einen Durchmesser von 85 mm. Ein Teil der warmen Luft kann direkt über die Slotblende entweichen. Ein weiterer Teil wird aber auch nach rechts in das Gehäuse der Karte geführt und entweicht dann mittig durch die Kühlrippen.

Durch die rechte Hälfte bzw. die Rippen saugt der zweite Axiallüfter die Luft an und zieht sie direkt durch den Kühlkörper – dies war auf den ersten Bildern zu sehen.

» zur Galerie

Im Detail sind die vielen Kühlrippen zu sehen, die einmal in Längsrichtung, vor allem aber in 45 °C angelegt sind. Damit gibt NVIDIA der Luft, kommend vom Axiallüfter, die Möglichkeit, seitlich zu entweichen.

» zur Galerie

Ein nettes Detail sind die in den Metallrahmen eingefrästen Schriftzüge, wie hier das "RTX 3080". An anderer Stelle hat sich NVIDIA als Unternehmen verewigt.

» zur Galerie

Am hinteren Ende der Karte sieht es zunächst so aus, als würden hier zwei Schrauben fehlen oder wir hätten schon zwei Schrauben entfernt, um den Kühler zu demontieren. Es handelt sich dabei allerdings um Befestigungsmöglichkeiten für Systemintegratoren, denn bei einer Länge von genau 285 mm bieten einige Gehäuse entsprechende Befestigungspunkte.

» zur Galerie

Schlussendlich werden wir noch einen Blick auf die Slotblende. Diese bietet zu zwei Dritteln für die warme Luft eine Möglichkeit zu entweichen. Die GeForce RTX 3080 Founders Edition bietet dreimal DisplayPort 1.4 und einmal HDMI 2.1.


Zwar liefert NVIDIA eine Anleitung zur Demontage der Karte und des Kühlers, allerdings haben wir bislang darauf verzichtet, da noch weitere Tests folgen und wir die Kühlung nicht kompromittieren wollen. NVIDIA liefert aber entsprechende Aufnahmen, die wir an dieser Stelle verwenden können.

» zur Galerie

Die ersten drei Bilder zeigen das PCB der GeForce RTX 3080 Founders Edition. In dieser Form wird es das PCB nur von NVIDIA geben. Es gibt allerdings ein Referenz-PCB von NVIDIA, welches man den Boardpartnern anbietet. Diese können sich dann die Entwicklung eins eigenen PCBs sparen und verwenden sozusagen die Vorlage von NVIDIA.

Oben auf dem Bild zu sehen ist in der Mitte das GPU-Package mit der GA102-GPU. Auf allen vier Seiten befindet sich eine unterschiedliche Anzahl an GDDR6X-Speicherchips von Micron. Da es sich hier um eine GeForce RTX 3080 handelt, sind zwei Lötpads nicht bestückt. Dies wird für eine GeForce RTX 3090 Founders Edition aber durchaus der Fall sein. Einen weiteren Unterschied werden wir links oben sehen, denn die GeForce RTX 3080 verfügt nicht über ein NVLink-Interface, die GeForce RTX 3090 hingegen schon.

» zur Galerie

Hinsichtlich der Strom- und Spannungsversorgung bietet das PCB Platz für insgesamt 20 Spannungsphasen. Für die GeForce RTX 3080 werden aber nur 18 Phasen verwendet. Die GeForce RTX 3090 dürfte auch an dieser Stelle voll bestückt sein. Wie schon bei der Vorgänger-Generation dürfte NVIDIA auf ein Phase-Doubling verzichten. Außerdem können die GeForce-RTX-30-Karten in der Founders Edition dynamisch Phasen zu- und abschalten – je nachdem wie viel gerade von der Karte gefordert werden. Damit soll sich die Spannungsversorgung immer in einem idealen Effizienzfenster bewegen.


Eine immer höhere Speicherbandbreite ist bei der Vielzahl an Shadern von entscheidender Bedeutung. Die Cache-Hierarchie wird schneller und so muss auch der Speicher immer schneller werden. GDDR6 hätte nur noch über einen höheren Takt eine höhere Speicherbandbreite ermöglicht. Eine Alternative wäre die Verbreitung des Speicherinterface gewesen. HBM besitzt ein extrem breites Speicherinterface, ist in der Integration und Fertigung aber einfach zu teuer – und kommt daher entsprechend noch nicht zum Einsatz.

NVIDIA hat sich also mit Micron zusammengetan und GDDR6X entwickelt. GDDR6X arbeitet in etwa mit dem gleichen Takt wie GDDR6 und arbeitet auch mit vergleichbarer Spannung.

» zur Galerie

Für den bisherigen GDDR6-Speicher wird eine Non-Return-to-Zero (NRZ) Pulsamplitudenmodulation verwendet. Zwischen "0" und "1" wird durch einen Unterschied in der High- und Low-Spannung unterschieden. GDDR6X wechselt auf ein PAM4, für die das Trägersignal in vier Spannungslevel pro Taktzyklus unterteilt wird. Die einzelnen Schritte betragen gerade einmal 250 mV. Das PAM4 kommt bei immer mehr Übertragungsstandards zum Einsatz. Auch PCI-Express 5.0 und DDR6 werden auf PAM4 setzen.

NVIDIA und Micron wenden zudem ein paar Tricks an, um eine derartige Übertragung bei den gewünschten Taktraten noch gewährleisten zu können. Das sogenannte Max Transition Avoidance Coding (MTA) sorgt dafür, dass das Signal nur in bis zu zwei Spannungslevel wechselt. Würde der Wert vom niedrigsten auf das höchste Spannungslevel springen können, währen die "Augen" im Signal nicht mehr deutlich zu unterscheiden und eine Signalübertragung nicht möglich. Mit MTA setzt sich NVIDIA in die Codierung des Signals und sorgt dafür, dass eine entsprechend kompatible Kodierung vorgenommen wird.

Zuletzt ermöglicht NVIDIA dem System auch eine gewisse Dynamik, denn selbst kleine Unterschiede in der Fertigung von PCB und Speicher sorgen für Unterschiede in der Signallaufzeit. Algorithmen können die Signalübertragung entsprechend anpassen.

Error Detection and Replay

Mit dem GDDR6(X) Speichercontroller führt NVIDIA eine neue Technologie namens Error Detection and Replay (EDR) ein. Diese spielt vor allem im Zusammenspiel mit dem Overclocking eine wichtige Rolle.

Der GDDR6X-Speicher arbeitet auf der GeForce RTX 3080 Founders Edition mit einem Takt von 1.188 MHz. Zum Speicher-Overclocking kommen wir im Rahmen dieses Artikels noch. Das Error Detection and Replay soll das Overclocking des Speichers aber einfacher machen, da Fehler in der Übertragung des Speichers erkannt (Error Detection) und die Daten so lange übertragen werden, bis sie ankommen (Replay). Anstatt der Darstellung von Artefakten werden die Übertragungsfehler erkannt und der Speichercontroller versucht diese zu kompensieren. Es handelt sich um einen Cyclic Redundancy Check (CRC) und damit um ein Verfahren, welches mit einem Prüfwert für die Daten arbeitet. Stimmt der Prüfwert nicht, ist es bei der Übertragung zu einem Fehler gekommen.

» zur Galerie

Obiges Schaubild zeigt die Funktionsweise. Ohne CRC bzw. Error Detection and Replay kommt es bei steigendem Takt zu Fehlern und damit zu Artefakten. Damit steigt auch das Risiko, dass es zu einem Absturz kommt bzw. der Treiber zurückgesetzt wird.

Mit Error Detection and Replay werden Fehler so lange ausgeglichen, bis die effektive Speicherbandbreite nicht mehr ansteigt. Bis zum Erreichen des Plateaus kommt es üblicherweise noch nicht zu Abstürzen. Ist das Plateau erreicht, ist eine weitere Steigerung des Taktes ohnehin nicht mehr sinnvoll. Allerdings verweist NVIDIA darauf, dass es auch mit Error Detection and Replay zu Abstürzen kommen kann. Artefakte sollen so aber weitestgehend verhindert werden.

NVIDIA spricht im Zusammenhang mit Error Detection and Replay ausschließlich vom GDDR6X-Speichercontroller der GA10x-GPUs. Die GeForce RTX 3080 und GeForce RTX 3090 verwendet GDDR6X-Speicher. Die GeForce RTX 3070 hingegen nicht. Hier kommt die GA104-GPU zum Einsatz. Ob die GeForce RTX 3070 somit auch das Error Detection and Replay unterstützen wird, ist aktuell nicht bekannt.


Eine Abwärme von bis zu 350 W erzeugen die neuen Karten und dementsprechend hat sich NVIDIA auch für die Kühlung ein neues Konzept ausgedacht. Dazu hat man sich zunächst die typische Durchlüftung eines Gehäuses angeschaut, die eine Versorgung mit Frischluft über die Front vorsieht und eine Entlüftung über den rückseitigen Bereich oder die Oberseite des Gehäuses.

» zur Galerie

Eine Grafikkarte mit Blower-Kühler passt sich in ein solches Konzept schon recht gut ein, weil sie die Luft im Inneren des Gehäuses ansaugt und dann fast komplett über die Slotblende nach außen führt. Für ein typisches Axiallüfter-Design gilt dies nicht mehr. Hier verbleibt ein Großteil der warmen Luft im Inneren des Gehäuses und durch die großen PCBs und geschlossenen Backplates gibt es auch keinen wirklich gerichteten Luftstrom mehr. Die warme Luft wird mehr oder weniger einfach nur im Gehäuse verteilt.

Für die neuen Karten hat sich NVIDIA daher das in den Gerüchten bereits mehrfach besprochene Design mit einem Lüfter im hinteren Bereich überlegt, der die Luft einfach nur hindurch lässt und über der Karte wieder ausbläst und einem zweiten Lüfter, der zumindest einen Teil der Luft über die Slotblende hinausdrückt.

» zur Galerie

Damit der hintere Lüfter nicht von einem PCB oder der Backplate blockiert wird, musste das PCB deutlich kürzer und anders gestaltet werden. Am Ende ist dabei ein extrem kurzes PCB herausgekommen, welches auch noch einen dreieckigen Ausschnitt besitzt. Obiges Bild zeigt das PCB einer GeForce RTX 2080 – mit viel Platz zwischen den Speicherchips und dem GPU-Package, viel Platz zwischen dem Bereich der GPU und der Slotblende links und ebenso viel Platz im Bereich der Strom- und Spannungsversorgung rechts.

Die VRMs, die Speicherchips und das GPU-Package derart eng zueinander zu platzieren, ist vor allem für die Kühlung eine Herausforderung. Den geringeren Platzbedarf verschafft sich NVIDIA aber auch durch den neuen 12-Pin-Anschluss und den kompakteren NV-Link-Anschluss (der hier auf dem PCB der GeForce RTX 3080 allerdings nicht vorhanden ist).

Auswirkungen der Kühlung

Das veränderte Konzept der Kühlung hat eventuell auch Auswirkungen auf das gesamte Kühlkonzept im Gehäuse. Eben diese Auswirkungen (wenn sie dann vorhanden sind) wollen wir uns nun einmal genauer anschauen.

» zur Galerie

Im rechten Schaubild haben wir einmal den Luftstrom simuliert, der durch das Gehäuse geführt wird. Von rechts wird die kühle Luft in das Gehäuse gesaugt. Die GeForce RTX 3080 Founders Edition saugt über die beiden Axiallüfter die Luft an. Vom Netzteil kommt auch noch ein Luftstrom von unten, der dann auf die Grafikkarte trifft.

Der rechte Lüfter der GeForce RTX 3080 zieht die Luft durch den Kühler und bläst sie oberhalb wieder aus. Der linke Lüfter saugt sie an und drückt einen Teil durch die Slotblende wieder aus dem Gehäuse. Ein Teil verbleibt aber auch seitlich an der Karte ausgeblasen im Gehäuse.

Die warme Luft über der Karte wird in unserem Fall vom Noctua NH-U12A angesaugt und durch den CPU-Kühler geführt. Der zweite Lüfter sowie der hintere Gehäuselüfter blasen sie dann aus dem Gehäuse. Die Frage ist, welche Auswirkungen die warme Luft über der Grafikkarte auf den Prozessor und den Arbeitsspeicher hat, denn offensichtlich müssen sie mit mehr warmer Luft umgehen können.

» zur Galerie

Links haben wir das Wärmebild einer GeForce RTX 3080 Founders Edition bei 320 W unter Volllast. Besonders der Bereich in der Mitte der Karte wird besonders warm. Ebenfalls zu erkennen ist, dass der Arbeitsspeicher sich erwärmt und auch die VRMs erzeugen eine gewisse Abwärme. Rechts ist die GeForce RTX 2080 Ti Founders Edition zu sehen. Die Backplate der Karte wird ähnlich warm wie der mittlere Bereich der neuen Karte. Eine große Temperaturdifferenz können wir hier zunächst einmal nicht erkennen.

Es müssen also weitere Tests gemacht werden und für diese haben wir folgendes Setup gewählt:

Die Grafikkarten wurden jeweils im Gehäuse verbaut. Die Gehäuselüfter arbeiteten einmal mit 600 und einmal mit 1.300 Umdrehungen pro Minute.

Gegenüberstellung der Kühlung
Temperatur 3080 @320 W 3080 @320 W3080 @260 W2080 @260 W2080 @260 W
Gehäuselüfter 600 RPM 1.300 RPM600 RPM600 RPM1.300 RPM
GPU 77 °C 76 °C74 °C84 °C83 °C
CPU 80 °C 73 °C75 °C77 °C70 °C
DIMM1 57,8 °C 53,0 °C56,3 °C55,5 °C49,3 °C
DIMM2 56,8 °C 52,3 °C55,0 °C54,3 °C48,5 °C
DIMM3 55,5 °C 51,8 °C53,8 °C53,5 °C48,0 °C
DIMM4 53,5 °C 50,3 °C51,8 °C51,8 °C46,0 °C

Was also können wir aus diesen Daten schließen? Die GeForce RTX 3080 bringt mit ihren 320 W deutlich mehr Abwärme in das Gehäuse, als dies für eine GeForce RTX 2080 Ti mit 260 W der Fall ist. Diese Abwärme verbleibt in beiden Fällen zunächst einmal im Gehäuse und muss mittels der Gehäuselüfter abtransportiert werden.

Eine GeForce RTX 3080 lässt den Prozessor bei 80 °C unter Last arbeiten, mit einer GeForce RTX 2080 Ti sind es mit 77 °C nur wenige Grad Celsius weniger. Die Differenz dürfte auch in den 60  W Abwärme zu suchen sein, die zwischen den beiden Karten liegen. Mit einer GeForce RTX 3080 bei einem Power-Limit von 260 W sehen wir mit 75 °C einen ähnlichen Wert für die CPU-Temperatur.

Ausschlaggebend ist eine möglichst gute Belüftung. Egal ob GeForce RTX 3080 bei 320/260 W oder GeForce RTX 2080 Ti bei ebenfalls 260 W: Sorgen die Gehäuselüfter für mehr Durchzug, sinken die CPU-Temperaturen, während die GPU-Temperatur davon kaum profitiert. Der Einfluss der besseren Durchlüftung zeigt sich auch bei der GeForce RTX 2080 Ti. Die Abwärme muss aus dem Gehäuse raus, die GeForce RTX 3080 sorgt in jedem Fall nicht direkt für höhere CPU- und RAM-Temperaturen – oder hat nur einen sehr geringen Einfluss darauf.

» zur Galerie

Nach gut 30 Minuten Volllast haben wir ein paar Wärmebildaufnahmen gemacht, welche die Hotspots der Karte aufzeigen sollen. Von oben betrachtet findet sich dieser zwischen den beiden Lüftern. Mit 70 °C kann man hier schon von einer heißen Oberfläche sprechen. Von unten betrachtet bekommt man einen Blick auf die Basisplatte, welche die Abwärme zunächst aufnimmt und dann (auch über die Heatpipes) verteilt. Hier messen wir sogar fast 100 °C.

Datenschutzhinweis für Youtube



An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.

Ihr Hardwareluxx-Team

Youtube Videos ab jetzt direkt anzeigen

Wie sich die Karte wo mehr oder weniger schnell aufheizt, zeigt der Zeitraffer mit achtfacher Geschwindigkeit.

» zur Galerie

Schlussendlich wollen wir auch auf den 12-Pin-Adapter noch eingehen, da eine derartige Steckverbindung immer auch einen höheren Widerstand darstellt und sich damit potentiell wärmt. Bei knapp 270 W, die zusammengenommen über diese beiden Stecker gehen, kann dies bei einer schlechten Steckverbindung problematisch sein. Wir messen mit 35 °C an der Außenseite aber keine erhöhten Temperaturen.


Die Software in Form der Spiele und Benchmarks haben wir umgestellt, die Hardware ist ebenfalls aufgefrischt worden. Um möglichst praxisnah zu testen, befindet sich das Testsystem in einem geschlossenen Gehäuse. Zudem befindet sich zwar das Windows 10 auf der PCI-Express-SSD, die Spiele mussten wir aber auf eine Festplatte auslagern. Den Tests tut dies aber keinen Abbruch.

» zur Galerie

Folgende Treiber kamen für die Tests zum Einsatz:

Folgende Spiele und Benchmarks haben wir verwendet:


Kommen wir zu den ersten Messungen, in denen wir uns die Leistungsaufnahme, Temperatur und Lautstärke der GeForce RTX 3080 Founders Edition anschauen wollen.

Leistungsaufnahme

Idle (nur GPU)

in W
Weniger ist besser

Für eine moderne Grafikkarte ist die Leistungsaufnahme im Idle-Betrieb keine besondere Herausforderung mehr. Wir bewegen uns hier im Bereich von wenigen Watt und ein geöffneter Browser bzw. dessen Inhalt hat bereits Einfluss auf die Leistungsaufnahme.

Leistungsaufnahme

Last (nur GPU)

in W
Weniger ist besser

Die GeForce RTX 3080 Founders Edition löst die Radeon RX Vega 64 "an der Spitze" des Verbrauchs-Diagramms ab. Die nominelle TDP von 320 W wird sogar noch leicht überboten. Am Ende ist aber entscheidend, ob sich die höhere Leistungsaufnahme auch in einer höheren Leistung niederschlägt.

GPU-Temperatur

Idle

in
Weniger ist besser

Die Idle-Temperatur stellt mit 32 °C keine Schwierigkeit dar. Die semipassiv angesteuerten Lüfter bleiben auch erst ab dieser Temperatur stehen.

GPU-Temperatur

Last

in
Weniger ist besser

Unter Last bleibt die GeForce RTX 3080 Founders Edition mit 76 °C unter der Schwelle von 80 °C und bewegt sich damit in einem Bereich, den auch die Vorgänger erreichten. Hier stellt sich aber immer die Frage unter welcher Lautstärke wurde dies erreicht.

Lautstärke

Idle

in dB(A)
Weniger ist besser

Im Idle-Betrieb schaltet die GeForce RTX 3080 Founders Edition ihre Lüfter ab und ist somit als lautlos anzusehen. Es handelt sich demnach um die erste Karte, die direkt von NVIDIA stammt und auf eine semipassive Kühlung zurückgreift.

Lautstärke

Last

in dB(A)
Weniger ist besser

Unter Last erreicht die GeForce RTX 3080 in der Founders Edition einen Wert von 40,3 dB(A) und ist somit leiser als die Karten der Vorgänger-Generation. Ob die Founders Edition auch leiser als die Custom-Modelle sein wird, wird sich erst mit den ersten Tests der entsprechenden Karten zeigen.

Datenschutzhinweis für Youtube



An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.

Ihr Hardwareluxx-Team

Youtube Videos ab jetzt direkt anzeigen

Einen Punkt wollen wir bei den Messungen noch anführen. Unser Sample der GeForce RTX 3080 Founders Edition zeigte ab 300+ FPS oder in den Menüs der Spiele ohne Frame-Cap ein Spulenfiepen, welches wir auf Video gebannt haben. In einem üblicheren Framebereich bis 300 FPS sind die Spulen noch nicht zu hören gewesen.


Datenschutzhinweis für Youtube



An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.

Ihr Hardwareluxx-Team

Youtube Videos ab jetzt direkt anzeigen

UL 3DMark

Time Spy - Grafik

Punkte
Mehr ist besser

UL 3DMark

Fire Strike Extreme - Grafik

Punkte
Mehr ist besser

UL 3DMark

Port Royal

Punkte
Mehr ist besser


Luxmark 3.1

Hotel Lobby

KSamples/s
Mehr ist besser


AIDA64

FP32-Rechenleistung

TFLOPS
Mehr ist besser

In der FP32-Rechenleistung macht der GeForce RTX 3080 bis zum Erscheinen der GeForce RTX 3090 oder den Quadro-Modellen so schnell keiner etwas vor. Sicherlich bietet der A100-GPU-Beschleuniger hier noch etwas mehr Leistung, für eine Consumer-Karte sind die mehr als 30 TFLOPS aber schon sehr ordentlich.

AIDA64

FP64-Rechenleistung

GFLOPS
Mehr ist besser

NVIDIA beschneidet die GA102-GPU hinsichtlich der FP64-Rechenleistung. Auch die Navi- und Vega-Karten sind hier deutlich schneller. Über allem aber ragt die Radeon VII, bei der AMD die Compute-Fähigkeiten beinahe unbeschnitten lässt.

V-Ray

Raytracing-Renderig

Millionen Pfade
Mehr ist besser

Im V-Ray-Benchmark, der ein Rendering ausführt, kommen der GeForce RTX 3080 ihre doppelt so vielen FP32-Einheiten zu Gute und dementsprechend ist sie auch doppelt so schnell.

OctaneRender

Havana

Millionen Samples pro Sekunde
Mehr ist besser

OctaneRender

GodRays

Millionen Samples pro Sekunde
Mehr ist besser

OctaneRender

Plants

Millionen Samples pro Sekunde
Mehr ist besser

Im OctaneRender wird jede Szene einmal ohne die RT Cores berechnet und einmal werden diese zu Hilfe genommen. Entsprechend steigt die Rechenleistung noch einmal deutlich an, allerdings bietet die GeForce RTX 3080 bereits eine hohe Rohleistung – auch ohne die Raytracing-Unterstützung.


Datenschutzhinweis für Youtube



An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.

Ihr Hardwareluxx-Team

Youtube Videos ab jetzt direkt anzeigen

Anno 1800

1.920 x 1.080 - Ultrahoch

Bilder pro Sekunde
Mehr ist besser

Anno 1800

2.560 x 1.440 - Ultrahoch

Bilder pro Sekunde
Mehr ist besser

Anno 1800

3.840 x 2.160 - Ultrahoch

Bilder pro Sekunde
Mehr ist besser


Datenschutzhinweis für Youtube



An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.

Ihr Hardwareluxx-Team

Youtube Videos ab jetzt direkt anzeigen

Battlefield V

1.920 x 1.080 - Hoch

Bilder pro Sekunde
Mehr ist besser

Battlefield V

2.560 x 1.440 - Hoch

Bilder pro Sekunde
Mehr ist besser

Battlefield V

3.840 x 2.160 - Hoch

Bilder pro Sekunde
Mehr ist besser


Datenschutzhinweis für Youtube



An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.

Ihr Hardwareluxx-Team

Youtube Videos ab jetzt direkt anzeigen

Control

1.920 x 1.080 - Hoch

Bilder pro Sekunde
Mehr ist besser

Control

2.560 x 1.440 - Hoch

Bilder pro Sekunde
Mehr ist besser

Control

3.840 x 2.160 - Hoch

Bilder pro Sekunde
Mehr ist besser


Datenschutzhinweis für Youtube



An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.

Ihr Hardwareluxx-Team

Youtube Videos ab jetzt direkt anzeigen

Call of Duty Modern Warfare

1.920 x 1.080 - Hoch

Bilder pro Sekunde
Mehr ist besser

Call of Duty Modern Warfare

2.560 x 1.440 - Hoch

Bilder pro Sekunde
Mehr ist besser

Call of Duty Modern Warfare

3.840 x 2.160 - Hoch

Bilder pro Sekunde
Mehr ist besser


Datenschutzhinweis für Youtube



An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.

Ihr Hardwareluxx-Team

Youtube Videos ab jetzt direkt anzeigen

Death Stranding

1.920 x 1.080 - Hoch

Bilder pro Sekunde
Mehr ist besser

Death Stranding

2.560 x 1.440 - Hoch

Bilder pro Sekunde
Mehr ist besser

Death Stranding

3.840 x 2.160 - Hoch

Bilder pro Sekunde
Mehr ist besser


Datenschutzhinweis für Youtube



An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.

Ihr Hardwareluxx-Team

Youtube Videos ab jetzt direkt anzeigen

DOOM Eternal

1.920 x 1.080 - Ultra-Albtraum

Bilder pro Sekunde
Mehr ist besser

DOOM Eternal

2.560 x 1.440 - Ultra-Albtraum

Bilder pro Sekunde
Mehr ist besser

DOOM Eternal

3.840 x 2.160 - Ultra-Albtraum

Bilder pro Sekunde
Mehr ist besser


Datenschutzhinweis für Youtube



An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.

Ihr Hardwareluxx-Team

Youtube Videos ab jetzt direkt anzeigen

F1 2020

1.920 x 1.080 - Ultrahoch

Bilder pro Sekunde
Mehr ist besser

F1 2020

2.560 x 1.440 - Ultrahoch

Bilder pro Sekunde
Mehr ist besser

F1 2020

3.840 x 2.160 - Ultrahoch