Aktuelles

NVIDIA dreht an der Ampere-Schraube: Die GeForce RTX 3080 Founders Edition im Test

Powl

Experte
Mitglied seit
13.11.2015
Beiträge
5.718
Die Rede war nicht davon, dass es keine FPS Unterscheide je nach Auflösung gibt, sondern das es auffällt, dass die Leistung je nach Titel (auch in 4k) sehr wohl nicht passen kann! Der Abstand passt dann nicht.

Deswegen will ich ja auch noch seine Seite besuchen, da das Video die Menge an Daten einfach sprengen würde. Das passt aber auch zu anderen Reviews auch im Luxx, auch wenn das hier eher angemerkt wird.
Nicht passen zu was?
Wenn die fps in 4K deutlich niedriger sind als in WQHD, dann ist das ein GPU Limit, kein CPU Limit. Punkt. Wenns ein CPU Limit wäre, würde die Framerate unabhängig der Auflösung gleich bleiben.
Beitrag automatisch zusammengeführt:

Das ist so nicht haltbar, du kannst auch 80% der Zeit im GPU Limit sein und hast dann trotzdem in 4k weniger FPS.

Wichtig ist halt dass man nicht 80%, nicht 10% und auch nicht 1% der Zeit im CPU Limit hängt, sondern idealerweise nie.
(ich tätige keine Aussage bezüglich des (nicht) Vorhandenseins eines CPU Limits während der Tests, ich gehe nur auf die zitierte Aussage ein)
Korrekt. Aber ich behaupte mal ganz frech, wäre die 3080 in 4K zu irgendeiner relevanten Zeit im CPU Limit, wäre das mehr als einem einzigen Reviewer aufgefallen. Nichts gegen Igor, seine Arbeit ist normalerweise top, aber in dem Fall steht die Behauptung ohne Beleg allein im Raum.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

blazethelight

Experte
Mitglied seit
17.08.2013
Beiträge
1.227
Ort
Köln - Deutschland
Nicht passen zu was?
Wenn die fps in 4K deutlich niedriger sind als in WQHD, dann ist das ein GPU Limit, kein CPU Limit. Punkt. Wenns ein CPU Limit wäre, würde die Framerate unabhängig der Auflösung gleich bleiben.
Beitrag automatisch zusammengeführt:


Korrekt. Aber ich behaupte mal ganz frech, wäre die 3080 in 4K zu irgendeiner relevanten Zeit im CPU Limit, wäre das mehr als einem einzigen Reviewer aufgefallen. Nichts gegen Igor, seine Arbeit ist normalerweise top, aber in dem Fall steht die Behauptung ohne Beleg allein im Raum.
Ich schließe einfach wie immer nix vorher aus.
Wichtiger ist aber = Physik lügt nicht und jede These kann man belegen oder reproduzieren.

Das soll natürlich nicht bedeuten, dass Igor sich nicht irren kann 😉
 

Hyrasch

Experte
Mitglied seit
10.12.2012
Beiträge
2.334
Entscheidet doch lieber selbst, immerhin habe ich doch wir wie alle (die Luxx Redaktion natürlich außen vor) weder selbst die Karte noch selbst getestet: https://www.igorslab.de/nvidia-gefo...t-nach-vorn-und-der-grabstein-fuer-turing/10/

Im Video wird es aber besser (für mich persönlich) erklärt!
Mir ist diesbezüglich gerade aufgefallen dass Igors Werte zum Stromverbrauch nicht zu den Werten von Don, bei Pcgameshardware, computerbase etc. passen.
Diesbezüglich ist bei ihm genrell die Effizient oder FPS/Watt anders als bei anderen Testern.

Im einigen Fällen besser für Turing und Ampere als für RDNA und vice versa Average Power Consumption in Watts UHD 4K
RX 5600 XT bei ihm 120 W anstatt 150 W.
RX 5700 170 anstatt 180 W.
RX 5700 XT 250 W anstatt 220 W.

RTX 2070 Super 205 W anstatt 215 W.
Rtx 2080 Super 230 W anstatt 250 W.

@Igor THG
Deine Werte haben natürlich innerhalb deiner Test und Umgebung eine Aussagekraft und es gibt nichts daran auszusetzen. Verglichen mit anderen Test wundert es mich aber deshalb schon warum die RX 5600 XT plötzlich so ein Effizienz-Monster ist, die RX 5700 XT so schlecht dasteht und Turing 2070S/2080S auch besser sind.
 

Phoenix2000

Urgestein
Mitglied seit
07.01.2006
Beiträge
5.212
3440x1440

Anhang anzeigen 531210

640x480

um die 170 zu erreichen in der szene würde nichtmal die 3090 reichen. ich bräuchte mehr als 100% mehrleistung zur 2080S

Anhang anzeigen 531211

ja in actionszenen gehen die fps sicherlich cpu seitig runter. das stimmt ^^
Bei 720p auf Ultra hab ich z.B. ca. 120FPS auf 720p low fast 200FPS, Graka ist immer zu 100% ausgelastet^^.

Wieviel ne 3080 auf 720p Ultra dann packt schwer zu sagen.Auf jeden Fall kann ich dir sagen das du mit nen 9900K mit RamOC genug Leistung hast um die Graka auch bei WQHD fast auszulasten bei neuen Titeln.
Bei Shadow of the Tombraider WQHD@Ultra mit SLI hatte ich 192FPS AVG im Benchmark und war nur wenig im CPU Limit,
soviel FPS stemmt die 3080 da nicht.
 
Zuletzt bearbeitet:

Scrush

Legende
Mitglied seit
31.12.2008
Beiträge
37.082
Ort
Hessen
System
Details zu meinem Desktop
Prozessor
i9 9900K
Mainboard
Gigabyte Z390 Aorus Master
Kühler
Corsair H150i Pro
Speicher
32GB Corsair Vengeance 3200
Grafikprozessor
Gigabyte Aorus RTX 2080 Super
Display
Dell AW3420DW, Dell U2414h
SSD
Samsung 960evo 250gb, 850 250gb, 840 500gb,
HDD
WD Red 3TB
Gehäuse
LianLi PC011 Dynamic
Netzteil
Be-Quiet Straight Power 11 650W CM
Keyboard
Varmilo VA69M
Mouse
Logitech G Pro Wireless
Betriebssystem
Windows 10 Pro
Webbrowser
Vivaldi
und ich war ja immer noch im gpu limit bei 640x480 :fresse:
 

Goldeneye007

Dönertier
Mitglied seit
03.12.2006
Beiträge
2.563
Ort
Eppstein
Das man das CPU/GPU-Limit überhaupt diskutieren muss. Da gibt es keine Fehlinterpretationsmöglichkeit.
Augen auf, zwei Zahlen ablesen, Ergebnis steht fest.
 
Zuletzt bearbeitet:

Phoenix2000

Urgestein
Mitglied seit
07.01.2006
Beiträge
5.212
Bei den Karten bist du ganz klar mit nen aktuellen Intel und starken RamOC im Vorteil, das war aber vorher schon klar.
Die FPS packst du mit nen AMD einfach nicht, da liegen mit beide @OC ca. 25% dazwischen, meist auch mehr, mal auch weniger wie bei Assasign creed.

P.S.
Bezogen auf WQHD @Goldeneye007 der AMD macht schon noch genug FPS.😉
 
Zuletzt bearbeitet:

F1r3

Enthusiast
Mitglied seit
20.08.2010
Beiträge
1.971
Ort
In the middle of nowhere
System
Desktop System
Lass_uns_verryzen
Laptop
Olle_Kroete
Details zu meinem Desktop
Prozessor
AMD Ryzen 3700X
Mainboard
MSI X570 Unify
Kühler
DeepCool Castle 360@Arctic P12 PWM
Speicher
32 GB Crucial Ballistix DDR4-3600 CL16
Grafikprozessor
Asus ROG Strix GTX1080 -> GTX3080 incoming
Display
Alienware AW3418DW - 34" curved - 3440x1440
SSD
Samsung 970 EVO, Samsung 850 EVO, Crucial 500MX, Kingston A480
HDD
WD Green 2 Terrabyte
Opt. Laufwerk
Samsung Blu-Ray Brenner (external)
Gehäuse
DeepCool Matrexx 70
Netzteil
Seasonic Focus+ Gold 650 Watt
Keyboard
Logitech G810
Mouse
Glorious Modell O
Betriebssystem
Windows 10
Webbrowser
Chrome
Internet
▼ 50 Mbit ▲ 10 Mbit
So eine Strix wäre nett, ne FE wäre aber auch OK.
 

blazethelight

Experte
Mitglied seit
17.08.2013
Beiträge
1.227
Ort
Köln - Deutschland
Dann sind auf einmal alle Games sehr CPU-lastig? In 4K und Ultra. Okay
Könntest du bitte auch zuerst einmal abwarten und nicht die ganze Zeit das ganze ins Lächerliche ziehen?

Ich denke wir haben alle verstanden, dass das Overlay unfehlbar sein muss!
Dann sind auf einmal alle Games sehr CPU-lastig? In 4K und Ultra. Okay
Wer schaufelt denn nochmal die Daten der GPU zu? Die GPU selbst?

Mir geht es doch nur darum auch mal das Lesch Prinzip anzuwenden = der andere (Igor) könnte ja auch Recht haben?

Und wenn es nicht so sein sollte, hey auch gut!
Wenn doch oder nur aufgrund seiner guten Mischung an Spielen (alte, neue usw.), könnte es sein das wir eher demnächst nach CPU Leistung gieren werden... 😉
 

Goldeneye007

Dönertier
Mitglied seit
03.12.2006
Beiträge
2.563
Ort
Eppstein
ja, warten wir es ab und hoffen wir mal, dass das jetzt wirklich kein CPU Problem wird
Beitrag automatisch zusammengeführt:

Ob es wohl gleich Shops geben wird?
 

Cippoli

Enthusiast
Mitglied seit
09.08.2006
Beiträge
5.064
Ich finde das Fazit von der PCGH sehr gelungen.

Da passt für mich eigl. alles bis auf den VRAM. Werde das Gefühl nicht los, dass ich den Kauf bereits nach kurzer Zeit bereuen würde. Ärgerlich, denn mit 12 GB gegen einen kleinen Aufpreis hätte ich mich noch arrangieren können, aber so ist die 3080 trotz des guten P/L-Verhältnisses für mich leider ein Dealbreaker. Schade...
 

DEVV

Semiprofi
Mitglied seit
18.08.2016
Beiträge
151
Also vor der nvidia Ankündigung habe ich meine 2080 für 500 Euro verkauft. Ging auch recht zügig weg.
Jetzt lege ich 300-400 Euro drauf und hole mir eine Strix.

Finde da kann man nicht meckern. Selbst wenn es nur 20-40 % Leistungszuwachs wären.

Wer das Maximum rausholen will, schrottet einfach seine Karte. Dann hat er einen Leistungszuwachs von unendlich %
 

Googlespoon

Experte
Mitglied seit
23.03.2014
Beiträge
705
System
Desktop System
Turingmaschine
Details zu meinem Desktop
Prozessor
AMD Ryzen 7 3700X
Mainboard
MSI X470 Gaming Pro
Kühler
Arctic Liquid Freezer II 360 @ NB-eLoop X und Kryonaut WLP
Speicher
32GB Corsair Vengeance LPX 3200MHz
Grafikprozessor
MSI RTX 2080 Gaming X Trio @ 2070 MHz GPU / 2000 MHz VRAM
Display
LG 32GK850G + Sony 65XF9005
SSD
Samsung 970 EVO Plus 1TB + Samsung 850 EVO 500GB + Crucial MX500 2TB
Opt. Laufwerk
LG BH16NS40 Blu-Ray Brenner @ USB Adapter
Soundkarte
Creative Soundblaster X AE-5 Plus @ Telefunken HA 870 mit harman/kardon MAS + HyperX Cloud Alpha
Gehäuse
Cooler Master H500M
Netzteil
be quiet! Dark Power Pro 11 1000W
Keyboard
Corsair K95 RGB Platinum
Mouse
Roccat Kone AIMO
Betriebssystem
Windows 10 Education 64-Bit
Sonstiges
OnePlus 8 Pro, iPad 2018
Interessant, der bequiet Netzteil Rechner führt jetzt auch die 3080... Veranschlagt aber mal eben 600W nur für die GPU xD
 

Powl

Experte
Mitglied seit
13.11.2015
Beiträge
5.718
Könntest du bitte auch zuerst einmal abwarten und nicht die ganze Zeit das ganze ins Lächerliche ziehen?

Ich denke wir haben alle verstanden, dass das Overlay unfehlbar sein muss!


Wer schaufelt denn nochmal die Daten der GPU zu? Die GPU selbst?

Mir geht es doch nur darum auch mal das Lesch Prinzip anzuwenden = der andere (Igor) könnte ja auch Recht haben?

Und wenn es nicht so sein sollte, hey auch gut!
Wenn doch oder nur aufgrund seiner guten Mischung an Spielen (alte, neue usw.), könnte es sein das wir eher demnächst nach CPU Leistung gieren werden... 😉
Abwarten? Hat noch nie jemand die getesteten Spiele gespielt und gesehen, wo jeweils das CPU Limit liegt? Die 3080 ist neu, die Spiele nicht. Das CPU Limit des jeweiligen Spiels somit auch bekannt.

Nix Lesch Prinzip hier, denn die Faktenlage steht schon fest: es liegt kein CPU Limit vor, die CPU kann in diesen Spielen deutlich mehr FPS liefern, als die 3080 in 4K erreicht. Punkt, Ende der Geschichte.
 

blazethelight

Experte
Mitglied seit
17.08.2013
Beiträge
1.227
Ort
Köln - Deutschland
Abwarten? Hat noch nie jemand die getesteten Spiele gespielt und gesehen, wo jeweils das CPU Limit liegt? Die 3080 ist neu, die Spiele nicht. Das CPU Limit des jeweiligen Spiels somit auch bekannt.

Nix Lesch Prinzip hier, denn die Faktenlage steht schon fest: es liegt kein CPU Limit vor, die CPU kann in diesen Spielen deutlich mehr FPS liefern, als die 3080 in 4K erreicht. Punkt, Ende der Geschichte.
Auch wenn ich es bereuen werde:
Hier geht es weder um deine oder meine Meinung.

Du solltest dich auch mal ein wenig entspannen.
Es ist schon spät und ich verstehe die Aufregung auch überhaupt nicht.

Ich denke nicht, daß du zu entscheiden hast ob eine Diskussion in diesen Bezug zu Ende ist oder nicht.

Lass doch einfach mal ein paar Tage vergehen.
Ich bin mir sicher das entweder Igor dazu eine Fehlmessung meldet oder ggfls. meldet einfach zu einer falschen These gekommen zu sein bzw. sich die Redaktionen dazu eh austauschen werden.

Es könnte aber auch anders kommen, denn die höhere CPU Last / Package Power unter 4K mit der FPS Anzahl der GPU kann jeder vernünftig denkende Mensch nicht einfach Beiseite schieben.

Vor allem da in diversen Tests nur als Beispiel der Flight Simulator ähnliche Ergebnisse liefert in Bezug das die 3080 da auch nix raus reißen kann.

Ich selbst habe von Igors These nichts und wollte nur darauf aufmerksam machen für die Gemeinschaft, dass er eventuell da etwas auf der Spur sein könnte.

Und ganz ehrlich, deine Art wie du deine Meinung transportierst / deinem persönlichen Befinden nachgehst, schreckt mich eher ab mit dir in einen weiteren sachlichen Dialog gehen zu wollen.

Lass doch einfach mal die Profis (damit meine ich die Redaktionen!) sich untereinander dazu austauschen.

Ich für meinen Teil, werde einfach mal abwarten und dich einfach weiter wüten lassen, ohne das böse oder persönlich zu meinen.
 
Zuletzt bearbeitet:

Sloggi

Enthusiast
Mitglied seit
29.09.2008
Beiträge
178
Ein Gamechanger. Zum ersten Mal sehe ich auf 1440p in nicht wenigen Spielen Spitzen-CPUs limitieren, auf 1080 sogar regelmäßig. Wird Zeit, dass im CPU-Markt endlich was nach vorne geht.

Nicht nachvollziehbar ist für mich, dass manche von der Leistungssteigerung gegenüber der 2080Ti "enttäuscht" sind. Wir sprechen hier von 699 € vs. 1200 €. Sowas gabs zuletzt von der 8800 GTX zur GTX 280. Andererseits sieht man eben auch, dass eine 2080Ti eben nicht das Altmetall ist, zu der sie im Vorfeld schon gemacht wurde, die war eben nur viel zu teuer.
 

Phoenix2000

Urgestein
Mitglied seit
07.01.2006
Beiträge
5.212
Das sind zufällig alle neuen Spiele?
Nein eher ältere, aber ein bottle Neck hat man doch immer entweder Graka oder halt CPU, je nachdem was stärker ist, sonst hättest du ja unendlich FPS.
In den meisten Fällen schaffen aktuelle CPU´s über 100FPS zu liefern, ausnahmen wie Anno etc. hat man immer mal, es gibt in Games auch vereinzelt Spielsequenzen
die sehr CPU lastig sind und in diesen Momenten ist halt mal die CPU der limitierende Faktor.
Umso weniger Kerne effektiv genutzt werden, umso übler ist es meistens, Starcraft 2 Funmap bestes Beispiel, das kann z.B. jeden!!! Rechner unter 10FPS drücken,
braucht bloß die richtige Funmap.😁

Bei neuere Games sollten eigtl. mehr Kerne genutzt werden, was sich in höheren CPU FPS niederschlagen sollte.
 

RNG_AGESA

Neuling
Mitglied seit
16.09.2020
Beiträge
21
wollte von 3840x1600, 38" mit 75hz auf 144hz wechseln aber offenbar ist die 3080 dafür nicht stark genug ohne settings runter setzen zu müssen.
anderseits fühlen sich 75hz auch nicht schlecht an und die karte ist schnell genug für maximal beste settings, wohl auch in MFS2020
mmmm
 

madjim

Moderator
Mitglied seit
11.11.2006
Beiträge
6.986
Ort
C:\Bayern\Nürnberg
System
Desktop System
MAD-ONE
Laptop
Lenovo Thinkpad Yoga 15
Details zu meinem Desktop
Prozessor
Ryzen 5 3600
Mainboard
ASUS ROG Strix B550-E Gaming
Kühler
Watercool Heatkiller 3.0 + 360mm Radiator + Alphacool Pumpe
Speicher
32GB DDR4 3200 GSkill RipJaw Red (4x8)
Grafikprozessor
MSI GTX 1080 Ti Gaming X Trio
Display
3 x Samsung Curved C24FG73 VA 144Hz Nvidia Surround Modus
SSD
512 GB Samsung 970Pro M.2 + 1000GB Crucial P1 NVMe M.2 2280 + 1TB Crucial MX300 SATA
HDD
4GB WD RED
Opt. Laufwerk
LG DVD Brenner
Soundkarte
Soundblaster Z PCIe
Gehäuse
CoolerMaster HAF 932 Big Tower
Netzteil
BeQueit Straight Power 11 650W Platinium
Keyboard
G.Sklill RipJaws RGB
Mouse
Logitech G MX518 . Das original MX518 von 2008 habe ich auch noch ;)
Betriebssystem
Windows 10 Pro
Webbrowser
Firefox + Google Chrome
Sonstiges
Logitech Z06 5.1 Soundsystem
Internet
▼ 40MBit ▲ 255MBit
Interessant, der bequiet Netzteil Rechner führt jetzt auch die 3080... Veranschlagt aber mal eben 600W nur für die GPU xD
Das ist echt der Hammer. Vielleicht übertrieben. Igor von IgorsLab hat als einer der wenigen YouTuber sehr intensiv den Strombedarf der RTX 3080 getestet.
Wieviel Watt braucht die GeForce RTX 3080 nun wirklich? Die ultimative Netzteilempfehlung!

Er meint das man bei einem hochwertigen Netzteil ab 650W auf der sicheren Seite ist.
Allerdings gilt das vermutlich nur für die FE und ohne großartiges Übertakten. Bei Custom Modellen kann ein stärkeres Netzteil vermutlich nicht schaden.

Was Allerdings klar ist, die Zeiten wo mein sein System Jahre nutzen kann, sind nun vorbei.

Die RTX 3080 bottlenecked zum Teil selbst bei Monster CPUs wie ein 10900-K oder 3950x.
 
Oben Unten