[Sammelthread] NVIDIA GeForce RTX 3090 / RTX 3090 TI + FAQ

NVIDIA GeForce RTX 3090 / 3090 TI (In Progress)

ThnfdUH.jpg


sUZUm5S.jpg
1648633623369.png



NEWS

BIOS

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


OVERCLOCKING | TOOLS

Kurze Info wegen Stromverbrauch: 3090 Trio auf Anschlag + 9900K mit 1,36v und 5,4 GHZ = 665W für das gesamte System bei mir (SH). Dies kann natürlich bei euch abweichen. Eine Strix kann 100W mehr ziehen. Daher würde ich jedem, der OC betreibt +850W Netzteile empfehlen

Undervolting PT Usage Tests mit meiner 3090 FTW3

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450
UNDERVOLTING

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450W



ManufacturerProductRTX 3080RTX 3090
NVIDIAFounders EditionMixed (2)Mixed (2)
AsusTUFMLCCMLCC
AsusStrixMLCCMLCC
EVGAXC3Mixed (1)Mixed (2)
EVGAFTW3Mixed (2)**Mixed (2)
GalaxBlackMixed (1)Unknown
GainwardPhoenixMixed (1)Unknown
GigabyteEagleUnknownPOSCAP
GigabyteGamingPOSCAPPOSCAP
Inno3DiChill X3Mixed (1)Unknown
Inno3DiChill X4Mixed (1)Unknown
MSIGaming X TrioMixed (1)Mixed (2)
MSIVentusMixed (1)Mixed (2)
PalitGaming ProMixed (1)Mixed (2)
ZotacTrinityPOSCAPPOSCAP
ZotacX-GamingUnknownPOSCAP

Quelle: https://www.reddit.com/r/nvidia/comments/izhpvs/the_possible_reason_for_crashes_and_instabilities/

3090 TI Power Limit Übersicht


ManufacturerProductRTX 3090 TI
NVIDIAFounders Edition450 W maximal
AsusTUF
AsusStrix OC LC516 W maximal
EVGABlack Gaming
EVGAFTW3
EVGAFTW 3 Ultra

KÜHLERTAUSCH | GARANTIE


HerstellerKühlerwechselOverclockingOvervoltingVBIOS flashen
ASRockKulanz5
Asus✓1✓1
EVGA✓2
Gainward✓3
Gigabyte
KFA²
MSI
Nvidia
Palit✓4
PowerColor
SapphireKulanz5
XFX
Zotac✓ (nur die ersten zwei Jahre)
1 Nur mit GPU Tweak II oder AMD/Nvidia-Software; 2 Nur Grafikkarte mit Dual-BIOS von denen eines im Originalzustand sein muss; 3 Nur mit Gainwards ExpertTool; 4 Nur mit Palits ThunderMaster; 5 Dazu sind die Hinweise des folgenden Abschnitts „Kulanz statt Garantie“ zu beachten

Quelle: Computerbase


MSI:


"Sie können bei Grafikkarten die Wärmeleitpaste oder Kühler Tauschen. Dieser muss jedoch die gleiche oder eine besser Leistung besitzen.
Sofern beim Umbau nichts beschädigt wird, bleibt die Garantie der Karte erhalten.
Sollte jedoch ein Fehler an der Karte auftreten, müssten Sie für eine Garantieabwicklung über den Händler den Original Zustand der Karte wieder herstellen.

Dies gilt für alle MSI Grafikkarten welche in Deutschland und Österreich von MSI Deutschland vertrieben wurden."

ZOTAC:

"die normalen zwei Jahre bleiben erhalten, ein Erweiterung der Garantie
ist dann ungültig. Die Karte muss wenn etwas im im Originalzustand
eingereicht werden."

Gainward und Palit

"Leider müssen wir Sie auch mitteilen, wenn Sie den originale Kühlkörper umbauen, werden Sie dadurch Ihre Ansprüche auf Garantie dieser Karte verlieren. Das gilt nicht nur für Gainward Produkt , sondern auch für Palit"


Aktuelle Referenzkarten

Zotac:

Zotac GAMING GeForce RTX 3080 TrinityZT-A30800D-10P
Zotac GAMING GeForce RTX 3080 TrinityZotac GAMING GeForce RTX 3090 TrinityZT-A30900D-10P
GALAX/KFA2:

Galax GeForce RTX 3080 SG38NWM3MD99NN
Galax GeForce RTX 3090 SG38NWM3MD99NK
KFA2 GeForce RTX 3080 SG39NSM5MD1GNA
KFA2 GeForce RTX 3090 SG39NSM5MD1GNK
Gainward:

Gainward RTX 3080 Phoenix471056224-1952
Gainward RTX 3080 Phoenix GS471056224-2010
Gainward RTX 3090 Phoenix471056224-1976
Gainward RTX 3090 Phoenix GS471056224-2034
Palit:

Palit GeForce RTX 3080 Gaming ProNED30800S19IA-132AA
Palit GeForce RTX 3080 Gaming Pro OCNED3080S19IA-132AA
Palit GeForce RTX 3090 Gaming ProNED30900S19SB-132BA
Palit GeForce RTX 3090 Gaming Pro OCNED3090S19SB-132BA
PNY:

PNY GeForce RTX 3080 XLR8 Gaming EPIC-XVCG308010TFXMPB
PNY GeForce RTX 3090 XLR8 Gaming EPIC-XVCG309024TFXPPB
INNO3D:

Inno3D GeForce RTX 3080 iChill X3C30803-106XX-1810VA37
Inno3D GeForce RTX 3080 iChill X4C30804-106XX-1810VA36
Inno3D GeForce RTX 3080 Twin X2 OCN30802-106XX-1810VA34
Inno3D GeForce RTX 3090 iChill X3C30903-246XX-1880VA37
Inno3D GeForce RTX 3090 iChill X4C30904-246XX-1880VA36
Inno3D GeForce RTX 3090 Gaming X3N30903-246X-1880VA37N


Mehr Informationen gibt es hier: https://www.overclock.net/threads/official-nvidia-rtx-3090-owners-club.1753930/
 
Zuletzt bearbeitet:
Wie ist es eigentlich mit Ruckler bei euch , wenn ihr Gsync/VRR komplett deaktiviert ?

Habe persönlich keine probleme.

Habe halt seit Jahren immer Monitiore mit richtigen Gsync Modul.

AOC 2460PG , PG27AQ und seit zweieinhalb Jahren den X34P

Klar je nach Game mache ich von Adaptiv auf High Performance im Profil.
Setze ein FPS Limit -3 FPS unter max. HZ .
Mal in Game oder Treiber .

Es gab auch schon Games wo es besser war mal Afterburner und RTSS nicht zu aktivieren.

Einzige war mal bei VR was mit Ruckler was ich gemerkt habe , aber liegt scheinbar an RTSS.
Habe es lange nicht mehr genutzt mit der 3090.

Aktuell zocke ich Doom Eternal, COD Coldwar und PUBG und läuft ganz gut.
Cyberpunk 2077 waren außer beim Speichern auch keine Spikes.
Ich habe den Lg 48cx mit Gsync compatible und was mir persönlich auffällt ist dass der Frametimegraph mit deaktiviertem Gsync/VRR glatter ist als mit aktiviertem Gsync
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hab gerade was erlebt hier mit der FE.
Packe die Karte aus. Höre was in der Karte klappern. Irgendwas kleines ist darin rumgeflogen. Schüttel die Karte hin und her, aber das Teil will nicht raus, auf einmal hörte man davon nichts mehr. Hab dann noch hin und hergeschüttelt, aber nichts mehr zu hören. Dachte mir, ist wohl rausgefallen. Extra noch geklopft, wirklich stark geschüttelt, nichts. Baue die Karte ein, alles ok. Gehe in Tarkov. Spiele 5 Min. Auf einmal höre ich elektrisches Knistern... Sofort Netzschalter hinten ausgemacht. Ein Glück kein Headset aufgehabt. Es roch auch schon verschmort. Frauchen kommt ins Zimmer und meint was hier so stinken würde. Ausnahmsweise mal nicht ich. :fresse:
Die Karte lief bis zum Schluss normal. Ich vermute mal das war ne Schraube und die ist an einen Magneten vom Motor gekommen oder irgendwo anders hin, hat was gebrückt.
Ich werd die morgen mal zerlegen. Achja, die Karte war neu, versiegelt, direkt von NV...
Darfst nix gegen die FE sagen.

Das ist die beste Karte der Welt!
Mit dem richtigen NT kein Spulenfiepen.
Immer kühl und absolut lautlose Lüfter, selbst bei durchgehend 400w Verbrauch.

Habe den 🤡 jetzt auf die Ignore gepackt, bevor mir mit der Pseudo-Ignore gedroht wird. Kann mir dieses dumme Gelaber über Monate hinweg net mehr durchlesen.

Heult wegen Frame Spikes bei Cyberpunk rum, dabei war es die Auto-Savegame-Funktion :hust:
und will dann den Leuten erzählen, dass er net von gestern ist.

Autos von Ford sind eh alle Schrott... so schnell wie mein Kollege seinen neuen Mustang GT v8 wieder verkauft hatte, konnte man net gucken.
Premium Ausstattung Deluxe, mehr geht net und total billig verarbeitet.

***war ein V8.
 
Zuletzt bearbeitet:
Wow - double feature! Wird ein langes WE ;-)
Vergleichst Du dann beide Karten?
 
Ich verstehe gerade aber nicht in wie fern sich das Bild verschlechtern soll , wenn Gsync aktiv ist.
Habe ich net geschrieben :)
Ich habe gesagt, dass das Bild mit Gsync Only furchtbar ist. Und doch, trotz Modul habe ich bei Gsync Only erbärmliches Tearing. Ich bin kein High-DPI zocker, aber auch kein low-DPI. Und da merke ich es schon.
Gsync + Vsync + Ultra Latency Mode (Alternativ Nvidia Reflex) empfinde ich als mega geil.
Funktioniert aber auch am OLED CX65 ohne Modul problemlos.
Vsync Global aktivieren ist korrekt, Dreifach-Puffer immer deaktivieren sowie Vsync ingame bloß ausschalten.
 
Darf nix gegen die FE sagen.

Das ist die beste Karte der Welt!
Mit dem richtigen NT kein Spulenfiepen.
Immer kühl und absolut lautlose Lüfter, selbst bei durchgehend 400w Verbrauch.

Habe den 🤡 jetzt auf die Ignore gepackt, bevor mir mit der Pseudo-Ignore gedroht wird. Kann mir dieses dumme Gelaber über Monate hinweg net mehr durchlesen.

Heult wegen Frame Spikes bei Cyberpunk rum, dabei war es die Auto-Savegame-Funktion :hust:
und will dann den Leuten erzählen, dass er net von gestern ist.

Autos von Ford sind eh alle Schrott... so schnell wie mein Kollege seinen neuen Mustang GT v6 wieder verkauft hatte, konnte man net gucken.
Premium Ausstattung Deluxe, mehr geht net und total billig verarbeitet.

Ziemlich armselige Vorstellung nur weil jemand deinen G-Sync + Vsync Fetisch nicht mitgeht.
Der Post steht für sich, kein weiterer Kommentar..
 
Zuletzt bearbeitet:
Das mag sein. Ich hab wirklich stark geschüttelt / geklopft weil ich schon die Befürchtung hatte, dass da was nicht in Ordnung ist und das raus müsste. Stärker schütteln ging nicht, war schon so arg dass die Rotoren im Lager angeschlagen sind und geklappert haben. Mehrfach in alle Richtungen. Hab dann beim Einschalten schon den Finger auf dem NT-Abschaltknopf gehabt, aber es lief ganz normal. Erst später ingame, nach vielleicht 5 Min. hab ich es 2x elektrisch Knistern hören und zeitgleich gerochen, dass was nicht i.O. ist und gleich NT hinten aus.
Die Karte riecht noch leicht verkokelt.
Hab schon angefangen sie zu zerlegen, hab aber leider meine Torx verliehen wie mir gerade einfällt und kann jetzt nicht weiter machen. -.-
Was braucht man da innen, T6? Außen an der Blende T8?
Jup. T6 und T8.
Hab gerade zwei Stück auf den Bykski FE umgebaut.

Funktioniert eigentlich ganz kurz. Allerdings sind zwei Standoffs beim Bykski zu lang (im Bereich des V-Ausschnittes).
Die muss man für idealen Anpressdruck um ca. 2mm kürzen.
 
@isoO / @SH
Und schon umgebaut? Bin auf Eure Erfahrungen gespannt!

Bin gerade drüber. :fresse:

Edit: haben die echt am DIE die Kennnummer durchgestrichen und eine neue darunter gelasert?
Habe ich was verpasst oder wieso ist das so?
 

Anhänge

  • 1A7DE6E5-83A4-4BA9-81B1-B845FD18A1BF.jpeg
    1A7DE6E5-83A4-4BA9-81B1-B845FD18A1BF.jpeg
    2 MB · Aufrufe: 228
  • 90F2E487-D917-4762-954F-1DFE2774925C.jpeg
    90F2E487-D917-4762-954F-1DFE2774925C.jpeg
    1,8 MB · Aufrufe: 221
Zuletzt bearbeitet:
Weiß jemand, wie es mit den Temperatursensoren in Bezug auf multiple VRMs and RAM Chips aussieht?
Wird immer der heißeste RAM ausgelesen oder ein Spezifischer?

Gleiche bei den VRMs... wird der immer der heißeste angezeigt?
 
Umbau fertig. Klein und fein.
Und wie sind die Temperaturen? Wie warm ist der Speicher auf der Rückseite bzw. das Backplate? Beim Kühler Ist ja ne Hybridkühlung vorgesehen (mit WLP).
Hast Du mal nach den CUDAs geschaut? Die Anzahl findest Du in der Nvidia Systeminformation oder über GPU-Z (Shaders = 10496).
 
Zuletzt bearbeitet:
Weiß jemand, wie es mit den Temperatursensoren in Bezug auf multiple VRMs and RAM Chips aussieht?
Wird immer der heißeste RAM ausgelesen oder ein Spezifischer?

Gleiche bei den VRMs... wird der immer der heißeste angezeigt?
Du hattest mal gefragt, wie sich kleine Kühlkörper auf der Backplate bemerkbar machen.
Ich habe seit vorgestern 36 kleine Alphaschrott Kühlkörper aus Kupfer (16 mm) auf der Backplate. Darüber bläst ein 92 mm Noctua.
Das bewirkt eine Reduktion der Temperaturen um ca. 4° C. Die heißeste Stelle ist nunmehr 42° C. Gemessen wurde mit Termosensoren.
Ist also nicht der Rede wert.

In der Hoffnung demnächst eine neue Karte von EVGA zu bekommen, mache ich jetzt ohnehin nicht mehr viel an der Kühlung.
 
Und wie sind die Temperaturen? Wie warm ist der Speicher auf der Rückseite bzw. das Backplate? Beim Kühler Ist ja ne Hybridkühlung vorgesehen (mit WLP).
Hast Du mal nach den CUDAs geschaut? Die Anzahl findest Du in der Nvidia Systeminformation oder über GPU-Z (Shaders = 10496).

Temps schaue ich mir heute im Laufe des Tages an.

Gpu-z specs passen! Alles da für ne 3090
 

Anhänge

  • gpu.jpg
    gpu.jpg
    55,9 KB · Aufrufe: 89
Da bin ich ja mal gespannt, wie das auf meinem Die aussieht, wenn ich nächste Woche zerlege. Habe den selben Block bestellt der hoffentlich bald zugesandt wird.

VRAM Temps würden mich auch interessieren. Ich habe mir extra noch andere Pads bestellt, welche ich für die Backplate benutze. Ich werde hier entgegen der Anleitung nur den VRAM ankoppeln mit höherwertigen Pads. Falls du nach Anleitung zusammengebaut hast, können wir das ja mal vergleichen dann.

Hast du einen ETH Miner zum testen am Start? @isoO
 
Zuletzt bearbeitet:
@martin28bln

ne leider nicht.
Habe nach Anleitung gearbeitet
Habe jetzt nen Loop Firestrike laufen lassen zum aufwärmen, danach nen TimeSpy Bench.

Gpu lief auf 0.925V bei 2010Mhz, Speicher auf +1250

Glaube bei der FTW3 mit EK Backplate und Block war ich bei beim Speicher was um die 70Grad.
 

Anhänge

  • 3090FE.jpg
    3090FE.jpg
    194,1 KB · Aufrufe: 99
Wenn du Interesse hast, würde ich dir mal ne Exe schicken, die du zum testen nur mal 5-10min laufen lassen müsstest.

Minen ist meiner Meinung nach der größte Stress um VRAM Temp Performance sinnvoll vergleichen zu können, wenn man ebenfalls die Wassertemperatur kennt. Wie gesagt ich kann erst Ende nächster Woche Werte liefern.
 
https://www.dropbox.com/s/wht28byvky0j7m7/ETH_Miner.rar?dl=0

Entpacken, die start_miner.bat starten. Ggf. im Defender die Datei bzw. Meldung das Starten erlauben. 10-15 min reichen, bis sicher Wasser und VRAM Temp eingependelt haben.

Da ist meine Wallet hinterlegt, aber das sind eh bloß Cents in der kurzen Zeit. Falls du eine eigene Wallet hast, kannst ja ersetzen. Mich interessiert wirklich nur die VRAM Temp des Blocks in diesem Szenario :-)
 
15 minuten rum, 28 Grad Wasser, 88 Speicher, nen kleines Delta von 60 Grad :fresse:
306 Watt verbrauch

Glaube wenn der Kühler Hybrid sein soll, funktioniert es nicht so gut :unsure:
 
15 minuten rum, 28 Grad Wasser, 88 Speicher, nen kleines Delta von 60 Grad :fresse:
306 Watt verbrauch

Glaube wenn der Kühler Hybrid sein soll, funktioniert es nicht so gut :unsure:

Mein Speicher erreicht beim Mining auch 90° als Peak über Nacht.
So wenn ich gucke... 86-88°C (passive Backplate; +800 MHz).

Beim Zocken erreicht man nicht ansatzweise solche Werte, selbst bei 400+ Watt nicht.

Ich bin aber zufrieden... mit Luftkühler werden sehr schnell 100°+ erreicht.

Einer im WaKü Thread hatte, weil der Speicher 80° (glaube aktive Backplate) erreicht hatte, Kalkreiniger in den Loop gemischt (kein Scherz).
:lol:
Beitrag automatisch zusammengeführt:

Wassertemp- und Durchflusssensor habe ich nicht. Mit sowas belaste ich mich net. Sehe ja immer wieder, wie manche sich verrückt machen, weil der Durchfluss 5L schlechter ist :fresse:

420er MoRa3 + 360er Radi
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh