NVIDIA stellt die GeForce RTX 3060 vor

Aber die Quadros sind doch für einen ganz anderen Anwendungszweck optimiert. Das kannst du überhaupt nicht vergleichen, wirklich gar nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
In der heutigen Zeit, wenn der VRAM voll läuft lagert das System auf den Hauptspeicher aus... das wird halt dann arsch langsam, das einzige Szenario das ich bisher hatte wo mir der Grafikspeicher bei der RTX3080 nicht reichte war Asassins Creed Valhalla in 4K Ultra und rendered resolution 200% da kam ich auf 10,5GB oder so und selbst da lief das spiel noch. Zwar nicht Spielbar aber ohne crash. (Wenn ich die Wolken auf Mittel gestellt hätte, wäre das noch gelaufen)

Ich denke der Mix aus Größe, Bandbreite und Geschwindigkeit ist King. Gleichzeitig muss aber das System Genug Leistung bieten um den Speicher zu verarbeiten.
Als Beispiel die Radeon VII => grundsätzlich Speichertechnisch mit 16 GB HBM2 ein Speichermonster, trotzdem reicht die Leistung nicht us, um den Speicher in allen Szenarien zu Füllen und effizient nutzen zu können.
Als Hybrid "Prosumer" Karte für Content und Gaming recht gut, aber es hat halt nicht gereicht gab abstriche in beide Welten.

Einer der Gründe warum AMD mit RDNA2 Generation, Gaming und Content schon bei Design/Chip etwas trennt und Prioritäten anders setzt.

Nvida Karten auch im Consumer Bereich sind ab Mittelklasse schon Prosumer und das schon seit einigen Generationen. CUDA-Cores, Tensor-Cores, Raytracing-Cores.... Jemand der in Wissenschaft und Forschung arbeitet (auch Softwareentwickler) kann damit für Zuhause wunderbar arbeiten und einige Dinge testen zusätzlich zum Gaming Betrieb ist der theoretische Mehrwert schon größer als bei AMD in gleicher Preisklasse, seit dieser Generation.

Beim großen Speicher vs normalen schnellen Speicher: Situation SAM macht ohne großen Speicher keinen Sin. Wenn du schon so den Speicher bei 7-8GB von 8 GB befüllt hast, was soll dein System denn sinnvoller weise in den VRAM laden was nicht in den Hauptspeicher soll?.

Das ist auch für mich das Szenario das sich auch AMD ausgedacht hatte bei 16GB.
@Nelen
Man müsste Benchmarks mit kastriertem 8 GB Haupt System Speicher und SAM machen um zu testen ob das einen größeren Einfluss hat.
 
Nvida Karten auch im Consumer Bereich sind ab Mittelklasse schon Prosumer und das schon seit einigen Generationen. CUDA-Cores, Tensor-Cores, Raytracing-Cores.... Jemand der in Wissenschaft und Forschung arbeitet (auch Softwareentwickler) kann damit für Zuhause wunderbar arbeiten und einige Dinge testen zusätzlich zum Gaming Betrieb ist der theoretische Mehrwert schon größer als bei AMD in gleicher Preisklasse, seit dieser Generation.

Da stimme ich dir zu. Die RTX Karten sind für Prosumer ein richtig guter Deal, daher verstehe ich auch, warum man als Prosumer lieber eine 3080 mit mehr VRAM haben möchte. Die 3060 geht jetzt den Schritt in diese Richtung. Ob sie das für professionelle Anwendungen zu besseren Wahl als eine 3070 oder 3080 macht, kann ich nicht beurteilen, da fehlt mir die Expertise, da ich kein Prosumer bin.
 
Man sieht bei den AMD Karten deutlich, dass sie unterhalb von 4k super mithalten können, z.T. sogar schneller sind. Sobald aber in 4k gebencht wird, können sich die 3080/3090 überproportional absetzen von 6800xt/6900xt. D.h. wenn die Texturen zukünftig tatsächlich hochauflösender, also größer werden, rennt man in ein Bandbreiten Bottleneck, da Speicheranbindung und Durchsatz zu klein/langsam, dafür aber 16GB. Im Prinzip alles blöd gerade auf dem Markt.
Ist anders herum. Ich meine das kommt von Igor: Es wurde gezeigt, dass die RDNA2 keine Leistung "verlieren", also es keinen Bottleneck gibt.
Vielmehr bekommt Ampere ihre Leistung in FHD/WQHD nicht auf den Boden.
 
Naja sagen wir es mal so die Wahrheit liegt irgendwo dazwischen, Nvidia Karten skalieren besser auf hohe Auflösungen während AMD Karten eher ausgewogener arbeiten.

Aber ehrlich gesagt wer sich aktuell ne Karte kauft, selbst im Midrange will mindestens WQHD spielen. (Esports als Sondergedöns mit FULL HD und eher MAX FPS)
 
Ist anders herum. Ich meine das kommt von Igor: Es wurde gezeigt, dass die RDNA2 keine Leistung "verlieren", also es keinen Bottleneck gibt.
Vielmehr bekommt Ampere ihre Leistung in FHD/WQHD nicht auf den Boden.

Naja das ist jetzt Interpretationssache. Woher bekommt dann Ampere ihren plötzlichen Schub in 4k bzw. wo verliert Ampere Leistung in kleineren Auflösungen oder liegt es nicht doch an derer größeren Bandbreite + schnelleren Vram ? Warum kann dann Navi in kleineren Auflösungen so gut ihre Leistung ausfahren und in 4k lassen Sie plötzlich Boden ggü. Ampere liegen? Das einzige das die Karten unterscheidet ist der schnellere VRam. Ich mag Igor und seine Artikel, aber die Interpretation mancher Kennzahlen finde ich dann manchmal fragwürdig. In dem von dir angesprochenen speziellen Fall bzw. Artikel geht es auch um den Infinity Cache und nicht explizit um den VRam.

Was kann man daraus ableiten. Aus meiner Sicht, das höhere Auflösungen mehr Bandbreite und schnelleren VRam brauchen....
 
3060 Ti 12GB oder auf die 3050 Ti 16GB warten?
 
Mal wieder keine Ahnung. Mit den vorhandenen Modulen lassen sich an 128Bit nur 4GB oder 8GB realisieren, halbsoviel wie am GA104 möglich wäre. Bin jetzt nicht im Bilde, ob man für die 3050Ti von 192Bit oder 128Bit ausgeht, mehr Speicher als die 3060 wird sie aber keinesfalls haben.
 
Das ist doch nur ein Scherz. 😂

PS: Ich würde auf die 3050 24 GB warten. Die letzten 21,75 GB sind mit Kaugummi angebunden. Die langsame Anbindung wird aber vollkommen durch den Treiber kompensiert werden. 👍
 
Theoretisch ja. Doppelte GDDR6X Speicher-Chips für die 3080 gab es allerdings beim Launch noch nicht und sollen jetzt erst bald verfügbar sein.
Sag doch einfach "ja"; klar, dass das zum gegenwärtigen nur Theorie ist, aber so erweckst du (ungewollt?) den Eindruck des Zweifels.
Ich hab nicht gegoogelt, aber du hast mir doch bestimmt was zur Hand, wodurch man deine Aussage zur Verfügbarkeit (Lauch nicht, demnächst schon) nachvollziehen kann, oder? Danke vorab.

Und für die 3070 (GDDR6 ohne X) die ja eigentlich für 500€ angedacht ist, wären 16Gb wohl auch schlicht zu viel. Immerhin sieht man in aktuellen Benchmarks keinerlei Nachteil durch die 8Gb.

Denke bei der 3060 hat man sich für die 12Gb entschieden um ein Highlight für Leute zu haben die mehr auf solche Zahlen als auf Benchmarks achten.
Das mit den Benchmarks ist natürlich in Stein gemeißelt. Oder so. Aber darum gehts mir gar nicht. Wieso zu viel? Man hätte auch einfach bei der 3070 auf Nummer sicher gehen und die 16GB anbieten können, wenn der Grund nur darin besteht, dass sich die Leute (dann) nicht beschweren. AMD macht das ja auch so und das nicht erst seit gestern (auch wenn das sicherlich mehr als "etwas" verfrüht war), sollte imho ein Grund mehr sein.
Aber klar, man kann es sich auch einfach schön reden, dass Nvidia mal so und mal anders vorgeht. :hust::fresse2:

Ach ja und:
Zum Launch der 3080 waren die doppelt großen Speicherchips zudem noch nicht verfügbar.
Man hätte natürlich auch einfach den Start der 3080 verschieben können, wenn das wirklich ein (für Nvidia) ernstzunehmender Grund gewesen wäre, die Karten waren ja zunächst ohnehin quasi nicht lieferbar. Aber guess what, dann hätte man die Konsumenten-Kuh weitaus weniger intensiv melken können und das kann man den Aktionären gegenüber natürlich nicht verantworten. :rolleyes:
 
Sag doch einfach "ja"; klar, dass das zum gegenwärtigen nur Theorie ist, aber so erweckst du (ungewollt?) den Eindruck des Zweifels.
Ich hab nicht gegoogelt, aber du hast mir doch bestimmt was zur Hand, wodurch man deine Aussage zur Verfügbarkeit (Lauch nicht, demnächst schon) nachvollziehen kann, oder? Danke vorab.
Glaube das wurde auch mal in einem HWluxx Artikel erwähnt, aber hab grad nur den hier gefunden: https://www.computerbase.de/2020-09/gddr6x-grafikspeicher-21-gbps-micron/
Module mit mehr als 1Gb sollen erst dieses Jahr kommen.
 
Glaube das wurde auch mal in einem HWluxx Artikel erwähnt, aber hab grad nur den hier gefunden: https://www.computerbase.de/2020-09/gddr6x-grafikspeicher-21-gbps-micron/
Module mit mehr als 1Gb sollen erst dieses Jahr kommen.
Danke👍
Allerdings erklärt das ja dann nicht schlüssig, weshalb bei der 3090er 24 dieser Chips angebracht wurden (auch im Sinne von: werden konnten) und bei der 3070 nur 8. Es bedurfte hier schlicht keiner doppelt so großen Speicherchips, also ist das imho kein Argument für die knappe Bestückung. Zumal die kleine 70er ja auch noch einen Monat nach der 90er released worden ist. :hmm:
 
Danke👍
Allerdings erklärt das ja dann nicht schlüssig, weshalb bei der 3090er 24 dieser Chips angebracht wurden (auch im Sinne von: werden konnten) und bei der 3070 nur 8. Es bedurfte hier schlicht keiner doppelt so großen Speicherchips, also ist das imho kein Argument für die knappe Bestückung. Zumal die kleine 70er ja auch noch einen Monat nach der 90er released worden ist. :hmm:
Das kann man evtl. am Preis ableiten. Eine 3070 kann man mit 499 UVP (FE) anbieten, eine 3080 mit 699 (FE) und dann kommt die 3090 mit 1499 (114% Aufschlag). Wird schon seinen Grund haben warum man die Preise so staffelt. Vermutlich hat NV aufgrund des Konkurrenzdruckes seitens AMD, sich genötigt gefühlt über die Marge also über den Preis konkurrenzfähig zu bleiben, dafür aber günstiger fertigen zu können und entschied sich deshalb zu solch einer krummen Speicherbestückung über das Portfolio.
Die doppelseitige Bestückung inkl. des großen Interfaces und Stromversorgung und nicht zu vergessen das passende PCB scheinen sehr teuer in der Fertigung zu sein.
Dazu kommt das man wohl bei Ampere im oberen Bereich den teuren GDDR6x Speicher braucht , um die Karten bzw. die Arch ordentlich ausfahren zu können. Man sieht wie knapp der Vorsprung ist, mit nur GDDR6 (nonX) wäre AMD wohl schneller in allen belangen, außer RT.
 
Zuletzt bearbeitet:
Das kann man evtl. am Preis ableiten. Eine 3070 kann man mit 499 UVP (FE) anbieten, eine 3080 mit 699 (FE) und dann kommt die 3090 mit 1499 (114% Aufschlag). Wird schon seinen Grund haben warum man die Preise so staffelt. Vermutlich hat NV aufgrund des Konkurrenzdruckes seitens AMD, sich genötigt gefühlt über die Marge also über den Preis konkurrenzfähig zu bleiben, dafür aber günstiger fertigen zu können und entschied sich deshalb zu solch einer krummen Speicherbestückung über das Portfolio.
Die doppelseitige Bestückung inkl. des großen Interfaces und Stromversorgung und nicht zu vergessen das passende PCB scheinen sehr teuer in der Fertigung zu sein.
Dazu kommt das man wohl bei Ampere im oberen Bereich den teuren GDDR6x Speicher braucht , um die Karten bzw. die Arch ordentlich ausfahren zu können. Man sieht wie knapp der Vorsprung ist, mit nur GDDR6 (nonX) wäre AMD wohl schneller in allen belangen, außer RT.
Danke für die absolut schlüssige Erklärung, auch wenn bei der 3090 zu den erhöhten Materialkosten noch ein dickes Extra an "wir-sind-die-#1 Aufschlag" dabei sein wird - aber das wird wohl auch dem Letzten klar sein :bigok:

Jetzt sind wir genau da, wo ich hinwollte: beim Preis.
Nvidia hat eben gespart in diesem Fall beim VRAM, um konkurrenzfähige Preise anbieten zu können und/oder AMD preislich unter Druck setzen zu können.
Der VRAM liegt bei 8 und 10GB nicht, weil das so super toll ausreichend ist, sondern weil die Höhe der VRAM-Bestückung nicht die oberste Priorität hatte.
Das ist z.B. aus wirtschaftlicher Sicht absolut legitim - aber dann soll sich bitte keiner hinstellen und diese Priorisierung klein reden oder leugnen.
Es macht die 70er und 80er Karten ja nicht zu schlechten Karten, auch wenn das manche aus der roten Fraktion sicher so darstellen mögen - aber sie sind eben nicht so gut wie sie hätten sein können und das ist aus meiner Sicht schade und ein Kritikpunkt.

Und ich bin mir jetzt nicht absolut sicher in wie weit da in den Reviews drauf eingegangen worden ist (da man es kaum bis überhaupt nicht wird messen/belegen können aufgrund fehlender Samples) aber der Punkt Speicher GDDR6x vs GDDR6 ist mir auch aufgefallen. Wenn man berücksichtigt, dass die x-Version sowohl leistungsstärker als auch energiesparender agieren soll (zumindest laut Crucial), wirft das ein nochmals anderes Licht auf die Unterschiede zwischen den beiden Konkurrenten, da Nvidia auch mit den besseren Speichern bei der Leistung je nach Karte wenig/kaum/gar nicht vor und bei der Energieaufnahme sogar hinter AMD liegt.
Wird echt interessant, was die beiden bei der nächsten Generation abliefern.
 
Zuletzt bearbeitet:
Und ich bin mir jetzt nicht absolut sicher in wie weit da in den Reviews drauf eingegangen worden ist (da man es kaum bis überhaupt nicht wird messen/belegen können aufgrund fehlender Samples) aber der Punkt Speicher GDDR6x vs GDDR6 ist mir auch aufgefallen. Wenn man berücksichtigt, dass die x-Version sowohl leistungsstärker als auch energiesparender agieren soll (zumindest laut Crucial), wirft das ein nochmals anderes Licht auf die Unterschiede zwischen den beiden Konkurrenten, da Nvidia auch mit den besseren Speichern bei der Leistung je nach Karte wenig/kaum/gar nicht vor und bei der Energieaufnahme sogar hinter AMD liegt. Wird echt interessant, was die beiden bei der nächsten Generation abliefern.

Mich würde ja der Leistungsunterschied einer 3080 mit 10 GB GDDR6x und einer 3080 mit 16 GB GDDR6 VRAM brennend interessieren. Leider gibt es letztere Karte nicht und so werden wir es nie erfahren. 🤷‍♂️
 
@r0cket : Es wären ja bei gleicher Chipkonfiguration nicht 16GB sondern 20GB GDDR6. Die Desktop-3080 nutzt den GA102 mit einem 384Bit-Speicherinterface, von dem zwei der zwölf 32Bit-Controller deaktiviert, also noch 320Bit in 10 Controllern vorhanden sind. GDDR6X gibt es momentan nur in 1GB-Chips, von denen die 3080 10 nutzt, die 3090 24 (Vorder- und Rückseite). Eine 3080 20GB hätte das (bis auf die Lötstellen für die VRAMs auf der Rückseite mit der 3080 identische) PCB der 3090 benötigt.
GDDR6 gibt es AFAIK mittlerweile auch in 2GB-Chips, aber auch in 1GB-Chips dürfte der Preisvorteil bei 12/16/20/24GB erheblich sein.

Die 3080 mobile nutzt einen vollaktivierten GA104, ist quasi eine bessere 3070 oder das, was mal als 3070Ti hätte kommen sollen. Der Chip hat nur acht Speichercontroller, zusammen 256Bit, es sind also nur 8GB oder 16GB möglich. Die neue 3060 nutzt den GA106 mit nurnoch sechs Controllern, also 192Bit, wodurch nur 6GB oder 12GB möglich sind - bei 6GB hat man schon bei der GTX 1060 in einigen Einstellungen Probleme erzeugen können, bei der RTX 2060 war es noch deutlicher und es wurde deshalb sehr gemeckert, zumal der Preis ja gestiegen war. Daher und weil AMD bei den RX 6800 und durchweg 16GB und wohl bei den RX 6700 durchweg 12GB verbaut, hat NV sich wohl nicht getraut, nochmal nur 6GB zu liefern.

Früher gab es das oft, dass nur einige, teils aber auch fast alle Modelle einer Grafikkartengeneration mit zwei Speichergrößen lieferbar waren. Es gab eben auch immer schon Generationen, wo der Wechsel bevorstand und solche, wo sich eine Größe gerade erst etabliert hat. Zuletzt war das aber nur bei Kepler, also GTX 600 und 700 der Fall. Die GTX 670 und 680 gab es schon recht oft mit 4GB statt 2GB, die GTX 660 und 660Ti aber nur sehr selten mit 3GB statt 2GB (192Bit-Interface, bei 2GB waren 1,5GB voll und 0,5GB nur langsam angebunden), die 760 und 770 gab es dann fast immer mit 2GB und 4GB, die GTX 780 einigermaßen oft sogar mit 6GB statt 3GB. Die 780Ti hingegen gab es der Titan Black zuliebe aber nicht mit 6GB.
Bei Maxwell gab es nurnoch die GTX 960 mit 2GB und 4GB, wobei 2GB damals als eindeutig zu wenig gemessen wurde. Seitdem ist mir keine Nvidia-Desktopkarte mehr bekannt, bei der zwei verschiedene Speichergrößen angeboten wurden, die aktuellen Größen schleppen wir seit Pascal herum, also in der 3. Generation, nur die 3090 und jetzt die 3060 bieten wieder mehr als vorher.

Mich hat es übrigens gewundert, dass Nvidia bei der 3060Ti und 3070 auf GDDR6 mit nur 14Gbps gesetzt hat, nachdem man schon auf der 2080S (und einige wenige Hersteller auf der 2070S) 16Gpbs verwendet hat (betrieben mit 15,5Gbps) und nun AMD das durchgehend bei den RX 6800/6900 macht. Spart man damit auch jetzt noch soviel Geld oder wollte man nicht höher springen als nötig? Erst die 3060 hat wieder 15,5Gbps, die scheint es wohl nötig zu haben.
 
Ich denke die wollte ne Karte rausbringen die attraktiv für Mining ist, um die anderen Karten den Spielern zu überlassen. Beim Gaming ist aktuell noch selbst in 4k ~8GB der Sweetspot, klar in 2-3 Jahren mag es wieder anders aussehen da sind die neuen Karten schon draußen und WQHD ist immer noch annehmbar.

Meine 3080 in UWQHD ist in der Regel bei ~6-7GB auf dem Preset Extreme. Siehe unten:

Rechnen wir mal für 4k mit noch ~1,5 GB dazu, ist man bei runden 8 Gigabyte und man muss dazu sagen Walhalla ist kein genügsamer Titel, Cyberpunk2077 musst sich in ähnliche Sphären bewegen.
Ich rechne eher damit in ~4 Jahren das in 4k 12-16GB notwendig sein wird, wobei abhängig von der Entwicklung so Streaming Technologien wie Sony das für seine PS5 schon einplant hatte durchaus potential haben den notwendigen Cach von großen Texturen in den VRAM klein zu halten, so das "Just-in-Time" zur Verarbeitung nachgelegt wird. Je schneller der Permanente Speicher desto weniger flüchtigen Speicher brauchst du.
 
Zuletzt bearbeitet:
@r0cket : Es wären ja bei gleicher Chipkonfiguration nicht 16GB sondern 20GB GDDR6. Die Desktop-3080 nutzt den GA102 mit einem 384Bit-Speicherinterface, von dem zwei der zwölf 32Bit-Controller deaktiviert, also noch 320Bit in 10 Controllern vorhanden sind. GDDR6X gibt es momentan nur in 1GB-Chips, von denen die 3080 10 nutzt, die 3090 24 (Vorder- und Rückseite). Eine 3080 20GB hätte das (bis auf die Lötstellen für die VRAMs auf der Rückseite mit der 3080 identische) PCB der 3090 benötigt.
GDDR6 gibt es AFAIK mittlerweile auch in 2GB-Chips, aber auch in 1GB-Chips dürfte der Preisvorteil bei 12/16/20/24GB erheblich sein.
Ok, danke für deine Erläuterung. (y)

Mein Beitrag war eher hypothetisch. Ich habe die Annahme vorausgesetzt, dass die Konfiguration identisch ist, bis auf das Speicherinterface und man somit auch eine 3080 mit 16 GB GDDR6 und 256-bit Speicherinterface realisieren könnte. Naja, alles Hirngespinste, wir werden es nie erfahren. :d
 
Mein Beitrag war eher hypothetisch. Ich habe die Annahme vorausgesetzt, dass die Konfiguration identisch ist, bis auf das Speicherinterface und man somit auch eine 3080 mit 16 GB GDDR6 und 256-bit Speicherinterface realisieren könnte. Naja, alles Hirngespinste, wir werden es nie erfahren. :d
Das halte ich eher für ne 3070TI realistisch
 
Es war mal eine 3070Ti mit 16GB gedacht (vermutlich mit GA104-Vollausbau wie 3080 Mobile), es gab sogar schon Produktbezeichnungen von Gigabyte, aber die wurde wohl eingestampft. Dann hieß es 3070Ti mit GA102, quasi eine 3080 mit 58 statt 68SM. Das ist immernoch der aktuelle Stand, nur mit GA103 - man vermutet einen um ein GPC reduzierten GA102, also 72SM in 6 GPC, ausreichend für die 3080 und quasi der Stand des TU102. Mal sehen, ob der Chip direkt nur 320Bit oder 384Bit haben wird und ob er auch für eine effizientere 3080 20GB genutzt wird.

@n3cron : Du kannst an der Speicherauslastung in Spielen genau nichts erkennen. Wenn genug Speicher vorhanden ist, nehmen die sich auch mal mehr und laden nicht oft nach, was aber nicht heisst, dass es bei weniger Probleme gibt. Natürlich kannst Du jetzt sehen, dass auch 8GB gereicht hätten, aber das heisst nicht, dass es mit 6GB unbedingt Probleme gäbe.

Wenn auf CB mit der 2080Ti und 3080 dagegen in 5K und 8K tlw. sichtbar Texturen nachgeladen werden müssen, bei der 3090 aber nicht, dann weiss man, das 10/11GB dafür zu wenig sind.
 
Ab Ende Februar gibt es die 3060 für 319€.

Wäre schön, wenn sie denn auch in ordentlichen Volumen zu haben ist.

nVidia 3060
 
Aber auch nur für 2 Minuten, dann ist die NBB-Seite wieder nicht erreichbar. Zweite Chance zum Kauf sind dann die Customs für 50 Euro weniger, wie die 3060ti Customs.
 
Wenn auf CB mit der 2080Ti und 3080 dagegen in 5K und 8K tlw. sichtbar Texturen nachgeladen werden müssen, bei der 3090 aber nicht, dann weiss man, das 10/11GB dafür zu wenig sind.
Ja und da fängt schon das Problem an, für 5k Würde die 3090 gerade so noch ausreichen, für 8K mit Sicherheit nicht und da würden auch keine 32 GB RAM was ausmachen. Da fehlt einfach die Puste, die Power / Leistung. Man muss unterscheiden zwischen am Programm Inhalte schneiden und erstellen oder Inhalte in Echtzeit"Erzeugen".

Die Speicherauslastung verrät aber eine Tendenz, natürlich muss man zwischen varianten wie Nutze Speicher "effizient" vs "Nutze allen verfügbaren" unterscheiden. Es gibt auch unterschiedliche Ansätze was die Engine und das Spiel angeht. DOOM Eternal läuft auch in 8K mit weit weniger als 16 GB RAM, aber nur weil die Engine und das Szenario anders Programmierbar ist.

Ich nehme mal als Beispiel die RX570 von AMD mit 8 GB GDDR5 Speicher, klar kannst du in WQHD spielen... aber eher alles auf low, zwar mit high rez Texturen aber low rez effekten etc. Klar kannst du auch 4 K Spielen als Diashow. Wohingegen eine 5600XT 6GB sogar mit weniger Speicher mehr FPS kriegt, selbst wenn der Speicher am ende ist (4k).
 
Wenn man sieht wie sich 3 Jahre alte Karten in aktuellen Games auf Ultra schlagen, FPS technisch, dann kann man davon ausgehen dass es in weiteren 3 Jahren genau so ist. Die Anforderungen an Rechenpower und an VRAM steigen weitestgehendst gleichzeitig. D.h. eine Karte die jetzt in Benchmarks ausgeglichen erscheint, wird mit großer Wahrscheinlichkeit auch in einigen Jahren noch genau so ausgeglichen sein. Du kannst die Spiele dann nicht mehr auf Ultra spielen, aber VRAM und Rechenpower werden gleichermaßen das Bottleneck sein. Klar wird es Ausnahmen in beide Richtungen geben, aber unterm Strich würde es nichts bringen wenn man die Karten "einseitig" designt hätte.

Die 12Gb der 3060 sind einfach aus Marketinggründen so geworden.
Dieses Marketing greift aber, deswegen geh ich auch davon aus dass sich dies bewahrheitet:
Aber auch nur für 2 Minuten, dann ist die NBB-Seite wieder nicht erreichbar. Zweite Chance zum Kauf sind dann die Customs für 50 Euro weniger, wie die 3060ti Customs.
 
@DragonTear schauen wir mal erste Tests an. Wenn ich Igorslab Spekulationen lese und er Recht behält mit 25% Abstand zur Ti etwa auf 5700Xt Niveau, dann ist die kleine Einsparung, die der überhitzte Markt übrig lässt es nicht wert 4 GB mehr Vram zu haben. Bei der Preisspanne die ich bei der 3060ti jetzt sehe und wie die weg gekauft werden, würde es mich auch nicht wundern, wenn die anfangs teuer ist, wie die 3060Ti.
 
Kann mir nicht so ganz vorstellen dass NV eine Lücke von 25% zwischen einer Ti und einer Non-Ti lässt, aber wir dürfen gespannt sein.
Aber selbst bei 15% Unterschied in aktuellen Benchmarks würde ich bei 50€ Preisunterschied definitiv zur TI greifen.
 
Ja Rohleistung vs Speicher Masse. Lieber Spiel ich dann nur auf WQHD oder sogar FULL HD und hab spielbare FPS statt Diashow. Ich bleibe bei meiner Vermutung, der große Speicher wurde im Zusammenhang der Nutzung von SAM oder BAR angedacht.

Man weiß nicht genau was in den Nvidia Labs getestet wurde in Bezug auf BAR/SAM. Evtl ist es auch ein Feldversuch für Nvidia zu testen ob man über das Gimmick bei vielen verschiedenen Systemen günstiger Performance bekommen kann.

In Szenarien wo nicht der Perfekte/gute Arbeitsspeicher verwendet wird kann ich mir vorstellen wenn die Gameengine nicht rein Grätscht, das locker auch mal bessere Performance oder smoothere Frame times bei WQHD realisierbar sind. Sicher können wir uns nur sein wenn Benchmarks gelaufen sind.

Ich bin trotzdem gespannt auf Benchmarks. Nur schade das der Otto wohl drauf rein fallen wird und vom Speichervolumen erstmal Erwartungen hat... die sich nicht erfüllen werden können.
 
Ich würde da nicht zuviel rein interpretieren. Das ist einfach nur für die grossen Zahlen im OEM Markt. Damit Aldi nicht stattdessen die 6700 mit 12 GB verbaut.
 
Zuletzt bearbeitet:
Nvidia verbraucht in der Regel grundsätzlich etwas weniger RAM weil die einen Kompressionsalgorithmus verwenden. Wenn man sich einige Benchmarks mit AMD VS Nvidia Karten inklusive Datenwerten anschaut brauchen Nvidia Karten weniger Speicher als AMD Karten (Total RAM usage). Dafür lastet Nvidia die CPU besser aus, bzw mehr Load.
Das sind meine Beobachtungen der letzten Jahre.

Bei der PS5 Sprach Sony auch von einem speziellen Hardwarebasierten Algorithmus der mehr Daten durchpushen kann.
Kann ja sein das Nvidia auch sowas verwendet.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh