Vage Informationen zu neuen GeForce-Karten machen die Runde

Wie ihr auf die 40% kommt ist mir auch nicht klar, hier in der News in der Tabelle steht doch 100% ggü. 2080ti, was overhelming wäre, oder lese ich das falsch?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nur wird Nvidia die sinkenden Produktionskosten vermutlich nicht an den Endkunden weitergeben. Warum auch, wenn die Konkurrenz nicht stark genug ist. Wobei die 5700XT sicher nicht verkehrt ist, wenn denn die Treiber gescheit oder überhaupt funktionieren würden. Ich habe meine Sapphire zurückgeschickt und warte auf Ampere. Eine AMD Karte kommt mir so schnell nicht mehr ins Haus.
Was führt dich zu der Annahme ? Gerade die Radeon Experience die du hattest war sicherlich vielen auch eine Lehre ;D.
Figuren die du auch hier wieder findest haben mal gar keine Relevanz oder Ahnung, die halten das GUI für ihren Treiber. Die Nvidia Nutzer die natürlich auch den Preis beäugen bemerkt man meist nicht so stark.

Jensen und co. werden sich die Zahlen ansehen, und dann abwägen.
Ich sehe ziemlich viele Informationshäppchen die mich eher positiv stimmen abgesehen von Corona.
2 Fertiger, deutlich weniger Chipfläche, kein überstürzter Release, den Konsolen Konkurrenz machen etc.pp.
Evtl. gibt es ne Extrawurst wie in der News angeklungen und der Spieler bekommt komplett Samsung, obwohl Jensen persönlich meinte die Masse würde von TSMC kommen.
Fakt ist aber auch Qualität kostet, denke schon das RTX Ding wird weiter einschlagen und ne Preis Stagnation wäre schon gerechtfertigt je nach Leistungssteigerung.

Wie ihr auf die 40% kommt ist mir auch nicht klar, hier in der News in der Tabelle steht doch 100% ggü. 2080ti, was overhelming wäre, oder lese ich das falsch?
Das kommt wahrscheinlich durch die Theorie vom Umbau der Shadercluster und den FP32-Einheiten, dadürch könnte man speziell fürs 3D Rendering enorme Steigerungen erzielen, ginge aber entgegen dem was Nvidia bisher immer gemacht hat dem reduzieren bzw. gleich behalten der Shadereinheiten pro Shadercluster.
 
Was führt dich zu der Annahme ? Gerade die Radeon Experience die du hattest war sicherlich vielen auch eine Lehre ;D.
Figuren die du auch hier wieder findest haben mal gar keine Relevanz oder Ahnung, die halten das GUI für ihren Treiber. Die Nvidia Nutzer die natürlich auch den Preis beäugen bemerkt man meist nicht so stark.

Jensen und co. werden sich die Zahlen ansehen, und dann abwägen.
Ich sehe ziemlich viele Informationshäppchen die mich eher positiv stimmen abgesehen von Corona.
2 Fertiger, deutlich weniger Chipfläche, kein überstürzter Release, den Konsolen Konkurrenz machen etc.pp.
Evtl. gibt es ne Extrawurst wie in der News angeklungen und der Spieler bekommt komplett Samsung, obwohl Jensen persönlich meinte die Masse würde von TSMC kommen.
Fakt ist aber auch Qualität kostet, denke schon das RTX Ding wird weiter einschlagen und ne Preis Stagnation wäre schon gerechtfertigt je nach Leistungssteigerung.

Naja, hat den Nvidia in den letzten Jahren großartig die Preise gesenkt? Eigentlich nicht, wobei man sagen muss, dass die Preise ja im Allgemeinen für Hardware ein wenig gestiegen sind.
 
Meh, diese Zuwächse hauen einen jetzt nicht mehr vom Hocker, wenn es vorher noch 75% Leistungssteigerung hieß (egal als wie realistisch man das betrachten möchte).

Oktober oder Q4 2020 klingt aber schon mal super mies, ich wollte eigentlich zum Sommer eine neue GPU besorgen, wenn denn der Preis annehmbar ist. Das Preislevel der aktuellen RTX Karten ist nach wie vor eine Frechheit und die Stabilität der Preise der RTX Karten ist auch einfach nur dreist.
Vielleicht gibt es die Karten dann im Bundle mit Cyberpunk 2077.
Ich find es spannend hoffe allerdings auch das es mehr wie 12GB werden zur Not das NV doch HBM verbaut 16 GB bei der Ti.
Erfahrung hat NV da ja auch schon gesammelt.
Auch bei Big Navi hoffe ich auf min 16GB.
Das es Preislich geht hat msn ja mit der Radeon 7 bewiesen mit um die 750 Euro .
Warum sollte NV das nicht auch für 1250- bis 1500 machen können.
Weil 22-24 GB GDDR 6 wäre bestimmt auch nicht günstiger.
Ich lehne mich erstmal mit meiner 2080Ti zurück und schau mir an was die zwei Parteien da abliefern.


Wen die PS5 und Co.schon 16 GB kommen sollen will ich mich beim PC nicht mit weniger abgeben.
 
Zuletzt bearbeitet:
Wie ihr auf die 40% kommt ist mir auch nicht klar, hier in der News in der Tabelle steht doch 100% ggü. 2080ti, was overhelming wäre, oder lese ich das falsch?

Tust du jetzt nur wieder so, als verstehst du das nicht? Für den Postcounter?
Jedem, absolut Jedem ist klar, dass die 100% die Basis sind. Und 140% eine Steigerung von 40% macht... :stupid:
 
Informationen wie eimmal in der Nase poppeln und irgendwas herauskamen^^
Sieht für mich enttäuschend aus, traue ich aber deshalb der grünen Unternehmensführung umso mehr zu, als die unglaubwürdigen Gerüchteschnippsel der letzen Wochen von "6000+ cuda-Kerne samt 16 GB vram für ga102 für nur 1000 €".
Zu Weihnachten werden dann wieder die Gänse ausgenommen :xmas:
 
Naja wer auch immer KittyCorgi ist, der wird danach bewertet wie oft er richtig liegt bei dem was er postet. Besser als Fäkal-Humor.

Von Preisen war da auch nicht die Rede, sondern von HPC und. Quadros die in Benchmarkarchiven Aufgrund ihrer merkwürdigen Hardware-Specs gefunden wurden, die Quadro Endstufe konnte dann in etwa so aussehen; https://www.techpowerup.com/gpu-specs/quadro-rtx-8200.c3504
Wenn man die Rechenschablone auspackt und Samsung evlt. doch mittels 8LPP-Prozess einbezieht wäre eine 3080ti für 1000€ denkbar, was sollte daran unglaubwürdig sein.

Vielleicht gibt es die Karten dann im Bundle mit Cyberpunk 2077.
Ich find es spannend hoffe allerdings auch das es mehr wie 12GB werden zur Not das NV doch HBM verbaut 16 GB bei der Ti.
Erfahrung hat NV da ja auch schon gesammelt.
Auch bei Big Navi hoffe ich auf min 16GB.
Das es Preislich geht hat msn ja mit der Radeon 7 bewiesen mit um die 750 Euro .
Warum sollte NV das nicht auch für 1250- bis 1500 machen können.
Weil 22-24 GB GDDR 6 wäre bestimmt auch nicht günstiger.
Ich lehne mich erstmal mit meiner 2080Ti zurück und schau mir an was die zwei Parteien da abliefern.


Wen die PS5 und Co.schon 16 GB kommen sollen will ich mich beim PC nicht mit weniger abgeben.
[/URL]
Eben weil sie wissen das es keinen Mehrwert hat, bringen sie Quadro, GeForce und Titan mit GDDR6. Preislich war die R7 ebenfalls ein Flop, die hat gar nix bewiesen.

Die Konsolen sind am Tag des Release eigentlich schon veraltet, die Deals sind so stark ausgetüftelt die bringen das nur wenn es in irgendeiner Form Sinn macht.
Kann ich bei HBM überhaupt nicht erkennen, außer man hat ein Platinenlayout der die zusätzlichen Produktionskosten in dieser Menge(Gewaltige Menge) deckt durch deutlich höhere Performance oder bessere Kühlungsmöglichkeit.

Hier https://www.merkur.de/leben/games/p...-gen-geruechte-xbox-series-x-zr-13593420.html hat die PS5 aber
GDDR6 kein HBM.
Sony darf auf keinen Fall die Konsole zu teuer machen ohne wirklichen Sinn, und HBM klingt zwar interessant ist aber für das klassische 3D-Rendering von Spielen schlicht nicht nötig.
 
Und wo sollen die 16GB her kommen?
Gilt auch für AMD?
Entweder AMD baut da ein HBM Interface dran, dann wird das wieder ne recht teure Nummer, davon darf man ausgehen, dann wären 16GB auch möglich, oder sie orientieren sich an 384Bit mit 12 oder 24GB auf GDDR6 irgendwas Basis.
NV wird mMn genau so wenig wie AMD ein 512Bit SI verbauen,

Warum kein 512Bit si? Hat AMD doch schon recht oft gemacht? Und das dann auch recht gut umgesetzt? 290er ,390er ,Pro Duo, 6990, 5970
 
Alle von Dir erwähnten Karten waren das Geld nicht wert :shot:
HD5970 und HD6990 nur 2x 256Bit, nix 512Bit :p
 
Sollten es wirklich "nur" 10nm werden, könnte Big Navi sehr gefährlich werden.
Hoffen wir es mal, das drückt die Preise.
 
Warum kein 512Bit si? Hat AMD doch schon recht oft gemacht? Und das dann auch recht gut umgesetzt? 290er ,390er ,Pro Duo, 6990, 5970

Die Dual GPU Karten haben kein 512Bit SI, sondern sind nur 256Bit, eben nebeneinander.
Die einzige GPU mit 512Bit SI ist die R600 aka HD2900XT (und Pro? Weiß nicht mehr genau) und die Hawaii GPU, was die 290 und 390 einschließt.
Bei NV war es G200(B) und Fermi GF100/GF110. Thats it.

Warum kein 512Bit? Auch klar zu benennen, es ist teuer, macht das PCB unnötig komplex, das was Strom kostet beim RAM ist das Interface - der Verbrauch steigt also unnötig, Bandbreite gibts auch mit 384Bit höchstwahrscheinlich genug usw.
Es gibt effektiv keinen Grund auf 512Bit zu gehen - nur weil irgendwo in den Foren wer nach 16GB oder so verlangt ist definitiv kein Grund ;)
 
@Infi88
Also ich habe absolut nix verstanden:unsure:
HBM bei Konsole ???
Ich meinte nur es stehen jetzt seit Wochen die zahl 16GB Ram für die GPU der PS5 im Raum .
Und das ich mit 12Gb dann garnicht erst anfangen wollen würde beim Pc .
 
@Infi88
Also ich habe absolut nix verstanden:unsure:
HBM bei Konsole ???
Ja klar (y), wurde wegen AMD Hardware sehr lange gemunkelt, da haben sich die Leute immer in die Hosen gemacht, treibt natürlich den Preis nach oben für die Konsole.
Ich glaube zu 100% ist es auch bei der PS5 zumindest noch nicht sicher, es ist immer nur von "13GB für die Entwickler die Rede" das kennt man ja.
Komplett ausschließen kann man HBM aber immer noch nicht soweit ich weiß, aber es bringt halt auch nicht wirklich etwas beim reinen Gaming das wollte ich damit sagen.

Sollten es wirklich "nur" 10nm werden, könnte Big Navi sehr gefährlich werden.
Hoffen wir es mal, das drückt die Preise.
Nein, https://en.wikichip.org/w/images/5/5c/7nm_densities.svg

Dort sieht man auch die starke Transistordichte der 10nm Node Intel's und was AMD erwarten wird sollte Intel bei 7 landen nach langer Fahrt auf See :rolleyes2:.

Der 8LLP(ohne EUV) seitens Samsung gilt als sehr ausgereift und wird wahrscheinlich mit dem 7nm(ohne EUV) in Transistordichte von TSMC in etwa gleich sein. Die Chips sind in Masse aber zu teuer(Samsung gilt als Edelfabrikant für Drittanbieter muss man wissen) und Jensen hat schon bestätigt das TSMC den Hauptanteil stellen wird.
Da bleibt nur "Entry" was sehr wahrscheinlich ist weil man das schon mal gemacht hat mit Samsung, oder eine kleine High-End Serie wenn die Node mit dem GPU Design gut gefruchtet hat.

Und warum sollte Big Navi die Preise drücken, man weiß nicht viel, aber das wird kein Sparbrötchen Chip. High End Ware kann den Preis meist auch nicht drücken, liegt in der Natur der Sache.
 
Diese Information ist mittlerweile fast überall, aber mittlerweile muss man fast davon ausgehen, dass die Quelle, so sie von ComputerBase nicht auch zitiert wird, nicht unbedingt sonderlich glaubwürdig ist. Die Jungs dort sind in jüngerer Zeit dazu übergegangen, nur noch Nachrichten zu veröffentlichen, die sie selbst für zutreffend halten oder sogar bestätigen können und haben mit dieser Politik seitdem ein ums andere Mal recht behalten, was die Bewertung von Wahrheitsgehalten angeht.

Aber gut, eventuell müssen wir ja nicht mehr lange auf eine Ankündigung warten, wer weiß, was Lederjacke am 23.3. so alles thematisiert. Schade ist lediglich, dass, selbst wenn ein Release im Sommer erfolgen sollte, eine gute Verfügbarkeit im Zuge der Corona-Krise wohl nicht so bald gewährleistet wäre - noch höhere Preise als ohnehin zu erwarten wären inklusive.
 
Also ich werde definitiv upgraden, da mir die 2080Ti ab und an doch etwas langsam ist (in 4k), daher freue ich mich auf die neuen Nvidia Karten :). Aber erstmal Tests abwarten und auch darauf, was AMD bringen wird, auch wenn ich nicht glaube, dass sie mit den Nvidia Karten gleichziehen werden/können/wollen.
 
werden / können / wollen / müssen sie auch nicht. Das verstehen viele immer noch nicht.
Es reicht völlig Karten zu verkaufen die in der entsprechenden Preisklasse gekauft werden.
 
Sicherlich, jedoch hätte ich gern mehr Auswahl und nicht immer nur Jahr für Jahr Ti oder Titan Karten, wenn man eben die max. Performance sucht.
 
Das geht denke ich einigen Usern so. Hatte mal auf Juli gehofft aber naja..
 
Ohne mir jetzt hier allzuviele Kommentare durchgelesen zu haben: Die Daten halte ich für absoluten Blödsinn. Die spukten schon vor zwei Monaten genau so durch die Gegend und waren da genauso unsinnig.

Erstmal halte ich es schon für abwegig, dass ein GA104 nur genausoviele Shader wie ein TU104 haben soll. Das gab es nämlich bei Nvidia noch nie. Selbst bei gleichem Fertigungsprozeß hat man es hingekriegt, durch Umstellung des SMX-Aufbaus von Kepler zu Turing mehr Shader zu bieten (seit Kepler sind beim xxx04er-Chip immer 512 Shader dazugekommen). Wenn man das schon ohne neuen Fertigungsprozeß hinkriegt, sollte man es mit erst recht. V.a. angesichts der im HPC-Bereich anscheinend massiv erhöhten Shaderzahl.

Der GA102 entspricht einfach dem 1,75-Fachen des GA104, was bisher seit Maxwell immer nur das 1,5-Fache war. Hier hat man aber einfach die ebenfalls seit Maxwell stets dazugekommenen 768 Shader beim Topmodell genommen.

Dann glaube ich auch nicht an einen GA103 zwischen GA104 und 102, der mit nur 768 Shadern mehr als der GA104, also nur 1/3 der Distanz zum GA102, und nur 64Bit beim SI ein viel zu kleiner Zwischenschritt wäre und v.a. beim Speicher eine weitere unnötige Zwischenstufe schaffen würde.

Ein GA106 mit exakt den Daten, die der stark kastrierte TU106 auf der RTX 2060 hat, klingt auch nicht plausibel. WENN es drei Chips darüber gäbe, dann wäre das vielleicht noch ok, aber eine RTX 3060 kann nicht die gleichen Daten wie die RTX 2060 haben, also müsste der GA106 noch darunter angesiedelt sein.

Alles sehr unplausibel.

EDIT: @fdsonne : Ja, die HD2900 Pro gab es auch mit 512Bit-SI, aber AFAIR nicht alle, da gab es ja beim Speicher sehr viel Varianten, 512MB und 1GB, GDDR3 und GDDR4 und eben 256Bit und 512Bit.
Bei Nvidia hatte AFAIK nur der G200(b) ein 512Bit-SI, davor der G80 und alle großen GPUs danach nur 384Bit.
Der Grund dürfte simpel sein, es frisst sehr viel Chipfläche, zwingt zu unnötig großen Speichermengen, ist oft nicht nötig bzw. kann nicht 1:1 in Mehrleistung umgesetzt werden und die Speichertaktraten sind in den letzten Jahren ziemlich regelmäßig deutlich hoch gegangen seit GDDR5 bzw. es gibt mit HBM eine gute Highend-Alternative.
 
Zuletzt bearbeitet:
EDIT: @fdsonne : Ja, die HD2900 Pro gab es auch mit 512Bit-SI, aber AFAIR nicht alle, da gab es ja beim Speicher sehr viel Varianten, 512MB und 1GB, GDDR3 und GDDR4 und eben 256Bit und 512Bit.
Bei Nvidia hatte AFAIK nur der G200(b) ein 512Bit-SI, davor der G80 und alle großen GPUs danach nur 384Bit.
Du hast absolut recht, kein Plan wie ich auf Fermi kam... 1,5GB, nix 512Bit. Keine Ahnung :fresse:
 
@ SHICE

EXAKT, deshalb können se die auch GETROST behalten...
 
 
Klingt nach einer perfekten Zeit den Verkaufswert meiner Grafikkarte zu steigern. Wer jetzt noch aufrüsten will sollte es schnell tun, denn bald sind auch die Onlineläden zu und bis dahin werden die Preise steigen.
 
Nach den Specs/Präsentationen der neuen Xbox und Playstation, würde ich, wenn ich Nvidia wäre, mir etwas Sorgen machen.

Und genau das sehen wir gerade, Corona spielt da sicher auch eine Rolle, aber nicht die Primäre.

Ich freu mich auf Q4/2020 bzw. Q1/2021, hoffentlich wieder mehr Leistung für weniger Geld.
 
Häää? Was sehen wir denn gerade?
Nen abgesagten Livestream, wo offenbar ein HPC Produkt vorgestellt hätte werden sollen... Spekuliert auf 8k ALUs und riesig groß.
Kein Plan was das in irgend einer Weise mit der PS5 oder XBox zu tun haben soll oder wo man da irgendwelche Rückschlüsse hätte ziehen können?

Das einzige, was mMn wirklich aus den bisherigen Daten mit zunehmen geht ist, dass Sony diesmal den kürzeren ggü. Microsoft gezogen hat. Das Argument, dass man weniger breite GPUs besser auslasten kann ggü. breiteren und auch das mit dem Takt ist zwar mehr oder weniger Schlüssig, aber ob das im Ernstfall 20% ausmacht und wie das genaue Hardware Backend aufgebaut ist, ist ja nach wie vor nicht 100% fix.

In wie weit man aus den angegebenen Taktraten was in Richtung dGPUs ableiten kann ist auch fraglich. Um die 2GHz waren realistisch. Sind es jetzt halt 10% mehr. Das macht keinen Kohl wirklich fett.
Was NV allerdings angeht, hier ist mal so überhaupt nichts klar. Es gibt Gerüchte, die nach wie vor 50:50 eine Ente sein können, wäre nicht das erste mal (G80 *hust*)
Genaus so könnte sich die Polaris/Pascal Geschichte widerholen - wo im Vorfeld große Ankündigungen und Infos gestreut wurden und in den Foren NVs Abgesang gesungen wurde, weil da ja gar nix an Infos kam. Wie es aus ging, wissen wir alle.
Vllt patzt NV aber diesmal auch, wenn auch ich das für unwahrscheinlich halte. Die Position ist so ultra komfortabel, da muss schon viel passieren das zu verspielen...


Eine RDNA2 GPU, die 50% effizienter zu Navi mit RDNA1 ist, ist mMn erstmal dort, wo man eigentlich eine 7nm GPU erwarten sollte. Nämlich um die 50% über dem von der Effizienz, was eine NV im alten 12/16nm Prozess zeigte.
 
Nach den Specs/Präsentationen der neuen Xbox und Playstation, würde ich, wenn ich Nvidia wäre, mir etwas Sorgen machen.
Das durften wir auch bei Präsentation der XBO und PS4-Daten lesen.
Genauso las man damals dass die PC-Spiele in Zukunft besser für AMD optimiert werden weil die Konsolen....usw...
 
Es geht eigentlich nur darum, dass in den Konsolen eine APU werkelt, deren Grafikeinheit doch recht potent bei relativ wenig Stromverbrauch (da APU in einer Konsole) ist.

Eigentlich ganz einfach oder? ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh