Da brauch man Nichts schönreden. Für 95% der Leute werden 8 Kerne noch mindestens die nächstens 5 Jahre reichen. Wer rendert schon, oder bearbeitet Videos? Ja, die restlichen 5%.
MMn musst man sich da schon entscheiden. Entweder du willst TopEnd - dann bitte nicht vorher anfangen Einschränkungen und Tellerränder zu definieren um seinen Standpunkt irgendwo eine Basis zu geben. (von wegen 8C reichen auch) Und ja, für 95% werden 6-8C die nächsten 5 Jahre reichen, dem stimme ich zu. Für die gleichen 95% haben auch auch 2-4C die letzten 5 Jahre spielend gereicht, weil sie nämlich - und das zu einem riesigen Teil heute immernoch, Mobile kaufen und nicht Mainstream Desktop

Die Aussage ist ne Rosine... Reicht ja, funktioniert auch im GPU Umfeld. Warum möchtest du das aber nicht hören oder akzeptieren? Bspw. kannst du einfach ne 5600/5700er Navi oder 1660/2060(S) NV kaufen und aktuelle Titel stressfrei spielen. Genau so wie der 0815 Mainstream User mit seinem 2-4C 15W Prozessor all den ganzen Kram macht, bei dem die Kritiker in den Foren sonst wie viele Cores als Mindestanforderung sehen...
Nur weil nvidia dank des Highend-Monopols abartig absahnen möchte, ist die Mainstream-GPU noch lange keine besondere Hardware - sondern wie gesagt der Vollausbau der Mainstream GPU, ganz egal wie nvidia es vermarktet.
Und dies bedeutet in Hinsicht auf Entwicklungs und Fertigungskosten kein Argument zur Preiserhöhung.
Was macht dich so sicher, dass eine 750mm², das größte Produkt in Sachen Wafer Fläche bisher in diesem Markt, überhaupt eine Mainstream GPU ist? Warum darf es denn deiner Meinung nach nicht der aus dem Profibereich von oben reingebrachte Ableger für die Enthusiasten sein? Deine ganze Aussage basiert darauf, dass das teuerste Produkt überhaupt ja Mainstream sein MUSS - denn das ist die einzige Kritik!? Why?
Von den Die Abmessungen ist 750mm² über 40% mehr als üblich im HighEnd. Die ~545mm² der TU104 sind sogar im Schnitt eher groß zu den sonst für die TopDogs üblichen Die Größen -> GP102 ~471mm², GM200 ~601mm², GK110 ~561mm², GF100/110 ~520mm², G200 in 65nm ~576mm²/G200B in 55nm ~470mm², G80 in 90nm ~484mm².
Wie du erkennen dürftest - das sind die letzten 15 Jahren NV TopDog GPUs -> und bis auf GM200 knackt keine die 600mm² überhaupt. Geschweige denn 700-750mm². Um das weiter auszuführen, bis einschließlich Kepler GK110 gab es nur die eine TopDog GPU. Mit Maxwell hat man einen Graphics only Die mit dem als GP100 erstmals vermarkteten HPC Ableger gepaart. Seit dem gibt es HPC in eigener Linie. FP64 ist damit rausgefallen. Dass da andere Anforderungen abseits Gaming only heute nach wie vor reingemischt werden belegt bspw. das NVLink Interface. SLI ist tod... Daran gibt es nix zu rütteln. Aber es gibt im Profibereich die Anforderung via NVLink und geeigneter Software den VRAM von mehr als einer GPU zu sharen. Macht 96GB bei zwei 8000er Quadros.
Und natürlich spielt es eine maßgebliche Rolle, wie ein Produkt vermarktet wird. Ein Bugatti ist doch auch nicht, nur weil du das vllt gern so hättest, ein Mainstream Massenmarkt Auto...

Komische Ansicht, ehrlich...
Und natürlich bedeutet so ein riesen Die im Hinblick auf Fertigung eine Preiserhöhung... Wer soll das zahlen? Die Ausbeute in diesem Bereich ist auch schlechter als bei nur 250mm² der Navi GPU...
Es gibt da so wunderhübsche Yield-Rechner im Netz. Schau es dir selbst an. Es kommen ca. 30 voll funktionsfähige TU102 bei 300mm Waferfläche raus. Bei mehreren tausend Dollar den Wafer kannst du dir denke ich selbst ausrechnen, was das bedeutet. Vor allem auch, welchen Sinn es hat, zu teildeaktivieren anstatt den Vollausbau zu vermarkten. Und da sprechen wir von den Kosten für den Chip und nichts anderes. Kein PCB, kein Speicher, keine Entwicklung und Forschung, nix RT, nix Software, keine Treiberpflege usw. usf. Auch die Lederjacke fürs nächste Jensen-Event ist nicht dabei...
Ich sag dir noch was - früher hat man einfach Reserve mit eingebaut. Ist in anderen Bereichen auch üblich - Flash Memory bspw. Erhöht die Ausbeute und senkt den pro Stück Preis. Nicht anderes ist eine teildeaktivierte GPU...
Aber 1200-1300,- für die Highend Graka ist schon echt fett, dafür bekommt man dann wahrscheinlich 2,5x ne PS5 oder XBox, quasi einen kompletten Rechner, mit ner Graka in der Leistungklasse 500,-.
Die Entwicklungskosten werden umverlegt klar, aber was bekomme ich dafür, Leistung die nicht einmal für die derzeitigen Game´s in 4K reichen, siehe 2800TI.
Ja, fett ist das natürlich. Ich hoffe, dass ich sowas nicht immer dazuschreiben muss, ich emfinde die Preise generell als sehr hoch, in vielen Bereichen mittlerweile. Aber das ist halt der aktuelle Trend. Da kann man gegen schimpfen, wie man möchte. Es wird alles teurer und da oben, im eigentlich sogar eher unnützen Bereich noch viel mehr. Vllt könnte NV auch für 10-20% weniger. Vllt auch mehr. Aber ob sich das dann rechnet, ist eine andere Thematik.
Nimm dir mal die Die Size der Navi 10 GPU und rechne den Preis der günstigen 5700XT gegen die Die Size - und das gleiche machst du mal bei der 2070S mit deren Die Size und dem Preis... Ergebnis -> die Navi 10 hat pro mm² ca. 70% mehr "Preis" auf der Uhr stehen. Das deckt sich annähernd mit der Aussage von AMD zu Release der Zen2 CPU von wegen, 7nm kostet in Form von yielded mm² ca. Faktor 2 -> heute ist das sicher etwas weniger als Herbst 2019. Aber man erkennt sehr schön, das ist bei weitem nicht ausschließlich Willkür... Und wenn man dann die Die Size maximiert/maximieren muss, die Yields sinken, der Prozess-Fortschritt allgemein immer langsamer und dazu noch immer teurer wird usw. -> es kommt eins zum anderen...
Kann ich dir sagen, ich verdiene nicht das doppelte.... 😂

.Das hab ich aber auch schon meinen Chef´s gesagt, jede Sekunde die ich länger bleiben soll mach ich Nasse, hab ich ihm auch vorgerechnet^^.
Und was sagt er?
So einen Joker kann man schon mal ziehen... Je nachdem, welchen Standpunkt man im Unternehmen hat, zieht das sogar
