NVIDIA verrät weitere Details zu Pascal-GPUs

eigentlich haben GPUs heutzutage eh weit mehr als nur 2 Cores.
mit HyperTransport hat das alles aber auch nichts zutun, jedenfalls ergibt das in dem zusammenhang genau 0 sinn.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
GTX980-Niveau mit 80W TDP? Das wäre ein Traum! Oder sowas wie eine 15 W Intel-CPU mit nVidia IGP auf GTX960-Niveau :d
 
NV braucht zeitnah wohl eine neue HighEnd GPU für den HPC Bereich... Intel zieht nach und AMD ist mit Hawaii schon effizienter unterwegs. Der GK210 stinkt dagegen schon ziemlich ab. GM200 ist nicht DP tauglich...
Also wird es wohl so laufen, dass der große Pascal wieder als HighEnd Chip für den Profimarkt kommt, dort als Tesla/Quadro für schweine teuer Geld zu erstehen geht und mit größter Warscheinlichkeit auch NVLink beherscht.
Das heist, sollte sich NV dazu entschließen, diesen GP100 oder wie man ihn nennen wird, als GTX irgendwas oder Titan irgendwas im "Mainstream HighEnd" zu bringen, dann KANN der Chip definitiv NVLink. Bestenfalls wird man die DP Performance für die nicht Titan Version wieder einkürzen wie üblich. Die Titan Version kann es dann wieder in vollem Speed mit vollem RAM.

Was halt völlig unklar ist, ob NV eine Dual GPU Karte auf Basis des großen Pascal bringen kann und wird? Warscheinlicher, weil viel einfacher zu bauen ist wohl eher, dass man zu Anfang erstmal nen Dual GP104 baut. Dank der wohl deutlich besseren Fertigung zu heute mit den 28nm und der sicher deutlich gesteigerten Energieeffizienz wäre sicher ein GP104 dazu in der Lage, einen vollen GM200 in die zweite Reihe zu verweisen. Im Doppelpack gibt so ein Konstrukt also auch entsprechend viel Power. Ob der GP104 auch NVLink bekommen wird, ist aber fraglich... Das ist eher Profimarkt und in den Bereichen gehts idR um DP Power anstatt um SP Power. GP104 wird wohl keine DP Power haben, analog allen anderen Performanceklasse GPUs davor.



Der PLX Chip (oder eine Alternative dazu) wird so oder so notwendig sein, oder wie soll man sonst zwei GPUs über PCIe in einem PCIe Slot betreiben?
Mit NVLink hat das alles überhaupt nix zu tun. Die alles entscheidende Frage ist, baut NV im Profi/HPC Markt eine eigene GPU ausschließlich für diesen Markt oder nicht? Bis dato hat NV dies nicht getätigt... Es gibt/gab nur den GK210 als quasi GK110 "Refresh" dediziert im Profimarkt. Das war aber keineswegs was neues, sondern bestenfalls eine leichte Überarbeitung.
Ebenso verbaute/nutzte man idR die dicken Profimarkt GPUs für HighEnd Gamerkarten... Es spricht nicht viel dafür, warum man das mit Pascal anders machen sollte. Was im Umkehrschluss bedeutet, die große Pascal GPU wird ziemlich sicher NVLink beherschen. Zusätzlich wird das Teil ziemlich sicher ein PCIe Interface haben. Ob man allerdings beides nutzen kann (Dual GPU Karte), wird sich rausstellen müssen.

Aber ich glaube ihr habt auch ne falsche Vorstellung, was NVLink da überhaupt bringen kann??
Wozu sollte man das brauchen? Das wird bestenfalls mit DX12 interessant und auch dann nur, wenn sich SFR flächendeckend durchsetzen wird. Mit DX11 wird man weiterhin auf AFR gehen. Ob da nun deutlich mehr Bandbreite zwischen den GPUs ist oder nicht? Ist doch völlig hupe. AFR nutzt weiterhin den Speicher beider GPUs für den gespiegelten Dateninhalt usw.
Zumal ich auch die Euphorie dahingehend wenig nachvollziehen kann. Was will man denn (überspitzt gesagt) mit 80GB/sec auf dem Papier zwischen den GPUs, wenn die Speicherzugriffe auf den lokalen HBM Speicher mit 1000GB/sec geht und dazu sicher eine viel geringere Latenz aufweist?
Mit 80GB/sec wäre man zwar näher im Verhältnis zur heutigen VRAM/PCIe Bandbreite dran, aber auch nur um den Faktor 2x. Heute gibts um die 350GB/sec VRAM Bandbreite bei 16GB/sec PCIe Durchsatz (+1GB/sec SLI Brücke). Und morgen dann 1000GB/sec VRAM Bandbreite bei 80GB/sec NVLink Durchsatz. Das eine ist 1/21tel, das andere nunmehr 1/12tel. Beide Fälle im Vergleich aber viel zu langsam für dauerhaft dedizierte VRAM Zugriffe GPU übergreifend!



Da wäre ich mir gar nicht mal so sicher. Denn mit HBM "Generation 2" ist es doch möglich, mit den größen schön zu skalieren. Technisch wäre doch sogar ein 1 oder 2 Stack HBM Ausbau möglich. Sprich halbe Bandbreite und halbe Größe. Selbst eine 1 Stack Version mit doppelter Größe zu den 4GB wäre doch technisch drin. (wenn man bis 32GB mit vier Stacks gehen will/kann)
Das ist dann unterm Strich mit ziemlicher Warscheinlichkeit auch deutlich günstiger als die vollen vier Stacks zu verbauen in entsprechender Größe. Denn der reine Speicher und das "SI" an der GPU dürften so viel nicht kosten. Teuer ist doch eher der Interposer und das ganze noch zu verheiraten...

Wie wir aber NV kennen, werden die keineswegs zu viel machen, wenn man es nicht unbedingt muss. Selbst mit halber Bandbreite von HBM hätte man mehr als genug Bumms zwischen VRAM und GPU für ne neue Mittel/Performanceklasse. Ein viertel davon wäre da schon viel eher warscheinlich/realistisch.
Ob ein GP104 mit nem 256Bit GDDR5(X) Interface auskommt, muss sich rausstellen. Die Fertigung lässt ziemlich sicher ALU Anzahlen von 3072 oder mehr zu, ohne dass die Chipfläche explodiert. Auch in der Energieeffizienz dürfte sich das Teil eher bei GM204 einfinden.

Einwand A) Es wird doch nicht jedes mal der komplette VRAM von GPU1 nach GPU0 kopiert. Dein Vergleich hinkt derbe.
B) Sage ich dass eine direkte Verbindung zwischen zwei GPUs auf einem PCB mit NVLink was bringt wenn Latenzen entsprechend gering sind. Was willst du da jetzt über PCIE senden? Da kommen nur Daten wie Drawcalls von der CPU an GPU0 an bzw. gehen ab. Dafür reicht es dicke.
C) Das gesamte Konzept im Performance-Markt mit HBM2 wäre finanziell nicht tragbar. Noch nicht. HBM kostet pro GB mehr, der Interposer und das balling von den dreien ist zeit- und kostenintensiv. Wo willst du jetzt die Marge hernehmen um die Renditeerwartungen zu erfüllen? ROI ist doch das A und O für mich als Investor. Was da jetzt im einzelnen nicht viel mehr kostet ist irrelevant. Das Gesamte muss betrachtet werden (auch R&D).

NVLink wird nicht im Desktop kommen (wahrscheinlich wird es nicht mal eine Dual-GPU geben) und HBM2 wird man nicht auf Performance-Chips sehen. Damit meine ich die Ablösung für GTX 970/980. Glaubt was ihr wollt. Wir reden weiter wenn Release ist. :P

Edit: 2012 habe ich im Gespräch mit einem Ingi erfahren dass zukünftig die Schere (Produktdifferenzierung) zwischen Geforce und Tesla immer größer werden wird, da beide Märkte sich immer unterschiedlicher entwickeln würden und HPC ausserdem immer mehr Umsatzanteile aufbaut. Also wird mit Pascal wohl der erste Schritt dahin getan. Später könnte man sich z.B. die komplette Display-Engine ersparen und noch einiges mehr. Das RTOS z.B. erweitern..
 
Zuletzt bearbeitet:
Es gibt doch genug Blöde, die Grafikkarten zum Zocken für über 700€ kaufen :P

Mit der Abkapselung der aktuellen HighEnd-Reihen durch eigene Namensgebung haben AMD und NVIDIA doch bereits ein eigenes Marktsegment für absurd überteuerte Spieledarsteller kreiert und die bieten bisher noch nicht einmal allzu große praktische Vorteile.
 
Zuletzt bearbeitet:
Es wäre auch mal schön, wen nVidia die "großen" gleich zu beginn releasend würde und nicht wieder erst die "midrange"-Teile.

No, lieber die Teile fürs gemeine Volk. Ich möchte eine neue GTX 960 oder 970 sehen. Vorzugsweise für UHD optimiert.
 
Bei den Big Chips kann ich mir das vorstellen zu Pascal aber bei den kleinen ehr WQHD die 980TI bei mir qäult sich schon ordentlich @4K.
Gute 100% Mehrleistung +OC könnte ich gebrauchen für 60FPS min.
 
Zuletzt bearbeitet:
ich bin laie - aber wenn amd auf 14nm geht und nvidia auf 16 - müsste amd dann nicht die basis haben für deutlich leistungsfähigere und energieeffizientere karten?
 
so viel unterschied ist da nicht, die angaben sind nur noch reines marketing.
 
Selbst BIG-Pascal wird für 4K nicht für durchgehend 50+ fps langen, dies sollte wohl erst der Pascal Refresh in etwa schaffen und dies wird wohl Mitte 2017 werden!
 
Einwand A) Es wird doch nicht jedes mal der komplette VRAM von GPU1 nach GPU0 kopiert. Dein Vergleich hinkt derbe.
B) Sage ich dass eine direkte Verbindung zwischen zwei GPUs auf einem PCB mit NVLink was bringt wenn Latenzen entsprechend gering sind. Was willst du da jetzt über PCIE senden? Da kommen nur Daten wie Drawcalls von der CPU an GPU0 an bzw. gehen ab. Dafür reicht es dicke.
C) Das gesamte Konzept im Performance-Markt mit HBM2 wäre finanziell nicht tragbar. Noch nicht. HBM kostet pro GB mehr, der Interposer und das balling von den dreien ist zeit- und kostenintensiv. Wo willst du jetzt die Marge hernehmen um die Renditeerwartungen zu erfüllen? ROI ist doch das A und O für mich als Investor. Was da jetzt im einzelnen nicht viel mehr kostet ist irrelevant. Das Gesamte muss betrachtet werden (auch R&D).

Wieso hinkt der Vergleich? Auch wenn ich nicht genau weis, auf welchen Teil du dich beziehst, wenn du den kompletten Text quotest?
Aber von kompletten VRAM von GPU1 nach 0 usw. muss man dabei doch überhaupt nicht ausgehen. Es geht doch viel eher bei der Thematik um Zugriffe... Entweder du sharest den VRAM oder nicht. Nicht geteilt wird bei AFR. Da hat jede GPU ihren eigenen VRAM und jede GPU hortet quasi alle Daten um schnellen RAM Zugriff zu haben. Bricht man das nun auf, dann entstehen querzugriffe zwischen den VRAM Pools der GPUs und jeweils anderen GPUs im Verbund. Der einzige Sinn einer extrem schnellen Verbindung zwischen zwei GPUs KANN nur darin bestehen, den VRAM zu sharen. Denn der VRAM Zugriff ist der einzige Zugriff auf etwas außerhalb der eigentlichen GPU, was überhaupt ansatzweise Bedarf an Bandbreite hat.
Also ein Pool für mehrere GPUs und jede GPU bedient sich... Nur muss dann folglich auch die Bandbreite entsprechend hoch sein, sonst rennst du extrem ins Bandbreitenlimit. Wenn die lokale Bandbreite zwischen GPU und VRAM aber bei 1TB/sec liegt und der GPU Interconnect bei 80GB/sec ist das einfach mal drastisch viel weniger. Es ist mehr wie heute im Vergleich die PCIe Bandbreite zum VRAM, aber eben nicht so viel mehr, dass man damit direkte VRAM Zugriffe ermöglichen würde... Also löst man das weiterhin mit AFR und der Datendopplung -> nur dann ohne Sinn einer schnelleren Verbindung zwischen den GPUs.
Welchen Sinn hätte es, wenn so oder so alle Daten im lokalen HBM Speicher der GPU schweine schnell verfügbar sind, eine NVLink Verbindung zwischen zwei (oder mehr) GPUs zu schalten? Was soll da für Traffic entstehen? -> für reinen 3D Bilddatenaustausch, wie es SLI im AFR Mode heute fabriziert, reicht dafür ne schmale PCIe Anbindung + 1GB/sec dedizierte SLI Brücke. Und für direkte VRAM Zugriffe in den VRAM Pool der jeweils anderen GPU wäre es immernoch deutlich zu lahm. Wo ist also der Sinn? -> das meine ich übrigens mit falschen Vorstellungen dazu...

Und was C) angeht, wo stehen denn die Kosten dafür?
Das was AMD da aktuell baut, kann man doch recht gut nicht vergleichen... Aber ich sehe atm keinerlei belastbare Zahlen, wieso man das preislich nicht hinbekommen sollte. Zumal, eine 970er für 300€ und ne 980er für 450-500€ nicht gerade "günstig" sind. Die kleinere Fury Karte schafft es auf ähnliches Preisniveau wie die 980er von NV. Und das trotz vier HBM Stacks mit dem 1024Bit SI über den Interposer zu jenen HBM Stacks. -> wenn du das einfach halbierst oder viertelst, sollte da der Preis folglich auch sinken. Nicht um Faktor 2 oder 4, das ist klar. Aber selbst wenn er um 10 oder 20% fällt, wäre man schon in Preisbreichen, die man in etwa heute bei AMD ansetzt. Und das MIT HBM! Ein vierer Stack mit 1TB/sec Durchsatz braucht die Mittelklasse faktisch nicht. Auch morgen wird das nicht auf einmal benötigt...

Edit: 2012 habe ich im Gespräch mit einem Ingi erfahren dass zukünftig die Schere (Produktdifferenzierung) zwischen Geforce und Tesla immer größer werden wird, da beide Märkte sich immer unterschiedlicher entwickeln würden und HPC ausserdem immer mehr Umsatzanteile aufbaut. Also wird mit Pascal wohl der erste Schritt dahin getan. Später könnte man sich z.B. die komplette Display-Engine ersparen und noch einiges mehr. Das RTOS z.B. erweitern..

Neja, das mag ja stimmen... Und wird ebenso seit einiger Zeit schon gemacht. Was machst du dann aber mit der Quadro?
Ich sehe NV auf absehbare Zeit nicht die Linien so strickt zu trennen. Denn Quadro und Tesla sind dazu aktuell zu stark miteinander verwandt, als dass sich das ausgeht... Wer das Quadro Dickschiff kauft, hat unter Umständen ebenso einen Anspruch an GPGPU Performance. Entsprechend wird da eine Trennung relativ schwer durchführbar sein.

Was die Mittelklasse angeht, da stimme ich dir uneingeschränkt zu. Nur sind das doch auch ganz andere Vorraussetzungen... DP Performance braucht im Mainstreammarkt sowieso keiner heute. Und morgen sicher auch nicht. Also lässt sich dort einsparen. Will man aber die Gamerdickschiffe nicht in einer einzelnen Linie dediziert entwerfen, muss man halt Kompromisse eingehen. Ich sehe weniger das Problem, dass sich der GPGPU Markt (Tesla oder/und Quadro) nicht alleine tragen würde, viel eher siehe ich das Problem, dass die Gamerdickschiffe nicht genügend Gewinn über lassen, eine dedizierte Produktlinie mit eigener Maske usw. abzufangen... Entweder man finanziert sowas quer oder stellt diese Reihe ein. Draufzahlen wird NV sicher nicht ;) Und dann ist das Problem mit der Quadro ja immernoch nicht gelöst. Die muss halt Tesla und Geforce Fähigkeiten haben und dazu noch mehr können um in den Profimarkten bestehen zu können.
Klar könnte NV hier sagen, gut -> wir stellen die Dickschiffe ala GK110, GM200 usw. ein und bauen nur noch die kleinen Gamer Gk104/GM204 vergleichbaren GPUs als reine 3D Beschleuniger ohne GPGPU Zeugs. Aber das öffnet Tür und Tor für AMD, für die HighEnd Kunden ein Produkt zu liefern, was NV nicht liefert... Henne/Ei Problem.
 
Zuletzt bearbeitet:
Das du dabei gleich von einer komplett neuen Render-Technologie ausgegangen bist ging nicht aus deinem Beitrag hervor, denn auch SFR teilt sich den VRAM nicht bzw. er wird nicht verdoppelt. ;)

Zu Quadro: Du hast da fast die gleichen Anforderungen wie GeForce und musst entsprechend weniger differenzieren. Das bleibt wie es ist (hier und da ein anderes Bauteil auf dem PCB, BIOS anders und Treiber eben anders). Du wirst dich aber auch wundern wieviele Unis, Firmen etc. eine GeForce nutzen :d (Kein Scherz!)

Zum Punkt C): Solche Zahlen gehen nicht nach aussen, aber ich kann dir z.B. sagen dass ein GK104 damals um die 40$ lag und ein GK110 bei 90$. GM204 hebt sich vom GK104 nicht groß ab. AMDs Fiji dürfte mit Interposer und HBM schon bei 170-190$ liegen (soviel kostete mal ein GK110-Board komplett). Eine echte Monstrosität im Vergleich, dafür ist aber DRAM gleich inklusive (4GB GDDR5 ~23$). Eine große Kühlung kommt etwa 40-50$ und kleine ab 7-10$ (Alu-Block+Lüfter). PCB ist bei Fury natürlich ein absolutes Rätsel und das kann ich bei GeForce auch nur in etwa hoch rechnen (schätze so 35-40$ für ein bestücktes GK110-Board).
nVidia fährt einfach deutlich höhere Margen als AMD ein (bekommt u.a. bei TSMC andere Konditionen). AMD kann es sich gar nicht leisten so eine Marge auf Fiji draufzupacken, weil dann der Absatz faktisch gegen Null ginge (Preis nach Cournot :d).

Was man bei diesen Zahlen nicht vergessen darf: Das sind nur Materialkosten bzw. Kosten für Zukauf (oder outsourcing). Die Herstellungskosten dürften noch mal ~30% drauf legen. Aber Igor sagte neulich dass die auch in China kontinuierlich steigen würden (irgendwie logisch...).

Edit: Und mit Tegra hat nVidia jahrelang draufgezahlt. :p
 
Glauben kannst du in der Kirche. ;) Und wie das mit den SoC aussieht weiß ich nicht. Das ist für die Desktop-Karten völlig irrelevant.
 
Zuletzt bearbeitet:
es ist eben nicht irrelevant, mit den SOCs könnte AMD für TSMC der größere kunde als NVIDIA sein, was sich auf rabatte auswirken würde.
 
Nein eben nicht. Erstens wird jetzt bei GF gefertigt und zweitens ist dies eine völlig andere Produktion. Informiere dich wenn du es nicht glaubst.
 
es ist egal ob es eine andere produktion ist, AMD ist bei TSMC großkunde und wird nicht weniger rabatte als NVIDIA bekommen...

die aktuellen SOCs für beide Konsolen kommen noch von TSMC, wo die nachfolger gefertigt werden ist aktuell nicht bekannt!

Informiere dich wenn du es nicht glaubst.
 
Das du dabei gleich von einer komplett neuen Render-Technologie ausgegangen bist ging nicht aus deinem Beitrag hervor, denn auch SFR teilt sich den VRAM nicht bzw. er wird nicht verdoppelt. ;)

Neja, ich habe eher in mehrere Richtungen überlegt. Egal wie ich es drehe oder wende, ich sehe den Sinn hinter einer viel schnelleren Verbindung zwischen zwei GPUs im Gamingbereich nicht wirklich. Weil mir aus dem Stand nix einfällt, was diese Bandbreiten notwendig machen würde. Deswegen sagte ich ja oben, dass der einzige Part, der mir dazu einfällt eigentlich DX12 mit SFR ähnlichem Ansatz wäre. Nämlich Objektorientiert anstatt eben der reinen Splittung des Bildes. Das macht es prinzipiel möglich, unterschiedliche VRAM Bestände halten zu können... Bei allen anderen mir bekannten Verfahren wird das nicht gehen, da einfach der Bandbreitennachteil bei "nur" 80GB/sec viel zu hoch wichten würde, als man es mit lokalem VRAM hätte.
Man gesponnen, technisch würde man den VRAM heutiger HighEnd GPUs sogar auf ein Minimum reduzieren können und die Datenflut der Texturen in den RAM auslagern können -> da ist idR genügend Platz vorhanden. Aber das wäre ebenso mit schmaler Bandbreite verbunden, weswegen man es eben nicht so fabriziert -> oder es eben gar nicht aufgehen würde. Mit nem NVLink Connect wäre das Prinzip analog. Die Daten müssten extern der eigentlichen GPU liegen, damit der Connect überhaupt Sinn ergibt.

Zu Quadro: Du hast da fast die gleichen Anforderungen wie GeForce und musst entsprechend weniger differenzieren. Das bleibt wie es ist (hier und da ein anderes Bauteil auf dem PCB, BIOS anders und Treiber eben anders). Du wirst dich aber auch wundern wieviele Unis, Firmen etc. eine GeForce nutzen :d (Kein Scherz!)
Das weis ich durchaus, weswegen ich auch seit Jahr und Tag sage, dass die Titan Modelle durchaus ihre Abnehmer hat, weil es eben auch ein Zwitter ist, dafür aber leichte Nachteile (kein ECC RAM bspw.), aber deutlich günstiger als ähnlich schnelle Profikarten.
Aber das ist ja nicht das direkte Problem... Das Problem was ich da eher sehe ist, dass man ohne Profigene bei den großen Gamermodellen da gewisse Käuferschichten nicht mehr bedienen könnte. Henne/Ei Problem. Vor allem, wenn die Konkurenz dann in die Bresche springen könnte.
-> das ging ja jüngst in der Vergangenheit schon auf. Zwar exakt andersrum, aber NV und AMD schauen durchaus, was die "anderen" machen. Tahiti kann bspw. noch DP Performance liefern. GK104 nicht. Mit Hawaii hat es AMD in den Gamermodellen ebenso rausgesprichen. Dreh die Vorzeichen um und es geht für AMD auf, wenn NV hier einkürzt.

Zum Punkt C): Solche Zahlen gehen nicht nach aussen, aber ich kann dir z.B. sagen dass ein GK104 damals um die 40$ lag und ein GK110 bei 90$. GM204 hebt sich vom GK104 nicht groß ab. AMDs Fiji dürfte mit Interposer und HBM schon bei 170-190$ liegen (soviel kostete mal ein GK110-Board komplett). Eine echte Monstrosität im Vergleich, dafür ist aber DRAM gleich inklusive (4GB GDDR5 ~23$). Eine große Kühlung kommt etwa 40-50$ und kleine ab 7-10$ (Alu-Block+Lüfter). PCB ist bei Fury natürlich ein absolutes Rätsel und das kann ich bei GeForce auch nur in etwa hoch rechnen (schätze so 35-40$ für ein bestücktes GK110-Board).
nVidia fährt einfach deutlich höhere Margen als AMD ein (bekommt u.a. bei TSMC andere Konditionen). AMD kann es sich gar nicht leisten so eine Marge auf Fiji draufzupacken, weil dann der Absatz faktisch gegen Null ginge (Preis nach Cournot :d).

Das bestätigt doch aber genau das, was ich sagte... NV hat da Margen, von dehnen man zehren kann. AMD muss da doch gar nix ändern. Viel eher kann aber NV dort agieren. Wenn eine Performance GPU mit HBM deutlich teurer wird als der Vorgänger, wäre es zumindest doch denkbar, diese GPU trotzdem zu bringen, vor allem, wenn man damit eklatante Vorteile erhält. Eine HBM based Performance/Mittelklasse würde wohl neue Effizienzrekorde bringen. Dazu noch die neue Fertigung und die Presse ist Positiv.
Der Markt hat sich doch sowieso gewandelt. Wenn man mal schaut, die Steamumfrage schmeißt als meist verbreitete dGPU eine 970er aus. -> das ist ein 300€ Produkt. Undenkbar noch vor ein paar Jahren. Da lagen die Modelle eher bei 150-200€, teils auch drunter.
Wenn man durch Masse aber Marge pro Einheit wett machen kann, hat man ja keinen Nachteil... Und unter diesem Gesichtspunkt glaube ich schon, dass man das bei NV so angehen könnte.

Ich kann dir sogar sagen, wie dass dann in der Community wieder ankommen wird. Dann wird der NV Ansatz mit HBM, winzigem PCB und brauchbarer Performance wieder in den Himmel gelobt, während das AMD Produkt runtergeputzt wird. ;)
 
@ELKINATOR: Da du eh alles besser weißt: EOD. Wir reden wenn deine Dual Pascal mit NVLink da ist und AMD bei TSMC durch die SoC bessere Margen einfahren kann. :rolleyes: Btw: GF fertigt schon SoCs. AMD fährt aktuell zweigleisig.

@fdsonne: Initial sagte ich bereits dass NVLink nicht für Desktop kommt und wenn überhaupt eine dual Pascal kommt dann mit PLX Chip. Zwei oder drei Seiten zurück steht das.
Zu den Margen: Betriebswirtschaftliche Entscheidungen fußen oft auf Grundlage der erwarteten Absätze und Gewinnprognosen. Wenn ich jetzt wie bei der GM204 lange Zeit fette Margen UND hohe Absatzmengen habe, kann ich für die Zukunft keine Rechtfertigung finden weniger oder gleichviel bei geringerer Marge zu verkaufen. Wirklich nicht. Und die Prognosen sind wohl eher nicht dass du soviel mehr von einer hypothetischen GTX 970 mit Interposer und HBM für 350$ verkaufst. Oder eben soviel weniger dass du 650$ nehmen könntest und dennoch den reißenden Absatz (Edit: UMSATZ, Sorry) wie zuvor finden würdest. Warten wir mal den nächsten Analyst-day ab. Ich garantiere dir: HBM wird nur oben rum kommen. Das heißt GM200 Nachfolger für 600+$ (sehr optimistisch ;)). Wetten wir? :d
 
Zuletzt bearbeitet:
Hoffe NV macht schnell .
 
Es wäre auch mal schön, wen nVidia die "großen" gleich zu beginn releasend würde und nicht wieder erst die "midrange"-Teile.
Oder am besten gleich alle Modelle auf einen Schlag, so dass man gleich eine breite Masse an Auswahl und verfügbarkeit hat.*träum*
Das würde ich mir auch wünschen. So wie früher vor der 600er GeForce Serie. Es ist zwar schön zu sehen daß die großen Performance Chips den High End der Vorgeneration meist das Wasser abgraben (z.B. GK104 zu GF110 oder GM204 zu GK110), trotzdem ärgert es mich Premium Preise für "kleine" Performance Chips/Karten zu zahlen wenn dann etwas später erst die echten High End Modelle (meist aber zu noch höheren Preisen) raus kommen.
Anscheinend dürfte es aber Fertigungstechnisch bzw. Yield Raten bedingt für nV besser sein zuerst die kleinen Chips zu bringen bevor man die Dickschiffe produziert.

Meine Vorstellung war,dass nur eine GPU mit der CPU kommuniziert,dann die Arbeit an die restlichen GPUs verteilt,die Ergebnisse einsammelt und dann ausgibt....das Ganze aber ohne PCIe,sondern über eine eigene,schnellere Schnittstelle
Man würde also alle GPUs zu einer zusammenschließen
Ich glaube ich verstehe was Du meinst. Dieses Szenario könnte in einigen Situationen gut funktionieren, allerdings hast Du eben von diesem Konstrukt zur CPU dann einen Flaschenhals. Für wenige GPUs und Einsatzzwecke wie vielleicht Spiele wo nicht irre viele Daten zwischen CPU und GPU(s) herumgeschaufelt werden und die GPU dann auch noch als Ausgabe genutzt wird könnte das Vorteile bringen.
Für den Anwendungszweck wofür NVLink jedoch entwickelt wird wäre das sehr ungeeignet. Denn da geht es um Computing wie es im großen Stil in Supercomputern genutzt wird und da geben diese GPUs die als Beschleuniger genutzt werden nichts direkt aus sondern schaufeln Unmengen an Daten zurück ans System. Somit ist hier die breite Anbindung an jeden Beschleuniger wichtig.


Ich glaube er versucht den Interposer zu erklären :d
...

Ich will hier gar nicht posen...

Hehe, dieses Missverständnis hat mir ein Lächeln auf die Lippen gezaubert, danke.
Nicht böse gemeint.

@Topic
Ich schätze nV wird den "vertrauten" Weg der letzten Jahre/Generationen gehen und wird erst Performance Karten a'la GTX 1080 und 1070 (oder wie sie auch immer heissen werden) bringen mit GP104 GPUs und diesen eventuell HBM(2) schenken. Könnte aber auch noch GDDR5 oder GDDR5X werden, denn trotz beeindruckenden Daten auf dem Papier einer Fury/X mit vielen Shadern und HBM kann diese nicht an einer 980Ti bzw. teils sogar 980 vorbei.
Speicher denke ich sind 6-8GB realistisch, bei HBM eher weniger, bei GDDR5(X) eher mehr.

AMD wird wohl wieder mit starken Karten in der 400er Serie kommen (zumindest die 490er, die 480er könnten geshrinkte? alte GPUs sein? Who knows). Die Top Modelle (490 und 490X) werden wohl auch 6-8GB haben. Ob es auch HBM(2) sein wird? Keine Ahnung wie AMD da mit dem "Fury" Brand weiter macht. Eventuell kommt ja eine Fury 2 wieder als High End und die 400er stellen Performance und darunter Karten dar?

Später wird nV dann wohl wieder einen großen Pascal als Titan <whatever> bringen und hier bestimmt HBM2 verbauen mit viel Speicher (16GB?). Mehr als 16GB wird's bestimmt nur auf den Tesla Karten und eventuell einigen Quadro Modellen geben, wie in den News ja schon erwähnt.
Und irgendwann danach gibt's dann wieder eine (GTX 1080?) Ti mit 8GB HBM2.

Also generell bin ich sehr gespannt und unschlüssig welche Karten HBM(2) erhalten werden und wie üppig dieser ausfällt.

Downside von dem Ganzen wird jedoch sein daß die Preise der neuen Karten eher nicht günstiger als die Vorgänger werden. Eher im Gegenteil :(
 
Bei mir wird es der Big Pascal als TI Version.
Der normale Pascal wird nur minimal schneller als meine jetztige TI sein.

Alleine für BF5 brauche ich im Herbst nächstes Jahr mehr Power um das in Ultra auf 1440p zocken zu können.
Dafür wird meine TI jetzt zu langsam sein:(
 
Dass damals GTX 680 zu erst kam, lag an den bescheidenen yield rates (GK110 war echt beschissen) und war eigentlich nicht Teil einer Strategie. Bei Maxwell wiederum war es wohl auf die Entscheidung zurück zu führen, dass 20 nm vollständig gecancelt wurde und man dann auch noch Pascal eingeschoben hat. Maxwell war mal als HPC-Chip geplant wo ein ARM-Core drin steckt. Hat man dann aber verworfen oder umbenannt bzw. zeitlich und namentlich verschoben.
Kepler war ein riesiger Erfolg für nVidia und mit den 300 Euro für eine GM204 konnte man ebenfalls daran anknüpfen. Es ist schwer jetzt zu prognostizieren ob man eher eine Schippe auf GM200 drauf legt oder die unteren Segmente beginnend mit GM204 ersetzt. Ein hypotethischer GP104 wäre Perf/W deutlich besser aufgestellt, als GM200 und würde diesen preislich unterbieten (Konkurrenz im eignen Hause ist untypisch für nVidia). Also könnte man eher einen GP106 launchen, der die GTX 970 ablöst (+/-5% Perf). Der ist günstiger in der Fertigung und erhöht die Marge. GTX 980 steht hier dann aber wieder im Raum.
Oder man macht GM200 wieder EOL und launcht statt dessen den GP104 für 599$ und räumt sowohl in puncto Marge, Performance und Verbrauch ab. Der dürfte bei <300 mm² liegen. Das wäre für mich die plausibelste Variante. GP100 klammern wir Zocker mal aus. GP102 ist wahrscheinlich der erklärte Nachfolger vom GM200 und legt ~35% Performance in >1440p drauf.

Das sind so meine Vermutungen und Gedankengänge. Vielleicht kann da einer was zum Besten geben ;)
 
Ich glaube irgendwie das erstmal nur ne Titan mit 16GB HBM erscheint für ca 1399 Euro mit ca 70%+ auf die TitanX ist bei neuer Fertigung und Architektur alles möglich.
Dann die kleinen Chips mit GDDR5X 6GB für ca 600 Steine mit ca 35%+ auf die Ref.980Ti.
Später dann eine TI mit 8GB HBM für ca 899 Euro die die Lücke zwischen 600 und 1399 Euro füllt.
2017 irgendwann mit Volta auch kleiner Chips mit HBM.
Aber halt nur ne Vermutung kann auch sein das die kleinen Karten als erstes kommen dann aber ohne HBM vermute ich.
Darf weiter Spekuliert werden
 
Zuletzt bearbeitet:
16GB HBM und 70%+ auf die Titan X wäre ein Traum. Zu schön und wahr zu sein.

Auch die 35% bei den beschnittenen Chips halte ich für way too much.
 
Es gibt doch genug Blöde, die Grafikkarten zum Zocken für über 700€ kaufen :P

Mit der Abkapselung der aktuellen HighEnd-Reihen durch eigene Namensgebung haben AMD und NVIDIA doch bereits ein eigenes Marktsegment für absurd überteuerte Spieledarsteller kreiert und die bieten bisher noch nicht einmal allzu große praktische Vorteile.

Dieser Fakt hegt in mir die Befürchtung, dass die nächste Generation auch schön dahin beschnitten wird, sodass man für 4k auch weiterhin die überteuerten Dinger braucht. Und das obwohl sie was von vielfacher Performance geredet haben.
 
Können die sich nicht mal beeilen? Geld ist zusammen gespart. Habe genug von 28nm refreshes :(
 
Zuletzt bearbeitet von einem Moderator:
wenn es so weitergeht wie bisher, wird nVidia erst wieder den abgespeckten Pascal verkaufen um dann nen halbes Jahr später einen Vollausbau als Titan Version zu bringen der garantiert wieder 1000€+ kosten wird.
Mir persönlich ist das egal. Ich verkaufe meine Titan kurz vorher noch für gutes Geld und muss dann nicht den kompletten Preis für die neue Titan zahlen.
 
Ich glaube irgendwie das erstmal nur ne Titan mit 16GB HBM erscheint für ca 1399 Euro mit ca 70%+ auf die TitanX ist bei neuer Fertigung und Architektur alles möglich.
Dann die kleinen Chips mit GDDR5X 6GB für ca 600 Steine mit ca 35%+ auf die Ref.980Ti.
Später dann eine TI mit 8GB HBM für ca 899 Euro die die Lücke zwischen 600 und 1399 Euro füllt.
2017 irgendwann mit Volta auch kleiner Chips mit HBM.
Aber halt nur ne Vermutung kann auch sein das die kleinen Karten als erstes kommen dann aber ohne HBM vermute ich.
Darf weiter Spekuliert werden

Auf welcher Annahme begründest du deine Vermutung? Macht kein Sinn den teuersten Chip auf neuem Prozess mit neuer µArch zu launchen, wo man doch weiß, dass die yields und Absatzmengen in homöopatischen Dosen statt finden.
 
Auf welcher Annahme begründest du deine Vermutung? Macht kein Sinn den teuersten Chip auf neuem Prozess mit neuer µArch zu launchen, wo man doch weiß, dass die yields und Absatzmengen in homöopatischen Dosen statt finden.

Macht schon Sinn.
Z.b die Titan kommt und yields sind gering dafür der Preis deftig schon ist das yield Problem keins mehr.
Interessant bleibt die Karte aber weil z.b 35-40% schneller als ein z.b kleiner 300-350mm2 Chip der für ca 699 startet.
Später dann eine Ti nachschieben wenns richtig rund läuft.vielleicht wird die erste Titan ja auch noch ein Cut Chip.
Gibt viele möglichkeiten.
Siehe Titan Classic GTX780 und später dann Black und 780Ti.
Bin gespannt wie es ablaufen wird .

Hoffe zumindest das nicht abläuft wie nach dem wechsel GTX580 auf GTX680 das wäre für mich Entäuschung pur.

Da kann man dan wirklich von ca 30% Mehrleistung sprechen wen der chip so im 350mm2 Bereich liegt.

Das bringt mich an meinem 4K Bildschirm nicht wirklich weiter die 980Ti läuft zwar schon nicht schlecht aber halt noch nicht genug Power um alles hoch zu drehen.
Wegen Fallout 4 ist SLI keine Option.
Also viel Wundchdenken Hübie.:wink:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh