> > > > NVIDIA GT300 Tape-Out schon im Juni?

NVIDIA GT300 Tape-Out schon im Juni?

DruckenE-Mail
Erstellt am: von

nvidiaDer GT300 ist die nächste und neueste Generation an High-End-GPUs aus dem Hause NVIDIA. DirectX 11 und CUDA 3.0 sind nur zwei technologische Zugpferde von vielen, die NVIDIA mit dem GT300 ins Rennen schicken will. Die üblichen Gerüchteküchen prognostizierten bisher relativ einhellig einen GT300-Release nicht vor Ende diesen Jahres. Der Inquirer hingegen prescht jetzt mit einem vermuteten Tape-Out-Termin irgendwann im Juni vor - leider aber auch in gewohnt quellen- und begründungsfreier Manier. Unter Tape-Out versteht man die im Idealfall letzte Phase im Designprozess von integrierten Schaltkreisen bzw. PCBs - also den Augenblick, an dem das Design in Herstellung gegeben wird. Es kann allerdings passieren, dass das "Taped-Out-Design" den finalen Tests in der Fertigung nicht standhält, oder trotz erfolgreicher Fertigung eben nicht richtig funktioniert und somit in die nächste Design-Runde gehen muss.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (81)

#72
customavatars/avatar11382_1.gif
Registriert seit: 17.06.2004
Berlin
Flottillenadmiral
Beiträge: 4517
Zitat mr.dude;11798314
Ein weiterer Punkt sind die erwähnten 60% des Fertigungsprozesses. Die beziehen sich aber auf die Schaltzeiten der Transistoren. Das hat mit der Performance der GPU gar nichts zu tun. Die wird immer noch durch die Logik und Taktraten bestimmt.


Dass schnellere Transistorschaltzeiten aber höhere Taktraten oder, anders gesprochen, mehr Leistung pro Takt ergeben, ist aber trotzdem richtig. Ergo: Ja, schneller schaltende Transistoren lassen auf eine schnellere GPU schließen.

Zitat mr.dude
Nicht wirklich. Bitte nicht die verschiedenen Instruction/Data Modelle in einen Topf werfen. Die sind alle strikt voneinander abgegrenzt.


Die Aussage gibts sogar von Flynn selbst. :) Ich such sie mal raus, wenn ich sie noch finde. Die Sache ist, dass wir glaube ich aneinander vorbeireden. Du sprichst von der informatiktheoretischen Grundlage, die dahintersteht, und da bedeuten beide natürlich etwas anderes. In der Praxis hab ich aber selber schon erleben dürfen, wie mit bestehenden VHDL-Prozessor-Components einfach ein Cluster aufgebaut wurde, um MIMD-Funktionalität zu erreichen. Dass man die Logik anders routen muss, ist natürlich klar. Und dass das von Effizienz recht weit weg ist, sowieso, aber deswegen schrieb ich ja "naiv".

Zitat mr.dude
Da verwechselst du wohl etwas. MIMD hat in Computerchips eine viel grundlegendere Funktion. Und das fängt bei den Instruktionen und ALUs an.


Siehe oben. Mir geht es um die Implementierung, nicht die Theorie. Und ich hasse es, Wikipedia zu zitieren, aber:

Zitat wiki
Machines using MIMD have a number of processors that function asynchronously and independently. At any time, different processors may be executing different instructions on different pieces of data.


Das stimmt ausnahmsweise nämlich.

Zitat mr.dude
Multiplikation und Addition werden also gleichzeitig durchgeführt. Intern natürlich immer noch seriell. Das soll uns an dieser Stelle aber nicht interessieren. Wir sprechen hier jedenfalls von MIMD. Das Ergebnis ist, sämtliche Berechnungen werden in einem Rutsch bzw mit einer Instruktion durchgeführt und wir benötigen im Optimalfall nur noch einen Takt.


Soweit die Theorie, danke für die Erläuterung, aber das ist mir alles ohnehin klar. Denk nun wieder über die Implementierung nach, die wird hier nämlich ganz konkret durch Designparadigmen problematisiert - dass, was du da vorschlägst, führt im klassischen Pipelining zu einem Stall, weil es eine Operandenabhängigkeit besitzt. Das so zu implementieren, dass es "echt" in einem Takt funktioniert, ist nahezu unmöglich, dafür ist das Signal zu langsam. Was funktioniert, ist, einen ähnlichen Ansatz wie nV im G80 zu verwenden und eben nicht 4 Werte in einem Takt fertigzustellen, sondern 16 Werte in 4 Takten. Effektiv derselbe Output, bietet aber intern die Möglichkeit, die angesprochenen Probleme zu umgehen.
#73
customavatars/avatar25677_1.gif
Registriert seit: 01.08.2005
zu Hause :P
Oberbootsmann
Beiträge: 1005
Solche Posts liebe ich wie die von mr.dude und Lord :) Die finde ich interessanter als die News :fresse:
Diskutiert mal weiter :) :D
#74
customavatars/avatar59112_1.gif
Registriert seit: 01.03.2007

Admiral
Beiträge: 12553
Macht doch schon seit einigen Wochen hin und wieder Probleme...

---

@ Topic

Ich hoffe, dass die NV Karten in 40nm kommen. Bisher weiß man da ja noch nichts sicheres, oder ?
#75
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat henniheine;11816183

@ Topic

Ich hoffe, dass die NV Karten in 40nm kommen. Bisher weiß man da ja noch nichts sicheres, oder ?


Doch die kommen in 40nm strukturbreite,das steht 100% fest;)

Vorher kommen auch noch die midrange karten in selben fertigungsprozess,diese haben ihr tape out schon hinter sich
#76
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Was interessant wäre:

wie viel mehr an Effizienz bzw. OC-barkeit ist mit 40nm im Gegesatz zu 65 bzw. 55nm dirn? Beispielsweise sieht man das ganz deutlich bei den Prozessoren (nur ein Beispiel, jetzt nicht daran stören, dass es keine GraKas sind, es geht mir nur ums Prinzip ;) )
von 90 auf 65nm
#77
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Das kann man erst beurteilen wenn erste samples erhältlich sind u die ersten tests released sind damit;)

xtremesystems.org sind da meistens immer ganz vorne mit dabei wenn es ums overcklocking neuer karten geht
#78
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Zitat scully1234;11816510
Das kann man erst beurteilen wenn erste samples erhältlich sind u die ersten tests released sind damit;)

xtremesystems.org sind da meistens immer ganz vorne mit dabei wenn es ums overcklocking neuer karten geht


Ja ne, schon klar, ich meinte eher, ob eine generelle Tendenz festzustellen ist. Es gibt ja schon etlich AMD Karten in 40nm. Jede Karte verhält sich diesbezüglich anders, sollte klar sein, aber ist da eine [U]drastische [/U]Lesitungssteigerung bzw. Stromersparnis zu erkennen? So war das eher gemeint ;)
#79
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Man kann da keine direkte brücke schlagen zu den ati chips da diese ein anderes design aufweissen u ein stromsparchip wird der highend 300er mit sicherheit auch nicht werden,davon kann man ausgehen.

Wenn er die spezifikationen im stromverbrauch des "alten" 285er chips halten kann,können wir glaube ich schon zufrieden sein;)


Wenn der fertigungsprozess bei tsmc gut gelingt wird es sicherlich eine sehr potente gpu werden mehr kann man heute einfach noch nicht wissen;)
#80
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Strom"verbrauch" im Verhältnis zur Lesitung meinst du eher ;)
Obwohl der G80 sich etwas mehr als die 79er Serie genehmigt hat, war es eine sehr potente Grafikkarte. Wie viel mehr an Leistung bei dem G300 nur herauskommt kann man nur spekulieren, keiner hätte damals gedacht, dass Intels C2D so viel Leistung bei der Stormaufnahmen hat. Möglich ist es also!
Und in Bezug auf die Strukturbreite: es gab schon Wechsel von einer Strukturbreite auf eine kleinere und dies hatte nicht wirklich große Einflüsse auf den Strom"verbrauch" und das Verhalten beim oc... :rolleyes:
#81
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5834
Zitat scully1234;11798885
Woher sie diese werte haben kannst du glaube ich sehr gut aus dem text entnehmen

Nicht wirklich. Aber vielleicht kannst du mir ja verraten, wie sie ausgerechnet auf einen Faktor von 2,35 kommen.

Zitat scully1234;11798885
Reicht dir das als antwort für den faktor 2,35 wenn man die selben transistoren als ausgangsbasis nimmt wie beim g200

Nein. Siehe oben. Wie viele Transistoren es letztendlich sein werden, hängt von mehreren Faktoren ab, wie der Grössenänderung eines Transistors beim Shrink oder den Packdichten. Ich kann aus dem Artikel nicht mal ansatzweise aussagekräftige Informationen dazu gewinnen.

Zitat scully1234;11798885
Und von der skallierung der neuen transistoren kann hier noch keine rede sein,da diese noch nicht bekannt ist,also nimmt man erstmal 100% an von heutigen transistoren.

Wenn man seriös darüber diskutieren will aber nicht. Letztendlich hängt vieles vom Design ab. Viel Cache kann ein Design zB sehr schnell aufblähen, ohne dass die Performance gleichermassen zunimmt. Die Skalierung liegt dann deutlich unter 100%. Verbesserungen an der Logik können wiederum Gewinne erzielen, ohne dass die Anzahl der Transistoren grossartig steigt. Die Skalierung liegt dann über 100%. Genau 100% ist eigentlich recht praxisfern.

Zitat scully1234;11798885
Also wäre dein faktor 1.89 auch nur kaffeesatzlesen

Nein, ist es nicht. Das wäre eine perfekte (theoretische) Skalierung von 55 auf 40 nm. Kannst du auch problemlos nachrechnen.

Zitat scully1234;11798885
Wie bitte? Die schaltzeiten der transistoren haben nichts mit der performance der gpu zu tun,wenn ich den [FONT="Arial Black"]selben[/FONT] chip(g200) wieder als ausgangsbasis nehme zur errechnung des theoretischen werts

Ist jetzt nicht dein ernst oder etwa doch?

Doch, genauso ist das. Höhere Schaltzeiten ermöglichen uU zwar höhere Taktraten. Das ist aber nicht das Thema. Denn dafür müsste man erstmal wissen, wie sich Chips im 40 nm Verfahren von TSMC takten lassen. Und bis es soweit ist, kann man maximal von der gleichen Taktrate ausgehen. 60% höhere Schaltzeiten bedeuten jedenfalls nicht automatisch 60% höhere Taktraten. Nicht mal in der Theorie.

Zitat Neurosphere;11799003
Beeinflusst die Schaltzeit nicht direkt auch die mögliche Taktrate?

Indirekt.

Zitat Lord;11799755
Dass schnellere Transistorschaltzeiten aber höhere Taktraten oder, anders gesprochen, mehr Leistung pro Takt ergeben

Nein, mehr Leistung pro Takt ergeben sie nicht. 1 GHz ist immer noch 1 GHz, also 1 Mrd Zyklen pro Sekunde. Da können die Transistoren so schnell schalten wie sie wollen. Wenn du eine höhere IPC willst, musst du die Logik verbessern.


Letztendlich ist das, was PCGH schreibt, pure Bauernfängerei. Da wird mit Phantasiewerten um sich geworfen, die nicht mal einer theoretischen Betrachtung stand halten und absolut nichts mit der Praxis zu tun haben. Es werden nur irgendwelche sensationslüsternen Erwartungen geschürt, die nicht gehalten werden können. Fast 4-fache Performance ist jedenfalls unrealistisch. Man sollte froh sein, wenn wie bei früheren Generationswechseln 50-100% mehr Performance rausspringen. Und lediglich auf diesen Sachverhalt wollte ich hinweisen.


Zitat Lord;11799755
Siehe oben. Mir geht es um die Implementierung, nicht die Theorie.

Ich rede auch nicht von der Theorie. Die von mir beschrieben SIMD/MIMD Implementierungen gibt es schon sehr lange. Wie gesagt, das ist in solchen Chips eine viel grundlegendere Funktion von SIMD/MIMD. Wovon du redest, bezieht sich wohl auf Rechennetzwerke. Das hat mit der Thematik hier eher weniger zu tun.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]