> > > > NVIDIA GT300 Tape-Out schon im Juni?

NVIDIA GT300 Tape-Out schon im Juni?

Veröffentlicht am: von

nvidiaDer GT300 ist die nächste und neueste Generation an High-End-GPUs aus dem Hause NVIDIA. DirectX 11 und CUDA 3.0 sind nur zwei technologische Zugpferde von vielen, die NVIDIA mit dem GT300 ins Rennen schicken will. Die üblichen Gerüchteküchen prognostizierten bisher relativ einhellig einen GT300-Release nicht vor Ende diesen Jahres. Der Inquirer hingegen prescht jetzt mit einem vermuteten Tape-Out-Termin irgendwann im Juni vor - leider aber auch in gewohnt quellen- und begründungsfreier Manier. Unter Tape-Out versteht man die im Idealfall letzte Phase im Designprozess von integrierten Schaltkreisen bzw. PCBs - also den Augenblick, an dem das Design in Herstellung gegeben wird. Es kann allerdings passieren, dass das "Taped-Out-Design" den finalen Tests in der Fertigung nicht standhält, oder trotz erfolgreicher Fertigung eben nicht richtig funktioniert und somit in die nächste Design-Runde gehen muss.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (81)

#72
customavatars/avatar11382_1.gif
Registriert seit: 17.06.2004
Berlin
Flottillenadmiral
Beiträge: 4517
Zitat mr.dude;11798314
Ein weiterer Punkt sind die erwähnten 60% des Fertigungsprozesses. Die beziehen sich aber auf die Schaltzeiten der Transistoren. Das hat mit der Performance der GPU gar nichts zu tun. Die wird immer noch durch die Logik und Taktraten bestimmt.


Dass schnellere Transistorschaltzeiten aber höhere Taktraten oder, anders gesprochen, mehr Leistung pro Takt ergeben, ist aber trotzdem richtig. Ergo: Ja, schneller schaltende Transistoren lassen auf eine schnellere GPU schließen.

Zitat mr.dude
Nicht wirklich. Bitte nicht die verschiedenen Instruction/Data Modelle in einen Topf werfen. Die sind alle strikt voneinander abgegrenzt.


Die Aussage gibts sogar von Flynn selbst. :) Ich such sie mal raus, wenn ich sie noch finde. Die Sache ist, dass wir glaube ich aneinander vorbeireden. Du sprichst von der informatiktheoretischen Grundlage, die dahintersteht, und da bedeuten beide natürlich etwas anderes. In der Praxis hab ich aber selber schon erleben dürfen, wie mit bestehenden VHDL-Prozessor-Components einfach ein Cluster aufgebaut wurde, um MIMD-Funktionalität zu erreichen. Dass man die Logik anders routen muss, ist natürlich klar. Und dass das von Effizienz recht weit weg ist, sowieso, aber deswegen schrieb ich ja "naiv".

Zitat mr.dude
Da verwechselst du wohl etwas. MIMD hat in Computerchips eine viel grundlegendere Funktion. Und das fängt bei den Instruktionen und ALUs an.


Siehe oben. Mir geht es um die Implementierung, nicht die Theorie. Und ich hasse es, Wikipedia zu zitieren, aber:

Zitat wiki
Machines using MIMD have a number of processors that function asynchronously and independently. At any time, different processors may be executing different instructions on different pieces of data.


Das stimmt ausnahmsweise nämlich.

Zitat mr.dude
Multiplikation und Addition werden also gleichzeitig durchgeführt. Intern natürlich immer noch seriell. Das soll uns an dieser Stelle aber nicht interessieren. Wir sprechen hier jedenfalls von MIMD. Das Ergebnis ist, sämtliche Berechnungen werden in einem Rutsch bzw mit einer Instruktion durchgeführt und wir benötigen im Optimalfall nur noch einen Takt.


Soweit die Theorie, danke für die Erläuterung, aber das ist mir alles ohnehin klar. Denk nun wieder über die Implementierung nach, die wird hier nämlich ganz konkret durch Designparadigmen problematisiert - dass, was du da vorschlägst, führt im klassischen Pipelining zu einem Stall, weil es eine Operandenabhängigkeit besitzt. Das so zu implementieren, dass es "echt" in einem Takt funktioniert, ist nahezu unmöglich, dafür ist das Signal zu langsam. Was funktioniert, ist, einen ähnlichen Ansatz wie nV im G80 zu verwenden und eben nicht 4 Werte in einem Takt fertigzustellen, sondern 16 Werte in 4 Takten. Effektiv derselbe Output, bietet aber intern die Möglichkeit, die angesprochenen Probleme zu umgehen.
#73
customavatars/avatar25677_1.gif
Registriert seit: 01.08.2005
zu Hause :P
Oberbootsmann
Beiträge: 1005
Solche Posts liebe ich wie die von mr.dude und Lord :) Die finde ich interessanter als die News :fresse:
Diskutiert mal weiter :) :D
#74
customavatars/avatar59112_1.gif
Registriert seit: 01.03.2007

Admiral
Beiträge: 13233
Macht doch schon seit einigen Wochen hin und wieder Probleme...

---

@ Topic

Ich hoffe, dass die NV Karten in 40nm kommen. Bisher weiß man da ja noch nichts sicheres, oder ?
#75
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat henniheine;11816183

@ Topic

Ich hoffe, dass die NV Karten in 40nm kommen. Bisher weiß man da ja noch nichts sicheres, oder ?


Doch die kommen in 40nm strukturbreite,das steht 100% fest;)

Vorher kommen auch noch die midrange karten in selben fertigungsprozess,diese haben ihr tape out schon hinter sich
#76
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Was interessant wäre:

wie viel mehr an Effizienz bzw. OC-barkeit ist mit 40nm im Gegesatz zu 65 bzw. 55nm dirn? Beispielsweise sieht man das ganz deutlich bei den Prozessoren (nur ein Beispiel, jetzt nicht daran stören, dass es keine GraKas sind, es geht mir nur ums Prinzip ;) )
von 90 auf 65nm
#77
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Das kann man erst beurteilen wenn erste samples erhältlich sind u die ersten tests released sind damit;)

xtremesystems.org sind da meistens immer ganz vorne mit dabei wenn es ums overcklocking neuer karten geht
#78
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Zitat scully1234;11816510
Das kann man erst beurteilen wenn erste samples erhältlich sind u die ersten tests released sind damit;)

xtremesystems.org sind da meistens immer ganz vorne mit dabei wenn es ums overcklocking neuer karten geht


Ja ne, schon klar, ich meinte eher, ob eine generelle Tendenz festzustellen ist. Es gibt ja schon etlich AMD Karten in 40nm. Jede Karte verhält sich diesbezüglich anders, sollte klar sein, aber ist da eine [U]drastische [/U]Lesitungssteigerung bzw. Stromersparnis zu erkennen? So war das eher gemeint ;)
#79
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Man kann da keine direkte brücke schlagen zu den ati chips da diese ein anderes design aufweissen u ein stromsparchip wird der highend 300er mit sicherheit auch nicht werden,davon kann man ausgehen.

Wenn er die spezifikationen im stromverbrauch des "alten" 285er chips halten kann,können wir glaube ich schon zufrieden sein;)


Wenn der fertigungsprozess bei tsmc gut gelingt wird es sicherlich eine sehr potente gpu werden mehr kann man heute einfach noch nicht wissen;)
#80
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Strom"verbrauch" im Verhältnis zur Lesitung meinst du eher ;)
Obwohl der G80 sich etwas mehr als die 79er Serie genehmigt hat, war es eine sehr potente Grafikkarte. Wie viel mehr an Leistung bei dem G300 nur herauskommt kann man nur spekulieren, keiner hätte damals gedacht, dass Intels C2D so viel Leistung bei der Stormaufnahmen hat. Möglich ist es also!
Und in Bezug auf die Strukturbreite: es gab schon Wechsel von einer Strukturbreite auf eine kleinere und dies hatte nicht wirklich große Einflüsse auf den Strom"verbrauch" und das Verhalten beim oc... :rolleyes:
#81
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6272
Zitat scully1234;11798885
Woher sie diese werte haben kannst du glaube ich sehr gut aus dem text entnehmen

Nicht wirklich. Aber vielleicht kannst du mir ja verraten, wie sie ausgerechnet auf einen Faktor von 2,35 kommen.

Zitat scully1234;11798885
Reicht dir das als antwort für den faktor 2,35 wenn man die selben transistoren als ausgangsbasis nimmt wie beim g200

Nein. Siehe oben. Wie viele Transistoren es letztendlich sein werden, hängt von mehreren Faktoren ab, wie der Grössenänderung eines Transistors beim Shrink oder den Packdichten. Ich kann aus dem Artikel nicht mal ansatzweise aussagekräftige Informationen dazu gewinnen.

Zitat scully1234;11798885
Und von der skallierung der neuen transistoren kann hier noch keine rede sein,da diese noch nicht bekannt ist,also nimmt man erstmal 100% an von heutigen transistoren.

Wenn man seriös darüber diskutieren will aber nicht. Letztendlich hängt vieles vom Design ab. Viel Cache kann ein Design zB sehr schnell aufblähen, ohne dass die Performance gleichermassen zunimmt. Die Skalierung liegt dann deutlich unter 100%. Verbesserungen an der Logik können wiederum Gewinne erzielen, ohne dass die Anzahl der Transistoren grossartig steigt. Die Skalierung liegt dann über 100%. Genau 100% ist eigentlich recht praxisfern.

Zitat scully1234;11798885
Also wäre dein faktor 1.89 auch nur kaffeesatzlesen

Nein, ist es nicht. Das wäre eine perfekte (theoretische) Skalierung von 55 auf 40 nm. Kannst du auch problemlos nachrechnen.

Zitat scully1234;11798885
Wie bitte? Die schaltzeiten der transistoren haben nichts mit der performance der gpu zu tun,wenn ich den [FONT="Arial Black"]selben[/FONT] chip(g200) wieder als ausgangsbasis nehme zur errechnung des theoretischen werts

Ist jetzt nicht dein ernst oder etwa doch?

Doch, genauso ist das. Höhere Schaltzeiten ermöglichen uU zwar höhere Taktraten. Das ist aber nicht das Thema. Denn dafür müsste man erstmal wissen, wie sich Chips im 40 nm Verfahren von TSMC takten lassen. Und bis es soweit ist, kann man maximal von der gleichen Taktrate ausgehen. 60% höhere Schaltzeiten bedeuten jedenfalls nicht automatisch 60% höhere Taktraten. Nicht mal in der Theorie.

Zitat Neurosphere;11799003
Beeinflusst die Schaltzeit nicht direkt auch die mögliche Taktrate?

Indirekt.

Zitat Lord;11799755
Dass schnellere Transistorschaltzeiten aber höhere Taktraten oder, anders gesprochen, mehr Leistung pro Takt ergeben

Nein, mehr Leistung pro Takt ergeben sie nicht. 1 GHz ist immer noch 1 GHz, also 1 Mrd Zyklen pro Sekunde. Da können die Transistoren so schnell schalten wie sie wollen. Wenn du eine höhere IPC willst, musst du die Logik verbessern.


Letztendlich ist das, was PCGH schreibt, pure Bauernfängerei. Da wird mit Phantasiewerten um sich geworfen, die nicht mal einer theoretischen Betrachtung stand halten und absolut nichts mit der Praxis zu tun haben. Es werden nur irgendwelche sensationslüsternen Erwartungen geschürt, die nicht gehalten werden können. Fast 4-fache Performance ist jedenfalls unrealistisch. Man sollte froh sein, wenn wie bei früheren Generationswechseln 50-100% mehr Performance rausspringen. Und lediglich auf diesen Sachverhalt wollte ich hinweisen.


Zitat Lord;11799755
Siehe oben. Mir geht es um die Implementierung, nicht die Theorie.

Ich rede auch nicht von der Theorie. Die von mir beschrieben SIMD/MIMD Implementierungen gibt es schon sehr lange. Wie gesagt, das ist in solchen Chips eine viel grundlegendere Funktion von SIMD/MIMD. Wovon du redest, bezieht sich wohl auf Rechennetzwerke. Das hat mit der Thematik hier eher weniger zu tun.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]