nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.

Neurosphere

Enthusiast
Thread Starter
Mitglied seit
06.11.2008
Beiträge
4.324
nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread]​

gf100_header_7qqf.jpg



Dies ist der Neustart des nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4



Was ist bisher bekannt:​


Beim Start verfügbare Karten: 480 GTX/470 GTX (News zu der Namensgebung)
Vorstellung der Karten am 26. März (News dazu)
Chip: GF100
Takt: Unbekannt
Aktivierte Shadereinheiten: 480/512 (480er) / 448 (470er)
Speicherinterface: 384bit(480er) / 320bit(470er)
Speicher: vermutlich erstmal bis zu 1,5GB(480er)/ 1,28GB(470er)
Speicherart: GDDR5
Stromversorgung: 6+8 Pin (max. 300 Watt bei 480er), 6+6 Pin (max. 225 Watt bei 470er)
TDP: unbekannt
Länge der Karten: 267mm

Release: Soll mit der Vorstellung am 26. März erfolgen.


Der GF100 (aka Fermi)​


gf100xh2g.jpg

Innerer Aufbau:​


gf100.3upo0.jpg

Die GPCs:

Der GF100 besteht aus Graphics Processing Clusters (kurz GPCs). Jeder GPC besteht aus 4 Streaming-Multiprocessors (SM),
in denen jeweils 4 Texture Mapping Units (TMUs) und 32 Arithmetic Logic Units (ALUs) untergebracht sind.

Nach derzeitigen Informationen kann der GF100 maximal 4 GPCs verwalten, womit er auf die besagten 512 "Cuda-Cores" (ALUs) und 64 TMUs kommt.

Besonders beim GF100 ist, das jeder GPC auf eine eigene Raster-Engine zurückgreifen kann. Alle bisherigen Designs und Architekturen hatten nur eine Raster-Engine die vor den Shaderclustern lag. Dadurch erhöht sich die Pixelleistung auf 32 Pixel pro Takt (4 GPCs x 8 Pixel) wodurch ein Flaschenhals aller bisherigen Architekturen beseitigt wurde und die Geometrieleistung überdurchschnittlich steigt. Deutlich zu sehen bekommt man dies an der Tesselationsleistung des GF100, nach NV-eigenen Folien ist diese zwischen 2 bis mehr als 6 mal so hoch wie die der 5870 von ATI.


Nun weiter zu den SM:

Zu jeder ALU gesellt sich eine Floating Point Unit (FPU). Der GF100 ist IEEE 754-2008-Standard kompatibel was ihn für GPGPU Aufgaben interessant macht.
Anders als der GT200 führt der GF100 pro Takt keine MADD+MUL Berechnung mehr aus sondern eine FMA. Das schmälert zwar auf den ersten Blick etwas die Rechenleistung pro ALU, allerdings erreicht FMA eine höhere Genauigkeit bei den Nachkommastellen, was ebenfalls wieder wichtig für GPGPU ist.


Die TMUs:

Auf den ersten Blick hat NV hier weniger verbaut als beim GT200. Allerdings soll die Taktrate nicht über den Chiptakt laufen sondern evtl in Richtung des Shadertaktes gehen, des weiteren soll die Effizienz aufgrund des größeren L1 (12 Kb Texture Cache + 64 Kb L1/Shared-Cache) und L2 Caches (768 Kb) weiter gesteigert worden sein. NV gibt für die TMUs bis zu 1,6 mal soviel Leistung wie beim GT200 an.


Die ROPs:

Die Raster Operation Processors (ROPs) wurden beim GF100 dahingehend überarbeitet, das es nun sechs ROP-Partitions gibt in denen jeweils 8 ROPs enthalten sind. Eine ROP kann nach einem Takt ein 32-Bit-Integer-Pixel, ein 16-Bit-Floating-Point-Pixel nach zwei Takten oder ein 32-Bit-FP-Pixel nach vier Takten ausgeben.
An Jeder ROP-Partition ist ein 64 Bit Speicherinterface angeschlossen womit der GF100 auf ein insgesammt 384bit breites Interface kommt.


Speicher und Interface:

NV gönnt dem GF100 ein 384 bit breites Speicherinterface (siehe oben) mit dem er maximal 6 GB Videospeicher ansprechen könnte. Die Speicherbandbreite wird dadurch gewährleistet das schneller GDDR5 verwendung findet. Die Taktrate des Speichers ist noch nicht bekannt, allerdings dürfte die Bandbreite bei über 200 GB/s liegen.






Features:​

3D Vision Surround:

Der GF100 wird NVs neusten streich, 3D Vision Surround unterstützen. Damit ermöglicht der GF100 Stereoscopic 3D auf bis zu 3 Monitoren, allerdings nur wenn man zwei Karten sein eigen nennen kann.


32x CSAA:

Fermi bietet mit 32x CSAA einen neuen Antialiasing-Modus der auf 8x MSAA beruht. Jener soll laut NV eine bessere Bildqualität bieten als bisherige Modi. Ob NV in Zukunft SSAA anbieten wird ist unbekannt.


Blu-ray 3D:

Laut NV wird der GF100 die Dekodierung eines Blu-ray-3D-Films zu 100% übernehmen können.


Optimus:

Optimus ist der Nachfolger von Hybrid-Power und wird mit allen Intel Notebook-Chipsätzen lauffähig sein. Dadurch ist es möglich die dedizierte Grafikkarte abzuschalten sobald diese nicht gebraucht wird und auf die Chipsatzgrafik zurückzugreifen. Dadurch erreicht man einen geringeren Stromverbrauch und längere Akkulaufzeiten.


Linkliste:
Neu:

Artikel:

Artikel auf CB zum GF100
Artikel auf PCGH
Techreport über den GF100 (englisch)

News:

TSMC hat Fertigungsprobleme behoben
Lauffähiges Fermisystem gesichtet
Sammelnews auf PCGH
Fermi debüt auf der Cebit
Die meisten Fermi-Karten im Q2 2010
News zu NVs kleineren ablegern auf 3DCenter (ursprung xbit Labs)
Geklaute 480er von Heise (Cebit)
Supermicro "Supercomputer" mit 4x Fermi (Cebit)
CB zum Fermi (Cebit)
Benchmarks der 470 auf der Cebit von Heise(Cebit)
HT4U über die GF100 auf der Cebit (Cebit)
Benchmarksammlung (Achtung, Fakealarm)
NVIDIA GeForce GTX 480 Final Specs & Pricing Revealed

Offizielles:

Deutsche Infoseite von NV zum GF100
NVs Facebook Seite
Zum Optimus Feature



Alte Links aus dem nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]:
Nvidia GT300 mit DirectX 11 ab Q4/2009 - News - Hardware-Infos
Fudzilla - GT300 is Nvidia's DirectX 11 emid=65
TSMCs 40nm-GP: RV870 und GT300 fast viermal so schnell wie heute? - TSMC, 40nm, 40G, Performance, GPU, 32nm, RV870, GT300
Infos zur DX11-Karte von Nvidia - News Hartware.net
Erste Direct3D-11-Karte von Nvidia in Q4/09? - 06.04.2009 - ComputerBase
Fudzilla - Nvidia´s DirectX 11 to come in Q4 emid=65
Nvidia GT300-Tape-Out im Juni? - News - Hardware-Infos
Kommen RV870 und GT300 früher als gedacht? - News - Hardware-Infos
Nvidia: GT300 im Oktober? - News Hartware.net
nVidia's GT300 specifications revealed - it's a cGPU! - Bright Side Of News*
GT300 wirft 512 Shadereinheiten in die Waagschale - Forum de Luxx
GT300 kommt mit 512 SPs noch dieses Jahr - News - Hardware-Infos
Kommt Nvidias GT300 mit 512 Shadereinheiten? - 23.04.2009 - ComputerBase
GT300 setzt auf 512 Bit-GDDR5-Interface - News - Hardware-Infos
Nvidia GT300 mit 512 Bit und GDDR5? - 07.05.2009 - ComputerBase
GT300 mit rund 2,4 Millarden Transistoren - News - Hardware-Infos
Nvidia G300 hat Tape-Out gemeistert - News - Hardware-Infos
Nvidia G300-Samples mit 700/1600/1100 MHz - News - Hardware-Infos
Nvidia G300 mit unter 225 Watt TDP - News - Hardware-Infos
Nvidia: GT300 erscheint 2009 - News Hartware.net
GT300 und RV870: Wann kommen die Chips? - 25.06.2009 - ComputerBase
Nvidia G300 mit finalem Tape-Out - News - Hardware-Infos
Nvidia plant Karte mit zwei GT300 - News Hartware.net
Nvidia GF100: 512 SPs, aber nur 384 Bit - News - Hardware-Infos
Nvidia kündigt GF100 (Fermi) an - News - Hardware-Infos
Nvidia und der Griff nach den Sternen - News - Hardware-Infos
Nvidia GF100: 128 TMUs und 48 ROPs - News - Hardware-Infos
Neuigkeiten zu GT300 / Fermi? - News Hartware.net
Offiziell:


Demovideos:​

Nochmal Hinweise zu den Regeln gerade in diesem Thread:

Da es hier immer wieder zu Entgleisungen in jeder nur denkbaren Form gekommen ist, werden ab sofort die Regeln für diesen Thread verschärft. Jeder User ist natürlich in diesem Thread willkommen, wenn er aber an den Diskussionen teilnehmen möchte ist eine gewisse Netiquette Pflicht! Es geht hier nicht um die Produkte von ATI oder von NV aus vergangenen Zeiten. Natürlich können sie gerne herangezogen werden für Vergleiche, fehlt aber der Kontext zum eigentlichen Thema, werden die Posts gelöscht! Jeder hat selbst zu entscheiden ob ein Produkt empfehlenswert ist oder nicht, Kaufberatungen gehören also ebenfalls nicht in diesen Thread. Überlegt ob ihr jeden Post kommentieren müsst und steht darüber wenn ihr euch über Aussagen zu eurer Lieblingsmarke provoziert fühlt. Bleibt Sachlich, OT lesen ist für viele die sich für das Thema interessieren oft nicht so Lustig wie der Schreiberling es fand.

Weiterhin ist eure Mithilfe, diesen Thread "sauber" und informativ zu halten ausdrücklich erwünscht!
Wenn ihr auf Postings stoßt die absolut OT sind, provozieren oder was auch immer, geht bitte nicht darauf ein, sondern benutzt den "Beitrag melden-Button" (
report.gif
) und überlasst alles weitere der Moderation.
Auch das sorgt dafür, hier eine für Jedermann angenehme Diskussion vorzufinden.

Sollte es zu mehrmaligem Verstoß gegen die Regeln kommen erhalten auffällige User eine Auszeit von diesem Thread.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
^^ Na dann warte mal noch ein bisschen :d
 
dann drückt ATI 100%ig ne 5890 mit mehr Takt raus oder senkt die Preise auf etwa 250 – 300.-€ und keiner will mehr nen Fermi…
Eine HD5890 wird dann sicherlich auch nicht übermäßig übertaktet sein, weil dies auch mit einer ordentlichen Spannungserhöhung verbunden ist, womit auch die miesesten GPUs aus der Produktion noch stabil laufen. Um eine zu hohe Leistungsaufnahme zu vermeiden, vermute ich mal, dass sie sich nur auf GTX480 oder nur ganz leicht darüber ansiedeln wird.
Außerdem eine Preissenkung seitens ATI wird sich nichts zwangsläufig auf den Kunden auswirken. Vor allem wenn die Yields nicht/kaum steigen und das Angebot im Verhältnis zur Nachfrage genauso schlecht bleiben oder noch schlechter werden, was sich der Händler nicht entfehen lässt, der ohne hin schon nur wenige KArten zur Verfügung hat. (wenn ich mich richtig errinnere hat ATI seit dem Launch, die Preise nicht erhöht, wodurch sie in dieser Lage auch nicht mehr verdienen, sondern nur der Händler)
Solange es noch eine breite Masse gibt ,die sich eine HD5870 für knapp 400€ kaufen, wird es kaum merkliche Preissenkungen geben.
 
neuer Thread neues Glück, jetzt gehts aufwärts
der Fermi wird alles in Grund und Boden stampfen vorallem in Sachen Abwärme :fresse:
Ja, genau eine Woche noch bis vertrauenswerte Benchmarks auftauchen, die werden wir auch noch überstehen
 
so exakt in einer woche ist release.
ich kanns ned mehr erwarten ^^

Leider gibts am 26.03. (sollte bei uns aufgrund der Zeitverschiebung am 27.03. sein) nur eine Präsentation mit den (für uns schon bekannten Specs - es wird wohl bei 480 SPs vor dem Re-Spin bleiben).

Die Veröffentlichung von Reviews mit Benches und den restlichen Messungen soll erst ab dem 29.03. erlaubt sein.

Eine weitere Woche später, also am 06.03. ist dann der Hardlaunch.
 
Verdammte Säcke....naja diese Testergebnisse am Freitag kann man also in die Tonne kloppen! Montag gehts erst rund und dann fällt offiziell die Entscheidung! Kaufen oder nicht? Spannend :) Ich würde gerne, aber bei 5-10% mehr Leistung muss man sich eigentlich dagegen entscheiden, ich weiß nicht...
 
ich dachte eigentlich auch das NDA würde am 26. fallen?

Und hat nicht NV noch vor einiger Zeit gesagt, dass es zur PAX eine große Verfügbarkeit geben soll? Diese andauernden Verschiebungen sind doch nur noch nervig, möchte endlich meine GTX260² in Rente schicken.

Grüße
franeklevy
 
Zuletzt bearbeitet:
Ich hoffe auf ein Mittelding ala GT8800 oder GTX260 für ~ 200,- Euros die alle ATI Karten wegburnt!
 
Jaja :rolleyes
[ironie]Und am besten kommt die Lösung noch von Intel?[/ironie]
 
Gute Frage, warum die NDA zumindest hinsichtlich unabhängiger Reviews auf den 29. verschoben wurde. Liegt vielleicht daran, dass ein Freitag ungewöhnlich für einen (Paper-)launch wär und der Hardlaunch auf den 06.03. verschoben wurde (vielleicht, damit der Handel etwas mehr Karten zum Launchtag anbieten kann ?).

Den genauen Grund kennt wohl nur NV selbst.


Mal sehen, ob es bei ~ 10k Karten bleibt oder mehrere 10k (laut PR Mann Neuschäfer) zum weltweiten Launch zur Verfügung stehen.


Zur Veröffentlichung der Reviews: Man muss natürlich bedenken, dass afaik der Fall der NDA für die Presse in US-Zeitrechnung (Pazifische Zeitzone = - 9 Std MEZ) angegeben wird. Beispielsweise wären 6.00 AM PST 15:00 MEZ.

Im worst Case könnte es sein, dass man erst am Dienstag mit Reviews rechnen kann - 9:00 PM PST wären z.B. 6:00 MEZ - auf CB wurden ja etliche Reviews zu dieser Uhrzeit veröffentlicht.
 
Im worst Case könnte es sein, dass man erst am Dienstag mit Reviews rechnen kann - 9:00 PM PST wären z.B. 6:00 MEZ - auf CB wurden ja etliche Reviews zu dieser Uhrzeit veröffentlicht.


Im "Wurst Käse" könnte es aber auch sein,das einige nicht mehr dicht halten da ja nun die Test Samples so langsam raus gehen sollten an alle Review Seiten:)
 
Zuletzt bearbeitet:
Ich hoffe auf ein Mittelding ala GT8800 oder GTX260 für ~ 200,- Euros die alle ATI Karten wegburnt!

Nun ja - man munkelt, dass es zumindest 2 Versionen des GF104 geben könnte.

Eine Version (GTX 460 oder GTS 450) mit 256 SPs / 256 Bit SI (sollte in etwa auf GTX 285 oder HD 5830 Level liegen) und eine mit 192 SPs / 192 Bit SI (GTS 450 oder GTS 440 / GT440), die sich wohl zwischen GTS 250 und GTX 260 einsortieren dürfte - vielleicht schickts auch für die HD 5770.

Aber das sind nur Vermutungen ohne konkrete Beweise.
So ähnlich dürfte es aber kommen.

Zuvor jedoch sollte der Mainstream - Bereich (also etwa auf HD 5400 - 5500 Level) durch den kleinsten Ableger, GF108, abgedeckt werden - dieser hatte neulich das Tapeout. Entsprechende Karten könnten im Juli / August kommen.

Bei auf GF104 basierenden Karten muss man sich wohl Q3 (Herbst) gedulden. Es könnte sein, dass ziemlich zeitnah der Re-Spin des GF100 kommt. Vielleicht als GTX 485 und 475...oder auch GTX 495 ("Gemini").

Mal sehen.


Im "Wurst Käse" könnte es aber auch sein,das einige nicht mehr dicht halten da ja nun die Test Samples so langsam raus gehen sollten an alle Review Seiten:)

Wurst Case ?! :fresse: ...was uns natürlich freuen würde, NV weniger. :bigok:

Vermutlich werden die ersten Reviews wieder mal aus dem asiatischen Raum kommen, aber nicht so ausführlich sein (also Benches ja, aber weniger Messungen wie Temps, Lautstärke, Idle / Load Verbrauch, OC).
 
Zuletzt bearbeitet:
Blöd nur das 28 nm wohl erst Ende dieses / Anfang nächsten Jahres zur Verfügung steht. Ich glaube erst in dieser Strukturbreite wird Fermi richtig Zähne zeigen. GF100 sieht für mich nicht berauschend aus (sprich < 15-20 Prozent Geschwindigkeitsvorteil GTX 480 ggü. HD 5870), wenn auch längst nicht so schlimm wie BSN (Bullshit-Network) es gerne hätte.

15-20 Prozent mehr Leistung klingt gut, aber zu welchem Preis wird dieser Vorteil erkauft?
 
Zuletzt bearbeitet:
An 28nm sollte man eher an das Q3 2011 denken.
 
Zuletzt bearbeitet:
Blöd nur das 28 nm wohl erst Ende dieses / Anfang nächsten Jahres zur Verfügung steht.

das wird noch länger dauern, Nvidia fertigt nur bei TSMC, ich garantiere vor Q2/2011 wird das nichts und was passiert dann wenn TSMC die gleichen Probleme wie jetzt hat, dann heißt es eine breite Verfügbarkeit von 28nm gibt es erst Q4/2011 :wink:

Ich glaube erst in dieser Strukturbreite wird Fermi richtig Zähne zeigen.

das sagen viele, also heißt es Fermi ist schlecht!

GF100 sieht für mich nicht berauschend aus (sprich < 15-20 Prozent Geschwindigkeitsvorteil GTX 480 ggü. HD 5870), wenn auch längst nicht so schlimm wie BSN (Bullshit-Network) es gerne hätte.

die meisten sagen 5-10% vor 5870
 
Zuletzt bearbeitet:
Jo, ein Die-Shrink wär natürlich optimal - vor allem könnte man ordentlich an den Taktraten drehen.

Ich denke mal, dass da vor Q1/2011 nichts kommt - weder in Sachen serienreifem 28nm Prozess bei TSMC, noch Fermi 2 seitens NV.

Andererseits könnte NV das Ganze konservativer für ihre Next-Gen High-End-GPU angehen und diese auch noch in 40nm produzieren lassen (siehe damals G80 oder GT200) - ich will nicht wissen, wie lange es dauert, bis die generellen Yield-Raten im 28nm Prozess bei TSMC einigermaßen im grünen Bereich sind.


Gut, und wenn man halbwegs realistisch bleibt, nimmt man eher Q2 / Q3 für 28nm an. ;)


Jedenfalls hat man für 22nm schon kräftig zurückgerudert - aus Testproduktion in Q3/2011 wurde Q3/2012 und Q1/2013 für Low-Power:

http://www.computerbase.de/news/allgemein/forschung/2010/februar/tsmcs_22-nm-prozess/


Ok, das ist eh Zukunftsmusik -> :btt:
 
Zuletzt bearbeitet:
Mit 28nm kannst du noch mind. 15 Monate warten, TSMC hat immer mehr Probleme

Da sieht man wo 40nm steht :fresse:

tsmcj7z5.jpg
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh