> > > > Fermi-Nachfolger Kepler soll bereits sein TapeOut hinter sich gebracht haben - Update

Fermi-Nachfolger Kepler soll bereits sein TapeOut hinter sich gebracht haben - Update

Veröffentlicht am: von

nvidiaAuf der GPU Technology Conference 2010 gab NVIDIA bereits einen kleinen Ausblick auf seine kommenden GPUs und nannte dabei auch erste Codenamen (wir berichteten). Den damaligen Plänen zufolge sollte im Jahr 2011 der Fermi-Nachfolger Kepler erscheinen - gefolgt von Maxwell im Jahr 2013. Die nächste Generation sollte dabei zwischen 4 und 6 GFLOPS Dual-Precission-Performance pro Watt erreichen und im zweiten Quartal 2011 als Prototyp zur Verfügung stehen. Dies ließ NVIDIA-Chef Jen-Hsun Huang damals höchstpersönlich verlauten. Wie die stets gut bediente Gerüchteküche Fudzilla.com nun erfahren haben will, soll Kepler jetzt sein TapeOut hinter sich gebracht haben. Im Klartext heißt dies, dass NVIDIA einen wichtigen Meilenstein in der Entwicklung seines kommenden Grafikchips erreicht hat und dessen Entwicklung damit zum Abschluss gebracht hat. Sollten die jetzt anstehenden Tests allerdings noch Fehler im Design aufdecken, so kann es noch ein weiteres TapeOut geben. Fallen die Tests aber positiv aus, könnte NVIDIA schon in den nächsten Monaten die Massenproduktion starten. Laut Fudzilla.com soll die kommende 28-nm-GPU in etwa die gleiche TDP besitzen, wie das aktuelle Flaggschiff der Kalifornier.

Optimistisch betrachtet könnte Kepler, der rund 10x schneller als Fermi sein soll, schon im vierten Quartal 2011 auf den Markt kommen. Da der Auftragsfertiger TSMC wohl aber noch ein bisschen mehr Zeit für die filigranere Chipproduktion benötigen könnte, könnte die NVIDIA-GeForce-GTX-600-Familie - oder wie sie auch immer heißen mag - auch erst im nächsten Jahr ins Rennen geschickt werden.

Keynote_Roadmap_rs

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Update

Wie Fudzilla.com weiter berichtet, könnte NVIDIA Kepler zwar schon im vierten Quartal auf den Markt werfen, doch seien die Auftragsfertiger zu diesem Zeitpunkt schlichtweg noch nicht bereit, die Massenfertigung von 28-nm-Chips stemmen zu können. Demnach soll NVIDIAs nächste Grafikkarten-Generation erst während des ersten Quartals 2012 vorgestellt werden. Sollten die Gerüchte aber zutreffen, wird man zumindest noch in diesem Jahr einen kleinen Ausblick auf die Architektur geben, schließlich sollen die Modelle der Konkurrenz noch innerhalb der nächsten fünf Monate erscheinen (wir berichteten).

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (94)

#85
customavatars/avatar79062_1.gif
Registriert seit: 04.12.2007
nähe Darmstadt
Kapitänleutnant
Beiträge: 1583
Naja Rückschlag? Immerhin keine Microruckler mehr ich würde die 580 dem 5870CF vorziehen.... Ich würde jede vernünftige Karte einem CF oder SLI gespann vorzeihen.... Einmal und nie mehr wieder...
#86
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Directx12? Da musst du noch lange warten.
Rechne mal lieber mit 2013/14

GTX 580 vs. HD 5870 CF?

Ich würde auch eher eine GTX580 vorziehen, aber niemals von 2x HD5870 auf ne GTX 580 abrüsten, das lohnt sich imho auch wegen der angeblich so nervigen µruckler kaum.
Ich weiß noch früher, da hab ich mir ganz viele CF Systeme zusammengepappt, da war die Skalierung, die Profile und das Spielgefühl [U]deutlich schlechter [/U]als es jetzt ist, was soviel bedeutet wie: µruckler Wahn
#87
customavatars/avatar28875_1.gif
Registriert seit: 23.10.2005
MG
Admiral
Beiträge: 17252
DX12 ... gutes Thema
ich denke aber, dass erst Maxwell über DX12 verfügen wird. Es kommt doch erst die W8 beta raus. Ergo DX12 = 2012, dann kann man sich wieder auf neues freuen :D[COLOR="red"]

---------- Beitrag hinzugefügt um 13:36 ---------- Vorheriger Beitrag war um 13:32 ----------

[/COLOR]
Zitat Schaffe89;17182067
Directx12? Da musst du noch lange warten.
Rechne mal lieber mit 2013/14

GTX 580 vs. HD 5870 CF?

Ich würde auch eher eine GTX580 vorziehen, aber niemals von 2x HD5870 auf ne GTX 580 abrüsten, das lohnt sich imho auch wegen der angeblich so nervigen µruckler kaum.


mikroruckler bei einer Karte?:hmm:

ehrlich gesagt habe ich lange überlegt zu tauschen. Aber zwei Wassergekühlte Karten gegen eine neue @ air zu tauschen bei etwa gleicher Leistung und dann noch unter Wasser setzen war mir dann doch zu heftig. Desweiteren steht die next gen auch nicht soo weit weg von der Tür.

SLI würde für mich auch in Frage kommen denke ich. Aber erst mit den neuen Karten.
#88
customavatars/avatar139327_1.gif
Registriert seit: 23.08.2010

Stabsgefreiter
Beiträge: 278
Zitat Grinsemann;17181916
Ja, wenn ich das richtig im Kopf habe, war der Umstieg von PCIe1 auf 2 auch nur ein Performancesprung von 5%-7%.


der Unterschied ist eher um die 2% siehe hier oder hier
auch mit Kepler wirds sich da nicht dramatisch viel ändern von daher PCIe3 :wayne:
#89
customavatars/avatar32678_1.gif
Registriert seit: 03.01.2006
Thüringen/Erfurt
Admiral
Beiträge: 18795
Zitat Schaffe89;17182067
Directx12? Da musst du noch lange warten.
Rechne mal lieber mit 2013/14

GTX 580 vs. HD 5870 CF?

Ich würde auch eher eine GTX580 vorziehen, aber niemals von 2x HD5870 auf ne GTX 580 abrüsten, das lohnt sich imho auch wegen der angeblich so nervigen µruckler kaum.
Ich weiß noch früher, da hab ich mir ganz viele CF Systeme zusammengepappt, da war die Skalierung, die Profile und das Spielgefühl [U]deutlich schlechter [/U]als es jetzt ist, was soviel bedeutet wie: µruckler Wahn


So schlimm ist das mit den Microrucklern doch garnicht, weder bei AMD noch bei Nvidia. Ich hab bei HD5870 CF keine gemerkt und bei den GTX580 merke ich auch keine. Solange die Grafikkarten potent genug sind und man in Shootern nicht unter 50FPS spielt ist das zu vernachlässigen.
#90
customavatars/avatar108956_1.gif
Registriert seit: 21.02.2009
Berlin
Oberstabsgefreiter
Beiträge: 390
Ist natürlich sinnvoll 400€ in eine Karte zu investieren die langsamer ist als das CF Gespann.
Toll eine GTX 5800 kann man takten, eine AMD Karte natürlich nicht.
Ich ging vo Serienleistung aus und da muss die GTX 580 schon ne richtige Schipp auflegen, wenn die da mitziehen will.

PCI-E 3.0 wird denke ich auch keine Rolle spielen.
Selbst bei 4 Lanes hat man nur 7oder 8%Verlust.
Wir sind noch lange nicht am Limit angelangt.
#91
customavatars/avatar32678_1.gif
Registriert seit: 03.01.2006
Thüringen/Erfurt
Admiral
Beiträge: 18795
Beide Karten lassen sich gut übertakten, gute HD5870 machen 1000MHz Core im CF mit und gute GTX580 lassen sich auch so um die 150MHz mit Serienkühlung übertakten.
Wobei der Fermi besser mit steigendem Takt in der Performance Skaliert.
#92
customavatars/avatar76352_1.gif
Registriert seit: 05.11.2007
Mittelfranken
Flottillenadmiral
Beiträge: 5816
@GermanFire
Hast recht 2x 6950 kosten etwa soviel wie ne 580 und wenn man bei nem crossfire [email protected] microruckler sieht sieht man bei ner 580 ganz andre ruckler.:)
#93
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat UHJJ36
So schlimm ist das mit den Microrucklern doch garnicht, weder bei AMD noch bei Nvidia.


Sagte ich ja auch nicht. Ich sprach von einem heutigen µruckler Wahn, bzw Verfolgungswahn in den Foren, obwohl früher alles viel mieser lief als jetzt.

Zitat UHJJ36
Wobei der Fermi besser mit steigendem Takt in der Performance Skaliert.


Bei AMD muss man halt auch den Speichertakt ordentlich raufjagen, sonst verpufft das manchmal.
#94
customavatars/avatar32678_1.gif
Registriert seit: 03.01.2006
Thüringen/Erfurt
Admiral
Beiträge: 18795
Und das ist der Harken bei der HD5870, der GDDR5 läuft schon serienmäßig ziemlich am Limit.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]