> > > > NVIDIAs "Kepler" GK104 soll im März kommen

NVIDIAs "Kepler" GK104 soll im März kommen

Veröffentlicht am: von

nvidiaNachdem AMD bereits vor einigen Wochen seine neuste Grafikkartengeneration in den Handel gebracht hat, warten viele Kunden auch auf die neuen Modelle der kalifornischen Grafikschmiede NVIDIA. Die Kollegen von Sweclockers wollen nun neue Informationen bezüglich eines Liefertermins erhalten haben. Demnach soll der Grafikprozessor GK104 im März als GeForce GTX 670 Ti in den Handel kommen. Der Termin soll noch nicht genau feststehen, aber es wird über eine Präsentation nach der CeBIT spekuliert und somit ist zwischen dem 11. und 31. März jeder Tag möglich. Die Entwicklung des Chips wurde unter dem Codenamen "Kepler" vorangetrieben und wie auch beim Kontrahenten AMD wird NVIDIA sowohl eine komplett neue Architektur auf den Markt bringen, als auch erstmals die Chips im feinen 28-Nanometer-Prozess produzieren lassen.

Ein großes Geheimnis ist zudem noch die Leistung des GK104-Chips. Die Performance soll nach neusten Informationen höher als bei der GeForce GTX 580 und Radeon HD 7950 liegen. Erste Analysten gehen von einer Leistungseinstufung zwischen der Radeon HD 7950 und HD 7970 von AMD aus. Bei den technischen Daten soll NVIDIA auf 1536 Shader setzen, insgesamt 128 TMU verbauten und 32 ROP integrierten. Der Speicher soll eine Größe von 2,0 GB besitzen und über ein 256-Bit-Interface mit dem Grafikprozessor verbunden sein. Beim Takt wird eine Frequenz von 950 MHz genannt.

Ob sich der Termin im März wirklich bewahrheiten wird, wird sich wohl erst in den kommenden Wochen zeigen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (55)

#46
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34159
Das gleiche gilt aber auch für jede andere Karte ;) du musst nur die richtigen Berechnungen auf die Einheiten packen, dann skaliert das extremst...
Und zum ersten, mir ist durchaus bewusst, warum G200 so und so viel GFlops/s erreicht, es ändert aber nix an der Tatsache, das dies eben "werfen" mit nakten theorie Zahlen ist... Da kann Kepler noch so gut dastehen, unterm Strich zählt das, was hinten raus kommt. Und hier steht im Moment alles noch in den Sternen. Vor allem aufgrund der Tatsache, das niemand so recht einschätzen kann, wie gut die Kepler ALUs agieren werden, wenn ihnen der HotClock fehlt. Vielleicht sehen wir schlicht und einfach "nur" ähnliche Ergebnise wie AMD? Aktuell weis das niemand so genau von uns... ;)
#47
customavatars/avatar145005_1.gif
Registriert seit: 12.12.2010

Oberleutnant zur See
Beiträge: 1381
Zitat fdsonne;18434046
Das gleiche gilt aber auch für jede andere Karte ;) du musst nur die richtigen Berechnungen auf die Einheiten packen, dann skaliert das extremst...
Und zum ersten, mir ist durchaus bewusst, warum G200 so und so viel GFlops/s erreicht, es ändert aber nix an der Tatsache, das dies eben "werfen" mit nakten theorie Zahlen ist...


Und das ist eben ein Problem: Eine unabhängige MUL zu finden, die im selben Abarbeitungszeitraum stattfindet, ist einfach sehr schwierig. Deswegen sind Fermi-Karten auch deutlich schneller, trotzdem die theoretische Rechenleistung nicht viel höher liegt.

Zitat
Da kann Kepler noch so gut dastehen, unterm Strich zählt das, was hinten raus kommt. Und hier steht im Moment alles noch in den Sternen. Vor allem aufgrund der Tatsache, das niemand so recht einschätzen kann, wie gut die Kepler ALUs agieren werden, wenn ihnen der HotClock fehlt. Vielleicht sehen wir schlicht und einfach "nur" ähnliche Ergebnise wie AMD? Aktuell weis das niemand so genau von uns... ;)


Die Kepler-ALUs werden genauso agieren, wie die von Fermi. Grafik-Aufgaben und Compute-Berechnungen sind hoch parallelisiert.
Und dank dem Front-End Umbau bei Fermi gibt es nun auch keine Limitierung vor dem Rasterizing, was dazu führt, dass nirgendwo ein Flaschenhals mehr entsteht.

Oder anders gesagt: Mehr Rechenleistung, mehr Spieleleistung. ;)
#48
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34159
Ist das so? Ich sehe Fermi im Vergleicih zu den AMD Karten in dicken Settings (genau dafür sind HighEnd Karten in meinen Augen da) teils ziemlich heftig einbrechen im Vergleich ;)
Im Moment spekuliert man ja mit GK104... Welcher eben über massiv mehr ALU Power verfügen soll, in Sachen ROPs, TMUs, SI usw. könnte der Schritt aber weit weniger ausgefallen werden. Wenn das Teil Bandbreitenlimitiert ist, nutzt die ALU Power genau gar nix :fresse:

Wie gesagt, in der Theorie sollte vieles so sein, in der Praxis zeigt sich oft ein anderes Bild.
#49
customavatars/avatar103616_1.gif
Registriert seit: 03.12.2008
Wien
Leutnant zur See
Beiträge: 1186
Zitat
Experience The DirectX 10.1 Difference - YouTube


Mann was ist das komisches, schau mal Battlefield 3 an, was man mit Tesselation machen kann wie in Caspian Border oder Golf of Oman, wo die Welten nach hinten gehen mit Lavaberge oder Häusersiedlungen, das ist Tesselation.

Dieses Dx10.1 Murks Video da ist ja mit 480p gar nichts zu erkennen. Manche Leute sind irgendwie komisch.
#50
customavatars/avatar58810_1.gif
Registriert seit: 25.02.2007

Banned
Beiträge: 8170
Gehört das hier nicht in den Technik-Diskussions-Thread ??! :hmm:
#51
customavatars/avatar83674_1.gif
Registriert seit: 28.01.2008

Oberstabsgefreiter
Beiträge: 480
Ich glaube in dem Video ging es nicht darum, ob DX10 oder DX10.1 besser aussieht, sondern dass man bei gleicher o. besser Optik in DX10.1 mehr FPS hat.
#52
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34159
Zitat Derty Harry;18434252
Mann was ist das komisches, schau mal Battlefield 3 an, was man mit Tesselation machen kann wie in Caspian Border oder Golf of Oman, wo die Welten nach hinten gehen mit Lavaberge oder Häusersiedlungen, das ist Tesselation.

Dieses Dx10.1 Murks Video da ist ja mit 480p gar nichts zu erkennen. Manche Leute sind irgendwie komisch.


Es ging viel eher darum, das man den Unterschied in Sachen FPS Zahlen (die man zweifelsfrei erkennen kann) zwischen DX10.0 und DX10.1 erkennt ;) Und das bei gleicher Optik durch optimierten Code mit DX10.1 ganz paar mehr FPS auf gleicher Hardware zu sehen sind. Such mal nach dem Video, da gibts auch welche mit höherer Auflösung ;)
#53
customavatars/avatar22571_1.gif
Registriert seit: 06.05.2005

Kapitän zur See
Beiträge: 3176
20-25% nicht gerade wenig. Da ist der Sprung GTX480 -> GTX580 viel kleiner. ;)
Bringt dx11.1 etwas in diese Richtung?

Damals wurde ja der dx10.1 Patch für assasincreed wieder zurückgezogen auf grund der krassen verbessrung. Wenn da mal nicht "the way is meant to be played" was mit zu tun hatte...

Assassin's Creed bekommt kein D3D 10.1 mehr - 29.05.2008 - ComputerBase
#54
customavatars/avatar103616_1.gif
Registriert seit: 03.12.2008
Wien
Leutnant zur See
Beiträge: 1186
Aso, ja ok, habs nicht verstanden weil er was von tesselation dazugefasselt hat.

Btw. La Noire hat ja durch dx11 patch auch mehr fps bei gleicher Optik.
#55
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34159
Zitat G3cko;18434901
20-25% nicht gerade wenig. Da ist der Sprung GTX480 -> GTX580 viel kleiner. ;)
Bringt dx11.1 etwas in diese Richtung?


Jedes DX bringt sowas in der Richtung. Man bekommt gleichwertige Optik bei teilweise enorm weniger Rechenaufwand. Das Problem ist nur, du brauchst eben Hardware dazu ;) Ohne Hardware nutzt dir das nix. Und einen Patch im Nachhinein zu bringen ist auch denke ich die Ausnahme, einfach weil die Leute dort Aufwand reinstecken ohne was für zu bekommen... Das kann sich nicht jeder leisten.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]