> > > > Nachfolger für GeForce GTX 970, 980 und 980 Ti kommen im Juni

Nachfolger für GeForce GTX 970, 980 und 980 Ti kommen im Juni

DruckenE-Mail
Erstellt am: von

nvidia 2013Nach einer längeren Ruhephase rund um neue Grafikkarten bahnt sich für den Frühsommer ein echtes Feuerwerk an neuen GPUs und dazugehörigen Grafikkarten an. Während AMD bereits offiziell bekanntgegeben hat, dass man die Karten auf Basis der Polaris-Architektur im Sommer vorstellen wird, gibt es von NVIDIA noch keine offizielle Aussage in diese Richtung. Die Computex 2016, die Anfang Juni in Taipei stattfindet, war bereits im vergangenen Jahr die Gelegenheit, die von beiden Grafikkarten-Herstellern genutzt wurde. NVIDIA präsentierte die GeForce GTX 980 Ti und AMD die Radeon R9 Fury X.

Die direkte Verbindung mit einer Messe ist dabei für echte Produktveröffentlichungen von AMD und NVIDIA eher untypisch. Gerne aber nutzt man die Aufmerksamkeit im Vorfeld einer Messe und damit ist eine Präsentation der neuen Grafikkarten Ende Mai oder Anfang Juni sehr wahrscheinlich. Wohlgemerkt geht es um eine Präsentation, eventuell mit ersten Tests durch die Presse, mit der Verfügbarkeit der Karte(n) wird aber erst deutlich später gerechnet.

Neue Grafikkarten mit Pascal-Architektur als Nachfolger der GeForce GTX 970, 980 und 980 Ti
Neue Grafikkarten mit Pascal-Architektur als Nachfolger der GeForce GTX 970, 980 und 980 Ti

In der vergangenen Woche tauchten erste Gerüchte auf, die von einer Veröffentlichung der "GeForce GTX 1070" und "GeForce GTX 1080" sprachen. Aufgrund der eben genannten Argumentation gilt dies aber als wenig wahrscheinlich. Die für gewöhnlich gut informierten Kollegen von Hardware Battle wollen nun erfahren haben, dass NVIDIA zum Start gleich drei Modelle plant. Diese sollen auf Derivaten der GP104-GPU basieren, deren Eckdaten derzeit noch unbekannt sind. Wohin die Reise gehen könnte, zeigte zuletzt aber die GPU Technology Conference in der vergangenen Woche, auf der zum Beispiel ein Drive PX 2 Modul mit kleiner Pascal-GPU im Zusammenspiel mit GDDR5-Grafikspeicher zu sehen war. In dieser Form dürften die ersten Pascal-GPUs für den GeForce-Markt auch zu erwarten sein.

Drive PX 2 mit den GPUs auf der Rückseite
Drive PX 2 mit den GPUs auf der Rückseite

Die von Hardware Battle nun gezeigte Grafik zeigt eine Karte auf Basis der GP104-400-GPU als Nachfolger der GeForce GTX 980 Ti, die zunächst als Referenzkarte erscheinen soll. Die GP104-200-GPU wird als Nachfolger der GeForce GTX 980 erscheinen – ebenfalls erst als Referenzdesign und Anfang Juni. Der Nachfolger der GeForce GTX 970 wird auf Basis der GP104-150-GPU erst Mitte Juni vorgestellt werden. Bei diesem Modell sollen sich die Partner direkt mit eigenen Kühllösungen austoben können.

Alle bisher bekannten Details zur Pascal-Architektur haben wir in einer gesonderten Meldung zusammengefasst. Die Tesla P100 ist der erste GPU-Beschleuniger, der auf der GP100-GPU basiert. Diese P100-GPU ist die erste GPU auf Basis der Pascal-Architektur, die gleichzeitig den Vollausbau in dieser Form darstellt.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (64)

#55
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31948
Ähm nein...
Quad SLI ist doch die offizielle Bezeichnung von SLI mit zwei Dual GPU Karten.
Das was ihr meint ist 4-way SLI. Das ging wohl nicht mit der 280er. Aber mit der 285er ;) Zumindest bei einigen Boards mit einigen Karten.

Quad SLI "geht" grundsätzlich sogar schon mit der 7950GX2 -> bringt aber nix. Bei OpenGL Games könnte das aber anders ausschauen.
Mit den DX10 9800GX2 im Quad SLI funktioniert das aber halbwegs brauchbar... Crysis 1 skaliert damit recht gut -> wenn der VRAM reicht :fresse:
#56
customavatars/avatar17965_1.gif
Registriert seit: 15.01.2005
Hannover
Admiral
Beiträge: 10116
Ja, ich meine 4-Way SLI. Sollte aber klar sein, denn eine GTX 280 ist keine Dual-GPU Karte ;)
#57
customavatars/avatar65558_1.gif
Registriert seit: 06.06.2007

Leutnant zur See
Beiträge: 1240
@alashondra

Die ursprüngliche Aussage bezog sich darauf, das man kaum einen grafischen Unterschied sieht. Das wäre (da es sich auf die GTX280 bezog) für mich DX10 im Vergleich zu DX11. Unterschiede empfinde ich als sichtbar, allerdings eher subtil. Tendenziell, je neuer das Spiel, desto eher. Da es jedoch jede menge grafische Optionen gibt, die ja jeder einstellt, wie er lustig ist bzw. wie es die Hardware zulässt, ist eine Vergleichbarkeit schwer.

Das was du angesprochen hattest, betraf die Performance von Multi GPU bei neueren Titeln. Die alten Karten können schlicht nicht DX11. Das was dann aus Leistungssicht übrig bleibt, sind die typischen Probleme von Multi GPU.
Nicht umsonst wird empfohlen, nur starke Karten für Multi GPU zu nutzen, weil die Min/Durchschnitts FPS angehoben werden sollen, bei maximaler Auflösung und allen Optionen, häufig auch mit Mods. Genau das braucht extrem VRAM. Hat das die Karte nicht, stockt das Spiel beim Leeren des VRAM stark. Um diesen Faktor auszuschalten (es gibt ja genug verbleibende Nachteile) braucht es viel Videospeicher. Bei Skyrim etwa kann es sein, dass das Spiel mal 3 Sekunden lang stehen bleibt. Der Titel ist zwar schon älter und läuft bei mir ohne Mods, aber in FullHD mit imho allem was geht. Dabei habe ich FPS von 4,5 (Texturen laden am Anfang/und VRAM leeren) bis 60, im Mittel etwa 43. In der Praxis ist es deshalb bei alten Karten wichtig, wie ja schon angesprochen wurde, die Optionen so zu konfigurieren, dass das VRAM Limit nicht erreicht wird.

Dazu kommt dann die Skalierung. Ich habe seit 2009 kaum ein Problem mit Sli gehabt. Selten mal, dass ein Spiel es nicht unterstützt hat und wenn, dann war es ein alter Titel, bei dem die Leistung einer Karte auch reicht. Gothic 3 läuft z.B. nur auf 2 Karten. Die Zweite Karte skaliert sehr gut. Die Dritte nur noch mäßig, bei einigen Titeln merkt man sie auch gar nicht mehr. Je höher die Auflösung, desto eher fällt sie ins Gewicht. Quad Sli (2x9800GX2+ 8800GT) hatte ich auch mal, aber ohne echten 2D Modus waren die GPU´s 76 Grad warm im Idle und für mein Gehäuse nicht gut nutzbar. Außer Benchmarks gibt es auch kaum ein Spiel, was mit 4 GPU´s nennenswert skaliert.

Mikroruckler merke ich grundsätzlich. Es kommt immer auf den Titel an. Als Beispiel nenne ich gerne Racedriver Grid. Grid 1 lief bei mir mit 140FPS, dargestellt auf 60Hz TFT und das ganze Spiel lief häufig eckig und wie am Gummiband. Der typische Nachteil von Multi GPU, trotz sehr hoher FPS. Gefühlt eher 30FPS. Unspielbarkeit sieht in meinen Augen aber anders aus. Aber mit der Meinung bin ich eher alleine. Grid 2 läuft mit 60FPS und fällt auf niedrige 40er und hat diese Probleme gar nicht. Alles sehr sauber vom Ablauf. Empfindlichkeit des Users aber auch die Titel die gespielt werden, sollte man beachten.

Der Stromverbrauch ist ein weiterer Nachteil. Allerdings habe ich die Karten mit Bios Mod im Betrieb und sehe dass auch als Notwendigkeit an, wenn man Multi GPU richtig umsetzen will. Die GTX280 hat 236W TDP, die GTX260 "nur" 186W. Durch das Anpassen aller VCore Werte sank der Verbrauch Idle um fast 10W und unter Last etwa 35W pro Karte (trotz 99Mhz Übertaktung). Der ganze Rechner verbraucht 500W unter Volllast. Ein Wert, den man mit einer neuen Karte und OC auch erreicht. Es braucht entweder Radialgebläse oder Wasserkühlung um den thermischen Haushalt bei (3er)Multi GPU im Griff zu halten. Mit letzterer auch richtig leise mit viel OC. Es liegt einfach unheimlich viel Optimierungspotenzial brach. Die Karte wird nur unnötig laut und warm. Ich bin deshalb auch ein entschiedener Gegner des Boost, weil dieser unnötig hohe VCore in jeder Stufe hat.

Warum macht man dann sowas?
Ich bin Singleplayer Spieler, Multi-Player interessieren mich nicht.
Ich bin der klassische Pyramidenkäufer. Lieber 5 Titel für 50Euro als einer. Dann sind die Spiele teils älter aber ausgereift. Der Faszination tut das m.M. nach keinen Abbruch.
Ich habe kaum mehr Zeit zum Spielen, ergo passt das nahtlos zu dem oben Genannten.
Ich habe gerne eine Lösung, die nicht jeder hat und eine "Bastellösung darstellt" Die Nachteile habe ich teils ausgemerzt oder umgangen, bei anderen Titeln toleriere ich sie.
Der Hauptgrund für mich ist, dass ich nicht bereit bin hunderte von Euro für eine Karte zu bezahlen. Damals (Kaufzeitpunkt) gab es zwischen NVidia und Ati noch Konkurrenz und sehr niedrige Preise. Ich habe pro Karte 139Euro bezahlt. Für den Preis der drei bekäme ich nicht mal eine GTX980 und dass ist nur der Performance Die. Ich kaufe daher nunmehr nur Auslaufmodelle oder gebraucht. Außerdem brauche ich das Radialgebläse für einen solchen Aufbau und die haben nur die High-end Modelle.

Mein Fazit: Der grafische Unterschied ist da, genauso wie die Nachteile. Diese lassen sich aber teils umgehen, andere müssen hingenommen werden. Dann kann man auch mit alten Karten in Multi GPU spielen und damit glücklich werden...
#58
customavatars/avatar117832_1.gif
Registriert seit: 08.08.2009

Oberleutnant zur See
Beiträge: 1347
Zitat even.de;24497235
:lol:



Du weißt schon, dass diese Karten 1GB DDR3 haben, nicht mal DX 11 unterstüzen



crysis 1 was technisch ausgereifter als teil 2 ist...warscheinlich auch mehr als teil 3 haben dennoch alle mit der 1gb 280 gezockt
#59
Registriert seit: 01.01.1970


Beiträge:
Crysis 1 haben Leute auf einer 8800 GTX gespielt... Zumal diese Karten heftige Speicheranbindungen haben die teils mehr Bandbreite haben als manche moderne GDDR5.
#60
Registriert seit: 08.11.2015

Leutnant zur See
Beiträge: 1053
Hallo? Dir ist klar, das es [U]keine[/U] Grafikkarte damals gab, als Crysis rauskam, mit welcher man es auf high spielen konnte! Das Spiel war erst Jahre später auf High spielbar, als schon viel bessere Spiele wie Uncharted und GTA4 rauskamen. Ich glaube erst mit einer GTX285 im Sli Modus lief das Spiel mit knapp 30fps...
#61
customavatars/avatar132552_1.gif
Registriert seit: 03.04.2010

Oberleutnant zur See
Beiträge: 1413
Kam da stark drauf an bei welcher Auflösung. Auf meiner GTX 260 mit maximalen Details (minus AA) war es gut spielbar bei 1680x1050. Eine 280 hat gereicht um es so zu spielen wie du sagst. Bei 1080p oder 1920x1200 sah das anders aus, aber diese Auflösungen waren damals sicher noch kein Standard.
#62
Registriert seit: 08.11.2015

Leutnant zur See
Beiträge: 1053
Hab die Beta von Crysis damals, nachdem ich mir kurz nach Launchdate der G80 die GTX8800 von Asus für stolze 550,- Euro für Quakewars, welches sich aber als Megaflop erwies, gekauft hatte, damals schon auf High bei damalig klassischer 1680x1050 Auflösung gespielt. Lief dann in der finalen Version auch im Multiplayer unter DX10 mit Veryhigh bei glaub ich so 35-50FPS. Colourgrading war in den MP Maps deaktiviert, was auch mit der größte "Performancefresser" war. Das war Sommer 2007. Bin dann Oktober 2008 auf GTX260 Tri-Sli samt Rampage Extreme und i7 920 umgestiegen; Crysis MP war damals schon tot, aber im Multiplayer von Crysis Wars hatte ich dann unter DX9 so locker 90FPS Average bei 1680x1050 Auflösung und (very)high.

Der obige Kommentar sollte mehr ein Scherz sein, denn in den letzten 5 Jahren liest man soviel Garbage im Internet, daß man schon fast daran glauben möchte. Auf Neogaf liest man solche Kommentare teils täglich...

Können auch nur halt Trolls sein, aber wer trollt noch eigentlich nach dem 2010 Crash...(Kummer-Heul-Flenn-Schmerz)...
#63
customavatars/avatar17965_1.gif
Registriert seit: 15.01.2005
Hannover
Admiral
Beiträge: 10116
Zitat Cool Hand;24499663
Kam da stark drauf an bei welcher Auflösung. Auf meiner GTX 260 mit maximalen Details (minus AA) war es gut spielbar bei 1680x1050. Eine 280 hat gereicht um es so zu spielen wie du sagst. Bei 1080p oder 1920x1200 sah das anders aus, aber diese Auflösungen waren damals sicher noch kein Standard.


So ist ers. Habe auch alles auf High gezockt mit der GTX 260 216 Shader + OC und konnte damit absolut auf High zocken. Was du meinst war Very High. Wenn man die Shader etwas runterregelte ging das super mit der 260.
#64
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8676
Bin mal gespannt ob NV eventuell eine GTX 1090 raushaut mit den kleinen Chips vom Pascal so wie die GTX690 damals nur halt mit 2×8GB als Konkurenz zur AMDs. Duo.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]