> > > > Weitere Benchmarks zur NVIDIA GeForce GTX 780 Ti

Weitere Benchmarks zur NVIDIA GeForce GTX 780 Ti

Veröffentlicht am: von

nvidiaAm kommenden Donnerstag wird NVIDIAs neue GeForce GTX 780 Ti für empfohlene 699 US-Dollar in den Handel kommen. So viel hat die kalifornische Grafikschmiede bereits verraten. Nach den zahlreichen Spekulationen und den ersten Benchmarks am Wochenende, zeichnet sich ab, dass die Ti-Version der GeForce GTX 780 die lang ersehnte GeForce GTX Titan Ultra werden wird, vermutlich mit den vollen Shadereinheiten der GK110-Architektur ausgestattet sein wird und es so der AMD Radeon R9 290X, welche leistungsmäßig mit dem bisherigen NVIDIA-Flaggschiff gleichzog, schwer machen wird.

In der Vergangenheit hatten die Kollegen von Videocardz.com mit ihren zahlreichen Spekulationen und Benchmarks zu kommenden Grafikkarten im Nachhinein häufig Recht. Nun veröffentlichte man dort neue Benchmarks, die wohl direkt von NVIDIA stammen. Demnach ist die GeForce GTX 780 Ti tatsächlich deutlich schneller als die Radeon R9 290X. Zu beachten ist dabei aber, dass es sich um hersteller-eigene Benchmarks handeln dürfte und das Konkurrenz-Modell lediglich im Quiet-Mode und nicht im schnelleren Uber-Mode getestet wurde. Im Schnitt wäre der AMD-Gegner zwischen acht und zwölf Prozent schneller. Auch 4K-Benchmarks fehlen, verwendet wurde durchgehend eine Auflösung von 2.560 x 1.600 Bildpunkten. Als Test-Plattform kam ein Intel Core i7-3960X unter Windows 8.1 zum Einsatz. Treiberseitig wurden der Catalyst 13.11 Beta 8 und der GeForce 331.70 installiert.

Benchmarks der NVIDIA GeForce GTX 780 Ti gegen AMDs Radeon R9 290X
Die wohl hersteller-eigenen Benchmarks zeigen die neue GeForce GTX 780 Ti deutlich vor der Radeon R9 290X.

Vor allem Spiele, in welchen NVIDIA PhysX vorantrieb, ist die NVIDIA-Karte deutlich schneller. Assassins Creed 3 und Batman: Arkham City sind klar eine NVIDIA-Domäne. Nicht ganz so groß fällt der Unterschied in Crysis 3, Metro: Last Light und Battlefield 3 aus. Im Schnitt liegt die NVIDIA GeForce GTX 780 Ti den Benchmarks zufolge etwa 20 Prozent vor der Konkurrenz. Der Vorsprung dürfte im Uber-Modus der AMD Radeon R9 290X auf etwa 13 Prozent schmelzen. In 4K-Benchmarks sollte die Radeon-Karte aufgrund des größeren Speicherausbaus etwas besser abschneiden.

Unabhängige Benchmarks dürften reihenweise am kommenden Donnerstag veröffentlicht werden. Dann kommt die neue NVIDIA GeForce GTX 780 Ti offiziell auf den Markt.

Social Links

Kommentare (25)

#16
customavatars/avatar84710_1.gif
Registriert seit: 10.02.2008

Admiral
Beiträge: 15048
Zitat User6990;21372620
Ich bezweifle dass einstampfen bei 13% Vorsprung das richtige Wort ist ;)


Wieso? Bei Leistungszuwächsen im Promille-Bereich ist das doch schon fast episch... :D
#17
customavatars/avatar136469_1.gif
Registriert seit: 24.06.2010

Flottillenadmiral
Beiträge: 5472
Alle für den Zocker wichtigen Features von DX11.1 werden von Nvidia unterstützt. Und ob 11.2 jemals einen bedeutenden Vorteil in Spielen bringt, bleibt abzuwarten.
#18
Registriert seit: 02.07.2013

Banned
Beiträge: 888
Interessant: Bei der AMD Karte wurde ständig wegen den paar extra Watt geheult, die sich erst nach einem Jahrzehnt bemerkbar gemacht hätten (auf Grund des besseren Preises), auch über die paar extra DB wird geheult. Das diese Karte hier nur in den vom Hersteller ausgewählten Benches etwas schneller läuft für massiv mehr Watt, ist jetzt wohl egal????? Die Kühlung dürfte bei dem massiven Mehrverbrauch auch nicht leiser sein als eine 290x im Übermodus ..... Aber das ist wohl jetzt auch wieder egal?? Könnt ihr euch mal bitte entscheiden was nun wichtig ist, oder ist es einfach nur besser weil nVidia drauf steht????

Mal ganz davon abgesehen, das bei billigeren Mainboards der PCI-E Stecker beschädigt werden könnte (da hier weit über dem Standard Strom gesaugt wird). Aber das ist wohl auch egal, weil steht ja nVidia drauf ..... Wie wäre es mal mit etwas Objektivität bitte ....

@Buffo: Natürlich wird DX 11.2 wichtig, weil die beiden großen neuen Konsolen das auch können und die Hersteller werden diese Features nur wegen dir und nVidia nicht jedes mal wieder komplett ausbauen für den PC Port ..... Es wird jedenfalls sehr viel mehr Bedeutung haben, als nVidias PhysX oder CUDA ;).
#19
Registriert seit: 22.02.2013

Hauptgefreiter
Beiträge: 204
Zitat Nekronata;21373015
Interessant: Bei der AMD Karte wurde ständig wegen den paar extra Watt geheult, die sich erst nach einem Jahrzehnt bemerkbar gemacht hätten (auf Grund des besseren Preises), auch über die paar extra DB wird geheult. Das diese Karte hier nur in den vom Hersteller ausgewählten Benches etwas schneller läuft für massiv mehr Watt, ist jetzt wohl egal????? Die Kühlung dürfte bei dem massiven Mehrverbrauch auch nicht leiser sein als eine 290x im Übermodus ..... Aber das ist wohl jetzt auch wieder egal?? Könnt ihr euch mal bitte entscheiden was nun wichtig ist, oder ist es einfach nur besser weil nVidia drauf steht????


Wieviel Watt am Ende benötigt werden wird sich noch zeigen. Es gibt weder zu den Leistungsergebnisse noch zur Stromaufnahme belastbare Zahlen. Das was da im Augenblick im Internet herumschwirrt ist an den Haaren herbeigezogen. Da gibt es dann plötzlich eine Seite bei der die 290x weniger verbraucht als die 780 oder Titan. Komischerweise hat das keine andere Seite so festgestellt. Am Ende wird es sowieso auf den Kühler ankommen. Hier kann man aber zu Recht insofern optimistisch sein, dass Nvidia den Teil besser umsetzen wird als AMD und das bleibt dann eben im Fazit auch hängen. Es hat niemand AMD davon abhehalten so einen unzureichenden Kühler zu verbauchen und es hat AMD auch niemald davon abgehalten das Versprechen im Vorfeld nach einer deutlichen Verbesserung im Bereich der Kühlung lieber gar nicht erst zu machen. Insofern müssen sie mit der Rechnung die ihnen wahrscheinlich (sofern Nvidia das besser macht) präsentiert wird leben.


Zitat

@Buffo: Natürlich wird DX 11.2 wichtig, weil die beiden großen neuen Konsolen das auch können und die Hersteller werden diese Features nur wegen dir und nVidia nicht jedes mal wieder komplett ausbauen für den PC Port ..... Es wird jedenfalls sehr viel mehr Bedeutung haben, als nVidias PhysX oder CUDA ;).


Vergiss es. Bis das relevant wird sind wir schon minimum eine Generation weiter, Konsolen hin oder her. Nvidia kontrolliert den PC Add-In GPU Markt mit über 60% Marktanteil. An denen kommt die Masse der Entwickler nicht vorbei und im professionellen Segment kommt die Masse derzeit auch an Cuda nicht vorbei, wenn sie optimale Ergebnisse erzielen will.
#20
customavatars/avatar145005_1.gif
Registriert seit: 12.12.2010

Oberleutnant zur See
Beiträge: 1362
nVidia unterstützt 11.2. Microsoft hat alle drei Demos auf Kepler-Karten gezeigt.
#21
customavatars/avatar173870_1.gif
Registriert seit: 02.05.2012

Matrose
Beiträge: 18
wo steht den bitte das die Karte 500 Watt braucht?
Vorallem wie soll sie diese bekomen selbst mit 2x 8 pin Stecker sinds doch 2 x 150 + 75 pci e also insgesamt 375 Watt am limit oder hab ich was verpasst?
#22
customavatars/avatar181437_1.gif
Registriert seit: 30.10.2012
Mittelfranken
Stabsgefreiter
Beiträge: 265
Zitat Alucard2150;21373206
wo steht den bitte das die Karte 500 Watt braucht?
Vorallem wie soll sie diese bekomen selbst mit 2x 8 pin Stecker sinds doch 2 x 150 + 75 pci e also insgesamt 375 Watt am limit oder hab ich was verpasst?


Bezieht sich auf Gesamtsystem mit leichten OC.
#23
customavatars/avatar136469_1.gif
Registriert seit: 24.06.2010

Flottillenadmiral
Beiträge: 5472
Zitat Nekronata;21373015

@Buffo: Natürlich wird DX 11.2 wichtig, weil die beiden großen neuen Konsolen das auch können und die Hersteller werden diese Features nur wegen dir und nVidia nicht jedes mal wieder komplett ausbauen für den PC Port ..... Es wird jedenfalls sehr viel mehr Bedeutung haben, als nVidias PhysX oder CUDA ;).


Wieso wegen mir? Wegen mir können sie DX11.2 sofort unterstützen. Nur ist die Feature-Liste von 11.2 ein Witz, kann man alles auch in 11.0 umsetzen. Und ich bezweifle auch nicht, dass mit den neuen Konsolen viele Spiele 11.2 unterstützen werden, nur, dass man bei diesen Spielen mit einer 11.0-Karte einen Nachteil hat. Die Bedeutung von Physx ist gering, aber die Bedeutung von 11.2 gleich null. Und was CUDA mit dem Gamingsektor und mir der Diskussion hier zu tun hat, hätte ich gern mal erklärt bekommen.
#24
customavatars/avatar84710_1.gif
Registriert seit: 10.02.2008

Admiral
Beiträge: 15048
CUDA steht halt auf Platz zwei der Anti-Nvidia-Todschlagargumente...
#25
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat Richthofen
Wieviel Watt am Ende benötigt werden wird sich noch zeigen. Es gibt weder zu den Leistungsergebnisse noch zur Stromaufnahme belastbare Zahlen. Das was da im Augenblick im Internet herumschwirrt ist an den Haaren herbeigezogen. Da gibt es dann plötzlich eine Seite bei der die 290x weniger verbraucht als die 780 oder Titan. Komischerweise hat das keine andere Seite so festgestellt.


Leaks sind für Stromaufnahmemessungen nie sonderlich relevant, ich warte vor allem auf HT4U, welche den Stromverbrauch am PCie Slot messen, tendenziell kann man aber den Verbrauch Nvidiaintern recht gut vergleichen, das sind ca 20 bis 30 Watt mehr als bei Titan, das ordnet sich dann wohl performancemäßig 10% über 290x/Titan ein.

Es gibt schon andere Seiten die weniger Verbrauch bei der 290x messen, je nach Szene kann das passieren, selbst beim Durchschnittsverbrauch siehts gar nicht so schlecht aus für die 290x ( siehe Tomshardware ) erst bei den Peakwerten wirds etwas mehr.

Zitat
Vergiss es. Bis das relevant wird sind wir schon minimum eine Generation weiter, Konsolen hin oder her. Nvidia kontrolliert den PC Add-In GPU Markt mit über 60% Marktanteil. An denen kommt die Masse der Entwickler nicht vorbei und im professionellen Segment kommt die Masse derzeit auch an Cuda nicht vorbei, wenn sie optimale Ergebnisse erzielen will.


Die nächste Generation kommt wohl mitte 2014, ob es relevant wird oder nicht, würde ich abwarten.

@ Richthofen

Nvidia kontrolliert nicht den Markt, lass doch solche Spitzen mal weg.
Wenn Nvidia den Markt kontrollieren würde, dann gäbe es wohl auch keine Entwickler die Mantle unterstützen.

( Eidos, Crytek, EA mit Frostbite und noch weitere ).

Zitat
und im professionellen Segment kommt die Masse derzeit auch an Cuda nicht vorbei, wenn sie optimale Ergebnisse erzielen will.


Das hat jetzt was mit Directx 11.2 zu tun?

Zitat
An denen kommt die Masse der Entwickler nicht vorbei


Muss man zum Teil auch gar nicht, Nvidia muss nur etwas Unterstützung liefern, dann werden sicherlich auch ein paar IF Anweisungen geschrieben um Nvidias Funktionen die unter directx 11.0 schon optional waren auch einzubinden.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]