> > > > EVGA GeForce GTX 780 Ti Classified im Test

EVGA GeForce GTX 780 Ti Classified im Test

DruckenE-Mail
Erstellt am: von

Seite 20: Fazit

Für die GeForce GTX 780 Ti Classified von EVGA gilt, was wir eigentlich für jedes Modell der Classified-Serie anmerken müssen: Die Modifizierungen am PCB und hier vor allen an der Strom- und Spannungsversorgung sind derart umfangreich und wirken positiv auf das Overclocking, dass eigentlich auch nur solche Anwender, die in dieser Hinsicht viel vor haben, zur Classified greifen müssen. Sie ist aktuell das teuerste Modell der GeForce GTX 780 Ti, bietet dafür aber auch so einiges mehr als die übrigen Vertreter.

Dafür muss man die EVGA GeForce GTX 780 Ti Classified mit ihrem ACX-Kühler aber auch von der Leine lassen. EVGA ist mit einem Basis-Takt von 1.020 und einem Boost-Takt von 1.085 MHz einfach zu konservativ. Den Speicher lässt man ebenfalls mit den Vorgaben von 1.750 MHz arbeiten. Innerhalb der von NVIDIA angebotenen Taktstufen für den Vollausbau der GK110-GPU liegt man damit im mittleren Bereich und teilt sich die potenzielle Leistung mit Modellen von Gigabyte und MSI. An den Spitzenreiter mit 1.085 MHz Basis- und 1.150 Boost-Takt, die Gigabyte GeForce GTX 780 Ti GHz Edition, kommt sie ab Werk nicht heran.

Etwas Hintergrund zu diesem Thema: Bereits NVIDIA selektiert nach der Fertigung seine GPUs, nicht nur nach den Defekten, um sie in die verschiedenen Desktop-, Quadro- und Tesla-Karten einzuteilen, sondern auch nach Qualität, die Einfluss auf den Takt hat. Die Hersteller bestellen eine gewissen Anzahl an den Karten, die einen festen Wert erreichen. Allerdings verpflichten sie sich je nach Menge auch, entsprechend weniger "gute" Karten zu verkaufen. Einmal ein paar Zahlen, die uns zu Ohren gekommen sind: Wenn ein Hersteller beispielsweise Karten mit 1.020/1.085 MHz verkauft, dann müssen das in etwa 35 Prozent des Gesamtvolumens seins. Das heißt aber auch, dass 65 Prozent der abgenommenen Karten langsamer sein müssen. Das staffelt sich dann entsprechend höher, wenn man wie Gigabyte auch Karten mit 1.085/1.150 bestellt. Je besser selektiert NVIDIA bereits an die Hersteller liefert, umso mehr langsamere Karten müssen diese auch abnehmen. Damit will NVIDIA natürlich verhindern, dass man auf den "schlechteren" Karten sitzen bleibt. EVGA könnte aufgrund der Kühlungen und Änderungen am PCB seine Karten also leicht mit höheren Taktraten ausliefern, muss dabei aber auch im Hinterkopf behalten, welche Politik NVIDIA verfolgt. Dies als Hintergrund zur Einordnung, warum sich ein Hersteller für ein explizites Overclocking ab Werk entscheidet.

Der ACX-Kühler hält die GPU der EVGA GeForce GTX 780 Ti Classified auf einer Temperatur, welche den höchsten Boost-Takt ermöglicht. 1.162 bzw. 1.176 MHz liegen durchgängig an. Das reicht, um vor den meisten Konkurrenten zu bleiben. Einzig der Gigabyte GeForce GTX 780 Ti GHz Edition muss man sich geschlagen geben. Nicht weiter erwähnen müssen wir eigentlich, dass EVGA die Referenzversion der GeForce GTX 780 Ti weit hinter sich lässt. Die AMD Radeon R9 290X hat man ebenso im Griff. Aber es ist sicherlich nichts Neues - wer sich für eine GeForce GTX 780 Ti entscheidet (dabei spielt es keine Rolle für welches Modell), der muss sich bei aktuellen Spielen auch bei 2.560x1.600 keinerlei Sorgen machen. Durchweg sind die höchsten Qualitätseinstellungen, einschließlich der anisotropischen Filterung und den verschiedenen Anti-Aliasing-Modi möglich. Für UltraHD bzw. 4K müssen einige Einschränkungen gemacht werden.

Auf aktuellen High-End-Karten zum entscheidenden Faktor ist der Kühler geworden. NVIDIA hat mit der GeForce GTX 780 Ti dabei weniger Probleme als AMD mit der Radeon R9 290X und R9 290 - zumindest auf die Referenzkühlung bezogen. Mit den ersten Custom-Modellen der Radeon R9 290X ging es aber zunächst einmal darum, überhaupt den maximalen Takt zu erreichen. Vielleicht sind die Hersteller daher etwas vorsichtiger bei der werksseitigen Übertaktung der Radeon R9 290X. Die Partner von NVIDIA können da schon etwas aggressiver an das Thema herangehen, schließlich sind die eigenen Kühlungen in der Lage die GPU deutlich unter der Ziel-Temperatur zu halten. Oftmals schaffen das die Hersteller aber nur, indem sie die Lüfter (zu) schnell arbeiten lassen. Auch hier scheint EVGA den richtigen Mittelweg gefunden zu haben. Sowohl im Idle-Betrieb wie auch unter Last messen wir eine geringe Lautstärke, die im Vergleich zur Referenzversion eine deutliche Verbesserung darstellt. Die Leistungsaufnahme bleibt dabei im Rahmen, auch unter Last. Man merkt der GeForce GTX 780 Ti Classified förmlich an, dass sie mit angezogener Handbremse arbeitet.

Damit kommen wir auch schon zum Thema Overclocking, einer Paradedisziplin der EVGA GeForce GTX 780 Ti Classified. Die Verwendung eines alternativen Voltage Regulation Module macht sich aber erst bezahlt, wenn man das BIOS von seinen Fesseln befreit. Dazu haben wir einfach das modifiziertes BIOS von Kingpin verwendet, ein Wechsel auf das zweite angebotene BIOS der Karte ist aber ebenso möglich. Nun erlaubt der "GTX Classified Controller" die volle Kontrolle über die drei wichtigsten Spannungen. Bis zu 1,5 Volt sind zunächst möglich, für eine Karte mit Luftkühler ist dieses Maximum aber schnell tödlich. Wir versuchten es mit etwa 1,3 Volt und spielten mit Takt und Spannung so lange, bis wir einen stabilen Betrieb bei einem möglichst hohen Takt erreicht hatten. Letztendlich erreichten wir einen GPU-Takt von 1.384 MHz. Es ist nicht weiter verwunderlich, dass noch keine andere GeForce GTX 780 Ti in unseren Händen dies schaffte. Aber wie auch mit den Werkseinstellungen bleibt auch bei einem derartigen Overclocking-Ergebnis das Gefühl, dass noch deutlich mehr Potenzial in der Karte steckt, als wir zu Tage fördern können. Mit einem Wasser- oder gar LN2-Kühler versehen, sind sicherlich auch 1,4 - 1,5 GHz problemlos machbar.

Für alle High-End-Freunde bietet EVGA die GeForce GTX 780 Ti Classified K|NGP|N Edition an. Dabei handelt es sich noch einmal um handselektierte Chips, denen zusätzlich noch ein großzügiger Unterbau aus Strom- und Spannungsversorgung gegeben wird. EVGA baut diese Karte allerdings nur auf Anfrage und auch wenn wir uns über ein solches Sample gefreut hätten, ist uns natürlich bewusst, dass wir das Potenzial erst recht nicht hätten ausschöpfen können.

Alternativen? Für wen es eine GeForce GTX 780 Ti sein soll und wer sich auf die ab Werk eingestellten Taktraten verlassen will, für den muss es nicht zwingend das Classified-Modell von EVGA sein. MSI und Gigabyte bieten gleich schnelle Karten, im Falle der GeForce GTX 780 Ti GHz Edition ist man sogar durchweg teurer. Der ACX-Kühler bietet allerdings ein ausreichendes Potenzial, um höhere Taktraten zu erreichen, die wir bisher noch mit keiner anderen Karte gesehen haben. Geht es dann sogar auf eine Wasser- oder LN2-Kühlung, sehen wir als einzige Konkurrenz die KFA2 GeForce GTX 780 Ti HOF, die wir allerdings noch nicht selbst in Händen halten konnten.

evga 780ti classi s

Positive Aspekte der EVGA GeForce GTX 780 Ti Classified mit ACX-Kühler:

  • alle Spiele mit 2.560x1.600 flüssig spielbar
  • UltraHD/4K mit einigen Einschränkungen möglich
  • durchweg Anti-Aliasing und anisotropische Filterungen möglich
  • ACX-Kühler hält die GPU immer am Boost-Limit
  • GPU-Boost mit zahlreichen Optionen
  • ACX-Kühler im Idle- und Last-Betrieb leise
  • Spannungsmodifikation über Spezifikationen via Software

Negative Aspekte der EVGA GeForce GTX 780 Ti Classified mit ACX-Kühler:

  • hoher Preis
  • relativ hohe Leistungsaufnahme
  • konservatives werksseitiges Overclocking

Persönliche Meinung

Etwas schade finde ich, dass EVGA sich (aus welchem Grund auch immer) bei seinen High-End-Modellen nicht immer für den höchstmöglichen Takt entscheidet. Da wir die Karten zunächst einmal im Zustand testen, den die Hersteller ab Werk vorsehen, kann ein Classified-Modell nie das zeigen, was in ihm steckt. Wieder einmal aber war es eine Freude zu sehen, was mit einer GPU wie der GK110 möglich ist, selbst unter den wenig idealen Bedingungen einer Luftkühlung. Kingpin als Haus- und Hof-Overclocker hat bereits gezeigt, dass mit der EVGA GeForce GTX 780 Ti Classified 1.900 MHz und mehr machbar sind. Jetzt sind wir auf die ebenfalls in diese Richtung getrimmten Modelle von Galaxy (GeForce GTX 780 Ti HOF ) und MSI (GeForce GTX 780 Ti Lightning) gespannt. (Andreas Schilling)

 

Social Links

Seitenübersicht

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (64)

#55
customavatars/avatar62126_1.gif
Registriert seit: 14.04.2007
Euskirchen, NRW
AMD-Fanboy
Beiträge: 19504
stock ja, viel OC mit OV nein
#56
customavatars/avatar105791_1.gif
Registriert seit: 04.01.2009

Skarabäusfürst
Beiträge: 661
1k oder gleich 1,2k
#57
customavatars/avatar95302_1.gif
Registriert seit: 19.07.2008
Hamburg
Admiral
Beiträge: 11876
1k mit guter Qualität reicht. Kommt aber drauf an, was Du vor hast?
Luft oder Wasserkühlung?
#58
customavatars/avatar105791_1.gif
Registriert seit: 04.01.2009

Skarabäusfürst
Beiträge: 661
Erst Luft danach auch Wasser
#59
customavatars/avatar95302_1.gif
Registriert seit: 19.07.2008
Hamburg
Admiral
Beiträge: 11876
Ok, wenn Du dann noch benchen willst, mit 1,4v auf den Karten machen auch 1200W Sinn. ;)
#60
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2577
Zitat fdsonne;21666058
ja, man erkennt, das in C3 bei steigender Auflösung/AA Settings der Vorsprung schrumpft. Warum das so ist? Nicht erkennbar...
Gegenbeispiel einfach ins Blaue geraten (und das sogar ein Titeln, der maßgeblich mit AMD zusammen entwickelt wurde)

BF4
1080p, no AA / no AF = 118,6 zu 102,5 = +15,7%
1440p, no AA / no AF = 73,3 zu 67,2 = +9,0%

1080p, 4xMSAA / 16xAF = 85,4 zu 70,7 = +20,8%
1440p, 4xMSAA / 16xAF = 52,6 zu 45,1 = +16,6%

Komplett das Gegenteil von Crysis 3... Was ist nun mit deiner Theorie?
Und sag jetzt nicht, das das zuschalten von AA weniger VRAM usage bedeutet ;)


Warum das so ist kann ich dir sagen.
Battlefield 4 = bugverseuchter Multiplayerport... Mehr gibt es da wohl nicht zu sagen.

Zitat

Der Denkfehler liegt hier nicht bei mir ;)
Siehe folgendes Beispiel:
690 -> GPU A = Frame 1 = abhängig von VRAM Größe und Bandbreite von GPU A, GPU B = Frame 2 = abhängig von VRAM Größe und Bandbreite von GPU B, GPU A = Frame 3 = abhängig...
780TI -> GPU = Frame 1 = abhängig von VRAM Größe und Bandbreite dieser GPU, GPU = Frame 2 = abhängig von VRAM Größe und Bandbreite dieser GPU, GPU = Frame 3 = abhängig...

Wie man unschwer erkennen kann (das bezieht sich eben genau auf AFR) ist das ein insich quasi geschlossenes System. Die Frames kommen idR immer im Wechsel von GPU A und B beim Dual GPU System. Wärend die Single Karte logisch alles sequenziell hintereinander abarbeiten muss. Nur ist es eben vollkommen wurscht, wie viele GPUs im AFR Mode die Frame am Ende berechnen, denn pro Frame bezieht sich die Abhängigkeit IMMER! auf die GPU, die das Frame berechnet. Folglich auch auf die VRAM Größe und die Bandbreite von genau dieser besagten GPU.
Die Abhängigkeit der Bandbreite wird weder mehr noch weniger... Kann auch gar nicht, schon logisch nicht. Denn auch dei Dual GPU Geschichte arbeitet sequenziell nur Frames ab. Nämlich jedes 2. pro GPU ;) Die Single GPU macht halt jedes "einte pro GPU", wenn du es so willst.
Im SFR Mode ist das unter Umständen anders. Aber SFR ist selten bis nie im Einsatz, weil es einfach nicht nennenswert skaliert, vor allem nicht bei Effekten, die im Vollbild dynamisch über die zusammengeschusterten Bildteile hinweg berechnet werden müssen...


Genau ! Jede GPU hat ihr eigenes SI mit voller Speicherbandbreite. Wie kommst du darauf, das dies keinen signifikanten Vorteil gegenüber einer GPU verschafft die alleine alles stemmen muss ? Selbst wenn beide GPUs einer GTX690 an Speicherbandbreitenmangel leiden, so können sie immer noch parallel arbeiten. Ist das so schwer zu verstehen ?
Du verzettelst dich da jetzt in einem sonnenklaren Punkt, den ich dir versuche zu vermitteln. Das Verständnis dafür muss du aber schon selber entwickeln.
Du redest jetzt viel im den heißen Brei herum um nicht zugeben zu müssen, das du mit dem Thema GTX 690 eben kein Argument hast und du dich damit irrst. Eine Dual-Karte arbeiten völlig anders, nämlich gemeinsam. Das läßt sich nicht auf eine Single-Karte übertragen, was dein Fehler ist.

Zitat

PS: und ich sag dir sogar nochwas, was deine Aussage widerlegt.
Schau dir mal die Rohdaten der GPUs an. Sprich die der 690 vs. die hierige EVGA 780TI mit GPU OC.
bei ersterer steht es 2x 1536 ALUs x 915MHz Basis / 1019MHz Boosttakt = 2811 - 3130 GFlop/s pro GPU
die 780TI hier erreicht 1x 2880 ALUs x 1,020MHz Basis / 1085 Boosttakt = 5875 - 6250 GFlop/s...
bei ersterer steht es 2x 1502MHz x 256Bit = 192GB/sec pro GPU
die 780TI hier erreicht 1750MHz x 384Bit = 336GB/sec


Und wieder das Selbe.
Das ist kein Argument, was du da bringst, sondern eher die Bestätigung meiner Erklärung.
Die zwei GPUs der GTX 690 haben zwar zusammen etwa die selbe Rohleistung wie die GTX780Ti, aber zusammen eben deutlich mehr Speicherbandbreite und genau das scheint der GTX780Ti und der Titan zu fehlen und genau deshalb kann sich die GTX690 absetzten. Puh. Schwer Geburt ist das mit dir.

Zitat

Die nutzbare Speicherbandbreite steigt absolut um 75% (default ohne händischem OC) pro Frame und die Leistung der GPU pro Frame um 109 im Basis respektive ca. 100% im Boosttakt. Auch sagt man dem GK110 nach, das er nicht so Bandbreitenhungrig ist, wie GK104 und bringt dies direkt mit den deutlich größeren Caches in Verbindung. Denn GK110 skaliert nachweislich sehr anständig auch über 1000MHz GPU Takt drüber hinaus. Selbst mit 1300MHz+ legst du noch massiv zu. Bei GK104 ist hier lange schon das Bandbreitenlimit akut... Die 192GB/sec drücken ja sogar schon im default Takt der 680 (also um die 1050MHz) auf die Bremse ;) Mit 1200-1300MHz skaliert der mehr GPU Takt nur noch im Faktor 2:1 in der Performance, wärend der Faktor bei GK110 deutlich drüber liegt.
Irgendwo in deiner Logik muss sich also ein Denkfehler befinden, denn die Zahlen sprechen absolut vom Gegenteil deiner Aussage. Denn selbst 2x (also 100% SLI Skalierung) die FPS von GK104 im Bandbreitenlimit mit OC ist immernoch weniger als 1x saubere Skalierung ;) -> das SLI nicht 100% skaliert, sondern eher im Bereich ~80-85% real brauch ich dazu wohl nicht erwähnen.
Drück nun noch etwas OC auf die VRAMs und du bist bei ner Steigerung von knappen 100% mehr Bandbreite zum GK104... :wink: (mich wundert sowieso, das man bei diesen über OC Modellen die Speichertaktraten nicht angezogen hat -> denn da ist noch einiges Luft nach oben)


Bitte höre auf damit. In meinen Kopf dreht sich schon alles.
Du vergisst(unterschlägst) dabei mal wieder, dass beide GPUs der GK104-Serie zusammen 2x192 GB Bandbreite verfügen. Und das ist 20% mehr als der GK110 B1 besitzt.

Zitat

Gerüchten zur Folge gab es mal einen GK100... Der aber nie das Licht der Endkundenwelt erblickt hat. Warum und Wieso? Ist ziemlich egal... Fakt ist, aus Endkundensicht ist GK104 der erste Kepler Chip. GK110 ist die Überarbeitung eines GK100 -> den es jedoch nie öffentlich gab. Den Bruch im Namensschema des für den Endkunden unwichtigen Chipkürzels muss also irgend einen Grund haben. Du wolltest doch einen Überarbeitung -> da hast du sie.


Einen GK100 gibt es nicht und der GK110 ist deutlich älter als Hawaii. Du siehst. Je mehr du schreibst, desto weniger muss ich antworten. ;)

Zitat

PS: wenn du es so eng siehst, ist Hawaii auch nur ein Tahiti mit mehr Einheiten. Wobei, stimmt nicht ganz, vom inneren Aufbau her gleicht Hawaii eher einem PitCairn -> nur doppelt so groß und das ist quasi jeder hinsicht + einem zusätzlichen Shaderblock.


Hawaii ist auch nur ein Tahiti ? Woher hast du das Gerücht schon wieder ?? Bitte nur Fakten auf den Tisch.

Tahiti --------:-------- Hawaii
[ATTACH=CONFIG]264002[/ATTACH][ATTACH=CONFIG]264003[/ATTACH]
#61
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31908
Zitat Pickebuh;21669214
Warum das so ist kann ich dir sagen.
Battlefield 4 = bugverseuchter Multiplayerport... Mehr gibt es da wohl nicht zu sagen.

also weil etwas anders als deine Behauptung skaliert, ist es bugverseucht!? Ja so muss das echt sein...
Muss ich dir die Rechnung nun auf anderen Titeln ebenso aufzeigen!?

Zitat Pickebuh;21669214
Genau ! Jede GPU hat ihr eigenes SI mit voller Speicherbandbreite. Wie kommst du darauf, das dies keinen signifikanten Vorteil gegenüber einer GPU verschafft die alleine alles stemmen muss ? Selbst wenn beide GPUs einer GTX690 an Speicherbandbreitenmangel leiden, so können sie immer noch parallel arbeiten. Ist das so schwer zu verstehen ?


Scheinbar, denn du verstehst es immernoch nicht... Sie arbeiten nunmal nicht ZUSAMMEN!!!
Die FPS Rate sind Frames pro Sekunde. Das ist eine sequenzielle Anordnung von Bildern -> die nunmal jedes für sich berechnet werden. Da arbeiten NICHT zwei GPUs an einem Bild -> was effektiv eine dopplung der Bandbreite bedeuten könnte, sondern es arbeitet jede GPU an immer nur einem Bild. Und das ist unterm Strich wie ich dir aufgezeigt habe exakt das gleiche Verhalten, wie bei einer Single GPU. Die Abhängigkeit besteht immer zwischen GPU und ihrem Interface. Wie meine Aufstellung oben aufzeigt, steigt die GPU Rechenleistung zwar mehr als die Endgültige Bandbreite, aber GK110 ist nachweislich nicht Bandbreitenlimitiert. Zumindest nicht wie GK104 im Schnitt über mehrere aktuelle Games. Das Gegenteil einfach zu behaupten ohne Faktenlage und vor allem, ohne das du jemals derartige Hardware in den Händen gehalten hast, ist aus meiner Sicht fragwürdig... :wink:
Schau in den Thread hier wo es um die Bandbreitenabhängigkeit von GK104 ging. Da finden sich mehrere Messungen. GK110 skaliert massiv über den GPU Takt. GK104 eben nicht... Zähl eins und eins zusammen und du merkst, das du hier auf dem Holzweg bist :wink:

Zitat Pickebuh;21669214
Das ist kein Argument, was du da bringst, sondern eher die Bestätigung meiner Erklärung.
Die zwei GPUs der GTX 690 haben zwar zusammen etwa die selbe Rohleistung wie die GTX780Ti, aber zusammen eben deutlich mehr Speicherbandbreite und genau das scheint der GTX780Ti und der Titan zu fehlen und genau deshalb kann sich die GTX690 absetzten. Puh. Schwer Geburt ist das mit dir.

GK110 ist nicht Bandbreitenlimitiert, schau dir Benches an. Das Ding gibts in drei Ausführungen als Gamerkarten. Keine davon krankt derart an der Bandbreite wie GK104... Nix mit Limit. Da nutzt auch die im 690er Fall theoretisch 2x192GB/s vs. 1x336GB/s Aufstellung nix... GK104 benötigt seit anbegin schon mehr wie 192GB/sec Bandbreite, wenn es sich um den Vollausbau mit Taktraten um die 1GHz handelt. Das ist Fakt und daran gibts nichts zu rütteln. Wärend der GK110 im Vollausbau und doppelter Leistung auf dem Papier eben spielend mit einer Steigerung von "nur" 75% mehr Bandbreite auskommt und immernoch daran nicht verhungert. Was ebenso Fakt ist. 2*0,5x Skalierung ist immernoch nur eins. Wärend 1*2 eben zwei ist. Simple Logik...

Zitat Pickebuh;21669214
Hawaii ist auch nur ein Tahiti ? Woher hast du das Gerücht schon wieder ?? Bitte nur Fakten auf den Tisch.


Schöne Gegenüberstellung und bestätigt meine Aussage nur noch. Aufbau ist ziemlich identisch zum PitCairn, wie ich oben schon schrieb. Nur (fast) exakt doppelt. Pitcairn ist in 20 CUs eingeteilt. (2x4 + 4x3) Diese sind in zwei SEs eingeteilt. Hawaii hat 44 CUs in vier SEs -> Verdopplung der SEs + je einen ALU Block oben drauf (wie ich oben schon schrieb) also (10 CUs pro SE +1) x2 SEs x 2 (verdopplung) = 44 CUs in Hawaii. Da die TMUs mit der CU Anzahl skalieren heist das gleichsam für PitCairn = 20 CUs zu 4 TMUs = 80 in Summe. jetzt Rate mal was Hawaii dort zeigt -> richtig 44 CUs zu 4 TMUs = 178 in Summe. Das gleiche zieht sich exakt durch die ganze GPU. Der innere Aufbau entspricht exakt einem doppeltem PitCairn mit einem ALU Block pro SE mehr. Die Abhängigkeiten sind gleich bzw. bleiben gleich. -> Fakt. Ich empfehle dir dazu nicht nur Bildchen zu gucken, wenn du damit nix anzufangen weist, sondern ließ doch bitte auch die Texte dazu :wink: Steht alles erklärt. Hier im Luxx und auch bei CB.
Das was AMD am Hawaii im Vergleich zum Rest überarbeitet hat ist schlicht die TrueAudio Geschichte, die CF Möglichkeiten und weitere Detailverbesserungen. Unterm Strich aber ist das wenig bis nichts... ;)
Aber das ist hier sowieso OT... Also bitte einlesen, dann erst irgendwas behaupten.
#62
customavatars/avatar142461_1.gif
Registriert seit: 23.10.2010
NRW
Flottillenadmiral
Beiträge: 4537
Zitat fdsonne;21670957

Schau in den Thread hier wo es um die Bandbreitenabhängigkeit von GK104 ging. Da finden sich mehrere Messungen. GK110 skaliert massiv über den GPU Takt.

Zitat fdsonne;21670957

GK110 ist nicht Bandbreitenlimitiert, schau dir Benches an. Das Ding gibts in drei Ausführungen als Gamerkarten. Keine davon krankt derart an der Bandbreite wie GK104... Nix mit Limit.


1+

Siehe:
Geforce GTX 780 Taktskalierung im Test: Wie stark profitiert der GK110-300 von mehr GPU/Speicher-Takt? User-Test von LSSJBroly

:D
#63
customavatars/avatar172093_1.gif
Registriert seit: 25.03.2012
Düsseldorf
Oberleutnant zur See
Beiträge: 1377
Nice
#64
Registriert seit: 11.05.2011
Nürnberg
Gefreiter
Beiträge: 32
Zitat fdsonne;21670957
also weil etwas anders als deine Behauptung skaliert, ist es bugverseucht!? Ja so muss das echt sein...
Muss ich dir die Rechnung nun auf anderen Titeln ebenso aufzeigen!?



Scheinbar, denn du verstehst es immernoch nicht... Sie arbeiten nunmal nicht ZUSAMMEN!!!
Die FPS Rate sind Frames pro Sekunde. Das ist eine sequenzielle Anordnung von Bildern -> die nunmal jedes für sich berechnet werden. Da arbeiten NICHT zwei GPUs an einem Bild -> was effektiv eine dopplung der Bandbreite bedeuten könnte, sondern es arbeitet jede GPU an immer nur einem Bild. Und das ist unterm Strich wie ich dir aufgezeigt habe exakt das gleiche Verhalten, wie bei einer Single GPU. Die Abhängigkeit besteht immer zwischen GPU und ihrem Interface. Wie meine Aufstellung oben aufzeigt, steigt die GPU Rechenleistung zwar mehr als die Endgültige Bandbreite, aber GK110 ist nachweislich nicht Bandbreitenlimitiert. Zumindest nicht wie GK104 im Schnitt über mehrere aktuelle Games. Das Gegenteil einfach zu behaupten ohne Faktenlage und vor allem, ohne das du jemals derartige Hardware in den Händen gehalten hast, ist aus meiner Sicht fragwürdig... :wink:
Schau in den Thread hier wo es um die Bandbreitenabhängigkeit von GK104 ging. Da finden sich mehrere Messungen. GK110 skaliert massiv über den GPU Takt. GK104 eben nicht... Zähl eins und eins zusammen und du merkst, das du hier auf dem Holzweg bist :wink:


GK110 ist nicht Bandbreitenlimitiert, schau dir Benches an. Das Ding gibts in drei Ausführungen als Gamerkarten. Keine davon krankt derart an der Bandbreite wie GK104... Nix mit Limit. Da nutzt auch die im 690er Fall theoretisch 2x192GB/s vs. 1x336GB/s Aufstellung nix... GK104 benötigt seit anbegin schon mehr wie 192GB/sec Bandbreite, wenn es sich um den Vollausbau mit Taktraten um die 1GHz handelt. Das ist Fakt und daran gibts nichts zu rütteln. Wärend der GK110 im Vollausbau und doppelter Leistung auf dem Papier eben spielend mit einer Steigerung von "nur" 75% mehr Bandbreite auskommt und immernoch daran nicht verhungert. Was ebenso Fakt ist. 2*0,5x Skalierung ist immernoch nur eins. Wärend 1*2 eben zwei ist. Simple Logik...



Schöne Gegenüberstellung und bestätigt meine Aussage nur noch. Aufbau ist ziemlich identisch zum PitCairn, wie ich oben schon schrieb. Nur (fast) exakt doppelt. Pitcairn ist in 20 CUs eingeteilt. (2x4 + 4x3) Diese sind in zwei SEs eingeteilt. Hawaii hat 44 CUs in vier SEs -> Verdopplung der SEs + je einen ALU Block oben drauf (wie ich oben schon schrieb) also (10 CUs pro SE +1) x2 SEs x 2 (verdopplung) = 44 CUs in Hawaii. Da die TMUs mit der CU Anzahl skalieren heist das gleichsam für PitCairn = 20 CUs zu 4 TMUs = 80 in Summe. jetzt Rate mal was Hawaii dort zeigt -> richtig 44 CUs zu 4 TMUs = 178 in Summe. Das gleiche zieht sich exakt durch die ganze GPU. Der innere Aufbau entspricht exakt einem doppeltem PitCairn mit einem ALU Block pro SE mehr. Die Abhängigkeiten sind gleich bzw. bleiben gleich. -> Fakt. Ich empfehle dir dazu nicht nur Bildchen zu gucken, wenn du damit nix anzufangen weist, sondern ließ doch bitte auch die Texte dazu :wink: Steht alles erklärt. Hier im Luxx und auch bei CB.
Das was AMD am Hawaii im Vergleich zum Rest überarbeitet hat ist schlicht die TrueAudio Geschichte, die CF Möglichkeiten und weitere Detailverbesserungen. Unterm Strich aber ist das wenig bis nichts... ;)
Aber das ist hier sowieso OT... Also bitte einlesen, dann erst irgendwas behaupten.


wenigstens mal jmnd., der sich auszudrücken weiss:)
ich habe zwar keine gtx 690 inne, aber ich kann eine 780 mein eigen nennen.
davor hatte ich eine gtx 670 und kann nur bestätigen, was du hier so ausführlich beschreibst! die gtx670 am bandbreitenlimit(starker leistungszuwachs bei speicherübertaktung) und 780 zwar mit weniger einfluß des speichers auf performancezugewinn bei übertaktung, aber keine Limitierung, dank des 384bit interfaces->oc'ed bei 360Gb/s
ich habe mich auch lange in dieses thema eingelesen, vor allem VOR dem kauf der gtx 780 und mir wurde der zugewinn einer gtx 780 im gegensatz zu einer weiten 670 deutlich(VRAM größe ausser acht gelassen), weswegen ich die 780 genommen habe:d
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]