> > > > ASUS ROG Strix OC: Die erste Boardpartner-Karte der GTX 1080 Ti im Testlabor

ASUS ROG Strix OC: Die erste Boardpartner-Karte der GTX 1080 Ti im Testlabor

Veröffentlicht am: von

Mit der GeForce GTX 1080 Ti kündigte NVIDIA zu Beginn des Monats seine bislang schnellste GeForce-Grafikkarte an. Während die Founders Edition schon seit ein paar Tagen mehr oder weniger zu einem Preis ab 819 Euro erhältlich ist, lassen die Custom-Karten der Boardpartner noch immer auf sich warten. Zwar wurden schon etliche Modelle von ASUS, MSI, Gigabyte, EVGA, Inno3D, ZOTAC und Co. angekündigt und von uns übersichtlich in einer Tabelle vorgestellt, in den Handel geschafft hat es laut Preisvergleich bislang allerdings noch kein einziges Modell. Viele Hersteller verzichten sogar noch auf nähere Angaben zur Strom- und Spannungsversorgung und schweigen sich gar über die finalen Taktraten ihrer kommenden Eigenlösungen noch aus. Als einer der ersten Hersteller konnte uns nun aber ASUS mit einem ersten Modell versorgen. Heute erreichte die ASUS ROG GeForce GTX 1080 Ti Strix OC die Redaktion.

Sie hat mit der bereits getesteten Founders Edition von NVIDIA nicht mehr viel gemein. Unter der Haube des eigenen 2,5-Slot-Kühlers gibt es zwar weiterhin den 12 Milliarden Transistoren starken GP102-Chip mit seinen 3.584 Rechenwerken und dem 11 GB großen GDDR5X-Videospeicher, das PCB wurde allerdings deutlich aufgewertet. Zur Verfügung stehen dem Grafikprozessor satte zehn Phasen, während die Speicherchips über zwei eigene Phasen mit Strom versorgt werden. Statt des zusätzlichen 6- und 8-Pin-PCI-Express-Stromsteckers wie noch bei der Founders Edition gibt es gleich zwei 8-Pin-Stecker, womit das ASUS-Topmodell theoretisch bis zu 375 W aus der Steckdose bzw. dem Netzteil ziehen könnte. Die maximale Leistungsaufnahme dürfte aufgrund des Taktplus aber nur geringfügig oberhalb der von NVIDIA spezifizierten 250 W liegen.

Eigenes Layout, höhere Taktraten

Apropos Taktraten: Während sich die NVIDIA-Vorlage mit einem Basis- und Boost-Takt von 1.480 bzw. mindestens 1.582 MHz ans Werk macht, bringt es die ASUS ROG GeForce GTX 1080 Ti Strix OC auf 1.594 bzw. 1.708 MHz. Die OC-Taktraten müssen allerdings erst über das ASUS-eigene Tool "GPU Tweak II" freigeschaltet werden, im Gaming-Modus arbeitet der 3D-Beschleuniger – zumindest auf dem Papier – etwas langsamer.

In ersten Tests erreicht unser Testmuster aufgrund der starken Kühlung sogar Geschwindigkeiten von über 1.900 MHz und überflügelt damit die Werte der Founders Edition mit Leichtigkeit. Hinzu kommt, dass die Taktraten über einen längeren Zeitraum gehalten werden können, was die Performance in Spielen deutlich verbessert.

Die Kühlung im Vergleich zum kleinen Schwestermodell will ASUS weiter verbessert haben. So wollen die Taiwaner die Wärmeabfuhr aufgrund einer planeren Oberfläche der Kupferplatte, auf der die dicken Heatpipes direkt aufliegen, verbessert haben. Hinzu kommen ein überarbeitetes Rotor-Design der drei 90-mm-Lüfter sowie 40 % mehr Aluminiumfinnen, was letztendlich den Anstieg der Bauhöhe auf 2,5 Slots zur Folge hat. Trotzdem will ASUS ausreichend Platz gelassen haben, um ein SLI-System aufziehen zu können.

Um die Kühlung zu verbessern, gibt es zudem wieder die Möglichkeit, zwei Gehäuse-Lüfter direkt an die Grafikkarte anzuschließen, die dann in Abhängigkeit der GPU-Temperatur automatisch geregelt werden. Das Aura-Beleuchtungssystem mit zahlreichen RGB-LEDs ist natürlich auch beim Topmodell wieder mit von der Partie. Gesteuert werden kann alles zentral über hauseigene ASUS-Tools. Einstellbar sind neben Farbe und Beleuchtungseffekt, auch die verschiedenen Betriebsmodi für die Grafikkarte (Gaming, OC) und natürlich die Lüftersteuerung. Ein Auslesen der wichtigsten Paramter ist ebenfalls möglich.

Eine weitere Besonderheit: ASUS wird für seine neue Strix-Grafikkarte ein Silent-BIOS zum Download anbieten, welches die Lüftergeschwindigkeiten von maximal rund 1.600 RPM auf 1.300 RPM reduziert und somit die Lautstärke weiter verringert. Dafür steigt das Temperatur-Target von etwa 70 auf 75 °C an.

Unter der Haube gibt es außerdem hochwertige Bauteile, die für eine längere Lebensdauer und gleichzeitig niedrigere Temperaturen sowie für ein größeres Overclocking-Potential sorgen sollen.

Die technischen Daten der ASUS ROG GeForce GTX 1080 Ti Strix OC in der Übersicht
Modell: ASUS ROG GeForce GTX 1080 Ti Strix OC NVIDIA GeForce
GTX 1080 Ti Founders Edition
Straßenpreis: noch nicht verfügbar 819 Euro
Webseite: www.asus.com www.nvidia.de
Technische Daten
GPU: GP102 GP102
Fertigung: 16 nm 16 nm
Transistoren: 12 Milliarden 12 Milliarden
GPU-Takt (Basis): 1.594 MHz 1.480 MHz
GPU-Takt (Boost): 1.708 MHz 1.582 MHz

Speichertakt:

1.388 MHz 1.375 MHz
Speichertyp: GDDR5X GDDR5X
Speichergröße: 11 GB 11 GB
Speicherinterface: 352 Bit 352 Bit
Bandbreite: 486,5 GB/s 484 GB/s
DirectX-Version: 12 12
Shadereinheiten: 3.584 3.584
Textureinheiten: 224 224
ROPs: 88 88
Typische Boardpower: 250 W 250 W
SLI/CrossFire SLI SLI

Wie sich die ASUS ROG GeForce GTX 1080 Ti Strix OC als erste Custom-Karte des neuen NVIDIA-Flaggschiffs schlagen wird, werden wir exklusiv in den kommenden Tagen in einem ausführlichen Review aufzeigen dürfen. Wir schnallen unser Testmodell schon einmal in das Testsystem!

Social Links

Kommentare (21)

#12
customavatars/avatar34574_1.gif
Registriert seit: 01.02.2006
Hessen\LDK
Super Moderator
Beiträge: 41785
dazu kann man keine pauschale empfehlung geben.
es ist ein zusammenspiel der gesamten hardware.
#13
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34159
Zitat Case39;25404549
Hatte nur nen Eindruck...kann aber auch sein, das ich da was durcheinandergewürfelt habe. Ich habe gelesen, das Nvidia sich ne Karenzzeit, gegenüber den AiB, zwecks Verkauf der FE gehehmigt hat und die deswegen erst später verkaufen dürfen. Ist da was dran?
Und noch ne Frage: Warum kommen die Costums wieder so spät (samt Eindruck, das die AiB wieder unvorbereitet waren?)


Nein, da ist ziemlich sicher nix dran...
Es scheint mittlerweile einfach so, als würde der Zeitpunkt, andem NV den Boardpartnern die Daten zu den neuen Modellen gibt, einfach deutlich näher am Termin der Vorstellung der Hardware liegen als das früher mal der Fall war...
Damit haben die Boardpartner weniger Zeit absolut zwischen der Bekantgabe seitens NV und dem Release der Hardware als solches -> es wirkt unvorbereitet und es dauert länger nach Release.
Auf der anderen Seite entsteht dabei ein stark gewichteter Vorteil für NV -> es gibt schlicht keine Leaks durch Boardpartner oder Dritte... Schau dir die Politik an, die NV mit Pascal fährt.
-> AMD kündigt Polaris 10 an -> NV released kurz vorher GP104 als 1070/1080
-> es wird Vega für Okt. 2016 spekuliert -> NV released kurz vorher GP102 als TitanX
-> AMD kündigt Ryzen an (und es wird auf Infos, ggf. sogar einen Release von Vega gehofft, so nach dem Motto, Überraschung!) -> NV released GP102 als 1080TI
Nimmt man es genau kommt dort noch der Tesla P100 Release dazu

Sowas wäre schlicht nicht aufgegangen wenn deutlich vorher quasi alle Infos und diverses Anderes wie Termine, Leistungsdaten, Ausbauten/Versionen und dergleichen bekannt gewesen wären, bzw. wenigstens durch ansatzweise glaubhafte Spekulationen im Umlauf wären.
Die TitanX kam extrem überraschend für die Masse... Die 1070/1080 eigentlich auch, denn man ging davon aus, als NV deutlich länger als AMD für die neue Generation braucht.

Hätten da viel mehr Leute Infos gehabt, wäre auch viel mehr bekannt gewesen...
Denn die Boardpartner, vor allem die, die beides vertreiben, reden auch untereinander... Und natürlich auch ggü. den Herstellern der GPUs. Denn man kann auch Sachen sagen ohne sie direkt zu sagen ;)
Wenn man aber nix weis, kann man auch nix sagen. Klarer Vorteil...

Zitat Case39;25404549
Da stimme ich dir zu, das Thema wird oft nicht erwähnt. Ich verstehe aber wirklich nicht, warum die Hersteller es nicht in den Griff bekommen? Bei meiner 980Ti, hatte ich dies auch recht ausgeprägt, hat mich aber nicht gestört...im Gegensatz zum Heißluftfön der 1080Ti.


Wenn man sich mit dem Thema mal etwas beschäftigt, dann fällt einem auf, dass sowas schlicht nicht benennbar/aufzeigbar ist. Da einfach viel zu viele verschiedene Kombinationsmöglichkeiten das Ergebnis beeinflussen.
Was bringt es wenn die Redaktionen aussagen, da fiept was oder nicht, wenn es Zuhause dann völlig anders ist?
Bestenfalls kann man Tendenzen sehen... Aber diese lassen sich idR auch nur deswegen sehen, weil idR bei diesen Karten, wo Pauschalen ala fiept/fiept nicht ausgesagt wurden, sehr sehr viele im Umlauf sind und damit entsprechend viele Rückmeldungen seitens der Community zu sehen ist. Wenn 1000 GM204 CPUs hier im Forum zu sehen waren, davon sich 100 zurück gemeldet haben ob es fiept oder nicht, entsteht ein ganz anderes Bild als wenn 50 TitanX GPUs im Umlauf sind und davon sich 5 zurück gemeldet haben ob es fiept...
#14
customavatars/avatar42607_1.gif
Registriert seit: 06.07.2006
Oberbayern
Flottillenadmiral
Beiträge: 4516
Zitat Case39;25403776
Also gibt es ein NDA...na gut, ich freu mich auf das Review. Die SC2 von EVGA ist schon bei 999€ gelistet.


Die hat ja leider auch nur ein Powerlimit von 250 Watt, genau wie die Founders edition...
#15
Registriert seit: 10.03.2005

Kapitänleutnant
Beiträge: 1572
das ist gerade der punkt der mich interessiert... es ist so schwer herauszufinden wie hoch das pt bei dem jeweiligen Design liegt und gerade dazu kauft man doch n custom ... was bringt mir niedrige temp wenn ich dauernd im pt rumschlürfe
#16
customavatars/avatar42607_1.gif
Registriert seit: 06.07.2006
Oberbayern
Flottillenadmiral
Beiträge: 4516
jepp, sehe ich ganz genau so...
#17
customavatars/avatar39948_1.gif
Registriert seit: 10.05.2006

Fregattenkapitän
Beiträge: 2933
Die Frage ist ja auch: Was bringt ein Powertarget überhaupt, außer Leute sinnlos zu gängeln?
#18
Registriert seit: 10.03.2005

Kapitänleutnant
Beiträge: 1572
ja da hast du auch recht, ich bin seit der einführung von boostund dem ganzen mist dagegen. habe auch schon bei einigen artikeln bemängelt, dass man im test auf den gut funktionierenden boost noch lobt.

die hardware presse ist einfach absolut unkritisch und da wird viel zu selten mal dem hersteller etwas auf die finger gehauen.
warum das so ist weiß ich nicht, vlt sehen die das also so sinnlos an wie ich es sehe zu kommentieren...aber ich machs trotzdem^^

ich erinnere mich nur an 2 male wo die presse etwas ermahnt hat, das war beim gtx 970 aufstand und damals...ich weiß gar nicht mehr wann da war... da hatte amd mit einem treiber die details runtergeschraubt um bessere fps werte ggü. nv zu bekommen. das wars aber auch schon

andernseits wären ja auch die reseller gefragt, es gab ja eine zeit mit custom biosen ohne boost pt und allem möglichen, ganz wie zur good old oc time, wäre für die reseller nicht so schwer solche biose auf ihre karten zu spielen.

ich finde im low/midrange macht das mit dem pt/tempt usw. noch iwie sinn, aber gerade beim high end will man leistung und zwar so viel wie geht...

das ganze fing aber eben auch an als man immer mehr anfing auf den verbrauch zu schauen und die effizient in den vordergrund trat. mir war das bei high end hardware eher unwichtig aber pt/tt ist dann die logische konsequenz
#19
customavatars/avatar252555_1.gif
Registriert seit: 22.04.2016

Hauptgefreiter
Beiträge: 178
Zitat fdsonne;25405037
Nein, da ist ziemlich sicher nix dran...
Es scheint mittlerweile einfach so, als würde der Zeitpunkt, andem NV den Boardpartnern die Daten zu den neuen Modellen gibt, einfach deutlich näher am Termin der Vorstellung der Hardware liegen als das früher mal der Fall war...
Damit haben die Boardpartner weniger Zeit absolut zwischen der Bekantgabe seitens NV und dem Release der Hardware als solches -> es wirkt unvorbereitet und es dauert länger nach Release.
Auf der anderen Seite entsteht dabei ein stark gewichteter Vorteil für NV -> es gibt schlicht keine Leaks durch Boardpartner oder Dritte... Schau dir die Politik an, die NV mit Pascal fährt.
-> AMD kündigt Polaris 10 an -> NV released kurz vorher GP104 als 1070/1080
-> es wird Vega für Okt. 2016 spekuliert -> NV released kurz vorher GP102 als TitanX
-> AMD kündigt Ryzen an (und es wird auf Infos, ggf. sogar einen Release von Vega gehofft, so nach dem Motto, Überraschung!) -> NV released GP102 als 1080TI
Nimmt man es genau kommt dort noch der Tesla P100 Release dazu

Sowas wäre schlicht nicht aufgegangen wenn deutlich vorher quasi alle Infos und diverses Anderes wie Termine, Leistungsdaten, Ausbauten/Versionen und dergleichen bekannt gewesen wären, bzw. wenigstens durch ansatzweise glaubhafte Spekulationen im Umlauf wären.
Die TitanX kam extrem überraschend für die Masse... Die 1070/1080 eigentlich auch, denn man ging davon aus, als NV deutlich länger als AMD für die neue Generation braucht.

Hätten da viel mehr Leute Infos gehabt, wäre auch viel mehr bekannt gewesen...
Denn die Boardpartner, vor allem die, die beides vertreiben, reden auch untereinander... Und natürlich auch ggü. den Herstellern der GPUs. Denn man kann auch Sachen sagen ohne sie direkt zu sagen ;)
Wenn man aber nix weis, kann man auch nix sagen. Klarer Vorteil...



Wenn man sich mit dem Thema mal etwas beschäftigt, dann fällt einem auf, dass sowas schlicht nicht benennbar/aufzeigbar ist. Da einfach viel zu viele verschiedene Kombinationsmöglichkeiten das Ergebnis beeinflussen.
Was bringt es wenn die Redaktionen aussagen, da fiept was oder nicht, wenn es Zuhause dann völlig anders ist?
Bestenfalls kann man Tendenzen sehen... Aber diese lassen sich idR auch nur deswegen sehen, weil idR bei diesen Karten, wo Pauschalen ala fiept/fiept nicht ausgesagt wurden, sehr sehr viele im Umlauf sind und damit entsprechend viele Rückmeldungen seitens der Community zu sehen ist. Wenn 1000 GM204 CPUs hier im Forum zu sehen waren, davon sich 100 zurück gemeldet haben ob es fiept oder nicht, entsteht ein ganz anderes Bild als wenn 50 TitanX GPUs im Umlauf sind und davon sich 5 zurück gemeldet haben ob es fiept...



Ein NV AiB Partner, möchte ich gerade nicht sein :(
#20
customavatars/avatar34574_1.gif
Registriert seit: 01.02.2006
Hessen\LDK
Super Moderator
Beiträge: 41785
Wow, Full Quote für einen Satz...


Gesendet von iPhone mit Tapatalk
#21
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34159
Zitat Chasaai;25405533
ja da hast du auch recht, ich bin seit der einführung von boostund dem ganzen mist dagegen. habe auch schon bei einigen artikeln bemängelt, dass man im test auf den gut funktionierenden boost noch lobt.

Was sollen die Redaktionen auch machen?
Der Boost ist Bestandteil der Hardware... Es gibt sie nicht ohne... Es ist müßig darüber zu streiten ob der Boost gut/schlecht für den Endanwender ist. Denn es gibt Vor- wie auch Nachteile dadurch.
Wer bewertet nun was objektiv gesehen "besser" ist!?

-> das benennen von "gut" oder "schlecht" funktionierendem Boost geht hingegen ohne sich auf eine Seite zu stellen... Nämlich indem man Umsetzungen konkreter Produkte miteinander vergleicht.
-> das benennen von "gut" oder "schlecht" auf den Boost generell bezogen ist hingegen rein subjektiv durch den Redakteur ;)

Zitat Chasaai;25405533
ich finde im low/midrange macht das mit dem pt/tempt usw. noch iwie sinn, aber gerade beim high end will man leistung und zwar so viel wie geht...


Das witzige dabei ist, dass du genau das dadurch bekommst ;)
Denn du unterliegst hier einen gedanklichen Irrtum... Nicht das was bei maximalen Einstellungen irgendwie möglich ist, ist das was die Basis ist und alles, was durch das PT/TT gedeckelt wird, verlierst du, sondern die Basis ist irgendwo weit unterhalb dessen, was die Karte im Moment liefert und der Rest ist OnTop -> quasi zusätzliche Dreingabe.
Zumindest so wie der NV Boost im Moment funktioniert!!
Bei AMD ist das bspw. andersrum. Dort gibt es einen Boosttakt -> und ggf. nichtmal einen Basistakt. Die Karte hält idR aber den Boosttakt nicht vollends... Damit entsteht einfach der Eindruck, als würde die Karte gar nicht richtig funktionieren. ;)
So werden bspw. die maximal möglichen Leistungsparameter für FP32 in TFlop/sec angegeben und diese Angabe bezieht sich bei beiden Herstellern auf den genannten maximal Boost. Bei NV liegt man (seit Maxwell) idR deutlich drüber in realen Anwendungen, bei AMD hingegen liegt man meist drunter, manchmal erreicht man diesen Takt, nie aber drüber...

Aber das ist halt eigentlich gar nicht der Sinn hinter dem Boost. Der Sinn dahinter ist, die Karte in so ziemlich allen Lebenslagen dynamisch anhand der Gegebenheiten mit jeweils maximal möglichem (inkl. Einhaltung der Toleranzen!!!) Takt laufen zu lassen...


Am Ende bleibt die Frage, wäre es ohne Boost besser?
Ich erinnere mich da noch an Hardware vor dem Boost. Die hatte fixe Taktraten ohne Wenn und Aber. Sprich unter Last lag der Takt an. Entweder es war stabil oder es ist abgeschmiert... Das war zwar "einfacher" für die Konfiguration, aber warum soll es besser sein, für 24/7 Settings xxxx MHz zu fahren, wenn dieser Takt gerade so im einen Extrem an Anwendung reicht, im anderen Extrem aber vlllt xxxx +100 oder so möglich wäre!? Die Taktraten (gerade bei NV) schwanken ja zum Teil um 100+ MHz, in Prozent ausgedrückt 5-10% sind keine Seltenheit. Entsprechend gibt es auch mehr Leistung in diesen Situatio
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]