> > > > ASUS ROG Strix OC: Die erste Boardpartner-Karte der GTX 1080 Ti im Testlabor

ASUS ROG Strix OC: Die erste Boardpartner-Karte der GTX 1080 Ti im Testlabor

Veröffentlicht am: von

Mit der GeForce GTX 1080 Ti kündigte NVIDIA zu Beginn des Monats seine bislang schnellste GeForce-Grafikkarte an. Während die Founders Edition schon seit ein paar Tagen mehr oder weniger zu einem Preis ab 819 Euro erhältlich ist, lassen die Custom-Karten der Boardpartner noch immer auf sich warten. Zwar wurden schon etliche Modelle von ASUS, MSI, Gigabyte, EVGA, Inno3D, ZOTAC und Co. angekündigt und von uns übersichtlich in einer Tabelle vorgestellt, in den Handel geschafft hat es laut Preisvergleich bislang allerdings noch kein einziges Modell. Viele Hersteller verzichten sogar noch auf nähere Angaben zur Strom- und Spannungsversorgung und schweigen sich gar über die finalen Taktraten ihrer kommenden Eigenlösungen noch aus. Als einer der ersten Hersteller konnte uns nun aber ASUS mit einem ersten Modell versorgen. Heute erreichte die ASUS ROG GeForce GTX 1080 Ti Strix OC die Redaktion.

Sie hat mit der bereits getesteten Founders Edition von NVIDIA nicht mehr viel gemein. Unter der Haube des eigenen 2,5-Slot-Kühlers gibt es zwar weiterhin den 12 Milliarden Transistoren starken GP102-Chip mit seinen 3.584 Rechenwerken und dem 11 GB großen GDDR5X-Videospeicher, das PCB wurde allerdings deutlich aufgewertet. Zur Verfügung stehen dem Grafikprozessor satte zehn Phasen, während die Speicherchips über zwei eigene Phasen mit Strom versorgt werden. Statt des zusätzlichen 6- und 8-Pin-PCI-Express-Stromsteckers wie noch bei der Founders Edition gibt es gleich zwei 8-Pin-Stecker, womit das ASUS-Topmodell theoretisch bis zu 375 W aus der Steckdose bzw. dem Netzteil ziehen könnte. Die maximale Leistungsaufnahme dürfte aufgrund des Taktplus aber nur geringfügig oberhalb der von NVIDIA spezifizierten 250 W liegen.

Eigenes Layout, höhere Taktraten

Apropos Taktraten: Während sich die NVIDIA-Vorlage mit einem Basis- und Boost-Takt von 1.480 bzw. mindestens 1.582 MHz ans Werk macht, bringt es die ASUS ROG GeForce GTX 1080 Ti Strix OC auf 1.594 bzw. 1.708 MHz. Die OC-Taktraten müssen allerdings erst über das ASUS-eigene Tool "GPU Tweak II" freigeschaltet werden, im Gaming-Modus arbeitet der 3D-Beschleuniger – zumindest auf dem Papier – etwas langsamer.

In ersten Tests erreicht unser Testmuster aufgrund der starken Kühlung sogar Geschwindigkeiten von über 1.900 MHz und überflügelt damit die Werte der Founders Edition mit Leichtigkeit. Hinzu kommt, dass die Taktraten über einen längeren Zeitraum gehalten werden können, was die Performance in Spielen deutlich verbessert.

Die Kühlung im Vergleich zum kleinen Schwestermodell will ASUS weiter verbessert haben. So wollen die Taiwaner die Wärmeabfuhr aufgrund einer planeren Oberfläche der Kupferplatte, auf der die dicken Heatpipes direkt aufliegen, verbessert haben. Hinzu kommen ein überarbeitetes Rotor-Design der drei 90-mm-Lüfter sowie 40 % mehr Aluminiumfinnen, was letztendlich den Anstieg der Bauhöhe auf 2,5 Slots zur Folge hat. Trotzdem will ASUS ausreichend Platz gelassen haben, um ein SLI-System aufziehen zu können.

Um die Kühlung zu verbessern, gibt es zudem wieder die Möglichkeit, zwei Gehäuse-Lüfter direkt an die Grafikkarte anzuschließen, die dann in Abhängigkeit der GPU-Temperatur automatisch geregelt werden. Das Aura-Beleuchtungssystem mit zahlreichen RGB-LEDs ist natürlich auch beim Topmodell wieder mit von der Partie. Gesteuert werden kann alles zentral über hauseigene ASUS-Tools. Einstellbar sind neben Farbe und Beleuchtungseffekt, auch die verschiedenen Betriebsmodi für die Grafikkarte (Gaming, OC) und natürlich die Lüftersteuerung. Ein Auslesen der wichtigsten Paramter ist ebenfalls möglich.

Eine weitere Besonderheit: ASUS wird für seine neue Strix-Grafikkarte ein Silent-BIOS zum Download anbieten, welches die Lüftergeschwindigkeiten von maximal rund 1.600 RPM auf 1.300 RPM reduziert und somit die Lautstärke weiter verringert. Dafür steigt das Temperatur-Target von etwa 70 auf 75 °C an.

Unter der Haube gibt es außerdem hochwertige Bauteile, die für eine längere Lebensdauer und gleichzeitig niedrigere Temperaturen sowie für ein größeres Overclocking-Potential sorgen sollen.

Die technischen Daten der ASUS ROG GeForce GTX 1080 Ti Strix OC in der Übersicht
Modell: ASUS ROG GeForce GTX 1080 Ti Strix OC NVIDIA GeForce
GTX 1080 Ti Founders Edition
Straßenpreis: noch nicht verfügbar 819 Euro
Webseite: www.asus.com www.nvidia.de
Technische Daten
GPU: GP102 GP102
Fertigung: 16 nm 16 nm
Transistoren: 12 Milliarden 12 Milliarden
GPU-Takt (Basis): 1.594 MHz 1.480 MHz
GPU-Takt (Boost): 1.708 MHz 1.582 MHz

Speichertakt:

1.388 MHz 1.375 MHz
Speichertyp: GDDR5X GDDR5X
Speichergröße: 11 GB 11 GB
Speicherinterface: 352 Bit 352 Bit
Bandbreite: 486,5 GB/s 484 GB/s
DirectX-Version: 12 12
Shadereinheiten: 3.584 3.584
Textureinheiten: 224 224
ROPs: 88 88
Typische Boardpower: 250 W 250 W
SLI/CrossFire SLI SLI

Wie sich die ASUS ROG GeForce GTX 1080 Ti Strix OC als erste Custom-Karte des neuen NVIDIA-Flaggschiffs schlagen wird, werden wir exklusiv in den kommenden Tagen in einem ausführlichen Review aufzeigen dürfen. Wir schnallen unser Testmodell schon einmal in das Testsystem!

Social Links

Kommentare (21)

#12
customavatars/avatar34574_1.gif
Registriert seit: 01.02.2006
Hessen\LDK
Moderator
Beiträge: 40887
dazu kann man keine pauschale empfehlung geben.
es ist ein zusammenspiel der gesamten hardware.
#13
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32850
Zitat Case39;25404549
Hatte nur nen Eindruck...kann aber auch sein, das ich da was durcheinandergewürfelt habe. Ich habe gelesen, das Nvidia sich ne Karenzzeit, gegenüber den AiB, zwecks Verkauf der FE gehehmigt hat und die deswegen erst später verkaufen dürfen. Ist da was dran?
Und noch ne Frage: Warum kommen die Costums wieder so spät (samt Eindruck, das die AiB wieder unvorbereitet waren?)


Nein, da ist ziemlich sicher nix dran...
Es scheint mittlerweile einfach so, als würde der Zeitpunkt, andem NV den Boardpartnern die Daten zu den neuen Modellen gibt, einfach deutlich näher am Termin der Vorstellung der Hardware liegen als das früher mal der Fall war...
Damit haben die Boardpartner weniger Zeit absolut zwischen der Bekantgabe seitens NV und dem Release der Hardware als solches -> es wirkt unvorbereitet und es dauert länger nach Release.
Auf der anderen Seite entsteht dabei ein stark gewichteter Vorteil für NV -> es gibt schlicht keine Leaks durch Boardpartner oder Dritte... Schau dir die Politik an, die NV mit Pascal fährt.
-> AMD kündigt Polaris 10 an -> NV released kurz vorher GP104 als 1070/1080
-> es wird Vega für Okt. 2016 spekuliert -> NV released kurz vorher GP102 als TitanX
-> AMD kündigt Ryzen an (und es wird auf Infos, ggf. sogar einen Release von Vega gehofft, so nach dem Motto, Überraschung!) -> NV released GP102 als 1080TI
Nimmt man es genau kommt dort noch der Tesla P100 Release dazu

Sowas wäre schlicht nicht aufgegangen wenn deutlich vorher quasi alle Infos und diverses Anderes wie Termine, Leistungsdaten, Ausbauten/Versionen und dergleichen bekannt gewesen wären, bzw. wenigstens durch ansatzweise glaubhafte Spekulationen im Umlauf wären.
Die TitanX kam extrem überraschend für die Masse... Die 1070/1080 eigentlich auch, denn man ging davon aus, als NV deutlich länger als AMD für die neue Generation braucht.

Hätten da viel mehr Leute Infos gehabt, wäre auch viel mehr bekannt gewesen...
Denn die Boardpartner, vor allem die, die beides vertreiben, reden auch untereinander... Und natürlich auch ggü. den Herstellern der GPUs. Denn man kann auch Sachen sagen ohne sie direkt zu sagen ;)
Wenn man aber nix weis, kann man auch nix sagen. Klarer Vorteil...

Zitat Case39;25404549
Da stimme ich dir zu, das Thema wird oft nicht erwähnt. Ich verstehe aber wirklich nicht, warum die Hersteller es nicht in den Griff bekommen? Bei meiner 980Ti, hatte ich dies auch recht ausgeprägt, hat mich aber nicht gestört...im Gegensatz zum Heißluftfön der 1080Ti.


Wenn man sich mit dem Thema mal etwas beschäftigt, dann fällt einem auf, dass sowas schlicht nicht benennbar/aufzeigbar ist. Da einfach viel zu viele verschiedene Kombinationsmöglichkeiten das Ergebnis beeinflussen.
Was bringt es wenn die Redaktionen aussagen, da fiept was oder nicht, wenn es Zuhause dann völlig anders ist?
Bestenfalls kann man Tendenzen sehen... Aber diese lassen sich idR auch nur deswegen sehen, weil idR bei diesen Karten, wo Pauschalen ala fiept/fiept nicht ausgesagt wurden, sehr sehr viele im Umlauf sind und damit entsprechend viele Rückmeldungen seitens der Community zu sehen ist. Wenn 1000 GM204 CPUs hier im Forum zu sehen waren, davon sich 100 zurück gemeldet haben ob es fiept oder nicht, entsteht ein ganz anderes Bild als wenn 50 TitanX GPUs im Umlauf sind und davon sich 5 zurück gemeldet haben ob es fiept...
#14
customavatars/avatar42607_1.gif
Registriert seit: 06.07.2006
Oberbayern
Kapitän zur See
Beiträge: 3888
Zitat Case39;25403776
Also gibt es ein NDA...na gut, ich freu mich auf das Review. Die SC2 von EVGA ist schon bei 999€ gelistet.


Die hat ja leider auch nur ein Powerlimit von 250 Watt, genau wie die Founders edition...
#15
Registriert seit: 10.03.2005

Leutnant zur See
Beiträge: 1155
das ist gerade der punkt der mich interessiert... es ist so schwer herauszufinden wie hoch das pt bei dem jeweiligen Design liegt und gerade dazu kauft man doch n custom ... was bringt mir niedrige temp wenn ich dauernd im pt rumschlürfe
#16
customavatars/avatar42607_1.gif
Registriert seit: 06.07.2006
Oberbayern
Kapitän zur See
Beiträge: 3888
jepp, sehe ich ganz genau so...
#17
customavatars/avatar39948_1.gif
Registriert seit: 10.05.2006

Korvettenkapitän
Beiträge: 2319
Die Frage ist ja auch: Was bringt ein Powertarget überhaupt, außer Leute sinnlos zu gängeln?
#18
Registriert seit: 10.03.2005

Leutnant zur See
Beiträge: 1155
ja da hast du auch recht, ich bin seit der einführung von boostund dem ganzen mist dagegen. habe auch schon bei einigen artikeln bemängelt, dass man im test auf den gut funktionierenden boost noch lobt.

die hardware presse ist einfach absolut unkritisch und da wird viel zu selten mal dem hersteller etwas auf die finger gehauen.
warum das so ist weiß ich nicht, vlt sehen die das also so sinnlos an wie ich es sehe zu kommentieren...aber ich machs trotzdem^^

ich erinnere mich nur an 2 male wo die presse etwas ermahnt hat, das war beim gtx 970 aufstand und damals...ich weiß gar nicht mehr wann da war... da hatte amd mit einem treiber die details runtergeschraubt um bessere fps werte ggü. nv zu bekommen. das wars aber auch schon

andernseits wären ja auch die reseller gefragt, es gab ja eine zeit mit custom biosen ohne boost pt und allem möglichen, ganz wie zur good old oc time, wäre für die reseller nicht so schwer solche biose auf ihre karten zu spielen.

ich finde im low/midrange macht das mit dem pt/tempt usw. noch iwie sinn, aber gerade beim high end will man leistung und zwar so viel wie geht...

das ganze fing aber eben auch an als man immer mehr anfing auf den verbrauch zu schauen und die effizient in den vordergrund trat. mir war das bei high end hardware eher unwichtig aber pt/tt ist dann die logische konsequenz
#19
customavatars/avatar252555_1.gif
Registriert seit: 22.04.2016

Hauptgefreiter
Beiträge: 170
Zitat fdsonne;25405037
Nein, da ist ziemlich sicher nix dran...
Es scheint mittlerweile einfach so, als würde der Zeitpunkt, andem NV den Boardpartnern die Daten zu den neuen Modellen gibt, einfach deutlich näher am Termin der Vorstellung der Hardware liegen als das früher mal der Fall war...
Damit haben die Boardpartner weniger Zeit absolut zwischen der Bekantgabe seitens NV und dem Release der Hardware als solches -> es wirkt unvorbereitet und es dauert länger nach Release.
Auf der anderen Seite entsteht dabei ein stark gewichteter Vorteil für NV -> es gibt schlicht keine Leaks durch Boardpartner oder Dritte... Schau dir die Politik an, die NV mit Pascal fährt.
-> AMD kündigt Polaris 10 an -> NV released kurz vorher GP104 als 1070/1080
-> es wird Vega für Okt. 2016 spekuliert -> NV released kurz vorher GP102 als TitanX
-> AMD kündigt Ryzen an (und es wird auf Infos, ggf. sogar einen Release von Vega gehofft, so nach dem Motto, Überraschung!) -> NV released GP102 als 1080TI
Nimmt man es genau kommt dort noch der Tesla P100 Release dazu

Sowas wäre schlicht nicht aufgegangen wenn deutlich vorher quasi alle Infos und diverses Anderes wie Termine, Leistungsdaten, Ausbauten/Versionen und dergleichen bekannt gewesen wären, bzw. wenigstens durch ansatzweise glaubhafte Spekulationen im Umlauf wären.
Die TitanX kam extrem überraschend für die Masse... Die 1070/1080 eigentlich auch, denn man ging davon aus, als NV deutlich länger als AMD für die neue Generation braucht.

Hätten da viel mehr Leute Infos gehabt, wäre auch viel mehr bekannt gewesen...
Denn die Boardpartner, vor allem die, die beides vertreiben, reden auch untereinander... Und natürlich auch ggü. den Herstellern der GPUs. Denn man kann auch Sachen sagen ohne sie direkt zu sagen ;)
Wenn man aber nix weis, kann man auch nix sagen. Klarer Vorteil...



Wenn man sich mit dem Thema mal etwas beschäftigt, dann fällt einem auf, dass sowas schlicht nicht benennbar/aufzeigbar ist. Da einfach viel zu viele verschiedene Kombinationsmöglichkeiten das Ergebnis beeinflussen.
Was bringt es wenn die Redaktionen aussagen, da fiept was oder nicht, wenn es Zuhause dann völlig anders ist?
Bestenfalls kann man Tendenzen sehen... Aber diese lassen sich idR auch nur deswegen sehen, weil idR bei diesen Karten, wo Pauschalen ala fiept/fiept nicht ausgesagt wurden, sehr sehr viele im Umlauf sind und damit entsprechend viele Rückmeldungen seitens der Community zu sehen ist. Wenn 1000 GM204 CPUs hier im Forum zu sehen waren, davon sich 100 zurück gemeldet haben ob es fiept oder nicht, entsteht ein ganz anderes Bild als wenn 50 TitanX GPUs im Umlauf sind und davon sich 5 zurück gemeldet haben ob es fiept...



Ein NV AiB Partner, möchte ich gerade nicht sein :(
#20
customavatars/avatar34574_1.gif
Registriert seit: 01.02.2006
Hessen\LDK
Moderator
Beiträge: 40887
Wow, Full Quote für einen Satz...


Gesendet von iPhone mit Tapatalk
#21
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32850
Zitat Chasaai;25405533
ja da hast du auch recht, ich bin seit der einführung von boostund dem ganzen mist dagegen. habe auch schon bei einigen artikeln bemängelt, dass man im test auf den gut funktionierenden boost noch lobt.

Was sollen die Redaktionen auch machen?
Der Boost ist Bestandteil der Hardware... Es gibt sie nicht ohne... Es ist müßig darüber zu streiten ob der Boost gut/schlecht für den Endanwender ist. Denn es gibt Vor- wie auch Nachteile dadurch.
Wer bewertet nun was objektiv gesehen "besser" ist!?

-> das benennen von "gut" oder "schlecht" funktionierendem Boost geht hingegen ohne sich auf eine Seite zu stellen... Nämlich indem man Umsetzungen konkreter Produkte miteinander vergleicht.
-> das benennen von "gut" oder "schlecht" auf den Boost generell bezogen ist hingegen rein subjektiv durch den Redakteur ;)

Zitat Chasaai;25405533
ich finde im low/midrange macht das mit dem pt/tempt usw. noch iwie sinn, aber gerade beim high end will man leistung und zwar so viel wie geht...


Das witzige dabei ist, dass du genau das dadurch bekommst ;)
Denn du unterliegst hier einen gedanklichen Irrtum... Nicht das was bei maximalen Einstellungen irgendwie möglich ist, ist das was die Basis ist und alles, was durch das PT/TT gedeckelt wird, verlierst du, sondern die Basis ist irgendwo weit unterhalb dessen, was die Karte im Moment liefert und der Rest ist OnTop -> quasi zusätzliche Dreingabe.
Zumindest so wie der NV Boost im Moment funktioniert!!
Bei AMD ist das bspw. andersrum. Dort gibt es einen Boosttakt -> und ggf. nichtmal einen Basistakt. Die Karte hält idR aber den Boosttakt nicht vollends... Damit entsteht einfach der Eindruck, als würde die Karte gar nicht richtig funktionieren. ;)
So werden bspw. die maximal möglichen Leistungsparameter für FP32 in TFlop/sec angegeben und diese Angabe bezieht sich bei beiden Herstellern auf den genannten maximal Boost. Bei NV liegt man (seit Maxwell) idR deutlich drüber in realen Anwendungen, bei AMD hingegen liegt man meist drunter, manchmal erreicht man diesen Takt, nie aber drüber...

Aber das ist halt eigentlich gar nicht der Sinn hinter dem Boost. Der Sinn dahinter ist, die Karte in so ziemlich allen Lebenslagen dynamisch anhand der Gegebenheiten mit jeweils maximal möglichem (inkl. Einhaltung der Toleranzen!!!) Takt laufen zu lassen...


Am Ende bleibt die Frage, wäre es ohne Boost besser?
Ich erinnere mich da noch an Hardware vor dem Boost. Die hatte fixe Taktraten ohne Wenn und Aber. Sprich unter Last lag der Takt an. Entweder es war stabil oder es ist abgeschmiert... Das war zwar "einfacher" für die Konfiguration, aber warum soll es besser sein, für 24/7 Settings xxxx MHz zu fahren, wenn dieser Takt gerade so im einen Extrem an Anwendung reicht, im anderen Extrem aber vlllt xxxx +100 oder so möglich wäre!? Die Taktraten (gerade bei NV) schwanken ja zum Teil um 100+ MHz, in Prozent ausgedrückt 5-10% sind keine Seltenheit. Entsprechend gibt es auch mehr Leistung in diesen Situatio
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

NVIDIA GeForce GTX 1080 und GeForce GTX 1070 im SLI

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/PASCAL-SLI/GTX1080-SLI-LOGO

Die beiden aktuell schnellsten Single-GPU-Karten GeForce GTX 1080 und GeForce GTX 1070 liefern eine ausreichende Leistung für die höchsten Auflösungen und Qualitätseinstellungen. Allerdings müssen dabei hin und wieder ein paar Einschränkungen gemacht werden. Um diesen aus dem Weg zu gehen,... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]

Drei Modelle der GeForce GTX 1060 von ASUS, EVGA und Inno3D im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060-2/GTX1060_ROUNDUP2-TEASER

Nach einer kurzen Unterbrechung durch die AMD Radeon RX 470 und Radeon RX 460 machen wir weiter mit dem nächsten Schwung verschiedener Custom-Modelle zur NVIDIA GeForce GTX 1060. Während die Eigenlösungen der AMD-Partner teilweise noch immer auf sich warten lassen, ist man bei der Konkurrenz... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]