> > > > Das ist unser neues Grafikkarten-Testsystem für 2018

Das ist unser neues Grafikkarten-Testsystem für 2018

Veröffentlicht am: von

asus-vegaNeues Jahr, neues Testsystem – um für 2018 vorbereitet zu sein, haben wir unser Grafikkarten-Testsystem umgestellt. Neue Hardware und neue Software sollen dafür sorgen, dass wir für alles, was in diesem Jahr erscheinen soll vorbereitet sind. Wir wechseln beispielsweise von einem Intel-Prozessor auf ein AMD-Modell und haben darüber hinaus zahlreiche weitere Komponenten aktualisiert.

In den folgenden Abschnitten wollen wir die einzelnen Komponenten genauer vorstellen und nennen alle technischen Details. Zusammen mit der Hardware kommt natürlich auch eine aktuelle Softwarebasis zum Einsatz. Windows 10 mit dem Fall Creators Update sollte obligatorisch sein, hinzu kommen natürlich auch die neuesten Grafikkarten-Treiber.

Hier schon einmal eine erste Übersicht der verbauten Komponenten:

Das Testsystem
Prozessor AMD Ryzen Threadripper 1950X, 16x 3,4 GHz
Kühlung Noctua NH-U14S TR4-SP3
Mainboard ASUS ROG Strix X399-E Gaming
Arbeitsspeicher G.Skill Flare X F4-3200C14Q-32GFX, 4x 8GB DDR4-3200
SSD Samsung SSD 960 Pro 512GB
HDD Seagate FireCuda 2TB
Netzteil Seasonic Prime Titanium Series 850W
Betriebssystem Windows 10 64 Bit
Gehäuse Fractal Design Define XL R2

Zu einem späteren Zeitpunkt werden wir uns noch etwas genauer der Software widmen. Natürlich sollten unter anderem die neuesten Treiber zum Einsatz kommen. Dies wären der Radeon Software Adrenalin Edition für alle AMD-Grafikkarten und der 390-Branch für alle NVIDIA-Grafikkarten.

Außerdem wird es natürlich Änderungen bei den Benchmarks geben. Einige ältere Spielen fliegen raus, einige aktuelle werden dazukommen. Dazu wird es aber wie gesagt noch eine gesonderte Meldung geben, in der wir den aktuellen Leistungsstand der Karten dann auch präsentieren können.

Prozessor: AMD Ryzen Threadripper 1950X

Wohl mit eine der wichtigsten Komponenten des neuen Systems ist der Prozessor. Wir haben uns für einen AMD Ryzen Threadripper 1950X entschieden. Dieser bietet 16 Kerne und kann 32 Threads verarbeiten. Der Turbotakt liegt bei bis zu 4,0 GHz und damit sollten eventuelle Flaschenhälse bei der CPU-Leistung ausgeschlossen sein. Zudem werden Spiele zunehmen von einer höheren Anzahl an CPU-Kernen profitieren.

Kühler: Noctua NH-U14S TR4-SP3

Zur Kühlung des Ryzen Threadripper 1950X setzen wir auf einen Noctua NH-U14S TR4-SP3. Es handelt sich dabei um einen Tower-Kühler mit der Möglichkeit 140-mm-Lüfter zu montieren. Auf eine AiO-Kühlung haben wir verzichtet. Im Falle der Messung der Idle-Lautstärke halten wir den Lüfter der CPU-Kühlung einfach an und haben damit keinerlei Störgeräusche zu befürchten.

Sechs vernickelte Heatpipes sollen die Abwärme abtransportieren. Der von Noctua verbaute Lüfter arbeitet mit 300 bis 1.500 Umdrehungen pro Minute kann dabei bis zu 140,2 m³/h fördern.

Mainboard: ASUS ROG Strix X399-E Gaming

Als passendes Mainboard für den AMD Ryzen Threadripper 1950X haben wir das ASUS ROG Strix X399-E Gaming auserwählt. Die Platine kommt im E-ATX-Formfaktor daher. Neben dem Sockel TR4 bietet das Board noch acht DIMM-Steckplätze für DDR4-3600. An Erweiterungssteckplätzen stehen 4x PCI-Express 3.0 x16 (2x x16, 2x x8), 1x PCI-Express 2.0 x4 und 1x PCI-Express 2.0 x1 zur Verfügung. Entsprechende SSDs können per 1x M.2/M-Key (PCI-Express 3.0 x4/SATA, 22110/2280/2260/2242) und 1x M.2/M-Key (PCI-Express 3.0 x4/SATA, 2280/2260/2242) sowie 1x U.2/SFF-8643 (PCI-Express 3.0 x4) angeschlossen werden. Für die klassischen Festplatten stehen noch 6x SATA 6 GBit/s zur Verfügung.

An USB-Anschlüssen stehen 1x USB-C 3.1 (ASM3142), 1x USB-A 3.1 (ASM3142) sowie 8x USB-A 3.0 bereit. Intern stehen zur Erweiterung noch 1x USB 3.1 (20-Pin Key-A, X399), 4x USB 3.0 und 4x USB 2.0 zur Verfügung.

Arbeitsspeicher: G.Skill Flare X F4-3200C14Q-32GFX

Um das Quad-Channel-Speicherinterface des Prozessors entsprechend ansprechen zu können, haben wir uns für ein entsprechendes Kit aus dem Hause G.Skill entschieden. Die G.Skill Flare X F4-3200C14Q-32GFX bieten ab Werk per Profil einen Takt von DDR4-3200 bei Timings von CL14-14-14-34. Mit 4x 8 GB und damit insgesamt 32 GB dürften wir auch hier für die Zukunft gerüstet sein.

SSD: Samsung SSD 960 Pro 512GB

Wer derzeit das Maximum an Leistung im Bereich der SSDs bekommen möchte, der greift zum M.2-Format und verwendet ein Mainboard mit entsprechendem Slot der auch die vollen vier PCI-Express-Lanes bietet. Die Samsung SSD 960 Pro mit 512 GB kann mit den aktuell höchsten Übertragungsraten aufwarten.

Samsung verwendet den M.2-2280-Formfaktor und auf dem PCB die eigenen 3D-NAND MLC Speicherchips. Auch der Controller stammt aus eigenem Hause und hört auf den Namen Samsung Polaris. Dieser bietet acht Speicherkanäle und verwendet zusätzliche 512 MB LPDDR3 an Cache. Samsung gibt Übertragungsraten von 3.500 MB/s lesend und 2.100 MB/s schreibend an. Die IOPS 4K lesen/schreiben werden mit 330k/330k angegeben.

Festplatte: Seagate FireCuda 2TB

Da uns die 512 GB an SSD-Speicher für die Installation der aktuellen Spiele sicherlich nicht ausreichen, müssen wir natürlich auch auf eine Festplatte zurückgreifen. Wir verwenden daher eine Seagate FireCuda mit 2 TB an Speicherkapazität. Seagate verwendet hier Magnetplatten mit 7.200 Umdrehungen pro Minute, der Cache ist 64 MB groß und zudem kommen 8 GB SSD-Cache (MLC-NAND) zum Einsatz.

Netzteil: Seasonic Prime Titanium Series 850W

Zur Stromversorgung aller Komponenten verwenden wir ein Seasonic Prime Titanium Series mit einer Ausgangsleistung von 850 W. Das semipassive Netzteil verwendet einen 135-mm-Lüfter und ist mit einer durchschnittlichen Effizienz von 94 %, entsprechend 80 PLUS Titanium zertifiziert. Der semi-passive-Modus ist umschaltbar.

Das vollmodular Netzteil bietet: 1x 20/24-Pin, 2x 4/8-Pin ATX12V, 6x 6/8-Pin PCIe, 10x SATA, 5x IDE, 1x Floppy. Auf der +3.3-V-Spannungsschiene werden 20 A, geliefert, bei +5 V ebenfalls 20 A, auf +12 V dann satte 70 A und auf -12 V sind es 0,3 A. Seagate gibt eine Garantie von zwölf Jahren.

Gehäuse: Fractal Design Define XL R2

Schlussendlich müssen wir alle Komponenten natürlich auch in einem Gehäuse unterbringen, um möglichst praxisrelevant zu sein. Wir haben uns hier für ein Fractal Design Define XL R2 entschieden, da vor allem ausreichend Platz für ein E-ATX-Mainboard vorhanden sein muss. Daneben bietet es die Möglichkeit zahlreiche Laufwerke unterzubringen. Dies wären extern: 4x 5,25 Zoll, 1x 3,5 Zoll sowie intern: 8x 2,5 Zoll/3,5 Zoll (quer auf Laufwerksschienen). Das Frontpanel bietet die Möglichkeit 2x USB-A 3.0, 2x USB-A 2.0, 1x Mikrofon und 1x Kopfhörer anzuschließen.

Zur Belüftung des Gehäuses stehen ebenso zahlreiche Montagemöglichkeiten zur Verfügung. Möglich sind vorne 2x 140 mm, hinten 1x 140 mm, links und rechts 1x 140 mm sowie oben 2x 140 mm und unten 1x 140 mm. Das Gehäuse kommt in einem klassischen schwarz daher und auch wenn es bereits einige Jahre auf dem Markt ist, so gehört es in dieser Größe noch immer zu den besten.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (137)

#128
Registriert seit: 01.01.1970


Beiträge:
Zitat Scrush;26134881
naja 1080p und low ist halt auch nicht das sinnvollste.

max und low res und ohne AA find ich besser

Aber um ein GPU Limit auszuschließen macht es Sinn, das ist ja was andere nicht verstehen, ab Medium limitiert schon die GPU.

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat Paddy92;26134644
Das Problem ist einfach nur, dass viele Leute falsch an die Sache herangehen.


Na da bin ich aber gespannt, weil du felsenfest zuweilen soviel Fehlinformationen reinhaust.

Coreparking ist also deiner Meinung egal bei Gaming, ja? Dann mach dir mal die Mühe (wenn du denn einen Ryzen besitzt) einfach mal auf Energiesparen zu stellen, was dann passiert!

Und nein das stimmt nicht - was du schreibst, Microsoft optimierte Windows Aufgaben zwischen den zwei Vierkern-Einheiten (CCX), aus denen der Acht-Kern-Prozessor besteht, weil dieser sonst wahllos hin und her switchte (die Threadverteilung nimmt Windows selbst vor!). Dies beeinträchtigt die Performance und erhöht Latenzen bei verringerter Speicherbandbreite.

Also nicht nur NUR Coreparking wie du schreibst...
#129
customavatars/avatar112847_1.gif
Registriert seit: 02.05.2009
Wartburgstadt Eisenach
Oberleutnant zur See
Beiträge: 1397
durch low-Settings wird aber auch die CPU entlastet weil etwa der Polycount zurückgenommen wird.

Ich finde es auch sinnvoller Low Res aber High Settings.
Um dann ein GPU-Limit auszuschließen bencht man ja CPU-Tests mit der zum jeweiligen Zeitpunkt stärksten GPU.
Und der Fall ist aktuell klar, Titan Xp bzw. 1080Ti.
#130
Registriert seit: 01.01.1970


Beiträge:
Zitat CeresPK;26135304
Ich finde es auch sinnvoller Low Res aber High Settings...


Grafikrelevante Settings auf low, ja...

Was er nicht kapieren will ist das Windows auch noch CPU Power benötigt und AB per OSD eben die gesamte Systemlast abbildet, nicht nur die, die durch ein Spiel entsteht. Dabei werden Threads zuweilen auf andere Cores verschoben.

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat CeresPK;26135304
Und der Fall ist aktuell klar, Titan Xp bzw. 1080Ti.


Genau, einfach mal umblättern und lesen was ich fdsonne geschrieben habe. Die ti markiert z.Z. den absoluten Wert, den der Threadripper erreichen kann. Man geilt sich aber an den Balken auf die dann nicht lang genug sind. Man kann diese Werte aber mit seinem eigenen Setting beeinflussen (wie du gerade selbst feststellst) oder der verwendeten Software (CPU vs GPU limitiert).
#131
Registriert seit: 23.08.2010

Leutnant zur See
Beiträge: 1071
Zitat satuan;26135289
weil du felsenfest zuweilen soviel Fehlinformationen reinhaust.


Die da wären?


Zitat satuan;26135289
Coreparking ist also deiner Meinung egal bei Gaming, ja?


Nein das habe ich nicht behauptet. Ich habe geschrieben, dass die von Digital Foundry sich an die von AMD empfohlenen Einstellungen gehalten haben, u.a. das einstellen des Energieprofils von "Ausgeglichen" auf "Höchstleistung". Wurde auch so in dem Video gezeigt und gesagt. Durch das Profil "Höchstleistung" kommt es eben nicht mehr zu den Core-Parking.


Zitat satuan;26135289
Und nein das stimmt nicht - was du schreibst, Microsoft optimierte Windows Aufgaben zwischen den zwei Vierkern-Einheiten (CCX), aus denen der Acht-Kern-Prozessor besteht, weil dieser sonst wahllos hin und her switchte (die Threadverteilung nimmt Windows selbst vor!). Dies beeinträchtigt die Performance und erhöht Latenzen bei verringerter Speicherbandbreite.

Also nicht nur NUR Coreparking wie du schreibst...


Nein, du verbreitest hier Fehlinformationen (witzig, dass du wiederum genau das mir unterstellen willst *faceplam* ).

Gaming: AMD Ryzenâ„¢ Community Update | Community
Gaming: AMD Ryzenâ„¢ Community Update #3 | Community
Windows 10: Fall Creators Update macht Ryzen schneller - Golem.de
#132
Registriert seit: 01.01.1970


Beiträge:
Also hat Microsoft dann den betreffenden Patch für die Data Fabric in den Oktober verschoben? Microsoft Support auf Twitter

Mit einem neuem Energieprofil löst man also einen Thread-Sheduler Bug unter Windows. Da habe ich doch wieder was dazu gelernt. Das eine nennt sich nur Core Parking OFF und das andere Fast Frequency Change.

Das Energieprofil (höchster Kerntakt bei niedriger Spannung) war nur dafür da, zu verhindern schnelle Frequenzänderungen auf den Kernen zu unterbinden, damit der Balanced Plan nicht langsamer reagiert, als die interne Änderung der Core-Voltage, weil die Software diesen Leistungsstatus mit beeinträchtigt, braucht es dann auch dort Änderungen.

Aber o.k., das ich zu dumm bin wurde mir schon Seiten vorher bestätigt. Nur wenn Microsoft das selbst schreibt, hätte sich AMD eigentlich nicht selbst opfern müssen (um Ihr Image zu bewahren). Heute hat der Ryzen die gleiche Leistung ohne das alle Kerne (Idle/Load) ständig mit vollem Takt laufen müssten. Das kann man auch ziemlich leicht überprüfen, geht natürlich nur wenn man so eine CPU im Rechner hat. Es spart sogar minimal an der Wattage (10w ca.).
#133
Registriert seit: 23.08.2010

Leutnant zur See
Beiträge: 1071
Zitat satuan;26135749
Also hat Microsoft dann den betreffenden Patch für die Data Fabric in den Oktober verschoben? Microsoft Support auf Twitter

Mit einem neuem Energieprofil löst man also einen Thread-Sheduler Bug unter Windows.


Ich frage mich gerade echt, ob deine Antwort sarkastisch ist oder ob du es ernst meinst...

Jetzt schau dir noch einmal ganz genau an, was du verlinkst hast. Microsoft hat zuerst einen Scheduler-Bug weder bestätigt noch dementiert. Sie haben lediglich geschrieben, dass sie sich die Sache ansehen werden. Später hat AMD dann einen Blogpost veröffentlicht, wo sie schreiben, dass der Windows 10 Scheduler so arbeitet wie vorgesehen und die (logische und physische) Kerne nicht nachteilig nutzt. (We have investigated reports alleging incorrect thread scheduling on the AMD Ryzen™ processor. Based on our findings, AMD believes that the Windows® 10 thread scheduler is operating properly for “Zen,” and we do not presently believe there is an issue with the scheduler adversely utilizing the logical and physical configurations of the architecture.) Diesen Blogpost hat Microsoft dann verlinkt, genau wie ich. Du scheinst solche Sachen aber einfach zu ignorieren...


Achja ich hatte dir noch eine Erklärung unterschlagen.
Viele Leute gehen an die Sache mit der Kernskalierung falsch heran, weil sie die Ergebnisse von Benches einfach falsch interpretieren. Die sehen sich Benches an und sehen nur, ein 4 Kerner ist schneller als 6 oder 8 Kerner, dann kommt sofort wieder die Keule von wegen schlechte Programmierung, keine Multicore-Unterstützung/Optimierung, Spiel nutzt nur x Kerne, würde das Spiel mehr Kerne nutzen können, dann wären die 4+ Kerner schneller und was da sonst noch immer für Parolen kommen. Diese Leute verstehen aber einfach nicht, dass Spiele schon ewig Multithreaded sind (oder Multicore-Unterstützung (wie es hier immer heißt) aufweisen) und auch eine gewisse Kernskalierung aufweisen, nur werden solche Ergebnisse oft durch andere Faktoren (andere Bottlenecks) verfälscht. Oft reichen einfach wenige, aber dafür schnellere Kerne vollkommen aus, um den gesamten Workload zu stemmen, d.h. aber noch lange nicht, dass die Kernskalierung nicht vorhanden ist, sie ist einfach nur nicht ersichtlich. Das ist ein entscheidender Unterschied.
Das ist auch sehr gut erkennbar bei meinem vorherigen Beispiel Ghost Recon Wildlands. Sind die Kerne langsam, dann brauch man halt mehr Kerne um den Workload zu stemmen. Sind die Kerne wiederum sehr schnell, dann reichen auch weniger aus um den Workload zu stemmen.

Bei den auf 2 GHz fixierten Kernen waren 10 Kerne mit HTT notwendig, um ins GPU-Limit zu laufen. => Kernskalierung über 10 Kerne sehr gut erkennbar.
Bei den auf 4 GHz fixierten Kernen waren auf einmal nur noch 4 Kerne ohne HTT nötig, um ins GPU-Limit zu laufen. => Kernskalierung über 4 Kerne hinaus nicht mehr erkennbar.

In diesen Beispiel ist das Bottleneck jetzt halt die GPU, welche limitiert, aber es können auch auch andere Bottlenecks auftreten. :wink:
#134
Registriert seit: 01.01.1970


Beiträge:
Zitat Paddy92;26136493
In diesen Beispiel ist das Bottleneck jetzt halt die GPU, welche limitiert, aber es können auch auch andere Bottlenecks auftreten. :wink:

Da habe ich ja auch versucht zu erläutern, zudem bildet AB RTTS OSD nicht nur die CPU Last und damit Kernauslastung ab, die durch ein Spiel entsteht sondern die gesamte Systemlast. Die Thread lassen sich bildlich nicht trennen und über ein OSD wird nur die prozentuale Last angezeigt, nicht die Anzahl.

Was den Rest angeht müsste man sich mit Sheduler Thread Priority_class und /_level auseinandersetzen.

Wäre folgendes Thema unter Windows:
Designziele
Architektur
Virtueller Adressraum
Ausführungspfade
Prozesse und Threads
Quantum
Threadpriorität
Relative und Variable
Realtime
Dynamic Boost
Traps und SMP (hard_affinty, ideal_processor, soft_affinty, last-run)...

Merkst du was? Das sprengt nicht nur den Thread hier und ist weit offtopic. Siehe es daher einfach als Sarkasmus an und gut.

Ich finde AMDs TR als GPU Testsystem ausreichend, andere nicht. Damit ist alles gesagt. Mehr wollte die Redaktion wahrscheinlich nicht wissen.

Wahrscheinlich weil ich mich schon länger für ein solches System selbst interessierte und immer noch überlege ob es Alternativen gibt.;)
#135
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34159
Zitat satuan;26131877
Und was hat das jetzt alles mit der o.a. Aussage zu tun, das wir eben nicht auf unterschiedlichen Plattformen und unterschiedlichen CPUs testen, sondern Grafikkarten auf der immer gleichen Plattform mit der immer gleichen CPU, ich könnte auch einen Zweikerner nehmen oder einen ARM, das Ergebnis wäre in Simulation und Validierung immer das gleiche, weil sich eben an diesen Größen nichts ändert. Du schreibst zwar viel hast aber nicht im Ansatz verstanden was ich geschrieben habe.


Richtig, ich verstehe nicht, wieso du die Basics von GPU Reviews nicht verstehen willst... Hier gehts immernoch nicht um lange Balken oder weis der Geier was du hier noch sehen willst.
In ein GPU Review gehört so wenig wie möglich CPU-Bremse rein. Fertig. WENN du hier unbedingt den TR sehen willst, dann schau dir das TR-Review an und lass die Leute, die sich über die Leistungsfähigkeiten von GPUs informieren wollen ihren Part... Ist ganz einfach.

Zitat satuan;26131877
Ich habe nur versucht die Vorteile zu verdeutlichen, dass es auch Nachteile gibt habe ich nicht von der Hand gewiesen (auch wenn ich sie nicht explizit angesprochen habe).

Über was reden wir dann bitte hier? Vorteile von TR stehen/standen nie zur Debatte... Keine Ahnung, was du hier überhaupt diskutierst, WENN dir die Punkte nichtmal klar sind... Wer über Vor- und Nachteile von TR debattieren will, soll bitte in den TR-Sammler gehen.
Hier gehts um ein Testsystem für kommende GPU-Reviews und nicht über Vorteile von TR :rolleyes:

Zitat satuan;26131877
Und worauf habe ich nicht geantwortet bzw. auf welche Aussagen bin ich nicht eingegangen? Ich habe eigentlich alles beantwortet (Antworten muss man ja nicht nochmal wiederholen und Fragen mit Fragen beantworten), mit Zitat einfügen (quote) wie das in Foren üblich ist. Ich springe auch nirgends beim Thema hin und her, sondern habe jetzt meine Aussagen zig mal wiederholt.

"Du gehst nicht auf die Aussagen anderer ein, springst stattdessen munter von Thema zu Thema, erst PCIe Lanes, MGPU, was du so toll an TR findest usw. usf. Alles schön und gut, aber erwarte nicht, dass man dir die Aussagen dann um die Ohren haut - vor allem wenn es absurd wird."
-> da stehen doch schon die Beispiele!?

Zitat satuan;26131877
Die Leistung einer GPU skaliert mit der eingestellten Auflösung und Quali...eine Anwendung fordert dabei unterschiedliche viele CPU Kerne an. Wobei du einmal meinst, es gibt keine Skalierung und dann wieder schreibst das Hardware skaliert.

Nein, behaupte ich nicht... Nochmal lesen bitte.
Auch skaliert die Leistung nicht mit der Auflösung... Nochmal, die GPU ist immer gleich schnell. Egal welche CPU da im System steckt, egal welche Auflösung du fährst, egal welche Settings du eindrehst... Das ist auch der Punkt hier im Kern der Kritik. WENN du zu wenig CPU Leistung bereit stellst im Testsystem, dann kommt von der Leistung der GPU in Form von messbaren FPS ggf. nicht mehr alles an. Um so mehr die GPU kann, desto mehr wird die Decklung vorzufinden sein.
(im übrigen, siehe oben, auch so ein Punkt - du gehst nicht auf die Aussagen ein. Ich erklärte dir bereits, dass die GPU immer gleich schnell ist - siehe "A)" im Post über dem deinigen)

Wir könnten die Messmethode ändern - bspw. nur noch Papierdaten vergleichen. Rohleistung in TFlop/sec, VRAM Menge, Bandbreite usw. -> DANN ists wurscht, was das Testsystem kann. Aber das ist eben nichts wert, wenn es um praktischen Einsatz geht.

Zitat satuan;26131877
Wenn du keine Lust auf Stammtischgequatsche/Geplärre hast (war nicht auf dein Postings bezogen), dann hättest du in diesem Thread genug gefunden was du hättest löschen können, weil Fanboygequatsche und Holzkopf oder "verpiss dich" (in schöne Worte gefasst) zwei völlig unterschiedliche Aussagen sind und zwar in ihrer Wertigkeit. PCGH "Bau" lasse ich mal unkommentiert.


Was soll dieser Unsinn?
DU hast mich zitiert und mit "geunke" losgetreten... Ganz ernsthaft. Du schmeißt hier mit irgendwelchen Begriffen um dich, die du irgendwo aufgeschnappt hast, aber verstehen - verstehen ist ein ganz anderer Part. Deinen Ausführungen zu Entnehmen bist du auch nur jemand, der weder mit Softwareentwicklung noch mit GPU-Rendering irgendwas am Hut hast. Da helfen auch irgendwelche Begriffe nicht - die du hier rumwirfst. Und "Coole Sprüche", die du Anderen vorwirfst.
Auch suchst du hier Ausreden warum TR doch ein gutes System ist - nochmal für dich, NIEMAND bestreitet das TR ein gutes System ist. NIEMAND!!!! - im Zusammenhang mit GPU-Leistungstests in Games ist ein TR System aber nicht die bestmögliche Option in 2018. -> du machst daraus: "Man geilt sich aber an den Balken auf die dann nicht lang genug sind." :rolleyes:

Genau diesen Bullshit (sorry) - lass einfach gut sein. Einfach nur noch lächerlich, was hier abgeht... Immer die gleiche Leier - Monat für Monat. Macht ihr mal und lügt euch weiter die Taschen voll. Ich geh mich derweile fragen, was so schwer dran ist zu kapieren, warum TR nicht die optimale Wahl ist - und damit der Kernpunkt für die Kritik.
#136
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 9085
Was für ein Battle hier, da kann man in Zweifel kommen, ob die Luxx Redaktion überhaupt hinter dieser Entscheidung steht, dieses System nutzten zu wollen? Die Mehrzahl der Kommentare hier sprechen ja dagegen, aus welchem Grund auch immer, sind diese den relevant, dass System womöglich noch zu kippen?
#137
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 9085
Mal was aus der TR Praxis, user @Crynis war so freundlich und hat das [U]UV Setting[/U] aus dem Luxx Vega Sammler, welches die Jungs dort seit Monaten verfeinern, mit einem TR System getestet und konnte das beste Ergebnis bisher erzielen, welches [U]dort[/U] mit dem UF Profil und einer Vega Karte erreicht wurde. Vergleichswerte sind im Sammler auf der 1 Seite zu finden. :)

Scheinbar konnte die Leistung des TR was dazu beitragen. ;)


Zitat crynis;26106246
so wie versprochen liefere ich euch den uv settings und auf wunsch von GerryB, habe ich PT+50, P6 1577/975, P7 1667/1028 genommen und es lief direkt durch ohne probleme !

hier das beweis bild ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]