> > > > Das ist unser neues Grafikkarten-Testsystem für 2018

Das ist unser neues Grafikkarten-Testsystem für 2018

Veröffentlicht am: von

asus-vegaNeues Jahr, neues Testsystem – um für 2018 vorbereitet zu sein, haben wir unser Grafikkarten-Testsystem umgestellt. Neue Hardware und neue Software sollen dafür sorgen, dass wir für alles, was in diesem Jahr erscheinen soll vorbereitet sind. Wir wechseln beispielsweise von einem Intel-Prozessor auf ein AMD-Modell und haben darüber hinaus zahlreiche weitere Komponenten aktualisiert.

In den folgenden Abschnitten wollen wir die einzelnen Komponenten genauer vorstellen und nennen alle technischen Details. Zusammen mit der Hardware kommt natürlich auch eine aktuelle Softwarebasis zum Einsatz. Windows 10 mit dem Fall Creators Update sollte obligatorisch sein, hinzu kommen natürlich auch die neuesten Grafikkarten-Treiber.

Hier schon einmal eine erste Übersicht der verbauten Komponenten:

Das Testsystem
Prozessor AMD Ryzen Threadripper 1950X, 16x 3,4 GHz
Kühlung Noctua NH-U14S TR4-SP3
Mainboard ASUS ROG Strix X399-E Gaming
Arbeitsspeicher G.Skill Flare X F4-3200C14Q-32GFX, 4x 8GB DDR4-3200
SSD Samsung SSD 960 Pro 512GB
HDD Seagate FireCuda 2TB
Netzteil Seasonic Prime Titanium Series 850W
Betriebssystem Windows 10 64 Bit
Gehäuse Fractal Design Define XL R2

Zu einem späteren Zeitpunkt werden wir uns noch etwas genauer der Software widmen. Natürlich sollten unter anderem die neuesten Treiber zum Einsatz kommen. Dies wären der Radeon Software Adrenalin Edition für alle AMD-Grafikkarten und der 390-Branch für alle NVIDIA-Grafikkarten.

Außerdem wird es natürlich Änderungen bei den Benchmarks geben. Einige ältere Spielen fliegen raus, einige aktuelle werden dazukommen. Dazu wird es aber wie gesagt noch eine gesonderte Meldung geben, in der wir den aktuellen Leistungsstand der Karten dann auch präsentieren können.

Prozessor: AMD Ryzen Threadripper 1950X

Wohl mit eine der wichtigsten Komponenten des neuen Systems ist der Prozessor. Wir haben uns für einen AMD Ryzen Threadripper 1950X entschieden. Dieser bietet 16 Kerne und kann 32 Threads verarbeiten. Der Turbotakt liegt bei bis zu 4,0 GHz und damit sollten eventuelle Flaschenhälse bei der CPU-Leistung ausgeschlossen sein. Zudem werden Spiele zunehmen von einer höheren Anzahl an CPU-Kernen profitieren.

Kühler: Noctua NH-U14S TR4-SP3

Zur Kühlung des Ryzen Threadripper 1950X setzen wir auf einen Noctua NH-U14S TR4-SP3. Es handelt sich dabei um einen Tower-Kühler mit der Möglichkeit 140-mm-Lüfter zu montieren. Auf eine AiO-Kühlung haben wir verzichtet. Im Falle der Messung der Idle-Lautstärke halten wir den Lüfter der CPU-Kühlung einfach an und haben damit keinerlei Störgeräusche zu befürchten.

Sechs vernickelte Heatpipes sollen die Abwärme abtransportieren. Der von Noctua verbaute Lüfter arbeitet mit 300 bis 1.500 Umdrehungen pro Minute kann dabei bis zu 140,2 m³/h fördern.

Mainboard: ASUS ROG Strix X399-E Gaming

Als passendes Mainboard für den AMD Ryzen Threadripper 1950X haben wir das ASUS ROG Strix X399-E Gaming auserwählt. Die Platine kommt im E-ATX-Formfaktor daher. Neben dem Sockel TR4 bietet das Board noch acht DIMM-Steckplätze für DDR4-3600. An Erweiterungssteckplätzen stehen 4x PCI-Express 3.0 x16 (2x x16, 2x x8), 1x PCI-Express 2.0 x4 und 1x PCI-Express 2.0 x1 zur Verfügung. Entsprechende SSDs können per 1x M.2/M-Key (PCI-Express 3.0 x4/SATA, 22110/2280/2260/2242) und 1x M.2/M-Key (PCI-Express 3.0 x4/SATA, 2280/2260/2242) sowie 1x U.2/SFF-8643 (PCI-Express 3.0 x4) angeschlossen werden. Für die klassischen Festplatten stehen noch 6x SATA 6 GBit/s zur Verfügung.

An USB-Anschlüssen stehen 1x USB-C 3.1 (ASM3142), 1x USB-A 3.1 (ASM3142) sowie 8x USB-A 3.0 bereit. Intern stehen zur Erweiterung noch 1x USB 3.1 (20-Pin Key-A, X399), 4x USB 3.0 und 4x USB 2.0 zur Verfügung.

Arbeitsspeicher: G.Skill Flare X F4-3200C14Q-32GFX

Um das Quad-Channel-Speicherinterface des Prozessors entsprechend ansprechen zu können, haben wir uns für ein entsprechendes Kit aus dem Hause G.Skill entschieden. Die G.Skill Flare X F4-3200C14Q-32GFX bieten ab Werk per Profil einen Takt von DDR4-3200 bei Timings von CL14-14-14-34. Mit 4x 8 GB und damit insgesamt 32 GB dürften wir auch hier für die Zukunft gerüstet sein.

SSD: Samsung SSD 960 Pro 512GB

Wer derzeit das Maximum an Leistung im Bereich der SSDs bekommen möchte, der greift zum M.2-Format und verwendet ein Mainboard mit entsprechendem Slot der auch die vollen vier PCI-Express-Lanes bietet. Die Samsung SSD 960 Pro mit 512 GB kann mit den aktuell höchsten Übertragungsraten aufwarten.

Samsung verwendet den M.2-2280-Formfaktor und auf dem PCB die eigenen 3D-NAND MLC Speicherchips. Auch der Controller stammt aus eigenem Hause und hört auf den Namen Samsung Polaris. Dieser bietet acht Speicherkanäle und verwendet zusätzliche 512 MB LPDDR3 an Cache. Samsung gibt Übertragungsraten von 3.500 MB/s lesend und 2.100 MB/s schreibend an. Die IOPS 4K lesen/schreiben werden mit 330k/330k angegeben.

Festplatte: Seagate FireCuda 2TB

Da uns die 512 GB an SSD-Speicher für die Installation der aktuellen Spiele sicherlich nicht ausreichen, müssen wir natürlich auch auf eine Festplatte zurückgreifen. Wir verwenden daher eine Seagate FireCuda mit 2 TB an Speicherkapazität. Seagate verwendet hier Magnetplatten mit 7.200 Umdrehungen pro Minute, der Cache ist 64 MB groß und zudem kommen 8 GB SSD-Cache (MLC-NAND) zum Einsatz.

Netzteil: Seasonic Prime Titanium Series 850W

Zur Stromversorgung aller Komponenten verwenden wir ein Seasonic Prime Titanium Series mit einer Ausgangsleistung von 850 W. Das semipassive Netzteil verwendet einen 135-mm-Lüfter und ist mit einer durchschnittlichen Effizienz von 94 %, entsprechend 80 PLUS Titanium zertifiziert. Der semi-passive-Modus ist umschaltbar.

Das vollmodular Netzteil bietet: 1x 20/24-Pin, 2x 4/8-Pin ATX12V, 6x 6/8-Pin PCIe, 10x SATA, 5x IDE, 1x Floppy. Auf der +3.3-V-Spannungsschiene werden 20 A, geliefert, bei +5 V ebenfalls 20 A, auf +12 V dann satte 70 A und auf -12 V sind es 0,3 A. Seagate gibt eine Garantie von zwölf Jahren.

Gehäuse: Fractal Design Define XL R2

Schlussendlich müssen wir alle Komponenten natürlich auch in einem Gehäuse unterbringen, um möglichst praxisrelevant zu sein. Wir haben uns hier für ein Fractal Design Define XL R2 entschieden, da vor allem ausreichend Platz für ein E-ATX-Mainboard vorhanden sein muss. Daneben bietet es die Möglichkeit zahlreiche Laufwerke unterzubringen. Dies wären extern: 4x 5,25 Zoll, 1x 3,5 Zoll sowie intern: 8x 2,5 Zoll/3,5 Zoll (quer auf Laufwerksschienen). Das Frontpanel bietet die Möglichkeit 2x USB-A 3.0, 2x USB-A 2.0, 1x Mikrofon und 1x Kopfhörer anzuschließen.

Zur Belüftung des Gehäuses stehen ebenso zahlreiche Montagemöglichkeiten zur Verfügung. Möglich sind vorne 2x 140 mm, hinten 1x 140 mm, links und rechts 1x 140 mm sowie oben 2x 140 mm und unten 1x 140 mm. Das Gehäuse kommt in einem klassischen schwarz daher und auch wenn es bereits einige Jahre auf dem Markt ist, so gehört es in dieser Größe noch immer zu den besten.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (137)

#128
Registriert seit: 01.01.1970


Beiträge:
Zitat Scrush;26134881
naja 1080p und low ist halt auch nicht das sinnvollste.

max und low res und ohne AA find ich besser

Aber um ein GPU Limit auszuschließen macht es Sinn, das ist ja was andere nicht verstehen, ab Medium limitiert schon die GPU.

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat Paddy92;26134644
Das Problem ist einfach nur, dass viele Leute falsch an die Sache herangehen.


Na da bin ich aber gespannt, weil du felsenfest zuweilen soviel Fehlinformationen reinhaust.

Coreparking ist also deiner Meinung egal bei Gaming, ja? Dann mach dir mal die Mühe (wenn du denn einen Ryzen besitzt) einfach mal auf Energiesparen zu stellen, was dann passiert!

Und nein das stimmt nicht - was du schreibst, Microsoft optimierte Windows Aufgaben zwischen den zwei Vierkern-Einheiten (CCX), aus denen der Acht-Kern-Prozessor besteht, weil dieser sonst wahllos hin und her switchte (die Threadverteilung nimmt Windows selbst vor!). Dies beeinträchtigt die Performance und erhöht Latenzen bei verringerter Speicherbandbreite.

Also nicht nur NUR Coreparking wie du schreibst...
#129
customavatars/avatar112847_1.gif
Registriert seit: 02.05.2009
Wartburgstadt Eisenach
Oberleutnant zur See
Beiträge: 1334
durch low-Settings wird aber auch die CPU entlastet weil etwa der Polycount zurückgenommen wird.

Ich finde es auch sinnvoller Low Res aber High Settings.
Um dann ein GPU-Limit auszuschließen bencht man ja CPU-Tests mit der zum jeweiligen Zeitpunkt stärksten GPU.
Und der Fall ist aktuell klar, Titan Xp bzw. 1080Ti.
#130
Registriert seit: 01.01.1970


Beiträge:
Zitat CeresPK;26135304
Ich finde es auch sinnvoller Low Res aber High Settings...


Grafikrelevante Settings auf low, ja...

Was er nicht kapieren will ist das Windows auch noch CPU Power benötigt und AB per OSD eben die gesamte Systemlast abbildet, nicht nur die, die durch ein Spiel entsteht. Dabei werden Threads zuweilen auf andere Cores verschoben.

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat CeresPK;26135304
Und der Fall ist aktuell klar, Titan Xp bzw. 1080Ti.


Genau, einfach mal umblättern und lesen was ich fdsonne geschrieben habe. Die ti markiert z.Z. den absoluten Wert, den der Threadripper erreichen kann. Man geilt sich aber an den Balken auf die dann nicht lang genug sind. Man kann diese Werte aber mit seinem eigenen Setting beeinflussen (wie du gerade selbst feststellst) oder der verwendeten Software (CPU vs GPU limitiert).
#131
Registriert seit: 23.08.2010

Oberbootsmann
Beiträge: 956
Zitat satuan;26135289
weil du felsenfest zuweilen soviel Fehlinformationen reinhaust.


Die da wären?


Zitat satuan;26135289
Coreparking ist also deiner Meinung egal bei Gaming, ja?


Nein das habe ich nicht behauptet. Ich habe geschrieben, dass die von Digital Foundry sich an die von AMD empfohlenen Einstellungen gehalten haben, u.a. das einstellen des Energieprofils von "Ausgeglichen" auf "Höchstleistung". Wurde auch so in dem Video gezeigt und gesagt. Durch das Profil "Höchstleistung" kommt es eben nicht mehr zu den Core-Parking.


Zitat satuan;26135289
Und nein das stimmt nicht - was du schreibst, Microsoft optimierte Windows Aufgaben zwischen den zwei Vierkern-Einheiten (CCX), aus denen der Acht-Kern-Prozessor besteht, weil dieser sonst wahllos hin und her switchte (die Threadverteilung nimmt Windows selbst vor!). Dies beeinträchtigt die Performance und erhöht Latenzen bei verringerter Speicherbandbreite.

Also nicht nur NUR Coreparking wie du schreibst...


Nein, du verbreitest hier Fehlinformationen (witzig, dass du wiederum genau das mir unterstellen willst *faceplam* ).

Gaming: AMD Ryzenâ„¢ Community Update | Community
Gaming: AMD Ryzenâ„¢ Community Update #3 | Community
Windows 10: Fall Creators Update macht Ryzen schneller - Golem.de
#132
Registriert seit: 01.01.1970


Beiträge:
Also hat Microsoft dann den betreffenden Patch für die Data Fabric in den Oktober verschoben? Microsoft Support auf Twitter

Mit einem neuem Energieprofil löst man also einen Thread-Sheduler Bug unter Windows. Da habe ich doch wieder was dazu gelernt. Das eine nennt sich nur Core Parking OFF und das andere Fast Frequency Change.

Das Energieprofil (höchster Kerntakt bei niedriger Spannung) war nur dafür da, zu verhindern schnelle Frequenzänderungen auf den Kernen zu unterbinden, damit der Balanced Plan nicht langsamer reagiert, als die interne Änderung der Core-Voltage, weil die Software diesen Leistungsstatus mit beeinträchtigt, braucht es dann auch dort Änderungen.

Aber o.k., das ich zu dumm bin wurde mir schon Seiten vorher bestätigt. Nur wenn Microsoft das selbst schreibt, hätte sich AMD eigentlich nicht selbst opfern müssen (um Ihr Image zu bewahren). Heute hat der Ryzen die gleiche Leistung ohne das alle Kerne (Idle/Load) ständig mit vollem Takt laufen müssten. Das kann man auch ziemlich leicht überprüfen, geht natürlich nur wenn man so eine CPU im Rechner hat. Es spart sogar minimal an der Wattage (10w ca.).
#133
Registriert seit: 23.08.2010

Oberbootsmann
Beiträge: 956
Zitat satuan;26135749
Also hat Microsoft dann den betreffenden Patch für die Data Fabric in den Oktober verschoben? Microsoft Support auf Twitter

Mit einem neuem Energieprofil löst man also einen Thread-Sheduler Bug unter Windows.


Ich frage mich gerade echt, ob deine Antwort sarkastisch ist oder ob du es ernst meinst...

Jetzt schau dir noch einmal ganz genau an, was du verlinkst hast. Microsoft hat zuerst einen Scheduler-Bug weder bestätigt noch dementiert. Sie haben lediglich geschrieben, dass sie sich die Sache ansehen werden. Später hat AMD dann einen Blogpost veröffentlicht, wo sie schreiben, dass der Windows 10 Scheduler so arbeitet wie vorgesehen und die (logische und physische) Kerne nicht nachteilig nutzt. (We have investigated reports alleging incorrect thread scheduling on the AMD Ryzen™ processor. Based on our findings, AMD believes that the Windows® 10 thread scheduler is operating properly for “Zen,” and we do not presently believe there is an issue with the scheduler adversely utilizing the logical and physical configurations of the architecture.) Diesen Blogpost hat Microsoft dann verlinkt, genau wie ich. Du scheinst solche Sachen aber einfach zu ignorieren...


Achja ich hatte dir noch eine Erklärung unterschlagen.
Viele Leute gehen an die Sache mit der Kernskalierung falsch heran, weil sie die Ergebnisse von Benches einfach falsch interpretieren. Die sehen sich Benches an und sehen nur, ein 4 Kerner ist schneller als 6 oder 8 Kerner, dann kommt sofort wieder die Keule von wegen schlechte Programmierung, keine Multicore-Unterstützung/Optimierung, Spiel nutzt nur x Kerne, würde das Spiel mehr Kerne nutzen können, dann wären die 4+ Kerner schneller und was da sonst noch immer für Parolen kommen. Diese Leute verstehen aber einfach nicht, dass Spiele schon ewig Multithreaded sind (oder Multicore-Unterstützung (wie es hier immer heißt) aufweisen) und auch eine gewisse Kernskalierung aufweisen, nur werden solche Ergebnisse oft durch andere Faktoren (andere Bottlenecks) verfälscht. Oft reichen einfach wenige, aber dafür schnellere Kerne vollkommen aus, um den gesamten Workload zu stemmen, d.h. aber noch lange nicht, dass die Kernskalierung nicht vorhanden ist, sie ist einfach nur nicht ersichtlich. Das ist ein entscheidender Unterschied.
Das ist auch sehr gut erkennbar bei meinem vorherigen Beispiel Ghost Recon Wildlands. Sind die Kerne langsam, dann brauch man halt mehr Kerne um den Workload zu stemmen. Sind die Kerne wiederum sehr schnell, dann reichen auch weniger aus um den Workload zu stemmen.

Bei den auf 2 GHz fixierten Kernen waren 10 Kerne mit HTT notwendig, um ins GPU-Limit zu laufen. => Kernskalierung über 10 Kerne sehr gut erkennbar.
Bei den auf 4 GHz fixierten Kernen waren auf einmal nur noch 4 Kerne ohne HTT nötig, um ins GPU-Limit zu laufen. => Kernskalierung über 4 Kerne hinaus nicht mehr erkennbar.

In diesen Beispiel ist das Bottleneck jetzt halt die GPU, welche limitiert, aber es können auch auch andere Bottlenecks auftreten. :wink:
#134
Registriert seit: 01.01.1970


Beiträge:
Zitat Paddy92;26136493
In diesen Beispiel ist das Bottleneck jetzt halt die GPU, welche limitiert, aber es können auch auch andere Bottlenecks auftreten. :wink:

Da habe ich ja auch versucht zu erläutern, zudem bildet AB RTTS OSD nicht nur die CPU Last und damit Kernauslastung ab, die durch ein Spiel entsteht sondern die gesamte Systemlast. Die Thread lassen sich bildlich nicht trennen und über ein OSD wird nur die prozentuale Last angezeigt, nicht die Anzahl.

Was den Rest angeht müsste man sich mit Sheduler Thread Priority_class und /_level auseinandersetzen.

Wäre folgendes Thema unter Windows:
Designziele
Architektur
Virtueller Adressraum
Ausführungspfade
Prozesse und Threads
Quantum
Threadpriorität
Relative und Variable
Realtime
Dynamic Boost
Traps und SMP (hard_affinty, ideal_processor, soft_affinty, last-run)...

Merkst du was? Das sprengt nicht nur den Thread hier und ist weit offtopic. Siehe es daher einfach als Sarkasmus an und gut.

Ich finde AMDs TR als GPU Testsystem ausreichend, andere nicht. Damit ist alles gesagt. Mehr wollte die Redaktion wahrscheinlich nicht wissen.

Wahrscheinlich weil ich mich schon länger für ein solches System selbst interessierte und immer noch überlege ob es Alternativen gibt.;)
#135
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33945
Zitat satuan;26131877
Und was hat das jetzt alles mit der o.a. Aussage zu tun, das wir eben nicht auf unterschiedlichen Plattformen und unterschiedlichen CPUs testen, sondern Grafikkarten auf der immer gleichen Plattform mit der immer gleichen CPU, ich könnte auch einen Zweikerner nehmen oder einen ARM, das Ergebnis wäre in Simulation und Validierung immer das gleiche, weil sich eben an diesen Größen nichts ändert. Du schreibst zwar viel hast aber nicht im Ansatz verstanden was ich geschrieben habe.


Richtig, ich verstehe nicht, wieso du die Basics von GPU Reviews nicht verstehen willst... Hier gehts immernoch nicht um lange Balken oder weis der Geier was du hier noch sehen willst.
In ein GPU Review gehört so wenig wie möglich CPU-Bremse rein. Fertig. WENN du hier unbedingt den TR sehen willst, dann schau dir das TR-Review an und lass die Leute, die sich über die Leistungsfähigkeiten von GPUs informieren wollen ihren Part... Ist ganz einfach.

Zitat satuan;26131877
Ich habe nur versucht die Vorteile zu verdeutlichen, dass es auch Nachteile gibt habe ich nicht von der Hand gewiesen (auch wenn ich sie nicht explizit angesprochen habe).

Über was reden wir dann bitte hier? Vorteile von TR stehen/standen nie zur Debatte... Keine Ahnung, was du hier überhaupt diskutierst, WENN dir die Punkte nichtmal klar sind... Wer über Vor- und Nachteile von TR debattieren will, soll bitte in den TR-Sammler gehen.
Hier gehts um ein Testsystem für kommende GPU-Reviews und nicht über Vorteile von TR :rolleyes:

Zitat satuan;26131877
Und worauf habe ich nicht geantwortet bzw. auf welche Aussagen bin ich nicht eingegangen? Ich habe eigentlich alles beantwortet (Antworten muss man ja nicht nochmal wiederholen und Fragen mit Fragen beantworten), mit Zitat einfügen (quote) wie das in Foren üblich ist. Ich springe auch nirgends beim Thema hin und her, sondern habe jetzt meine Aussagen zig mal wiederholt.

"Du gehst nicht auf die Aussagen anderer ein, springst stattdessen munter von Thema zu Thema, erst PCIe Lanes, MGPU, was du so toll an TR findest usw. usf. Alles schön und gut, aber erwarte nicht, dass man dir die Aussagen dann um die Ohren haut - vor allem wenn es absurd wird."
-> da stehen doch schon die Beispiele!?

Zitat satuan;26131877
Die Leistung einer GPU skaliert mit der eingestellten Auflösung und Quali...eine Anwendung fordert dabei unterschiedliche viele CPU Kerne an. Wobei du einmal meinst, es gibt keine Skalierung und dann wieder schreibst das Hardware skaliert.

Nein, behaupte ich nicht... Nochmal lesen bitte.
Auch skaliert die Leistung nicht mit der Auflösung... Nochmal, die GPU ist immer gleich schnell. Egal welche CPU da im System steckt, egal welche Auflösung du fährst, egal welche Settings du eindrehst... Das ist auch der Punkt hier im Kern der Kritik. WENN du zu wenig CPU Leistung bereit stellst im Testsystem, dann kommt von der Leistung der GPU in Form von messbaren FPS ggf. nicht mehr alles an. Um so mehr die GPU kann, desto mehr wird die Decklung vorzufinden sein.
(im übrigen, siehe oben, auch so ein Punkt - du gehst nicht auf die Aussagen ein. Ich erklärte dir bereits, dass die GPU immer gleich schnell ist - siehe "A)" im Post über dem deinigen)

Wir könnten die Messmethode ändern - bspw. nur noch Papierdaten vergleichen. Rohleistung in TFlop/sec, VRAM Menge, Bandbreite usw. -> DANN ists wurscht, was das Testsystem kann. Aber das ist eben nichts wert, wenn es um praktischen Einsatz geht.

Zitat satuan;26131877
Wenn du keine Lust auf Stammtischgequatsche/Geplärre hast (war nicht auf dein Postings bezogen), dann hättest du in diesem Thread genug gefunden was du hättest löschen können, weil Fanboygequatsche und Holzkopf oder "verpiss dich" (in schöne Worte gefasst) zwei völlig unterschiedliche Aussagen sind und zwar in ihrer Wertigkeit. PCGH "Bau" lasse ich mal unkommentiert.


Was soll dieser Unsinn?
DU hast mich zitiert und mit "geunke" losgetreten... Ganz ernsthaft. Du schmeißt hier mit irgendwelchen Begriffen um dich, die du irgendwo aufgeschnappt hast, aber verstehen - verstehen ist ein ganz anderer Part. Deinen Ausführungen zu Entnehmen bist du auch nur jemand, der weder mit Softwareentwicklung noch mit GPU-Rendering irgendwas am Hut hast. Da helfen auch irgendwelche Begriffe nicht - die du hier rumwirfst. Und "Coole Sprüche", die du Anderen vorwirfst.
Auch suchst du hier Ausreden warum TR doch ein gutes System ist - nochmal für dich, NIEMAND bestreitet das TR ein gutes System ist. NIEMAND!!!! - im Zusammenhang mit GPU-Leistungstests in Games ist ein TR System aber nicht die bestmögliche Option in 2018. -> du machst daraus: "Man geilt sich aber an den Balken auf die dann nicht lang genug sind." :rolleyes:

Genau diesen Bullshit (sorry) - lass einfach gut sein. Einfach nur noch lächerlich, was hier abgeht... Immer die gleiche Leier - Monat für Monat. Macht ihr mal und lügt euch weiter die Taschen voll. Ich geh mich derweile fragen, was so schwer dran ist zu kapieren, warum TR nicht die optimale Wahl ist - und damit der Kernpunkt für die Kritik.
#136
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 7207
Was für ein Battle hier, da kann man in Zweifel kommen, ob die Luxx Redaktion überhaupt hinter dieser Entscheidung steht, dieses System nutzten zu wollen? Die Mehrzahl der Kommentare hier sprechen ja dagegen, aus welchem Grund auch immer, sind diese den relevant, dass System womöglich noch zu kippen?
#137
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 7207
Mal was aus der TR Praxis, user @Crynis war so freundlich und hat das [U]UV Setting[/U] aus dem Luxx Vega Sammler, welches die Jungs dort seit Monaten verfeinern, mit einem TR System getestet und konnte das beste Ergebnis bisher erzielen, welches [U]dort[/U] mit dem UF Profil und einer Vega Karte erreicht wurde. Vergleichswerte sind im Sammler auf der 1 Seite zu finden. :)

Scheinbar konnte die Leistung des TR was dazu beitragen. ;)


Zitat crynis;26106246
so wie versprochen liefere ich euch den uv settings und auf wunsch von GerryB, habe ich PT+50, P6 1577/975, P7 1667/1028 genommen und es lief direkt durch ohne probleme !

hier das beweis bild ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

Mega-Roundup: 14 aktuelle GeForce-Grafikkarten in 11 Blockbuster-Spielen...

Logo von IMAGES/STORIES/2017/GPU_BLOCKBUSER_VGL_ZOTAC-TEASER

In Kooperation mit Zotac Auch in diesem Jahr veranstalteten die Spielepublisher wieder ein regelrechtes Feuerwerk an neuen Videospielen. Vor allem in den letzten Wochen des Jahres wurden zahlreiche neue Triple-A-Titel veröffentlicht, wie beispielsweise ein neues "Call of Duty",... [mehr]

Die ersten Custom-Modelle der GeForce GTX 1070 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1070TI-LOGO

Nach der Vorstellung aller Details dürfen wir heute die Leistungswerte der GeForce GTX 1070 Ti veröffentlichen. Dabei stand uns dieses Mal keine Founders Edition zur Verfügung, die nur von NVIDIA verkauft wird, dafür aber einige Custom-Modelle. Diese stammen aus dem Hause ASUS, Inno3D und... [mehr]

Erstes Custom-Design: ASUS ROG Strix Radeon Vega 64 OC Edition im Test

Logo von IMAGES/STORIES/2017/ASUS-VEGA

Es ist endlich soweit: Wir können uns das erste Custom-Modell der Radeon RX Vega 64 anschauen. ASUS war der erste Hersteller, der ein entsprechendes Modell vorgestellt hat, nun erreichte uns das finale Produkt. Im Zentrum steht natürlich die Frage, welche Verbesserungen ASUS mit der ROG Strix... [mehr]