Aktuelles

Zwei EVGA GeForce GTX 1080 TI FTW3 Gaming für den Luxxkompensator

Thread Starter
Mitglied seit
06.03.2017
Beiträge
3.612
Euer Voting war eindeutig und auch wenn die neuen GeForce-Karten bereits zeitnah erwartet werden, so haben wir dennoch zwei der aktuellen Karten für den Luxxkompensator besorgt. Dabei handelt es sich um zwei GeForce GTX 1080 Ti FTW3 Gaming von EVGA.Gleich acht Modelle der GeForce GTX 1080 Ti hat EVGA im Angebot. Mit der FTW3 Gaming setzen wir gleich zwei der ab Werk schnellsten Karten im Luxxkompensator ein. Neben dem Custom-PCB, der aufwendigen Kühlung spielen vor allem neun zusätzliche Temperatursensoren eine wichtige Rolle bei diesen Karten, denn andere Hersteller haben eine solche Funktion bisher noch nicht umgesetzt, was die iCX-Modelle von...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

MS1988

Urgestein
Mitglied seit
03.10.2009
Beiträge
5.392
System
Details zu meinem Desktop
Prozessor
10900K
Mainboard
Aorus Z490 Master
Kühler
Heatkiller pro 4.0
Speicher
4x8 Gb Corsair LPX 3000
Grafikprozessor
Aorus 2080TI WB Extreme
Display
ACER X34P
SSD
SAMSUNG 950PRO 256GB , 860 EVO 2TB, 840 EVO 1TB
Soundkarte
EXTERN DAC @ AKG 712 pro
Gehäuse
Enthoo Primo SE
Netzteil
Bequiet dark power pro 11 650 Watt
Keyboard
Corsair K70 RGB MK2 Low Profile @ silver Switches
Mouse
Logitech G502
Sonstiges
Mora 420 @ 4x Noctua A 20 , Heatkiller Tube D5 @ LAING D5
Keine Custom Wakü ?
 

busiderbaer

Experte
Mitglied seit
27.07.2015
Beiträge
2.818
Ort
Hannover
System
Details zu meinem Desktop
Prozessor
AMD Ryzen 7 3700X @ stock
Mainboard
MSI B450 Tomahawk Max
Kühler
WaKü AC Kryos Next, EK-Vector RX 5700 Nickel Plexi, MoRa II, DCP450
Speicher
32Gb G.Skill F4-3200C16D-32GTZN @ 3600 CL18
Grafikprozessor
AMD RX 5700XT 50th Anniversary Edition
Display
MSI Optix MAG27CQ 2560x1440 144 Hz
SSD
512Gb ADATA XPG SX8200 Pro , 750 Gb Crucial MX 300
Soundkarte
FX-Audio DAC-X6, Beyerdynamic DT880 Black Edition, Marantz Pro Pod Pack 1
Gehäuse
Phanteks P300Air
Netzteil
Enermax Platinmax D.F. 600W
Keyboard
Wooting Two, komplett modifiziert mit Springs, Caps, Lube, Films
Mouse
Logitech MX Master, Logitech G Pro Wireless
Betriebssystem
Win10
Internet
▼ 444 ▲ 20
Ist ja nichts anderes als wenn man selbst ein Wakü-System baut. Erstmal unter Luft testen, ob die HW richtig funktioniert bevor man die Kühler runterreißt. ;)
 

drakrochma

Enthusiast
Mitglied seit
21.07.2006
Beiträge
4.375
Ort
Mainz-KH
Lohnen sich 2 Karten denn irgendwie noch?
Sli ist doch mehr oder weniger Tod :(
Dann lieber eine mit aufgeflanschtem Kryo und nachgeschalteter Wakü. :)
 

kaiser

Urgestein
Mitglied seit
17.05.2003
Beiträge
12.707
Ort
Augsburg
Lohnen sich 2 Karten denn irgendwie noch?
Sli ist doch mehr oder weniger Tod :(
Dann lieber eine mit aufgeflanschtem Kryo und nachgeschalteter Wakü. :)
Also als einziges Game mit neuer API und funktionierenden MultiGPU Support fällt mir spontan DOOM ein. Läuft sogar mit Mischbetrieb AMD, Nvidia und Intel.
 

[W2k]Shadow

Legende
Mitglied seit
22.09.2007
Beiträge
22.409
Lohnen sich 2 Karten denn irgendwie noch?
Sli ist doch mehr oder weniger Tod :(
Dann lieber eine mit aufgeflanschtem Kryo und nachgeschalteter Wakü. :)
Luxxkompensator und die Frage nach dem Sinn?
Das ist wie ein Ford Mustang Shelby GT mit Biturbo-Aufladung, wer will da den Sinn wissen? ;)
 
L

lll

Guest
Einen tieferen Sinn hinter dem Unterfangen sehe ich leider schon lange nicht mehr, Multi-GPU ist leider nur ein weiteres Zeichen hierfür, CB hat erst kürzlich einen vernichtenden Artikel darüber herausgebracht, vor allem bei den Framertimes ist Multi-GPU desaströs : Stand 2018: CrossFire und SLI im Test, Früher meist schnell, heute meist schlecht
Das würde ich heutzutage niemanden mehr empfehlen wollen, nicht mal bei einem Luxus Machbarkeits-PC.
Hier sieht man mal wieder das der Teil der Multi-GPU will schlichtweg uninformiert ist, die denken sich sicher "Wenn es möglich ist, wird es auch gut funktionieren", das HWL sich dem gebeugt hat ohne nachzufragen erschreckt mich :shake:
 
Zuletzt bearbeitet:

GenFox

Enthusiast
Mitglied seit
09.08.2007
Beiträge
476
Ort
Karlsruhe
Einen tieferen Sinn hinter dem Unterfangen sehe ich leider schon lange nicht mehr, Multi-GPU ist leider nur ein weiteres Zeichen hierfür, CB hat erst kürzlich einen vernichtenden Artikel darüber herausgebracht, vor allem bei den Framerates ist Multi-GPU desaströs : Stand 2018: CrossFire und SLI im Test, Früher meist schnell, heute meist schlecht
Das würde ich heutzutage niemanden mehr empfehlen wollen, nicht mal bei einem Luxus Machbarkeits-PC.
Wenn man das schon liest "Viele Spiele laufen nur auf einer GPU oder mit Fehlern" oder aus dem Fazit "Sowohl CrossFire als auch SLI hinterlassen in modernen Spielen einen schlicht katastrophalen Eindruck.".
Da kann man dann schon froh sein, wenn die Spiele mit SLI nicht langsamer laufen.

Da hätte man wohl tatsächlich besser noch die drei Wochen (?) bis zur 2080 (?) gewartet, die vllt. ganz neue Möglichkeiten hinsichtlich VR bietet.
 

Bairok

Semiprofi
Mitglied seit
13.02.2018
Beiträge
28
Ort
Ihlienworth
Hab das mit dem Luxxkompensator gar nicht mitbekommen :)

Bei den meisten Punkten hätte ich die selbe Wahl getroffen.

Die FTW3 hab ich auch, wenngleich in der DT Version, aber übertakten kann man ja auch selber.

Der Speicher scheint auch recht gut zu sein, die 6 GHz oder 3 GHz oddr wie auch immer, auf jeden Fall deutlich über 500GB/s Datenübertragungsrate sind problemlos möglich. Recht kühl und leise ist die Karte auch. Leider gab es zu meinem Kaufzeitpunkt nicht die Version mit Wakü, die jetzt für 870 Euro erhältlich ist, die würde ich sonst nehmen, ist noch schneller als die FTW 3, siehe Hardwareluxx-Test.

Jedenfalls ne gute Wahl.

Bin auch gespannt auf die CPU :) müsste ja der 2990 werden, oder?
 

shaderfetischGTxXx

Semiprofi
Mitglied seit
13.02.2018
Beiträge
2.800
Bei meiner gehen ~6180 für jedes Spiel. Ich bereue nichts, die ASUS ist sicher auch sehr gut, die EVGA hat aber das zweithöchste Power-Limit und die Sensoren. Die sind mal wirklich vorzüglich.

SLI würde mich mal reizen auszuprobieren, aber dafür habe ich jeder das Netzteil noch die PCI-Lanes, noch den Bedarf. Dafür nochmal 900 € auszugeben lohnt sich nicht. Dazu darf man dann bei jedem zweiten Spiel auf SLI-Support verzichten oder hat andere Probleme. Da ist es besser auf 2019 zu warten und sich dann direkt die 1180 Ti zu kaufen. Problem ist ja auch dass diese Karten heizen, 300 W pro Karte sind schon ziemlich heftig.
 

GorgTech

Experte
Mitglied seit
28.08.2015
Beiträge
2.349
Ort
Nürnberg
Nicht jeder kann sich eine Quadro Grafikkarte leisten und gleich 2x davon wären eh kaum bezahlbar.

Dann eben die zivile Geforce Version und gut ists ;)
 

MS1988

Urgestein
Mitglied seit
03.10.2009
Beiträge
5.392
System
Details zu meinem Desktop
Prozessor
10900K
Mainboard
Aorus Z490 Master
Kühler
Heatkiller pro 4.0
Speicher
4x8 Gb Corsair LPX 3000
Grafikprozessor
Aorus 2080TI WB Extreme
Display
ACER X34P
SSD
SAMSUNG 950PRO 256GB , 860 EVO 2TB, 840 EVO 1TB
Soundkarte
EXTERN DAC @ AKG 712 pro
Gehäuse
Enthoo Primo SE
Netzteil
Bequiet dark power pro 11 650 Watt
Keyboard
Corsair K70 RGB MK2 Low Profile @ silver Switches
Mouse
Logitech G502
Sonstiges
Mora 420 @ 4x Noctua A 20 , Heatkiller Tube D5 @ LAING D5
Ich finde auch es mutet eher an wie Franksteins Monster. Threadripper und Gaming Karten, ein Arbeitstier und Spielzeug, was soll das sein? Ein Beleg dafür wie sich sinnlos viel Geld verbrennen lässt?
Insofern entzieht sich mir auch der Sinn hinter der ganzen Aktion. Soll das eine Spielkiste werden wäre ein hoch gezüchteter 8086 die einzige richtige Wahl. EVGA Karten kauft man nur aus dem Grund um alles mit ihnen tun zu können und bei einem Defekt trotzdem nach drei Tagen ne Neue auf dem Tisch liegen zu haben, sicher nicht wegen dem "guten" Kühler. Da gibt es andere Hersteller die LuKü (Tripple Slot) besser hinbekommen.
Zu SLI brauch ich garnix mehr zu sagen, eine tote Technologie. Gerade ist bei mir KCD aktuell und das hat nichtmal ein offizielles Profil (obwohl mehr Power bei der Grafik wünschenswert wäre), man muss sich eins aus Crysis 3 zusammenbasteln.
Soll das ein Arbeitstier werden wäre das Geld für die Ti's besser in ein SP3 Dualsockel geflossen. So wird es weder Fisch noch Fleisch, schade.
Die wollen einfach mal ein schönen Rechner bauen.

Meinste die verbrennen unmengen an Geld?
Das meiste wird doch gesponsert , weil es auch Werbung für die Unternehmen ist.

Zudem haben die Leute auch dafür abgestimmt ;)
 
Zuletzt bearbeitet:

MENCHI

Anime und Hardware Otaku
Mitglied seit
23.08.2008
Beiträge
16.163
Ort
Bitz
Uiii... GTX 1080 Ti SLI welches ordentlich vom Threadripper ausgebremst wird.

Da wird einiges an Leistung verschenkt :bigok:
 
Zuletzt bearbeitet:

REDFROG

Experte
Mitglied seit
12.02.2011
Beiträge
3.652
Ort
Baden Württemberg
Ein 1080 SLI hätte ich heute wirklich nur für CUDA. Liebäugel damit, aber diese Kosten kann ich nicht akzeptieren wenn damit am Ende nicht die games auch profitieren.
Fürs gaming ist SLI reine geld- und stromverschwendung.
In Quake Champions habe ich auch so meine 170 capped fps (oder 190, bin noch am probieren mit fastsync auf 140Hz) und gut is. Grafik mid-high. Würde ich mit SLI eh nicht spielen.
 

Romsky

Urgestein
Mitglied seit
18.05.2007
Beiträge
11.022
Also bei den 1080ti gibt es klar bessere als die EVGA. Diese ist laut und recht hohe Temperaturen.
 

Romsky

Urgestein
Mitglied seit
18.05.2007
Beiträge
11.022
Ich hatte quasi alle 1080ti der großen Hersteller bei mir, auch einige von EVGA. Diese hier war auch dabei. ;)

EVGA steht für tollen Service, die Karten sind im Detail nicht so gut. (Spulenfiepen, ungekühlte Ram Bausteine, fehlerhafte oder gar fehlende Lüftersteuerung (EVGA AIO MKodell der 1080ti) usw. Würde also behaupten das ich mir mein Kommentar dazu erlauben darf. ;)

P.S.
Bin bei der Gigabyte Aorus GeForce GTX 1080 Ti Waterforce Xtreme Edition hängen geblieben. Absolut lautlos, selbst unter Last, kühl und absolut kein Spulenfiepen usw. So wie es sein sollte.
 

Soron

Experte
Mitglied seit
13.03.2015
Beiträge
1.689
Dann ist eigentlich nur noch eine Frage offen: Woher nehmen wir das 1.21 Gigawatt Netzteil ...
 
Oben Unten