> > > > Im November sollen mehrere Modelle der Radeon R9 290X mit 8 GB Speicher erscheinen (Update)

Im November sollen mehrere Modelle der Radeon R9 290X mit 8 GB Speicher erscheinen (Update)

Veröffentlicht am: von

amd-radeon-2013Im Februar brachte Saphhire als bisher einziger Hersteller zwei Modelle der Radeon R9 290X mit 8 GB Grafikspeicher auf den Markt. Allerdings war die Produktion wohl auf gewisse Stückzahlen beschränkt und so ist zumindest die Sapphire Radeon R9 290X Vapor-X derzeit verfügbar, kostet mit rund 670 Euro aber auch deutlich mehr, als das Standard-Modell. Offenbar plant AMD aber eine Offensive gegen die GeForce GTX 980 von NVIDIA und versucht es dabei mit einem Fokus auf das Ultra-High-Definition-Gaming. Der von 4 auf 8 GB verdoppelte Speicher soll dabei ein wesentliches Kaufargument sein.

Neben Sapphire sollen aber auch zwei weitere Anbieter exklusiv die Rechte für solche Modelle bekommen. Club3D und PowerColor sollen ebenfalls mindeste eine Variante der Radeon R9 290X mit 8 GB GDDR5-Speicher anbieten. Die Preise sollen dabei nur rund zehn Prozent über denen der Standard-Version liegen. Am 6. November soll es soweit sein und AMD wird zusammen mit den drei Partnern die entsprechenden Karten offiziell präsentieren.

Sollten sich die Gerüchte bewahrheiten, werden wir uns eines der Modelle sicher auch etwas genauer anschauen und im Hinblick auf die Vorteile von 8 GB Grafikspeicher genauer untersuchen.

Update:

Offenbar dürfen nicht nur Sapphire, Club3D und PowerColor im Club der 8-GB-Karten mit AMD-GPU mitspielen, sondern auch MSI. Zumindest ist nun ein Pressefoto einer MSI Radeon R9 290X Gaming aufgetaucht, welches eine eben solche Karte mit 8 GB Grafikspeicher zeigt.

MSI Radeon R9 290X Gaming mit 8 GB Grafikspeicher
MSI Radeon R9 290X Gaming mit 8 GB Grafikspeicher

Offenbar tut sich nun auch auf Seiten der Hersteller mit NVIDIA-GPU etwas, denn auch hier wird über eine mögliche Veröffentlichung entsprechender Modelle mit 8 GB Speicher gemutmaßt. Viele Varianten der GeForce GTX 980 und GeForce GTX 970 verfügen auf den Custom-PCBs bereits über die Möglichkeit die Anzahl der Speicherchips zu verdoppeln. Selbst die Referenzversionen bieten auf der Rückseite des PCBs bereits Platz für eine solche Bestückung. Doch selbst wenn auf dem PCB nicht der ausreichende Platz für zusätzliche Chips vorhanden ist, so besteht immer noch die Möglichkeit solche Chips zu verwenden, welche über die doppelte Kapazität verfügen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (44)

#35
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8756
http://www.computerbase.de/2014-10/nvidia-geforce-gtx-980-mit-8-gb-noch-in-diesem-jahr/
#36
customavatars/avatar22881_1.gif
Registriert seit: 15.05.2005
Köln
Stabsgefreiter
Beiträge: 297
Zitat ZebuluXX;22806779
Das halte ich aber für ein Gerücht. Mit drei aktivierten Monitoren taktet meine nVidia-Karte auch nicht mehr in den 2D-Modus. Möchte ich Strom sparen, muss ich zumindest einen Monitor deaktivieren.


Gehört jetzt zwar nicht hierhin, aber meine beiden 780er hängen auch an 3 Monitore und die takten schön brav runter (324MHz/[email protected])
Daher denke ich, das bei Dir irgendwas im argen liegt.
Läuft vielleicht was im Hintergrund, was die Karte daran hindert runter zu takten?
#37
customavatars/avatar69712_1.gif
Registriert seit: 03.08.2007
Bad Oeynhausen, OWL, NRW
Sitting Bull
Beiträge: 8323
ich warte auch auf die neue AMD Grakageneration und werde wieder CF fahren. Meine Titan Black geht dann wieder raus oder bleibt als reine PhysX Karte drin. War meine zweite Nvidia seit meinem Anfang 1992 im PC.
#38
Registriert seit: 29.06.2012
Bremen
Leutnant zur See
Beiträge: 1103
AMD sollte die Treiber und die Stabilität andern. Die Partnerboards sind bei AMD nicht wirklich die Garanten.

Zum Stromverbrauch sind das der ungefähr 20-30 Euro.

In Moment hat Nvidia einfach die Nase vorne.
#39
Registriert seit: 09.03.2008
Schweinfurt
Oberstabsgefreiter
Beiträge: 451
Zitat NasaGTR;22807201
@Numrollen
Ich habe nicht behauptet das mein System das maß der dinge ist!

Aber ich denke das man den VRAM bestimmt deutlich effektiver nutzen kann!
Aber da bei der PS4 VRAM = RAM ist, gehen die Entwickler für die meisten Portierungen auf PC wohl einfach den gleichen weg!


Ich zocke kaum Konsolengames. Die Games die bei mir mehr vRam vertragen könnten/wollen sind zum Teil Sim-Games die 10x so viel Objekte reinladen wollen als irgendein Konsolenspiel das könnte.

Zitat Don;22806851
Vielleicht als kleiner Einwurf eines Redakteurs, da ich gerade an weiteren Artikeln zu Modellen der Geforce GTX 980 und 970 sitze:
Bei einigen dieser Modellen haben die Hersteller bereits ausreichend Platz für eine Verdopplung der Speicherchips vorgesehen. Vielleicht sehen wir da auch bald Varianten mit 8 GB Speicher. Denkbar wäre das ja sicherlich, die Frage ist, ob NVIDIA seinen Partnern dafür das OK gibt.


Bei AMD ist man ja froh wenn neben dem Veriss der AMD Karte vielleicht mal 2-3 Tests zu Sondermodellen zu lesen sind. Bei NVidia nudelt ihr anscheinend jede noch so unwichtige Partnerkarte im mehrseitigen Tests durch.

Zitat myLooo;22809501
AMD sollte die Treiber und die Stabilität andern. Die Partnerboards sind bei AMD nicht wirklich die Garanten.
Zum Stromverbrauch sind das der ungefähr 20-30 Euro.
In Moment hat Nvidia einfach die Nase vorne.

Blah blah unwichtig blah irgendwas gefaselt blah. Bei welchen Vergleichen? P/L? Nein. P/Stromverbrauch? Nein. Stromverbrauch zu Leistung? Ja, eindeutig. Seit dem NVidia auch endlich mal auf den Strom achtet sind plötzlich alle Tests hauptsächlich auf Stromverbrauch / Leistung ausgelegt. Preis für die Leistung? Scheiss drauf, 500€ für ne Grafikkarte is doch voll günstig!
Treiberprobleme, ich kanns nicht mehr hören. So ein Bullshit. Treiberprobleme von NVidia der 200-400 Generation? Gute Nacht, hab ich selbst miterlebt. Und Partnerboards sind gute dabei wie auch schlechte. Da tut sich weder bei Nv noch bei Amd was, sind ja auch überraschenderweise viele die selben.
#40
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11477
Zitat Numrollen;22810236
Preis für die Leistung? Scheiss drauf, 500€ für ne Grafikkarte is doch voll günstig!

Das ist jetzt aber Quatsch. Grade die neue GTX 970 hat ein top P/L Verhältnis. Denke AMD wird da noch eins drauf setzen, sofern sie gleich den Vollausbau bringen, aber solch ein gravierender Unterschied wie zuvor zwischen R9 290 und GTX 780, dessen Preisunterschied lange 30% betragen hatte, bei 5-10% Leistungs-Diferenz, wird es so schnell wohl nicht mehr geben.

Im Grunde stimme ich dir ansonsten vollkommen zu. Allerdings muss man zugeben dass Powercolor und Club3D alles andere als Top marken sind.
AMD bräuchte mal einen Partner wie EVGA.
#41
Registriert seit: 29.06.2012
Bremen
Leutnant zur See
Beiträge: 1103
So sieht es aus - ein anständiger Boardpartner.

Das die GTX 200 Serie ebenso mit Treiber Probleme zu kämpfen hat - brauchen wir uns nicht zu unterhalten.

20-30 Euro Ersparnis bei 3Std Betrieb am Tag x 360 Tagen.

284 Euro R9 290 Euro Vapor X
339 Euro GTX 970 EVGA SSC

Ist alles eine Milchmädchen Rechnung. Ich meinte das man nicht unbedingt auf dem Stromverbrauch schauen sollte. Aber ist nun mal weniger :)
#42
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33000
Zitat Fischje;22806458
wenn ich euch folgen kann, dann wäre hier das argument für

mehr Ram = bei höherer Auflösung?


Nicht unbedingt... Es hält sich heute immernoch das seit Anfang der 3D Grafikberechnung fußende Argument von mehr Auflösung = mehr VRAM. Ja ist im Grunde auch so, aber die Releationen sind derart gering, das es einfach nicht mehr ins Gewicht fällt.
Wo du heute vielleicht zwischen FHD und UHD, also der vervierfachung der Bildpunkte um 10-15% mehr VRAM benötigst, waren die Unterschiede in Zeiten, wo 1, 2 oder 4MB! VRAM vorhanden waren wirklich ausschlaggebend, welche Auflösung eine Grafikkarte überhaupt fahren konnte.
Macht doch selbst einfach den Test, sucht euch eine Szene und lasst den VRAM sich einpegeln (bis das Spiele alle relevanten Daten in den VRAM gekippt hat). Dann vervierfacht ihr die Auflösung und wiederholt das Ganze. Am Ende vergleicht ihr die beiden VRAM Max. Werte und werdet sehen, das es da keine großen Unterschiede mehr zu sehen gibt.

Warum ist das so?
-> der überwiegende Teil der Daten im VRAM besteht aus Texturdaten. Diese Texturdaten werden idR immer in der selben Auflösung abgelegt (man kennt das von Mods, wo man von 2k, 4k oder 8k Texturen spricht!!) und dann, je nach eingestellter Screenresolution in der jeweilige Auflösung berechnet. Sagen wir also 90% des VRAM Bedarfs von einem Spiel liegt Auflösungsunabhängig immer in der selben Größe vor, so sind das bei 2GB reiner Belegung gute 1,8GB. Der Rest kommt von anderen Daten. Wie eben den Bildern in der korrekt berechneten Bildschirmauflösung im VRAM zwischengespeichert werden. Wie viel ein Rohbild im VRAM selbst belegt, lässt sich errechnen, dafür gibt es Formeln. Ob das aber allerdings 200MB sind. Oder 400MB, fällt anhand der 1,8GB Texturdaten schlicht und ergreifend nicht ins Gewicht... -> so einfach ist das im Grunde.


Unterm Strich, wenn ein Spiel die 2, 3 oder 4GB heutiger "Standard" Karten in "normalen" Auflösungen lange nicht voll bekommt, dann wird dieses Spiel auch in UHD und Größer dies idR nicht hinbekommen. Wenn ein Spiel hingegen in niedriger Auflösung schon in der Lage ist, den VRAM der Karte ganz zu füllen oder gar zu überfüllen, wird sich der Umstand in UHD bspw. nur unwesentlich verschlimmern.
Heist also, die Auflösung, die man gedenkt zu berechnen ist lange kein Garant mehr für den Bedarf an VRAM Größe...

Zitat ZebuluXX;22806779
Das halte ich aber für ein Gerücht. Mit drei aktivierten Monitoren taktet meine nVidia-Karte auch nicht mehr in den 2D-Modus. Möchte ich Strom sparen, muss ich zumindest einen Monitor deaktivieren.


Es gibt mehrere Einflussfaktoren. Bei mir geht bei drei Monitoren die Karte bspw. in den P8 State, wenn kein SLI aktiv ist. Mit aktivem SLI geht es nur in den P2 State. Mit zwei Monitoren hingegen geht die Karte immer in den P8 State.
Auch mit drei "gleichen" Monitoren soll dies der Fall sein, was ich aber aus mangel von drei gleichen Monitoren nicht belegen kann...

Zitat NasaGTR;22807201
Aber ich denke das man den VRAM bestimmt deutlich effektiver nutzen kann!
Aber da bei der PS4 VRAM = RAM ist, gehen die Entwickler für die meisten Portierungen auf PC wohl einfach den gleichen weg!


Speicher versuchen nicht zu belegen ist aber der falsche Weg. Denn ungenutzter Speicher bringt schlicht und ergreifend absolut gar keinen Vorteil.
Nur belegter Speicher bedeutet einen Vorteil. Nämlich das die Daten im schnellen Zugriff sind. Brachliegende Speicherbereiche erzeugen nur Hitze und Verbrauch... Nicht mehr.
Vorhandenen Speicher also durch was auch immer weniger hoch zu belegen bringt absolut gar nix!

Zitat myLooo;22810517
Ist alles eine Milchmädchen Rechnung. Ich meinte das man nicht unbedingt auf dem Stromverbrauch schauen sollte. Aber ist nun mal weniger :)


Der Verbrauch selbst ist doch gar nicht mal das riesige Problem. Das Problem ist das durch den Verbrauch 1:1 einhergehende Problem der höheren Hitzeentwicklung sowie der dafür notwendigen Kühlleistung.
Klar gibt es riesige Custom Kühler mit drei, vier oder wie vielen Slots auch immer. Aber wer will sowas schon?
Ich bekomme gut zwei DualSlot GPUs bei mir in die Hütte. Was soll ich da mit einem GPU Modell mit jeweils einem TrippleSlot Kühler? -> passt nicht...

Weniger Verbrauch heist daher wohl eher, das weniger Kühlleistung notwendig ist. Was gleichbedeutend mit weniger Hitzeentwicklung steht sowie auch schlussendlich mit der erzeugten Lautstärke des Lüfters.
Eine Karte die nur 150W verbrät erzeugt weit weniger Hitze und somit direkt Lautstärke wie eine Karte, die auf selben Raum 250W verbrät.

Dazu kommt noch der Umstand mit den Custom Kühlkörpern, die die Abluft idR nicht aus dem Gehäuse rausbefördern. Ich habe seit jüngstem hier eine 780TI DC2 von Asus. Das Teil wird dermaßen verdammt heiß, das es schon ziemlich unangenehm ist, das Gehäuse anzufassen, was in unmittelbarer Umgebung der Karte ist. Die Ref. 780TI erzeugt bei weitem nicht so eine Abwärme -> warum? Weil die Abluft hinten aus dem Case befordert wird.
Wer schonmal ein SLI aus zwei Fermi GPUs (bestenfalls sogar mit OC) im PC stecken hatte, der kann wohl sogar ein Liedchen davon singen, wie es sich im Sommer anfühlt bei 600-700W Verbrauch und somit entsprechender Abwärme versuchen wollen zu spielen... ;)
Und wenn du anstatt mit diesen 600-700W Verbrauch eben nur 40% weniger verbrauchst, ist das eine extreme Verbesserung der Situation. Selbst wenn durch schwächere Kühlkonstruktionen die GPUs gleich heiß werden würden, so entsteht bei weitem weniger Hitzelast, die die Umgebung aufheizt.
#43
Registriert seit: 09.03.2008
Schweinfurt
Oberstabsgefreiter
Beiträge: 451
Zitat DragonTear;22810305
Das ist jetzt aber Quatsch. Grade die neue GTX 970 hat ein top P/L Verhältnis.


Weil ein Modell von NVDidia P/L mit AMD gleichzieht bzw. in normalen Auflösungen besser ist, ist also NVidia vorne? Genau darauf bezog sich meine Aussage. Was ist mit den anderen 10 Modellen von 40-1600€? Genau wie die z.B. 980 sind aktuell im P/L Bereich alle Nvidia Karten eben nicht vorne. Warum bezieht man sich bei solchen Aussagen auf 1 Modell? Und von HWLuxx werden eben Aussagen getroffen das 500€ ein günstiger Preis für Modell XYZ ist.

Zitat fdsonne;22811109
Der Verbrauch selbst ist doch gar nicht mal das riesige Problem. Das Problem ist das durch den Verbrauch 1:1 einhergehende Problem der höheren Hitzeentwicklung sowie der dafür notwendigen Kühlleistung.
Klar gibt es riesige Custom Kühler mit drei, vier oder wie vielen Slots auch immer. Aber wer will sowas schon?
Ich bekomme gut zwei DualSlot GPUs bei mir in die Hütte. Was soll ich da mit einem GPU Modell mit jeweils einem TrippleSlot Kühler? -> passt nicht...


Du betrachtest hier immer Crossfire / SLI. Und aus diesem ziehst du also das Fazit das Stromverbrauch doch das wichtigste ist. Hmm ok, dann oute ich mich: Ich will lieber eine 4 Slot Grafikkarte die ich bei Volllast nicht aus dem Gehäuse höre (also nicht schneller als 800u/min dreht) als 2 Monstergrafikkarten die, egal wieviel Strom die ziehen, ich immer aus dem Gehäuse herraushöre.
#44
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33000
Zitat Numrollen;22811398
Du betrachtest hier immer Crossfire / SLI. Und aus diesem ziehst du also das Fazit das Stromverbrauch doch das wichtigste ist. Hmm ok, dann oute ich mich: Ich will lieber eine 4 Slot Grafikkarte die ich bei Volllast nicht aus dem Gehäuse höre (also nicht schneller als 800u/min dreht) als 2 Monstergrafikkarten die, egal wieviel Strom die ziehen, ich immer aus dem Gehäuse herraushöre.


Nein das war nur ein Beispiel.
Jede Single GPU profitiert davon genau so. Nämlich weil du dann eben nicht drei oder vier Slots brauchst, sondern eben auch mit zwei Slots hin kommst. Oder gar mit einem... Ja sowas gab es auch mal, da waren GPUs Single Slot und es war auch leise...
Das wir heute quasi ausschließlich DualSlot GPUs und größer haben ist ein Tribut an die Leistung, weil Leistung durch höheren Verbrauch einfach zu realisieren ist. Aber Effizienz am vorgeschriebenen Limit eben nicht so einfach.

Aber so recht verstehe ich nicht, worauf du hinaus willst... Die "Monstergrafikkarten" wie du sie schimpfst bekommt man eben leise, wenn man welche hat, die effizient sind. Und das heist, möglichst viel Leistung bei möglichst wenig Verbrauch. Ob du dann nun eine, zwei oder mehr betreibst, völlig wurscht. Um so höher der Verbrauch, desto höher die Abwärme, desto höher die notwendige Kühlleistung. Und bei gegrenzter Fläche heist das eben laut(er)... :wink:

Zitat Numrollen;22811398
Weil ein Modell von NVDidia P/L mit AMD gleichzieht bzw. in normalen Auflösungen besser ist, ist also NVidia vorne? Genau darauf bezog sich meine Aussage. Was ist mit den anderen 10 Modellen von 40-1600€? Genau wie die z.B. 980 sind aktuell im P/L Bereich alle Nvidia Karten eben nicht vorne. Warum bezieht man sich bei solchen Aussagen auf 1 Modell? Und von HWLuxx werden eben Aussagen getroffen das 500€ ein günstiger Preis für Modell XYZ ist.


Vorn, weil sie mit dem GM204 (und auch mit dem vorherigen GM107) Modelle an den Markt gebracht haben, die in Sachen Effizienz weit vor der Konkurenz agieren... Zumindest was Spielelast angeht. Und das im gleichen Prozess. Derartige Sprünge waren bis dato eigentlich eher für Fertigungswechsel bekannt. Das ganze gepaart mit eben dem P/L, dem reinen Verbrauch und der absoluten Performance. Und du hast ein Produkt, was die Masse der für Spieler kritischen Punkte insich vereint.
Das öffnet die Türen und Tore für größere Modelle, die das gleiche Verfahren anwenden und sich im Verbrauch an den TopModellen bis dato orientieren.
Unterm Strich, mehr Leistung bei gleichem Verbrauch...

Das ganze am Preis fest zu machen ist nicht sonderlich zielführend. Preise bestimmt zu einem großen Teil der Markt. Kein Hersteller der Welt will seine Produkte verramschen. AMD GPUs hingegen zeigen dahingehend schon eine Tendenz, sie sind oftmals bedeutend günstiger als die Konkurenz, dennoch steigt der Verbreitungsgrad dieser Modelle nicht sonderlich an, wenn überhaupt. Im Gesamten GPU Bereich betrachtet scheint AMD stetig Anteile zu verlieren...
Und das liegt definitiv nicht am Preis bzw. dem P/L aus reiner FPS pro Euro Sicht. Sondern hat andere Gründe...
Gründe wie eben den Verbrauch, die Lautstärke der Partnermodelle, oder auch Featuresets der Hardware.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]