> > > > Im November sollen mehrere Modelle der Radeon R9 290X mit 8 GB Speicher erscheinen (Update)

Im November sollen mehrere Modelle der Radeon R9 290X mit 8 GB Speicher erscheinen (Update)

DruckenE-Mail
Erstellt am: von

amd-radeon-2013Im Februar brachte Saphhire als bisher einziger Hersteller zwei Modelle der Radeon R9 290X mit 8 GB Grafikspeicher auf den Markt. Allerdings war die Produktion wohl auf gewisse Stückzahlen beschränkt und so ist zumindest die Sapphire Radeon R9 290X Vapor-X derzeit verfügbar, kostet mit rund 670 Euro aber auch deutlich mehr, als das Standard-Modell. Offenbar plant AMD aber eine Offensive gegen die GeForce GTX 980 von NVIDIA und versucht es dabei mit einem Fokus auf das Ultra-High-Definition-Gaming. Der von 4 auf 8 GB verdoppelte Speicher soll dabei ein wesentliches Kaufargument sein.

Neben Sapphire sollen aber auch zwei weitere Anbieter exklusiv die Rechte für solche Modelle bekommen. Club3D und PowerColor sollen ebenfalls mindeste eine Variante der Radeon R9 290X mit 8 GB GDDR5-Speicher anbieten. Die Preise sollen dabei nur rund zehn Prozent über denen der Standard-Version liegen. Am 6. November soll es soweit sein und AMD wird zusammen mit den drei Partnern die entsprechenden Karten offiziell präsentieren.

Sollten sich die Gerüchte bewahrheiten, werden wir uns eines der Modelle sicher auch etwas genauer anschauen und im Hinblick auf die Vorteile von 8 GB Grafikspeicher genauer untersuchen.

Update:

Offenbar dürfen nicht nur Sapphire, Club3D und PowerColor im Club der 8-GB-Karten mit AMD-GPU mitspielen, sondern auch MSI. Zumindest ist nun ein Pressefoto einer MSI Radeon R9 290X Gaming aufgetaucht, welches eine eben solche Karte mit 8 GB Grafikspeicher zeigt.

MSI Radeon R9 290X Gaming mit 8 GB Grafikspeicher
MSI Radeon R9 290X Gaming mit 8 GB Grafikspeicher

Offenbar tut sich nun auch auf Seiten der Hersteller mit NVIDIA-GPU etwas, denn auch hier wird über eine mögliche Veröffentlichung entsprechender Modelle mit 8 GB Speicher gemutmaßt. Viele Varianten der GeForce GTX 980 und GeForce GTX 970 verfügen auf den Custom-PCBs bereits über die Möglichkeit die Anzahl der Speicherchips zu verdoppeln. Selbst die Referenzversionen bieten auf der Rückseite des PCBs bereits Platz für eine solche Bestückung. Doch selbst wenn auf dem PCB nicht der ausreichende Platz für zusätzliche Chips vorhanden ist, so besteht immer noch die Möglichkeit solche Chips zu verwenden, welche über die doppelte Kapazität verfügen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (44)

#35
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8676
http://www.computerbase.de/2014-10/nvidia-geforce-gtx-980-mit-8-gb-noch-in-diesem-jahr/
#36
Zitat ZebuluXX;22806779
Das halte ich aber für ein Gerücht. Mit drei aktivierten Monitoren taktet meine nVidia-Karte auch nicht mehr in den 2D-Modus. Möchte ich Strom sparen, muss ich zumindest einen Monitor deaktivieren.


Gehört jetzt zwar nicht hierhin, aber meine beiden 780er hängen auch an 3 Monitore und die takten schön brav runter ([email protected])
Daher denke ich, das bei Dir irgendwas im argen liegt.
Läuft vielleicht was im Hintergrund, was die Karte daran hindert runter zu takten?
#37
customavatars/avatar69712_1.gif
Registriert seit: 03.08.2007
Bad Oeynhausen, OWL, NRW
Sitting Bull
Beiträge: 7972
ich warte auch auf die neue AMD Grakageneration und werde wieder CF fahren. Meine Titan Black geht dann wieder raus oder bleibt als reine PhysX Karte drin. War meine zweite Nvidia seit meinem Anfang 1992 im PC.
#38
Registriert seit: 29.06.2012
Bremen
Leutnant zur See
Beiträge: 1063
AMD sollte die Treiber und die Stabilität andern. Die Partnerboards sind bei AMD nicht wirklich die Garanten.

Zum Stromverbrauch sind das der ungefähr 20-30 Euro.

In Moment hat Nvidia einfach die Nase vorne.
#39
Registriert seit: 09.03.2008
Schweinfurt
Oberstabsgefreiter
Beiträge: 434
Zitat NasaGTR;22807201
@Numrollen
Ich habe nicht behauptet das mein System das maß der dinge ist!

Aber ich denke das man den VRAM bestimmt deutlich effektiver nutzen kann!
Aber da bei der PS4 VRAM = RAM ist, gehen die Entwickler für die meisten Portierungen auf PC wohl einfach den gleichen weg!


Ich zocke kaum Konsolengames. Die Games die bei mir mehr vRam vertragen könnten/wollen sind zum Teil Sim-Games die 10x so viel Objekte reinladen wollen als irgendein Konsolenspiel das könnte.

Zitat Don;22806851
Vielleicht als kleiner Einwurf eines Redakteurs, da ich gerade an weiteren Artikeln zu Modellen der Geforce GTX 980 und 970 sitze:
Bei einigen dieser Modellen haben die Hersteller bereits ausreichend Platz für eine Verdopplung der Speicherchips vorgesehen. Vielleicht sehen wir da auch bald Varianten mit 8 GB Speicher. Denkbar wäre das ja sicherlich, die Frage ist, ob NVIDIA seinen Partnern dafür das OK gibt.


Bei AMD ist man ja froh wenn neben dem Veriss der AMD Karte vielleicht mal 2-3 Tests zu Sondermodellen zu lesen sind. Bei NVidia nudelt ihr anscheinend jede noch so unwichtige Partnerkarte im mehrseitigen Tests durch.

Zitat myLooo;22809501
AMD sollte die Treiber und die Stabilität andern. Die Partnerboards sind bei AMD nicht wirklich die Garanten.
Zum Stromverbrauch sind das der ungefähr 20-30 Euro.
In Moment hat Nvidia einfach die Nase vorne.

Blah blah unwichtig blah irgendwas gefaselt blah. Bei welchen Vergleichen? P/L? Nein. P/Stromverbrauch? Nein. Stromverbrauch zu Leistung? Ja, eindeutig. Seit dem NVidia auch endlich mal auf den Strom achtet sind plötzlich alle Tests hauptsächlich auf Stromverbrauch / Leistung ausgelegt. Preis für die Leistung? Scheiss drauf, 500€ für ne Grafikkarte is doch voll günstig!
Treiberprobleme, ich kanns nicht mehr hören. So ein Bullshit. Treiberprobleme von NVidia der 200-400 Generation? Gute Nacht, hab ich selbst miterlebt. Und Partnerboards sind gute dabei wie auch schlechte. Da tut sich weder bei Nv noch bei Amd was, sind ja auch überraschenderweise viele die selben.
#40
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9451
Zitat Numrollen;22810236
Preis für die Leistung? Scheiss drauf, 500€ für ne Grafikkarte is doch voll günstig!

Das ist jetzt aber Quatsch. Grade die neue GTX 970 hat ein top P/L Verhältnis. Denke AMD wird da noch eins drauf setzen, sofern sie gleich den Vollausbau bringen, aber solch ein gravierender Unterschied wie zuvor zwischen R9 290 und GTX 780, dessen Preisunterschied lange 30% betragen hatte, bei 5-10% Leistungs-Diferenz, wird es so schnell wohl nicht mehr geben.

Im Grunde stimme ich dir ansonsten vollkommen zu. Allerdings muss man zugeben dass Powercolor und Club3D alles andere als Top marken sind.
AMD bräuchte mal einen Partner wie EVGA.
#41
Registriert seit: 29.06.2012
Bremen
Leutnant zur See
Beiträge: 1063
So sieht es aus - ein anständiger Boardpartner.

Das die GTX 200 Serie ebenso mit Treiber Probleme zu kämpfen hat - brauchen wir uns nicht zu unterhalten.

20-30 Euro Ersparnis bei 3Std Betrieb am Tag x 360 Tagen.

284 Euro R9 290 Euro Vapor X
339 Euro GTX 970 EVGA SSC

Ist alles eine Milchmädchen Rechnung. Ich meinte das man nicht unbedingt auf dem Stromverbrauch schauen sollte. Aber ist nun mal weniger :)
#42
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31938
Zitat Fischje;22806458
wenn ich euch folgen kann, dann wäre hier das argument für

mehr Ram = bei höherer Auflösung?


Nicht unbedingt... Es hält sich heute immernoch das seit Anfang der 3D Grafikberechnung fußende Argument von mehr Auflösung = mehr VRAM. Ja ist im Grunde auch so, aber die Releationen sind derart gering, das es einfach nicht mehr ins Gewicht fällt.
Wo du heute vielleicht zwischen FHD und UHD, also der vervierfachung der Bildpunkte um 10-15% mehr VRAM benötigst, waren die Unterschiede in Zeiten, wo 1, 2 oder 4MB! VRAM vorhanden waren wirklich ausschlaggebend, welche Auflösung eine Grafikkarte überhaupt fahren konnte.
Macht doch selbst einfach den Test, sucht euch eine Szene und lasst den VRAM sich einpegeln (bis das Spiele alle relevanten Daten in den VRAM gekippt hat). Dann vervierfacht ihr die Auflösung und wiederholt das Ganze. Am Ende vergleicht ihr die beiden VRAM Max. Werte und werdet sehen, das es da keine großen Unterschiede mehr zu sehen gibt.

Warum ist das so?
-> der überwiegende Teil der Daten im VRAM besteht aus Texturdaten. Diese Texturdaten werden idR immer in der selben Auflösung abgelegt (man kennt das von Mods, wo man von 2k, 4k oder 8k Texturen spricht!!) und dann, je nach eingestellter Screenresolution in der jeweilige Auflösung berechnet. Sagen wir also 90% des VRAM Bedarfs von einem Spiel liegt Auflösungsunabhängig immer in der selben Größe vor, so sind das bei 2GB reiner Belegung gute 1,8GB. Der Rest kommt von anderen Daten. Wie eben den Bildern in der korrekt berechneten Bildschirmauflösung im VRAM zwischengespeichert werden. Wie viel ein Rohbild im VRAM selbst belegt, lässt sich errechnen, dafür gibt es Formeln. Ob das aber allerdings 200MB sind. Oder 400MB, fällt anhand der 1,8GB Texturdaten schlicht und ergreifend nicht ins Gewicht... -> so einfach ist das im Grunde.


Unterm Strich, wenn ein Spiel die 2, 3 oder 4GB heutiger "Standard" Karten in "normalen" Auflösungen lange nicht voll bekommt, dann wird dieses Spiel auch in UHD und Größer dies idR nicht hinbekommen. Wenn ein Spiel hingegen in niedriger Auflösung schon in der Lage ist, den VRAM der Karte ganz zu füllen oder gar zu überfüllen, wird sich der Umstand in UHD bspw. nur unwesentlich verschlimmern.
Heist also, die Auflösung, die man gedenkt zu berechnen ist lange kein Garant mehr für den Bedarf an VRAM Größe...

Zitat ZebuluXX;22806779
Das halte ich aber für ein Gerücht. Mit drei aktivierten Monitoren taktet meine nVidia-Karte auch nicht mehr in den 2D-Modus. Möchte ich Strom sparen, muss ich zumindest einen Monitor deaktivieren.


Es gibt mehrere Einflussfaktoren. Bei mir geht bei drei Monitoren die Karte bspw. in den P8 State, wenn kein SLI aktiv ist. Mit aktivem SLI geht es nur in den P2 State. Mit zwei Monitoren hingegen geht die Karte immer in den P8 State.
Auch mit drei "gleichen" Monitoren soll dies der Fall sein, was ich aber aus mangel von drei gleichen Monitoren nicht belegen kann...

Zitat NasaGTR;22807201
Aber ich denke das man den VRAM bestimmt deutlich effektiver nutzen kann!
Aber da bei der PS4 VRAM = RAM ist, gehen die Entwickler für die meisten Portierungen auf PC wohl einfach den gleichen weg!


Speicher versuchen nicht zu belegen ist aber der falsche Weg. Denn ungenutzter Speicher bringt schlicht und ergreifend absolut gar keinen Vorteil.
Nur belegter Speicher bedeutet einen Vorteil. Nämlich das die Daten im schnellen Zugriff sind. Brachliegende Speicherbereiche erzeugen nur Hitze und Verbrauch... Nicht mehr.
Vorhandenen Speicher also durch was auch immer weniger hoch zu belegen bringt absolut gar nix!

Zitat myLooo;22810517
Ist alles eine Milchmädchen Rechnung. Ich meinte das man nicht unbedingt auf dem Stromverbrauch schauen sollte. Aber ist nun mal weniger :)


Der Verbrauch selbst ist doch gar nicht mal das riesige Problem. Das Problem ist das durch den Verbrauch 1:1 einhergehende Problem der höheren Hitzeentwicklung sowie der dafür notwendigen Kühlleistung.
Klar gibt es riesige Custom Kühler mit drei, vier oder wie vielen Slots auch immer. Aber wer will sowas schon?
Ich bekomme gut zwei DualSlot GPUs bei mir in die Hütte. Was soll ich da mit einem GPU Modell mit jeweils einem TrippleSlot Kühler? -> passt nicht...

Weniger Verbrauch heist daher wohl eher, das weniger Kühlleistung notwendig ist. Was gleichbedeutend mit weniger Hitzeentwicklung steht sowie auch schlussendlich mit der erzeugten Lautstärke des Lüfters.
Eine Karte die nur 150W verbrät erzeugt weit weniger Hitze und somit direkt Lautstärke wie eine Karte, die auf selben Raum 250W verbrät.

Dazu kommt noch der Umstand mit den Custom Kühlkörpern, die die Abluft idR nicht aus dem Gehäuse rausbefördern. Ich habe seit jüngstem hier eine 780TI DC2 von Asus. Das Teil wird dermaßen verdammt heiß, das es schon ziemlich unangenehm ist, das Gehäuse anzufassen, was in unmittelbarer Umgebung der Karte ist. Die Ref. 780TI erzeugt bei weitem nicht so eine Abwärme -> warum? Weil die Abluft hinten aus dem Case befordert wird.
Wer schonmal ein SLI aus zwei Fermi GPUs (bestenfalls sogar mit OC) im PC stecken hatte, der kann wohl sogar ein Liedchen davon singen, wie es sich im Sommer anfühlt bei 600-700W Verbrauch und somit entsprechender Abwärme versuchen wollen zu spielen... ;)
Und wenn du anstatt mit diesen 600-700W Verbrauch eben nur 40% weniger verbrauchst, ist das eine extreme Verbesserung der Situation. Selbst wenn durch schwächere Kühlkonstruktionen die GPUs gleich heiß werden würden, so entsteht bei weitem weniger Hitzelast, die die Umgebung aufheizt.
#43
Registriert seit: 09.03.2008
Schweinfurt
Oberstabsgefreiter
Beiträge: 434
Zitat DragonTear;22810305
Das ist jetzt aber Quatsch. Grade die neue GTX 970 hat ein top P/L Verhältnis.


Weil ein Modell von NVDidia P/L mit AMD gleichzieht bzw. in normalen Auflösungen besser ist, ist also NVidia vorne? Genau darauf bezog sich meine Aussage. Was ist mit den anderen 10 Modellen von 40-1600€? Genau wie die z.B. 980 sind aktuell im P/L Bereich alle Nvidia Karten eben nicht vorne. Warum bezieht man sich bei solchen Aussagen auf 1 Modell? Und von HWLuxx werden eben Aussagen getroffen das 500€ ein günstiger Preis für Modell XYZ ist.

Zitat fdsonne;22811109
Der Verbrauch selbst ist doch gar nicht mal das riesige Problem. Das Problem ist das durch den Verbrauch 1:1 einhergehende Problem der höheren Hitzeentwicklung sowie der dafür notwendigen Kühlleistung.
Klar gibt es riesige Custom Kühler mit drei, vier oder wie vielen Slots auch immer. Aber wer will sowas schon?
Ich bekomme gut zwei DualSlot GPUs bei mir in die Hütte. Was soll ich da mit einem GPU Modell mit jeweils einem TrippleSlot Kühler? -> passt nicht...


Du betrachtest hier immer Crossfire / SLI. Und aus diesem ziehst du also das Fazit das Stromverbrauch doch das wichtigste ist. Hmm ok, dann oute ich mich: Ich will lieber eine 4 Slot Grafikkarte die ich bei Volllast nicht aus dem Gehäuse höre (also nicht schneller als 800u/min dreht) als 2 Monstergrafikkarten die, egal wieviel Strom die ziehen, ich immer aus dem Gehäuse herraushöre.
#44
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31938
Zitat Numrollen;22811398
Du betrachtest hier immer Crossfire / SLI. Und aus diesem ziehst du also das Fazit das Stromverbrauch doch das wichtigste ist. Hmm ok, dann oute ich mich: Ich will lieber eine 4 Slot Grafikkarte die ich bei Volllast nicht aus dem Gehäuse höre (also nicht schneller als 800u/min dreht) als 2 Monstergrafikkarten die, egal wieviel Strom die ziehen, ich immer aus dem Gehäuse herraushöre.


Nein das war nur ein Beispiel.
Jede Single GPU profitiert davon genau so. Nämlich weil du dann eben nicht drei oder vier Slots brauchst, sondern eben auch mit zwei Slots hin kommst. Oder gar mit einem... Ja sowas gab es auch mal, da waren GPUs Single Slot und es war auch leise...
Das wir heute quasi ausschließlich DualSlot GPUs und größer haben ist ein Tribut an die Leistung, weil Leistung durch höheren Verbrauch einfach zu realisieren ist. Aber Effizienz am vorgeschriebenen Limit eben nicht so einfach.

Aber so recht verstehe ich nicht, worauf du hinaus willst... Die "Monstergrafikkarten" wie du sie schimpfst bekommt man eben leise, wenn man welche hat, die effizient sind. Und das heist, möglichst viel Leistung bei möglichst wenig Verbrauch. Ob du dann nun eine, zwei oder mehr betreibst, völlig wurscht. Um so höher der Verbrauch, desto höher die Abwärme, desto höher die notwendige Kühlleistung. Und bei gegrenzter Fläche heist das eben laut(er)... :wink:

Zitat Numrollen;22811398
Weil ein Modell von NVDidia P/L mit AMD gleichzieht bzw. in normalen Auflösungen besser ist, ist also NVidia vorne? Genau darauf bezog sich meine Aussage. Was ist mit den anderen 10 Modellen von 40-1600€? Genau wie die z.B. 980 sind aktuell im P/L Bereich alle Nvidia Karten eben nicht vorne. Warum bezieht man sich bei solchen Aussagen auf 1 Modell? Und von HWLuxx werden eben Aussagen getroffen das 500€ ein günstiger Preis für Modell XYZ ist.


Vorn, weil sie mit dem GM204 (und auch mit dem vorherigen GM107) Modelle an den Markt gebracht haben, die in Sachen Effizienz weit vor der Konkurenz agieren... Zumindest was Spielelast angeht. Und das im gleichen Prozess. Derartige Sprünge waren bis dato eigentlich eher für Fertigungswechsel bekannt. Das ganze gepaart mit eben dem P/L, dem reinen Verbrauch und der absoluten Performance. Und du hast ein Produkt, was die Masse der für Spieler kritischen Punkte insich vereint.
Das öffnet die Türen und Tore für größere Modelle, die das gleiche Verfahren anwenden und sich im Verbrauch an den TopModellen bis dato orientieren.
Unterm Strich, mehr Leistung bei gleichem Verbrauch...

Das ganze am Preis fest zu machen ist nicht sonderlich zielführend. Preise bestimmt zu einem großen Teil der Markt. Kein Hersteller der Welt will seine Produkte verramschen. AMD GPUs hingegen zeigen dahingehend schon eine Tendenz, sie sind oftmals bedeutend günstiger als die Konkurenz, dennoch steigt der Verbreitungsgrad dieser Modelle nicht sonderlich an, wenn überhaupt. Im Gesamten GPU Bereich betrachtet scheint AMD stetig Anteile zu verlieren...
Und das liegt definitiv nicht am Preis bzw. dem P/L aus reiner FPS pro Euro Sicht. Sondern hat andere Gründe...
Gründe wie eben den Verbrauch, die Lautstärke der Partnermodelle, oder auch Featuresets der Hardware.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]