AMD oder NVIDIA?

Invictus1

Experte
Thread Starter
Mitglied seit
06.10.2017
Beiträge
20
Hallo,

ich habe mich hier angemeldet, weil ich Rat suche und es mir in dem Bezug an Wissen mangelt, um eine fundierte Entscheidung treffen zu können. Sofern ich das richtig interpretiert habe, nutzt mein Monitor FreeSync (MG279Q | Monitore | ASUS Deutschland
).
Nun hatte ich Anfang des Jahres mein Grundgerüst des PCs erneuert (Ryzen) und jetzt wollte ich meine vorhandene GPU (GTX980) austauschen. Vor allem würde ich gerne das kommende Assasins Creed Origins und Wolfenstein II mit annehmbarer Bildqualität spielen. Ansonsten spiele ich noch Spiele wie Fortnite, RotTR, The Witcher 3, Mass Effect Andromeda, Batman, The Division.
Jetzt habe ich im Internet versucht die Auswahl an Grafikkarten einzuschränken, die, wie ich denke, meinen Anspruch erfüllen könnten. Vor allem habe ich mich nach diesem Ranking-System orientiert und mir zusätzlich Benchmarkwerte zu Spielen angesehen(Grafikkarten-Rangliste: GPU-Vergleich - ComputerBase).

Im Endeffekt weiß ich nicht was die sinnvollere Anschaffung darstellt in Bezug auf GTX1080 oder RX Vega. Die GTX1080 ist sowohl in diesem Ranking weiter oben angesiedelt als auch etwas leistungsfähiger bei Spielen. Laut Ranking ist die GTX1080 16% schneller in der Auflösung meines Monitors als eine RX Vega 64. Auf der anderen Seite funktioniert FreeSync wohl nur mit Grafikkarten von AMD. Laut Preisvergleich ist die MSI GTX1080 Gaming X+ etwas teurer als eine AMD RX Vega 64. Allerdings ist das auch keine Referenz-Karte im Vergleich zu der AMD-Karte. FreeSync kenne ich bisher nicht. Hat zwar der Monitor aber das funktioniert ja mit Nvidia nicht.

Sollte ich zur GTX1080 greifen oder aber zur RX Vega?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Würde zur vega 56/64 greifen, weil es für freesync lohnen würde, solltest du keine Ref. nehmen wollen, vielleicht noch die Partner Karte von Ausus abwarten, ist wohl ende des Monats verfügbar. :)

Was hast du für ein Netzteil?
 
Würde zur vega 56/64 greifen, weil es für freesync lohnen würde, solltest du keine Ref. nehmen wollen, vielleicht noch die Partner Karte von Ausus abwarten, ist wohl ende des Monats verfügbar. :)

Was hast du für ein Netzteil?

Ehrlich gesagt weiß ich nicht, ob sich FreeSync lohnt, weil ich es bislang nicht im Einsatz gesehen habe. Deshalb wollte ich auch lieber nachfragen, bevor ich irgendwas kaufe. Mein Netzteil hat 650W, sollte reichen.
 
die wattzahl ist völlig wumpe wenn das gerät technisch ein krüppel ist :)

genaues modell wäre schon wichtig

bezüglich freesync hilft wohl nur ausprobieren.
 
Zuletzt bearbeitet:
Also das Netzteil ist von be quiet und der Produktname ist DARK POWER PRO 11 650W.
Ich möchte die GPU nur austauschen, weil mir die Leistung meiner jetzigen GPU einfach nicht mehr ausreicht und ich die Details schon sehr stark anpassen muss, damit ein Spiel wie Andromeda überhaupt ansatzweise flüssig läuft.
 
Zuletzt bearbeitet:
freesync lohnt sich auf jeden Fall. Das Bild wird ruhiger und wenn es ruckelt, dann ruckelt es gleichmässiger, viele sagen, dass wenn einmal gehabt, nie wieder ohne ;)

Achtung Vega 64 ist ein Netzteilfresser, es werden tatsächlich 750 Watt Leistung empfohlen, dann wohl doch lieber Verzicht auf freesync und mit einer 1080 leben.
 
freesync lohnt sich auf jeden Fall. Das Bild wird ruhiger und wenn es ruckelt, dann ruckelt es gleichmässiger, viele sagen, dass wenn einmal gehabt, nie wieder ohne ;)

Achtung Vega 64 ist ein Netzteilfresser, es werden tatsächlich 750 Watt Leistung empfohlen, dann wohl doch lieber Verzicht auf freesync und mit einer 1080 leben.

Also kann ich rein technisch gar keine RX Vega mit meinem Netzteil verbauen, weil die Leistung nicht ausreichen würde? Gibt es einen Grund dafür, warum die Karte mehr Strom benötigt als die 1080, obwohl die vom Leistungs-Niveau ungefähr auf selbem Level sind?
 
Also kann ich rein technisch gar keine RX Vega mit meinem Netzteil verbauen, weil die Leistung nicht ausreichen würde? Gibt es einen Grund dafür, warum die Karte mehr Strom benötigt als die 1080, obwohl die vom Leistungs-Niveau ungefähr auf selbem Level sind?

Kannst du. Der Grund warum die Karte mehr Strom benötigt ist, dass AMD ihre Shader in Spielen nicht richtig ausgelastet kriegt oder wenn du es extrem schlecht sehen willst diese Shader in Spielen nicht so Leistungsfähig sind. Von der Rohleistung spielen die Vega eigentlich im Bereich der 1080ti. Durch die hohe Anzahl an Shadern verbraucht die Karte halt dann auch entsprechend viel bei weniger Gamingleistung als sie schaffen könnte. Ist leider schon länger ein Problem bei AMD. AMD verfolgt eher den Plan viele Shader bei weniger Takt und Nvidia bringt weniger Shader bei sehr hohem Takt. Letzteres ist ähnlich wie bei CPU´s natürlich leichter auszulasten. Dazu kommt die noch immer besser Spannungsversorgung die wesentlich feinfühliger regelt.
 
Zuletzt bearbeitet:
650 Watt kann reichen, wenn das NT bei Kräften ist, Erfahrungen dazu stehen hier:

[Sammelthread] AMD RX VEGA Sammelthread + FAQ

Der Grund, denke AMD hat es nicht besser hinbekommen mit dem Verbrauch oder es war ihnen egal, die Technik hat andere Vorteile nur eben nicht der Verbrauch... :fresse:
 
650 Watt kann reichen, wenn das NT bei Kräften ist, Erfahrungen dazu stehen hier:

[Sammelthread] AMD RX VEGA Sammelthread + FAQ

Der Grund, denke AMD hat es nicht besser hinbekommen mit dem Verbrauch oder es war ihnen egal, die Technik hat andere Vorteile nur eben nicht der Verbrauch... :fresse:

In dem von dir geposteten Link lese ich, dass jemand mit 750W Probleme hatte. Dann lese ich, dass 650W reichen können. Eine Antwort früher heißt es, ich kann es machen.
Also ist das mit Glücksspiel verbunden?
 
Meine Meinung: Bei Qualitätsnetzteilen so wie bei deinem sollten 650 gehen und kein Glücksspiel sein, es empfiehlt sich jedoch zwei getrennte Stränge der 8-Pin Stecker vom NT zu verwenden. Du musst es halt ausprobieren, die Chancen stehen aber eher gut. ;)
 
Kannst du. Der Grund warum die Karte mehr Strom benötigt ist, dass AMD ihre Shader in Spielen nicht richtig ausgelastet kriegt oder wenn du es extrem schlecht sehen willst diese Shader in Spielen nicht so Leistungsfähig sind. Von der Rohleistung spielen die Vega eigentlich im Bereich der 1080ti. Durch die hohe Anzahl an Shadern verbraucht die Karte halt dann auch entsprechend viel bei weniger Gamingleistung als sie schaffen könnte. Ist leider schon länger ein Problem bei AMD. AMD verfolgt eher den Plan viele Shader bei weniger Takt und Nvidia bringt weniger Shader bei sehr hohem Takt. Letzteres ist ähnlich wie bei CPU´s natürlich leichter auszulasten. Dazu kommt die noch immer besser Spannungsversorgung die wesentlich feinfühliger regelt.

Und warum verfolgt AMD dann diese Strategie, wenn sie wissen, dass sie ihre Shader nicht richtig auslasten können?

- - - Updated - - -

Meine Meinung: Bei Qualitätsnetzteilen so wie bei deinem sollten 650 gehen und kein Glücksspiel sein, es empfiehlt sich jedoch zwei getrennte Stränge der 8-Pin Stecker vom NT zu verwenden. Du musst es halt ausprobieren, die Chancen stehen aber eher gut. ;)

In dem von dir verlinkten Thread lese ich aber auch etwas von "UV" und die Menschen präsentieren ihre Verbrauchswerte. Also hat man als Endanwender Einfluss auf den Verbrauch der Karte, oder nicht?
 
AMD glaubt wohl daran, dass sie es mit verbesserten Treibern in naher Zukunft hinbekommen werden (es sollen wohl noch nicht alle Funktionen der Architektur im Treiber freigeschaltet sein), Dx12 spielt da sicher auch noch eine Rolle... es gibt bereits jetzt schon Beispiele wo das gelungen ist zb hier:

Forza 7 für den PC im Benchmark - ComputerBase


"In dem von dir verlinkten Thread lese ich aber auch etwas von "UV" und die Menschen präsentieren ihre Verbrauchswerte. Also hat man als Endanwender Einfluss auf den Verbrauch der Karte, oder nicht?"

Ja das ist korrekt. :)
 
Zuletzt bearbeitet:
ja hat man
 
In dem von dir verlinkten Thread lese ich aber auch etwas von "UV" und die Menschen präsentieren ihre Verbrauchswerte. Also hat man als Endanwender Einfluss auf den Verbrauch der Karte, oder nicht?

Auf den ersten Teil hat ja Holzmann schon geantwortet.
Mit UV hast du bei Vega einen sehr starken Einfluss auf die Leistung. Zum einen kannst du die Boosttaktraten stabiler im oberen Bereich halten und dabei den Verbrauch senken oder generell etwas mit dem Takt runter und dafür nochmal richtig effizienz raus holen. Das meinte ich btw auch damit, dass Nvidia die feinfühligere Spannungsregulierung hat. Bei AMD ist die nicht so super genau weshalb leider ab Werk zu hohe Spannungen anliegen. Das ist zwar nicht schädlich, aber lässt die Karten vom Verbrauch und der Leistung (höhere Spannung => mehr Abwärme => weniger Takt bei schlechter Kühlung => weniger Leistung) schlechter dastehen als sie ohnehin schon sind.
 
Die für mich entscheidende Frage ist, ob ich, egal ob mit der Nvidia oder AMD-Karte, mehr Leistung in den von mir oben genannten Spielen erhalte, um sie mit hohen Einstellungen spielen zu können. Mein Monitor funktioniert mit 144Hz auch nur ohne FreeSync wie das aussieht. Mir ist die Marke letztendlich egal. Ich möchte das sinnvollste Produkt für mein Geld.
 
Wer erstellt bitte im HWLUXX einen Thread der "AMD oder Nvidia" heißt... :bigok:

Lasset die Fanboyspiele beginnen.
 
Hab mal gegoogelt für dich:
Wolfenstein II kommt mit AMD Vulkan API: AMD Vorteil
Assasins Creed kein dx12 und noch kein Test: ev. Nvidia Vorteil
Witcher 3: Nvidia Vorteil

Einige deiner Spiele sind in diesem Test auch enthalten:
AMD Radeon RX Vega 64 und RX Vega 56 im Test - Hardwareluxx

- - - Updated - - -

- - - Updated - - -

Wer erstellt bitte im HWLUXX einen Thread der "AMD oder Nvidia" heißt... :bigok:

Lasset die Fanboyspiele beginnen.

Jo hat mir auch keine Ruhe gelassen :shot:

Bisher ging es hier recht sachlich und ruhig zu, mal sehen ob es so bleibt...
 
Zuletzt bearbeitet:
Wer erstellt bitte im HWLUXX einen Thread der "AMD oder Nvidia" heißt... :bigok:

Lasset die Fanboyspiele beginnen.

Tut mir leid, wenn sich dadurch irgendwer in seinem Selbstwertgefühl gekränkt fühlt. Ich hätte mich präziser ausdrücken können.

- - - Updated - - -

Hab mal gegoogelt für dich:
Wolfenstein II kommt mit AMD Vulkan API: AMD Vorteil
Assasins Creed kein dx12 und noch kein Test: ev. Nvidia Vorteil
Witcher 3: Nvidia Vorteil

Einige deiner Spiele sind in diesem Test auch enthalten:
AMD Radeon RX Vega 64 und RX Vega 56 im Test - Hardwareluxx

- - - Updated - - -

- - - Updated - - -



Jo hat mir auch keine Ruhe gelassen :shot:

Bisher ging es hier recht sachlich und ruhig zu, mal sehen ob es so bleibt...

Danke für die Mühe. Wie sah das denn erfahrungsgemäß mit älteren Assasins Creed Teilen aus? Ich habe die alle nicht gespielt, weil mir die Zeit-Epochen nicht zusagten.
Bei Witcher 3 sehe ich nun keine große Diskrepanz zwischen Nvidia und AMD. Vulkan sagt mir nichts. Ist das wieder etwas, was AMD exklusiv ist oder warum ist das unbedingt ein Vorteil für AMD?
 
Naja beide Hersteller bringen doch monatlich ihre Updates raus und dort werden immer irgendwelche Fehler behoben, ist eigendlih ganz normal und hat mit einem Advenskalender wenig bis nix zu tun, ;)
 
Alabamaman

Nvidia ist auch nicht alles toll. Beide haben Probs.
BF1 ist bei Nvidia auch AF HQ kaputt. Das schön länger. PCGH hat öfter drauf hingewiesen.

Um dem TE zu helfen. In deinen genannten Games ist die Nvidia wohl die bessere Wahl.
 
Nun, ich habe noch immer keine Entscheidung treffen können.
Ich habe auch gelesen, dass Nvidia bei Forza 7 ihren Rückstand aufholen konnte durch ein Treiber-Update.

Jetzt lese ich hier, dass direkt eine GTX1080Ti empfohlen wird für meinen Monitor. Das ist eine andere Preis-Liga als Vega 64 und GTX1080.
Auf der anderen Seite habe ich mir überlegt, dass der Kauf einer 1080Ti evtl. über einen längeren Zeitraum vorteilhaft wäre. Sprich, die Nutzungszeit nimmt zu, da sie die leistungsstärkste Karte ist. Allerdings weiß ich nicht, ob die Karte nicht zu "stark" für meinen Prozessor ist (Ryzen 1700X).
Und anscheinend verkauft Nvidia die Karten derzeit mit dem Spiel Mittelerde, das ich wieder verkaufen könnte, weil mich das Genre nicht interessiert.
 
Zuletzt bearbeitet:
Deiner CPU ist es ziemlich egal welche GPU du nimmst, freesync mit einer 1080ti geht aber dann halt nicht ....
 
Nun, ich habe noch immer keine Entscheidung treffen können.
Ich habe auch gelesen, dass Nvidia bei Forza 7 ihren Rückstand aufholen konnte durch ein Treiber-Update.

Jetzt lese ich hier, dass direkt eine GTX1080Ti empfohlen wird für meinen Monitor. Das ist eine andere Preis-Liga als Vega 64 und GTX1080.
Auf der anderen Seite habe ich mir überlegt, dass der Kauf einer 1080Ti evtl. über einen längeren Zeitraum vorteilhaft wäre. Sprich, die Nutzungszeit nimmt zu, da sie die leistungsstärkste Karte ist. Allerdings weiß ich nicht, ob die Karte nicht zu "stark" für meinen Prozessor ist (Ryzen 1700X).
Und anscheinend verkauft Nvidia die Karten derzeit mit dem Spiel Mittelerde, das ich wieder verkaufen könnte, weil mich das Genre nicht interessiert.

und was nvidia in letzter zeit unterbunden hat. man muss nämlich eine der genannten karten im system haben soweit ich weiß. bin aber net 100% sicher ;)

Allerdings weiß ich nicht, ob die Karte nicht zu "stark" für meinen Prozessor ist (Ryzen 1700X)

dann sind deine settings zu niedrig eingestellt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh