Radeon VII - Schwankende Leistung, woher kommt es?

Tech Enthusiast

Enthusiast
Thread Starter
Mitglied seit
01.01.2016
Beiträge
3.609
Die Radeon VII kann in manchen Benchmarks der RTX 2080ti nahe kommen.
Das ist unheimlich beeindruckend, wenn sie in anderen Benchmarks nicht nur knapp vor der RTX 2070 wäre.

Die Gründe dafür interessieren mich, da ich mir nur schwer vorstellen kann, wieso eine GPU so unglaublich schwer einzustufen ist.
Ganz unabhängig von der Radeon VII eigentlich. Sie dient hier nur als Beispiel, weil... ich kein anderes Beispiel gefunden habe für so stark abweichende Ergebnisse.

Nun habe ich bei einem Vergleich für einen Kaufgesuch eine interessante Entdeckung gemacht.
Bei diesem Vergleich zwischen RTX 2080ti und Radeon VII sieht man zwei auffällige Werte: Multi Rendering und Reflexionen.
In beiden Szenarien ist die RTX Karte schlagartig 129% und 153% schneller.
VRAM lastige Tests sind dafür deutlich knapper ausgefallen.

Hat da jemand genauere Informationen, oder Verständnis, der verwendeten Tests?
Ich kann mir laienhaft vorstellen, dass Multi Rendering und Reflexionen durchaus eine gravierende Rolle spielen können in Games, aber sicher nicht in allen.

Kann man davon sprechen, dass dies eine mögliche Erklärung für die Leistungsschwankungen ist?
Sind das Themen, die per Treiber optimiert werden können, oder reden wir von Hardware Limitationen die von der verwendeten Architektur kommen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was willst du denn jetzt hier hören?

manche spiele schmecken der vega architekur eben sehr gut und manche weniger gut.

es gibt auch spiele in denen die alte vega 64 die 1080TI ärgert, auch wenn sie im durchschnitt dann doch "nur" mit der 1080 konkurriert.
 
Zuletzt bearbeitet:
Die GPU-Architektur ist eben zu 70% eher für den professionellen Einsatz gedacht. AMD hat seit Hawaii keine konkurrenzfähige "Gamer"-GPU raus gebracht. Im GPU-Bereich bei AMD sitzen anscheinend wirklich nur noch Idioten.
 
Hat da jemand genauere Informationen, oder Verständnis, der verwendeten Tests?
Ich kann mir laienhaft vorstellen, dass Multi Rendering und Reflexionen durchaus eine gravierende Rolle spielen können in Games, aber sicher nicht in allen.

Kann man davon sprechen, dass dies eine mögliche Erklärung für die Leistungsschwankungen ist?
Sind das Themen, die per Treiber optimiert werden können, oder reden wir von Hardware Limitationen die von der verwendeten Architektur kommen?
Das Problem daran sehe ich an den Teil Test.
Was bringt es eine bestimmten Effekt alleine laufen zu lassen wenn im Spiel alle Effekte auf einmal vorhanden sind.
Also eher mit SuperPi zu Vergleichen, bringt zwar lange Balken aber Effektive im Spiel 0 FPS mehr.

Diese Vergleich Seiten kümmern sich auch weniger um neue API und sind eher dazu da alte Design besser aussehen zu lassen.
 
Die GPU-Architektur ist eben zu 70% eher für den professionellen Einsatz gedacht. AMD hat seit Hawaii keine konkurrenzfähige "Gamer"-GPU raus gebracht. Im GPU-Bereich bei AMD sitzen anscheinend wirklich nur noch Idioten.

Ich bin dafür das du bei AMD vorstellig wirst und denen zeigst wie man eine Konkurrenzfähige Gamer GPU baut obwohl nur Idioten dort arbeiten.

Ich sehe nur einen Idioten und der bist du

Gesendet von meinem SM-G950F mit Tapatalk
 
Im GPU-Bereich bei AMD sitzen anscheinend wirklich nur noch Idioten.

Produkte werden über viele Jahre hinweg entwickelt. Die aktuelle Situation entspringt der Vor-Ryzen-Zeit als AMD arge finanzielle Probleme hatte. Da weder Geld noch Personal in ausreichender Zahl vorhanden war um beide Sparten voran zu bringen, wurde entschieden CPUs zu fokussieren und die GPU-Sektion mit Minimalbesetzung weiterlaufen zu lassen.

Da sich die Lage für AMD deutlich entspannt hat, kann man hoffen, dass wieder mehr in GPUs investiert wird. Dann sollten die Produkte auch wieder konkurrenzfähig werden.


Ein wesentlicher Grund für die Schwankungen von Spiel zu Spiel ist das "Sponsoring" der Hersteller. Aktuell werden die meisten Entwicklerstudios von Nvidia "unterstützt". Diese stecken dann natürlich entsprechend Energie in die Optimierungen und benutzen die Werkzeuge des Herstellers, wodurch die Karten besser abschneiden. Ein anderes Beispiel ist die Hitman Serie die von AMD gesponsort wird und wo die Karten entsprechend abschneiden.
 
Zuletzt bearbeitet:
Es liegt an den Treibern
dann das allseitsbeliebte CPU limit
Und zuletzt an schwächen bei amd gcn arch

An gcn was durch die hohe packdichte oft in ein Temp limit rennt und somit der Takt der gpu sinkt

Den das Problem ist bei amd wie die den boost angeben
Da steht immer der max boost im werbetext real ist dieser oft je nach Kühlung geringer folglich bricht die Leistung ein.
Nvidia gibt immer den mindestboost an
großer unterschied

Der radeon 7 fehlt es an Kühlleistung besonders da wo die 110°c sind
Zwar mag der R7 kühler das beste ref modell seit jeher sein aber diese ist viel zu klein dimensioniert

Lösung hier wakü mit zusätzlichen Luftkü+ hier über die vrm
Dazu kommt nochn gamers nexus video (Teil 1 kam gestern Umbau und Erklärung)
Sobald die Karte bei der Wichtigen tjunction temp fällt sind auf einmal 2,0ghz drin und schon ist die r7 etwa 15% schneller als nee rtx2080
Wieso immer amd gpu beim launch vermasseln. ist ein Rätsel
Im Grunde kenne ich kein launch von amd gpu seit 2006 der problemlos lief.
 
Ja die R7 ist leider nicht wirklich eine gute Karte geworden denn selbst die 7nm haben es nicht geschafft die GPU sparsam zu machen.

AMD macht zu jedem (Highend)GPU launch die gleichen Fehler.

Treiber müll, Stromverbrauch und zu heiß.

hier mal nen test mit 33 Spiele und da sieht es teilweise sehr übel aus.

Hatte auch große Hoffnung mit der R7 aber nach dem Debakel habe ich lieber die 2080Ti gekauft auch wenn die höllisch teuer ist aber die Brutale Leistung hat mich dann geschockt weil mit so viel Leistung hätte ich nicht gerechnet
 
Zuletzt bearbeitet:
Also ein Debakel ist die 7 jetzt nicht, der Treiber aktuell ist auch kein Müll und bringt sie dort hin wo AMD sie angekündigt hat. ;)
 
Das Problem daran sehe ich an den Teil Test.

Es ist mir schon klar, dass diese sehr speziellen Tests kein Gesamtbild zeigen, sondern nur sehr isolierte Einzelaufgaben bewerten.
Um die schwankende Leistung in Gesamtbildern (Game Benchmarks) zu erklären, dachte ich, dass isolierte Einzelaufgaben genau der richtige Weg sind.
So kann man doch erkennen, welche Aufgaben von der GPU besser oder schlechter bewerkstelligt werden, um so ein besseres Bild zu haben, was diese Schwankungen auslöst.

Am Beispiel der Reflexionen sieht man eine deutliche Schwäche z.B.
Wenn nun ein Spiel kaum Reflexionen berechnet, sollte die R7 also relativ besser dastehen, als in Spielen die stark auf Reflexionen setzen.

So mein Gedankengang dabei.
Ist da ein Denkfehler drin?

Zudem ist mir unklar was mit "Multi Rendering" gemeint ist.
Ich bin davon ausgegangen, dass multi rendering quasi DAS Ding ist was GPUs erledigen. Da es sich aber um eine gravierende Schwäche der R7 handelt, kann das Thema nicht so präsent sein in Games. Sonst würden die Game Benchmarks ja alle viel schlechter ausfallen als sie es tun.

Disclaimer:
Das Topic ist natürlich für Endkunden total irrelevant. Ist ja nicht so, als könnte man was ändern.
Es geht mir nur um eine, etwas nerdige, Analyse von Details um ein besseres Verständnis der Materie zu bekommen.

- - - Updated - - -


Auch wenn ich dem Inhalt größtenteils zustimme, bin ich mir nicht ganz klar was Deine Analyse mit dem Topic zu tun hat.
Ich möchte hier ja auf zwei sehr spezielle Teilaspekte der R7 Leistung eingehen, nicht auf das Gesamtpaket (das wird in den Reviews ja ausführlich diskutiert).
 
ok debakel ist es nicht aber aber bei 7nm hätte ich deutlich mehr erwartet.
In anbetracht der leistung und der leistungsaufnahme ist es lächerlich.
schau mal was NV in 12nm an Leistung rausdrückt und wie wenig sie dabei verbrauchen.
da hat AMD schon 7nm am start und saugt trozdem 300Watt. das ist einfach viel zu krass.
die leistung die die karte so aktuell hat bei 180-200Watt und es wäre ok

P.s. und kommt nicht mit irgendwie undervoltig oder so weil das geht bei NV Genauso.
z.B. meine 2080Ti läuft@ 0,975V 2000Mhz hat aber original 1,064V
 
Zuletzt bearbeitet:
Ich bin noch immer der Meinung das AMD Softwareseitig die Radeons nicht vernünftig ausgelastet bekommt. Die Karten haben ordentlich Rohleistung, es kommt halt an FPS zu wenig dabei rum. Es ist also entweder die Hardware selbst schlecht ausgelegt, so das es zu einem Flaschenhals kommt. Oder die Kombination aus Architektur und Treiber sorgt dafür das die Auslastung schlecht ist. Das sieht man ja regelmäßig im DX11 und DX12 Vergleich. Unter DX12 gewinnt AMD ordentlich fps, sofern das Spiel DX12 vernünftig implementiert hat. Heisst für mich, das der DX11 Treiber Mist ist ;)

P.s. und kommt nicht mit irgendwie undervoltig oder so weil das geht bei NV Genauso.
z.B. meine 2080Ti läuft@ 0,975V 2000Mhz hat aber original 1,064V

Wäre die VII ab Werk mit weniger Spannung ausgeliefert, so wäre der Verbrauch auch ok. AMD hat einfach das Problem, das man die Karte regelrecht knechten muss, damit ausreichend viel Leistung dabei rauskommt. Natürlich hast du dann viel Spannung und damit auch viel Verbrauch anliegen.

Würde AMD bei der VII auf etwas Leistung (bzw. Takt) verzichten und die Spannung konservativer anlegen, so wäre die Effizienz deutlich besser. Sieht man in den Tests ja auch wenn UV betrieben wird.
 
Zuletzt bearbeitet:
Ja klar stimmt alles keine frage nur hat 7nm ja nicht wirklich viel gebracht

Hoffentlich ist Navi mal eine gute karte und flopt nicht, weil sonst wird die Lücke zu NV nur noch größer
 
Zuletzt bearbeitet:
Eine kleinere Fertigung bringt nichts, wenn man die Architektur nicht daran anpasst. Die Karte wurde nur geshrinkt, mehr nicht.
 
Also ein Debakel ist die 7 jetzt nicht, der Treiber aktuell ist auch kein Müll und bringt sie dort hin wo AMD sie angekündigt hat. ;)

Sehe ich auch so.

Das ist eine gute WQHD-Karte mit ausreichend dimensioniertem Speicher, leistungsmäßig etwa zwischen RTX 2070 und 2080. Und damit auf Augenhöhe mit nVidias Top-Vorgängergenerationskarten.

Geht für mich völlig in Ordnung.
 
Gibt es einen Grund, eine Radeon VII statt einer RTX 2080 zu nehmen? Sie ist teurer, lauter, ineffizienter und langsamer.
Die 16 GB klingen geil, aber die Tests zeigen, dass eine RTX 2080 mit ihren 8 GB im Durchschnitt bessere Frametimes hinlegt, als eine Radeon VII.
Eine Radeon VII scheint nur sinnvoll zu sein, wenn man irgendwie die 16 GB nutzbar machen kann oder überwiegend Anwendungen/Spiele nutzt, wo die Radeon VII besser arbeitet, als eine RTX 2080.
Von daher wage ich mal zu behaupten, dass für die meisten eine RTX 2080 die bessere Wahl ist.

7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test - Hardwareluxx
AMD Radeon VII im Test - ComputerBase
AMD Radeon VII 16 GB Review | TechPowerUp
AMD Radeon VII Review: RTX Killer or Flop? - TechSpot

Turing-Undervolting: 15 % geringere Leistungsaufnahme und dennoch leichtes OC - Hardwareluxx

Preise (25.02.2019):
PCIe mit GPU NVIDIA (nach Serie): RTX 2080 (ab 680 Euro)
PCIe mit GPU Consumer (nach Erscheinung): Radeon VII (ab 740 Euro)

Wenn jemand eine Situation kennt, wo eine Readon VII eine bessere Wahl wäre, als eine RTX 2080, dann immer her damit.
 
Von daher wage ich mal zu behaupten, dass für die meisten eine RTX 2080 die bessere Wahl ist.

Na ja, das ist kein Wagnis, dass zu behaupten, denn das ist sicherlich allgemein als korrekt akzeptiert.


Wenn jemand eine Situation kennt, wo eine Readon VII eine bessere Wahl wäre, als eine RTX 2080, dann immer her damit.

Ja, kenne ich: X-Plane mit Zusatzszenerien und HD-Texturen bspw.. Das Spiel bewegt sich dann fast immer im CPU-Limit und der 2080 geht schnell die Luft aus wegen Speichermangel. Die üble Folge sind heftige Nachladeruckler. Die hast du mit der Radeon nicht.
 
Die Vega Käufer warten heute noch auf den "fertigen und richtigen" Treiber, der die Karte so schnell macht, wie sie sichs zuvor erträumt hatten.
Dass es diese "warte bis der richtige Treiber kommt!" Thematik bestimmt nun schon 3-4 Jahre bei AMD gibt (so ca ab 2xx), und die Leute tatsächlich daran noch glauben, berunruhigt etwas.

Für einen normalen "Gamer" bzw Consumer lohnt es sich auf keinen Fall eine R7 zu kaufen, heiß, laut, groß, teuer.
Daran werden auch die Custom Designs wenig ändern, der Kühler ist von den Dimensionen her schon sehr üppig.
 
Daran werden auch die Custom Designs wenig ändern, der Kühler ist von den Dimensionen her schon sehr üppig.

Vermute ich nicht.

Allein die bereits jetzt bekannten Ergebnisse diverser Kühlungsmods - und das sind bei weitem keine massgeschneiderten Modelle - zeigen das verbesserte Leistungsvermögen, da geht's doch bereits deutlich Richtung RTX 2080 Ti.
 
Die Vega Käufer warten heute noch auf den "fertigen und richtigen" Treiber, der die Karte so schnell macht, wie sie sichs zuvor erträumt hatten.
Dass es diese "warte bis der richtige Treiber kommt!" Thematik bestimmt nun schon 3-4 Jahre bei AMD gibt (so ca ab 2xx), und die Leute tatsächlich daran noch glauben, berunruhigt etwas.

Fairerweise muss man sagen das die AMD Launchtreiber meist nicht besonders ausgereift sind und die Karten mit der Zeit tatsächlich ein paar Prozentpunkte an Leistung gewinnen. Klar, Wundertreiber gibts nicht, aber Zugewinne im einstelligen Prozentbereich gibts schon. Ich meine bei der RX480 und RX580 wurde von CB nach 6 Monaten nochmal gebencht und da waren die Karten schon ein gutes Stück schneller.
 
Ich bin dafür das du bei AMD vorstellig wirst und denen zeigst wie man eine Konkurrenzfähige Gamer GPU baut obwohl nur Idioten dort arbeiten.

Ich sehe nur einen Idioten und der bist du

Gesendet von meinem SM-G950F mit Tapatalk
Danke sehr, für diesen mangelhaften Beitrag. Du solltest eventuell in Deutsch Nachhilfeunterricht nehmen. Falls du für AMD arbeiten solltest, bitte ich hiermit um Entschuldigung. Nicht jeder dort ist ein Idiot.

- - - Updated - - -

Fairerweise muss man sagen das die AMD Launchtreiber meist nicht besonders ausgereift sind und die Karten mit der Zeit tatsächlich ein paar Prozentpunkte an Leistung gewinnen. Klar, Wundertreiber gibts nicht, aber Zugewinne im einstelligen Prozentbereich gibts schon. Ich meine bei der RX480 und RX580 wurde von CB nach 6 Monaten nochmal gebencht und da waren die Karten schon ein gutes Stück schneller.

Das gibts bei nVidia allerdings auch.
Wobei man bei AMD generell von besserer Unterstützung älterer Karten sprechen kann. Bei nVidia werden Verbesserungen und Optimierungen meist nur für die zwei letzten Generationen eingepflegt. Allerdings erwarte ich auch keine Top-Treiber mehr für eine 5 Jahre alte Grafikkarte.
 
Vermute ich nicht.

Allein die bereits jetzt bekannten Ergebnisse diverser Kühlungsmods - und das sind bei weitem keine massgeschneiderten Modelle - zeigen das verbesserte Leistungsvermögen, da geht's doch bereits deutlich Richtung RTX 2080 Ti.

Ich würde mal nicht zeitnah mit custom designs rechnen aber durch das abermals solide PCB schreit die karte förmlich nach wasserkühler und ich denke, da wirds richtig interessant. Mich schreckt ein verbrauch von >300 watt persönlich nicht ab, solange ich die abwärme leise und effektiv aus der karte ziehen kann.

Wie von einigen experten hier schon festgestellt arbeiten ja bei AMD nur idioten, weshalb die karten auch so lahm und ungeschliffen sind. Aber genau DAS macht für mich und einige andere auch einen gewissen reiz aus! Ich hatte sehr lange nicht mehr so viel spaß beim OC/UV wie damals mit meiner V64! Mit viel liebe und herzblut kann man sich seine persönliche Radeon VII tweaken - wo dann auch die leistung stimmt. Mann muss nur wollen und sich zeit nehmen.
Meine unterstützung hat AMD und vermutlich wirds mittelfristig auch eine VII bei mir. Für die anderen leute, denen ich ab und an PCs baue, empfehle ich aber dann doch eher Nvidia ab einem gewissen preisbereich. Da braucht man nichts mehr optimieren, kein gefrickel und gut ist -komfortabel aber langweilig für mich.

LG
 
Zuletzt bearbeitet:
Besucht doch mal IgorsLab auf TomsHardware. Hat einiges zur R7 zusammen gestellt. LG
 
Da braucht man nichts mehr optimieren, kein gefrickel und gut ist -komfortabel aber langweilig für mich.

Ist Offtopic, aber würde mich trotzdem interessieren:
Welche Art von "Gefrickel" brauchst Du persönlich um nicht gelangweilt von einer GPU zu sein?
Wie oft frickelst Du daran rum, dass es relevant ist für den Dauergebrauch?

Die Argumentation hört man ja doch öfter, aber bekommt nie eine Erklärung leider.
Ich habe an meiner NVidia Karte auch "gefrickelt". Im Endeffekt ist es nun eine passiv gekühlte 2080TI, mit der Leistung einer 2080.
Auf Knopfdruck ist sie nicht mehr passiv, aber hat dafür 2100mhz OC an der Kotzgrenze für Aircooler. Und zwei weitere Setups, die zwischen den zwei Extremen angesiedelt sind.

Die entsprechenden Profile werden je nach Game geladen (automatisch) und sorgen dafür, dass die GPU nur so laut wird wie das Game erfordert um max settings am Refreshlimit zu liefern.

Gebe schon zu, dass es Spaß gemacht hat so einzustellen. Aber das war nen Spaß von einem halben Tag. Die GPU wird aber mind. 1 Jahr im Rechner stecken. Wenn Geld ein Thema wäre, würde ich wohl nicht wegen nem halben Tag Settings tunen eine GPU kaufen.
 
Anhand meiner Vega64 Strix beschrieben war es ein werdegang von einigen monaten. Von den ersten OC gehversuchen bis zum umbau auf wasser und der erstellung einiger profile, optimierung, max OC, reger austausch mit der community. Das waren einfach viele spaßige bench tage, bis ich mit der karte zufrieden war. Für die meisten ist das alles eher abschreckend und alles soll am besten out of the box maximal performen aber mir persönlich hat es einfach spaß gemacht - und nicht zu vergessen, erst diese stromhungrige, laute karte hat mich zu WaKü gebracht. ;)

LG
 
Es ist mir schon klar, dass diese sehr speziellen Tests kein Gesamtbild zeigen, sondern nur sehr isolierte Einzelaufgaben bewerten.
Um die schwankende Leistung in Gesamtbildern (Game Benchmarks) zu erklären, dachte ich, dass isolierte Einzelaufgaben genau der richtige Weg sind.
So kann man doch erkennen, welche Aufgaben von der GPU besser oder schlechter bewerkstelligt werden, um so ein besseres Bild zu haben, was diese Schwankungen auslöst.

Am Beispiel der Reflexionen sieht man eine deutliche Schwäche z.B.
Wenn nun ein Spiel kaum Reflexionen berechnet, sollte die R7 also relativ besser dastehen, als in Spielen die stark auf Reflexionen setzen.

So mein Gedankengang dabei.
Ist da ein Denkfehler drin?

Zudem ist mir unklar was mit "Multi Rendering" gemeint ist.
Ich bin davon ausgegangen, dass multi rendering quasi DAS Ding ist was GPUs erledigen. Da es sich aber um eine gravierende Schwäche der R7 handelt, kann das Thema nicht so präsent sein in Games. Sonst würden die Game Benchmarks ja alle viel schlechter ausfallen als sie es tun.

Disclaimer:
Das Topic ist natürlich für Endkunden total irrelevant. Ist ja nicht so, als könnte man was ändern.
Es geht mir nur um eine, etwas nerdige, Analyse von Details um ein besseres Verständnis der Materie zu bekommen.
Ups, etwas spät gesehen.
Ich persönlich schaue gern die LuxMark Benches an, da sieht man z.B. auch wie eine RTX 2070 vor der GTX 1080 TI ist, eben weil mehr Rohleistung da ist.
Das Getriebe ist dann die API (openGL, Vulkan, DirectX 12)
Alles vor DirectX 12 wird von AMD nicht weiter "Optimiert" nicht weil sie zu Faul sind, sondern weil das Unmengen an Zeit kostet als Entwickler.
Das wiederum liegt an den Vorgaben und Richtlinien die z.B. DirectX 11 vorgeben, da kannst nicht einfach Multi-Core Rendering realisieren ohne den Code komplett zu zerlegen.
Dann doch besser gleich neu Anfangen mit mehr Möglichkeiten beim Programmieren der Spiele -> DirectX 12 und Vulkan.

DOOM kann ich z.B. mit einer HD 7970 spielen mit weit über 60FPS -> Vulkan holt mehr raus aus der Hardware.
Multi-Rendering bedeutet meine ich, dass alle Ressourcen genutzt werden also GPU(s) und CPU(s) sind an der Bildausgabe beteiligt.
 
Zuletzt bearbeitet:
ATI Multi-Rendering Wikipedia
Kenn ich selber auch nur so. Beim Multi Rendering arbeiten mehrere GPU an einem Frame, so wie es z.B. bei SLI, Crossfire, etc. gemacht wird.

Oder damit ist Multi-Core-Rendering, bzw. Multithreaded-Rendering gemeint.
DirectX 12 im Detail - Was macht DX12 besser? - GameStar

Und nochmal zu eigentlichen ursprünglichen Frage, warum Grafikkarten so unterschiedliche Ergebnisse liefern, wird vermutlich an den unterschiedlichen Architekturen und damit verbundenen Treibern liegen. Eine GPU muss sehr viele unterschiedliche Aufgaben erledigen und entsprechende Funktionen anbieten. Um diese Anforderungen zu erfüllen, stehen dem GPU-Entwickler unzählige Möglichkeiten zur Verfügung, und er muss sich aus einem Meer von Algorithmen die seiner Meinung nach sinnvollsten zusammensammeln. Es muss auch überlegt werden, was direkt von der GPU erledigt werden soll, und was die Software/Treiber übernimmt. Meistens ist es so, dass es für eine Aufgabe nicht den besten Weg/Algorithmus gibt, sondern es muss abgewägt werden, welcher im Schnitt schneller wäre. Wenn man jetzt noch anfängt, selber Algorithmen zu entwickeln, was vermutlich alle großen GPU-Hersteller machen werden, wird es nochmal ein paar Stufen komplexer. Das ist jetzt eine extrem vereinfachte Darstellung, aber damit kann man vielleicht erahnen, wie unterschiedlich die Wege sein können, den eine Architektur/Treiber nimmt.

Ein weiterer Faktor könnte auch die Optimierung sein. Aus verschiedenen Gründen kann es passieren, dass man z.B. mehr Zeit für die Optimierung eines Spiel für Nvidia-Grafikkarten investiert. Vor einigen Jahren hatte ich das Gefühl, dass Nvidia mehr mit den Entwicklern zusammen arbeitet, als AMD. Keine Ahnung wie das heute abläuft.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh