> > > > Navi wird die Mittelklasse bedienen und keine High-End-GPU werden

Navi wird die Mittelklasse bedienen und keine High-End-GPU werden

Veröffentlicht am: von

amd-radeonAMD wird das Jahr 2018 auf dem Desktop mit dem bisher bestehenden Produktportfolio aus Radeon RX Vega 64 und Vega 56 bestreiten, im Sommer mobile Varianten einführen und gegen Ende des Jahres einen GPU-Beschleuniger auf Basis von Vega in 7 nm auf den Markt bringen. Damit wird es keinerlei Gaming-Neuheiten mehr von AMD in diesem Jahr geben – zumindest nicht für den Desktop.

Die Hoffnung ist demnach, dass die Navi-Architektur und entsprechende Produkte das Ruder für AMD wieder herumreißen wird können – denn geht es rein um die Leistung im High-End und um Preis/Leistung in der Mittelklasse, tut sich AMD derzeit sehr schwer. Gegen die GeForce GTX 1080 Ti ist derzeit kein Herankommen und auch wenn eine Radeon RX Vega 56 auf Effizienz getrimmt eine sehr gute Karte ist, die Erwartungen an diese Generation konnten sicherlich nicht erfüllt werden. In der Mittelklasse sieht es zwar etwas besser aus, das Re-Re-Branding für OEM-Hersteller in Form der Desktop- und Mobile-Radeon-RX-500X-Serie zeigt das Dilemma aber recht deutlich.

Nun vermelden die Kollegen von Fudzilla.com, dass Navi zwar weiterhin für 2019 geplant ist, dies aber wohl nicht der erneute Versuch, die Leistungskrone für sich zu gewinnen, sein wird. Stattdessen soll sich AMD wie auch schon mit der Polaris-Generation auf die Mittelklasse konzentrieren. Die Argumentation für ein solches Vorgehen ist recht einfach: Die Mittelklasse ist wirtschaftlich der sogenannte Sweet Spot, also der Punkt, an dem hohe Stückzahlen abgesetzt und mit entsprechender Marge auch hohe Gewinne erzielt werden. Im High-End-Segment ist die Marge pro Stück zwar höher, dafür sind die Stückzahlen deutlich geringer und das Budget für die Entwicklung solcher Hardware ungleich höher. Mit der Polaris-Architektur hat AMD gezeigt, dass es sinnvoll sein kann, sich auf dieses Segment zu konzentrieren, um wirtschaftlich weiterhin auf gesunden Füßen zu stehen. Das R&D-Budget von zwei Milliarden US-Dollar für die Entwicklung einer Architektur (NVIDIA hat nach eigenen Angaben so viel für die Entwicklung der Volta-Architektur ausgegeben), hat AMD einfach nicht.

Sollten sich die Gerüchte bewahrheiten, wäre auch 2019 kein High-End-Ableger von AMD zu erwarten. Damit überließe AMD dem Konkurrenten NVIDIA vollständig das Spielfeld, denn im Spätsommer soll der Pascal-Nachfolger Turing erscheinen. Selbst wenn NVIDIA hier nur den üblichen Leistungssprung von 20 bis 30 % macht, hieße das, dass sich der Abstand zwischen AMD und NVIDIA vergrößern würde.

Eine Mittelklasse auf Basis der Navi-Architektur bei gleichzeitiger Verkleinerung der Fertigung in 7 nm hat zumindest das Potential ein großer Sprung im Bereich der Grafikkarten von 200 bis 400 zu sein. Zugleich bedeutet dies aber, dass vor 2020 kein neues High-End-Produkt von AMD in Sicht ist.

Vega in 7 nm wird keine Rolle spielen

Da in den vergangenen Tagen vermehrt über eine mögliche Gaming-GPU auf Basis von Vega in 7 nm spekuliert wurde, wollen wir noch einmal betonen, dass AMD derzeit keinerlei Pläne in diese Richtung hat. Wann immer AMD die Vega-Architektur in 7 nm in den Mund nahm, fielen die Worte Machine Learning und Radeon Instinct. Selbst wenn AMD eine Radeon RX Vega mit einer solchen GPU auf den Markt bringen wollte, wäre dies nicht vor 2019 möglich.

Die angekündigte Radeon Instinct mit Vega in 7 nm wird ein reiner GPU-Beschleuniger sein. Denkbar wäre eine Art Frontier Edition dieser Karte, die dann mit entsprechendem Treiber auch Spiele ausführen kann, aufgrund der wohl recht teuren Fertigung und dem Zusammenspiel von mindestens 16 GB an HBM2 dürfte eine solche Karte aber alles andere als billig werden. Vermutlich lässt sich diese recht gut mit der NVIDIA Titan V vergleichen, die zwar auch auf Spielen eine ansprechende Leistung bietet, die mit einem Preis von 3.100 Euro aber eher in anderen Anwendungsbereichen zu Hause ist und somit für den Gaming-Markt kaum eine Rolle spielt.

Social Links

Ihre Bewertung

Ø Bewertungen: 4.25

Tags

Kommentare (95)

#86
Registriert seit: 10.03.2017

Banned
Beiträge: 1168
Zitat n0dder;26261327
nvidia hats ja schon gut geschafft die 80er karten zur mittelklasse zu machen.
mittelklasse chip, in der mitte der eigenen produktpalette plaziert. nur der preis ist bei high-end geblieben. amds versagen sei dank.

Das ist doch bereits seit Kepler so. Damals hatte AMD die HD7000, die gegen die GF700 keine Chance mehr hatte. Nvidia macht eben mehr aus einer Architektur. Kann man ihnen das vorwerfen? Am Ende zählt die Leistung, die rauskommt. Und die passt. Aber wenn es dich glücklicher macht einen fetten Chip mit derselben Leistung zu kaufen, bitte.

Zitat Lixi123;26261523
Jen-Hsun Huang hat damals bei der Präsentation von Pascal gesagt die Entwicklung der Architektur hätte mehrere Mrd. $ gekostet. Das sind Gelder die AMD aktuell einfach nicht hat. Gemessen an ihrem Budget schlagen sie sich ehrlich gesagt sehr beachtlich. Sie müssen erstmal ein paar Jahre Geld verdienen um richtig angreifen zu können.

Der letzte Feinschliff bzw. das letzte Quentchen sind die Dinge, die besonders teuer sind. Man kann da Zahlen nicht 1:1 vergleichen. AMD hat mit HBM 1 & 2 mehr als genug Geld versenkt, das sie besser hätten woanders investieren sollen.

Zitat dimi0815;26261596
Nimmt man dann noch den Monitor an benötigter Hardware dazu, bekommt man ggf. ab Anfang 2019 ein entsprechend der "Mittelklasse" nicht detailmaxiertes, aber immernoch extrem schickes und flüssiges 4k Gaming-Erlebnis komplett auf AMD-Basis (möglicherweise auch die CPUs) für gefühlt 1/3 bis (realistischer^^) 2/3 des Preises der Konkurrenz.

Na klar, eine Radeon 780 wird 100€ kosten oder eine Geforce 1360 900€. Keine Ahnung in Welcher roten Welt du lebst...
#87
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6349

Mal abgesehen davon, dass es Wccftech ist, klingt das ein bisschen nach BTTR bzw RV670-RV870. Mit dieser Strategie ist AMD richtig gut und erfolgreich gefahren und hat Nvidias grosse monolithische Designs ganz schön alt aussehen lassen. Übrigens, nur weil Navi 10 (?) ein Mainstream Design ist, bedeutet das nicht, dass kein High-End Produkt zu erwarten ist. Möglich sind die natürlich trotzdem, Stichwort MCM. AMD hat da mittlerweile ganz andere Möglichkeiten als noch vor 10 Jahren. Und auch mehr Möglichkeiten als Nvidia.

Leider sieht man auch in diesem Thread wieder mal, wie wenig Ahnung einige von Wirtschaft haben. Ob AMD nun ein Konkurrenzprodukt für eine 1080 Ti bzw deren Nachfolger bringt, ist zweitrangig. Bis auf den kleinen Teil der High-End Gamer Community interessiert das sowieso niemanden. AMD machen vielmehr Karten wie 1050 Ti, 1060 oder 1070 zu schaffen. Hier wird Absatz und Umsatz generiert.

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat Hardwareaner;26262201
Das ist doch bereits seit Kepler so. Damals hatte AMD die HD7000, die gegen die GF700 keine Chance mehr hatte.

Soweit ich mich erinnern kann, hatte Nvidia nur die 600er Geforces als die HD 7000 Familie aktuell war. Und die haben sich zumindest bei reinem Gaming nicht viel genommen. Bzw hatte AMD mit der 7970 GHz Edition sogar die schnellste Single-GPU Karte.

Zitat Hardwareaner;26262201
Nvidia macht eben mehr aus einer Architektur.

Nicht wirklich. Nvidia musste einfach deutlich mehr aufholen, da ihre Architektur mit wenigen Shadern und Hot Clocks langfristig gesehen auf verlorenem Posten stand. Das hab ich hier schon vor 10 Jahren oder so prophezeit. Auch wenn es die damaligen Nvidia Fanatiker nicht wahrhaben wollten. Letztendlich sollte ich Recht behalten. Nvidia verlor von Generation zu Generation an Boden. Mit Fermi als negativer Höhepunkt, der für den Client Markt eine ziemliche Katastrophe war. Kepler musste also viel umkrempeln. War aber halt auch nur der Anfang. Bei AMD sah das ein bisschen anders aus. Nach der Abkehr von VLIW wurde die GCN Architektur aus dem Boden gestampft, die von Beginn an relativ ausgereift und recht fortschrittlich war und Nvidia in vielen Bereichen trotz des Kepler Fortschritts hinter sich liess. AMD muss sich allerdings fragen lassen, ob man sich zu lange auf diesem Wurf ausgeruht hat. Die Nachfolger boten zwar viele Verbesserungen im Detail, aber keine grundlegenden Verbesserungen des Shaderdesigns, die durchaus notwendig waren. Bei Maxwell sah das im Vergleich zu Kepler anders aus.

Zitat Hardwareaner;26262201
AMD hat mit HBM 1 & 2 mehr als genug Geld versenkt, das sie besser hätten woanders investieren sollen.

Vermutlich deutlich weniger als Nvidia mit Tegra. ;) Der Unterschied ist nur, Tegra braucht niemand wirklich. Es gibt etliche andere und bessere ARM basierte Produkte. Stacked Memory Technologien wie HBM sind hingegen alternativlos für diverse zukünftige Produkte. AMD hat alles richtig gemacht, auf HBM zu setzen. Wenn man sich gegen Intel und deren präferiertes HMC durchsetzt, und mittlerweile Grössen wie Samsung als Fertiger eingestiegen sind, sagt das mehr als genug über die Bedeutung von HBM aus. Ausserdem wurde HBM zusammen mit SK Hynix über einen langen Zeitraum entwickelt. Die Entwicklungskosten pro Quartal sollten für AMD also überschaubar gewesen sein.
#88
Registriert seit: 16.05.2015

Leutnant zur See
Beiträge: 1187
Zitat Hardwareaner;26262201
Das ist doch bereits seit Kepler so. Damals hatte AMD die HD7000, die gegen die GF700 keine Chance mehr hatte. Nvidia macht eben mehr aus einer Architektur. Kann man ihnen das vorwerfen? Am Ende zählt die Leistung, die rauskommt. Und die passt. Aber wenn es dich glücklicher macht einen fetten Chip mit derselben Leistung zu kaufen, bitte.



Du meinst die Karten, die über die Zeit noch enorm an Leistung zugelegt haben? Stimmt, so etwas will doch Niemand.
#89
Registriert seit: 10.03.2017

Banned
Beiträge: 1168
Zitat mr.dude;26262428
Soweit ich mich erinnern kann, hatte Nvidia nur die 600er Geforces als die HD 7000 Familie aktuell war. Und die haben sich zumindest bei reinem Gaming nicht viel genommen. Bzw hatte AMD mit der 7970 GHz Edition sogar die schnellste Single-GPU Karte.

Genau, aber Nvidia konnte Kepler noch für die 780Ti verwenden.

Zitat mr.dude;26262428
Nicht wirklich. Nvidia musste einfach deutlich mehr aufholen, da ihre Architektur mit wenigen Shadern und Hot Clocks langfristig gesehen auf verlorenem Posten stand. Das hab ich hier schon vor 10 Jahren oder so prophezeit. Auch wenn es die damaligen Nvidia Fanatiker nicht wahrhaben wollten. Letztendlich sollte ich Recht behalten. Nvidia verlor von Generation zu Generation an Boden. Mit Fermi als negativer Höhepunkt, der für den Client Markt eine ziemliche Katastrophe war. Kepler musste also viel umkrempeln. War aber halt auch nur der Anfang. Bei AMD sah das ein bisschen anders aus. Nach der Abkehr von VLIW wurde die GCN Architektur aus dem Boden gestampft, die von Beginn an relativ ausgereift und recht fortschrittlich war und Nvidia in vielen Bereichen trotz des Kepler Fortschritts hinter sich liess. AMD muss sich allerdings fragen lassen, ob man sich zu lange auf diesem Wurf ausgeruht hat. Die Nachfolger boten zwar viele Verbesserungen im Detail, aber keine grundlegenden Verbesserungen des Shaderdesigns, die durchaus notwendig waren. Bei Maxwell sah das im Vergleich zu Kepler anders aus.

Da bringst du was durcheinander. Fermi war zwar ineffizienter und später, aber trotzdem schneller.
Auch heute hat Nvidia deutlich weniger Shader und liegt trotzdem vorn. Allein daran kann es also nicht liegen. Trotzdem hat das Umdenken gut getan, keine Frage.
Aber du hast das typische Problem von AMD gut umrissen: die ruhen sich zu lange wenn sie mal was Gutes haben und geraten dann wieder ins Hintertreffen.

Zitat mr.dude;26262428
Vermutlich deutlich weniger als Nvidia mit Tegra. ;) Der Unterschied ist nur, Tegra braucht niemand wirklich. Es gibt etliche andere und bessere ARM basierte Produkte. Stacked Memory Technologien wie HBM sind hingegen alternativlos für diverse zukünftige Produkte. AMD hat alles richtig gemacht, auf HBM zu setzen. Wenn man sich gegen Intel und deren präferiertes HMC durchsetzt, und mittlerweile Grössen wie Samsung als Fertiger eingestiegen sind, sagt das mehr als genug über die Bedeutung von HBM aus. Ausserdem wurde HBM zusammen mit SK Hynix über einen langen Zeitraum entwickelt. Die Entwicklungskosten pro Quartal sollten für AMD also überschaubar gewesen sein.

Der Unterschied ist der, dass Nvidia sich das offenbar problemlos leisten kann, während AMD wieder rumheult, dass sie keine Kohle mehr haben. ;)
Ja, HBM ist die Zukunft, aber eben nicht die Gegenwart. Das hat AMD nie kapiert. Die Fury war ein totaler Fehlschlag, die Vega allenfalls durch Mining halbwegs gerettet (wobei auch nicht wirklich wenn man sich diese massive Verspätung ansieht). Und wie sie sich HBM2 in der Mittelklasse vorstellen frage ich mich um ehrlich zu sein auch. Ist ja nicht so, dass im Profibereich keiner benötigt wird und Nvidia keinen haben möchte. Und dann ausgerechnet low cost Chips damit ausstatten?
Wie viele Milliarden hat AMD durch die Versäumnisse der letzten Jahre eigentlich verschenkt? Das wäre mal interessant zu wissen.
#90
Registriert seit: 03.08.2006

Banned
Beiträge: 1674
Highend-Gaming...

Wäre da etwas dabei, was mind. genauso schnell OpenCL rechnet (Bildbearbeitung) aber weniger Strom zieht als eine MSI Radeon RX 570 Armor 4G OC? Ergo mit einem 6pol. auskommt? Vielleicht gar preiswerter als die fetten ~330€ für jene und auch Stückchen leiser als die erwähnte?

So um die 130W, daß sie unter Last 2018 nicht lauter gefahren werden muß als z.B. die 4GB Sapphire RX 460 Nitro? (die von der Leistung her leider uninteressant war).
Und mein E9 400W, der keinerlei Probleme mit der 260X hat, weiterhin ausreicht?`

DAS sind mal echte Probleme :) Highend-Gaming...

p.s.:
Karten >100W ohne zusätzlichen Stromstecker will ich nicht
#91
Registriert seit: 22.07.2007
zu Hause
Obergefreiter
Beiträge: 104
AMD's next-gen Navi GPU launching in August 2018

[ATTACH=CONFIG]432245[/ATTACH]
#92
Registriert seit: 08.03.2013

Leutnant zur See
Beiträge: 1162
Zitat BessereHälfte;26265860

Wäre da etwas dabei, was mind. genauso schnell OpenCL rechnet (Bildbearbeitung) aber weniger Strom zieht als eine MSI Radeon RX 570 Armor 4G OC? Ergo mit einem 6pol. auskommt? Vielleicht gar preiswerter als die fetten ~330€ für jene und auch Stückchen leiser als die erwähnte?


Es gibt RX570, die mit einem 6 Pin auskommen. z.B. die ITX Versionen. Trotzdem würde ich eine mit 8 Pin holen und danach manuell an den Volt schrauben :)
Stock verbrauen die alle relativ viel Watt. Aber du kannst durch Undervolting bei AMD viel rausholen. Google einfach mal etwas nach "RX 570 undervolt".

Gibt sogar einen Thread hier: [Sammelthread] AMD Radeon RX 470/480 (570/580) Undervolting/Overclocking-Thread
#93
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6349
Zitat Hardwareaner;26262723
Genau, aber Nvidia konnte Kepler noch für die 780Ti verwenden.

GTX 780 (Ti) basierte aber auf einem deutlich grösseren Design, was halt auch entsprechend teurer und weniger wirtschaftlich war. Das kann man nicht mehr mit der HD 7970 oder GTX 680 vergleichen. GTX 780 (Ti) wurde zudem erst 2013 gelaunched, GCN in Form der HD 7970 hingegen Ende 2011.

Zitat Hardwareaner;26262723
Da bringst du was durcheinander. Fermi war zwar ineffizienter und später, aber trotzdem schneller.

Ich bringe gar nichts durcheinander. Dass Fermi etwas schneller war, ändert an meiner Aussage doch nichts. Am Ende waren es auch nur 10-15%. Und diese wurden einfach mit enorm viel Stromhunger und starker Abwärme erkauft. Neben den Fertigungsproblemen (Fermi konnte man nicht mal im Vollausbau auf den Markt werfen) und der Verspätung war Fermi einfach eine Gurke.

Zitat Hardwareaner;26262723
Auch heute hat Nvidia deutlich weniger Shader ...

Shader sind nicht alles. Auch Taktrate spielt natürlich eine Rolle. Aber mal davon abgesehen, mittlerweile sind die Unterschiede bei der Anzahl der Shader nicht mehr so gross wie einst.

Zitat Hardwareaner;26262723
Der Unterschied ist der, dass Nvidia sich das offenbar problemlos leisten kann, während AMD wieder rumheult, dass sie keine Kohle mehr haben.

Was sich Nvidia leisten können wird, wird man erst noch sehen. Fakt ist, AMD hat HBM Produkte im Client Markt, Intel hat HBM Produkte im Client Markt, Nvidia hingegen hat keine HBM Produkte im Client Markt. Und je länger Nvidia das hinauszögert, vor allem eine entsprechende Plattform dafür zu schaffen, umso mehr kann ihnen das später wehtun. Sachen wie Infinity Fabric oder EMIB entwickelt man nicht mal über Nacht. Ich sehe übrigens auch niemanden bei AMD, der wegen fehlender Kohle rumheult. ;)

Zitat Hardwareaner;26262723
Ja, HBM ist die Zukunft, aber eben nicht die Gegenwart.

Doch, HBM IST Gegenwart. Anscheinend haben das einige noch nicht kapiert. Genauso dass HBM gar nicht dafür gedacht, in jedem Produkt verwendet zu werden. Oder mit anderen Worten, HBM soll GDDR nicht komplett ablösen, im oberen Leistungsspektrum aber schon.

[COLOR="red"]- - - Updated - - -[/COLOR]


Mal aufs Datum geschaut? Nicht gerade aktuell. ;)
#94
Registriert seit: 10.03.2017

Banned
Beiträge: 1168
Zitat mr.dude;26267010
GTX 780 (Ti) basierte aber auf einem deutlich grösseren Design, was halt auch entsprechend teurer und weniger wirtschaftlich war. Das kann man nicht mehr mit der HD 7970 oder GTX 680 vergleichen. GTX 780 (Ti) wurde zudem erst 2013 gelaunched, GCN in Form der HD 7970 hingegen Ende 2011.

Ist das verwunderlich? Durch Voodoo kommt die Mehrleistung sicher nicht. ;)

Zitat mr.dude;26267010
Ich bringe gar nichts durcheinander. Dass Fermi etwas schneller war, ändert an meiner Aussage doch nichts. Am Ende waren es auch nur 10-15%. Und diese wurden einfach mit enorm viel Stromhunger und starker Abwärme erkauft. Neben den Fertigungsproblemen (Fermi konnte man nicht mal im Vollausbau auf den Markt werfen) und der Verspätung war Fermi einfach eine Gurke.

Der GF100 war eine Gurke, alles was danach kam war gar nicht so schlecht wie meist getan wird. Oder war die GTX460 eine schlechte Karte? Die GTX570 war der HD6970 sowohl in Sachen Leistung als auch Verbrauch ebenbürtig. Wenn die eine Gurke war, dann waren es die Karten von AMD demnach auch. ;)

Zitat mr.dude;26267010
Was sich Nvidia leisten können wird, wird man erst noch sehen. Fakt ist, AMD hat HBM Produkte im Client Markt, Intel hat HBM Produkte im Client Markt, Nvidia hingegen hat keine HBM Produkte im Client Markt. Und je länger Nvidia das hinauszögert, vor allem eine entsprechende Plattform dafür zu schaffen, umso mehr kann ihnen das später wehtun. Sachen wie Infinity Fabric oder EMIB entwickelt man nicht mal über Nacht. Ich sehe übrigens auch niemanden bei AMD, der wegen fehlender Kohle rumheult. ;)

Nvidia verbaut jedoch bereits längst HBM2 außerhalb des Consumerbereichs und kann somit Erfahrungen sammeln. Ich würde Nvidia in dieser Hinsicht nicht abschreiben. Denn genau DAS könnte später wehtun. Momentan hätten sie im Consumerbereich viele Nachteile mit HBM2, aber praktisch keine Vorteile, die das ansatzweise aufwiegen könnten.
Kann auch sein, dass die User hier immer rumheulen, dass AMD kein Geld hat. :cool:

Zitat mr.dude;26267010
Doch, HBM IST Gegenwart. Anscheinend haben das einige noch nicht kapiert. Genauso dass HBM gar nicht dafür gedacht, in jedem Produkt verwendet zu werden. Oder mit anderen Worten, HBM soll GDDR nicht komplett ablösen, im oberen Leistungsspektrum aber schon.

Merkt man an den vielen kaufbaren Karten. ;)
Davon abgesehen wird es gegenwärtig zumindest bei Nvidia nicht zwingend gebraucht. Eine 1080Ti rennt auch mit GDDR5X wie geschmiert.
#95
Registriert seit: 16.05.2015

Leutnant zur See
Beiträge: 1187
Das ist schön.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

Logo von IMAGES/STORIES/2017/GEFORCERTX2080

Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

Mega-Roundup: 14 aktuelle GeForce-Grafikkarten in 11 Blockbuster-Spielen...

Logo von IMAGES/STORIES/2017/GPU_BLOCKBUSER_VGL_ZOTAC-TEASER

In Kooperation mit Zotac Auch in diesem Jahr veranstalteten die Spielepublisher wieder ein regelrechtes Feuerwerk an neuen Videospielen. Vor allem in den letzten Wochen des Jahres wurden zahlreiche neue Triple-A-Titel veröffentlicht, wie beispielsweise ein neues "Call of Duty",... [mehr]

Die ersten Custom-Modelle der GeForce GTX 1070 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1070TI-LOGO

Nach der Vorstellung aller Details dürfen wir heute die Leistungswerte der GeForce GTX 1070 Ti veröffentlichen. Dabei stand uns dieses Mal keine Founders Edition zur Verfügung, die nur von NVIDIA verkauft wird, dafür aber einige Custom-Modelle. Diese stammen aus dem Hause ASUS, Inno3D und... [mehr]

Sechs Grafikkarten von Sapphire im Vergleich in 11 Blockbuster-Spielen

Logo von IMAGES/STORIES/2017/SAPPHIRE-2017AUFMACHER

In Kooperation mit Sapphire Nachdem der Herbst und Winter mit zahlreichen neuen Spielen samt Grafikfeuerwerk aufwarten konnte, haben wir uns bereits 14 aktuelle GeForce-Karten in 11 neuen Spielen angeschaut. Nun wollen wir die Seiten sozusagen wechseln und schauen uns an, wie diese Spiele auf... [mehr]