> > > > AMD präsentiert die Radeon Pro Duo mit zwei Fiji-GPUs und spricht über VR

AMD präsentiert die Radeon Pro Duo mit zwei Fiji-GPUs und spricht über VR

DruckenE-Mail
Erstellt am: von

amd radeon 2013Für Hardware-Hersteller wie AMD ist die Game Developer Conference inzwischen eine wichtige Veranstaltung, um das eigene Unternehmen und die Zusammenarbeit mit den Entwicklern in den Vordergrund zu rücken. Am heutigen Tag präsentierte sich AMD zusammen mit Partnern wie Crytek, Ubisoft, EA, Square Enix und DICE in San Francisco und sprach vor allem über das Thema Virtual Reality. Ebenfalls Teil der Präsentation bzw. Partner auf der Bühne waren Sony, Oculus, HTC, Magic Leap, Leap Motion und Lenovo. Doch auch bei diesen handelte es sich um die üblichen Verdächtigen, mit denen AMD bereits seit geraumer Zeit zusammenarbeitet.

AMD Capsaicin-Event auf der GDC
AMD Capsaicin-Event auf der GDC

Rechnet man den Marktanteil an Desktop-Grafikkarten und Konsolen zusammen, so kommt AMD auf 83 % für die Nutzung im Zusammenhang mit VR-Systemen. Während für den Desktop mit der Oculus Rift und HTC Vive bereits entsprechende Systeme verfügbar sind, sieht es bei den Konsolen doch noch etwas anders aus. Sony hat sich mit PlayStation VR zumindest bereits ein konkretes Produkt vorgestellt. Bei Microsoft hüllt man sich noch in Schweigen – die HoloLens ist als eigenständiges AR-System sicherlich in diesem Zusammenhang nicht zu nennen. Fairerweise dürfte also nur der Marktanteil am Desktop mit einbezogen werden und dieser fällt weiterhin zu Gunsten von NVIDIA aus.

Insgesamt spricht AMD von über 100 Partnerschaften mit Hard- und Softwareentwicklern.

AMD Capsaicin-Event auf der GDC
AMD Capsaicin-Event auf der GDC

AMD mit VR in Hollywood und an Universitäten

Wenn AMD in Hollywood ein Thema war, dann zumeist weil Film- und CGI-Studios mit neuer Hardware ausgestattet wurden. Dies wird sich durch die neuen VR-Anwendungen jedoch ändern. Alle namhaften Filmstudios haben angekündigt, dass Filmprojekte in VR ein interessanter Themenbereich sind. Auch dazu äußerte sich AMD auf der GDC und sprach von Zusammenarbeiten mit 21st Century Fox, Lionsgate und Legendary.

Auch im universitären Bereich engagiert sich AMD. So wird man an einer Universität in der Türkei einen eigenen VR-Studiengang fördern. Dabei geht es hauptsächlich um die Bereitstellung von Hardware. Doch man ist bereits in einigen weiteren Partnerschaften an verschiedenen weiteren Universitäten (UCL, Stanford und einigen mehr) eingebunden.

AMD Radeon Pro Duo

Das eigentliche Highlight der Präsentation auf der GDC ist sicherlich die Ankündigung der Radeon Pro Duo. Die Grafikkarte mit zwei Fiji-GPUs wurde bereits vor neun Monaten in einem frühen Projektstadium angekündigt, sollte als finales Produkt aber erst jetzt erscheinen. AMD wurde über die vergangenen Monate auch nicht müde eine solche Karte im Gespräch zu halten und veröffentlichte immer gerne weitere kleinere Meldungen – oder ließ diese veröffentlichen. Zuletzt war eine Grafikkarte mit zwei Fiji-GPUs auf der VRLA zu bestaunen, auch wenn im geschlossenen Demo-System nichts von der eigentlichen Hardware zu sehen war. Im Vorfeld der GDC rührte AMD noch einmal kräftig die Werbetrommel.

Nun aber soll es endlich soweit sein. Radeon Pro Duo – so der Name der Grafikkarte macht auch zugleich deutlich, dass sich AMD mit diesem Produkt sowohl an die professionellen Anwender, wie auch den Spieler wendet. Damit dürfte es sich um das erste Produkt aus dem Hause AMD handeln, welches so ausgelegt wird.

AMD Radeon Pro DuoAMD Radeon Pro Duo

AMD Radeon Pro Duo

Hinsichtlich der Rechenleistung konnte AMD auch für Aufklärung sorgen, denn auf der bereits erwähnten VRLA sprach Roy Taylor von 12 TFLOPS Rechenleistung für die Karte. Da der Einsatz von zwei Fiji-GPUs im Vollausbau wahrscheinlich ist, konnten Rückschlüsse auf die Taktung gezogen werden. Die Radeon R9 Fury X kommt mit 4.096 Shadereinheiten bei einem Takt von 1.050 MHz auf eine theoretische Rechenleistung von 8,6 TFLOPS. Zwei dieser GPUs kämen also auf eine Rechenleistung von 17,2 TFLOPS. Mit den nun neuen Angaben von 16 TFLOPS ist die Radeon Pro Duo also mit zwei vollwertigen Fiji-GPUs bestückt, lässt diese aber etwas langsamer arbeiten.

Für Spieler ist die Einschätzung der Leistung der Radeon Pro Duo also klar. Diese dürfte irgendwo zwischen einem CrossFire-Setup aus zwei Radeon R9 Fury X und Radeon R9 Nano liegen. Für AMD aber weitaus wichtiger ist offenbar zunächst einmal der Einsatz im professionellen Bereich und hier hat man unter anderem die 360°-Videoproduktion ins Auge gefasst. Das Zusammenführen von gleich mehreren Videofeeds zu einem vollständigen 360°-Bild sei extrem rechenaufwendig – die Radeon Pro Duo geradezu prädestiniert diese Arbeit zu erledigen. Allerdings dürften auch die FirePro-Workstation-Karten (FirePro W-Serie) dazu in der Lage sein.

AMD Radeon Pro DuoAMD Radeon Pro Duo

AMD Radeon Pro Duo

Leider äußert sich AMD nicht weiter zu den technischen Daten der Radeon Pro Duo. Anhand der Bilder lassen sich aber einige wenige technische Daten ablesen. So verwendet AMD offenbar drei zusätzliche PCI-Express-Stromanschlüsse mit jeweils acht Pins. Damit kann die Karte laut PCI-Express-Spezifikation 525 W aufnahmen, allerdings sind die zusätzlichen Anschlüsse auch in der Lage, eine deutlich höhere elektrische Leistung zu übertragen. Demnach handelt es sich bei den 525 W eher um eine grobe Vorgabe.

AMD Radeon Pro DuoAMD Radeon Pro Duo

AMD Radeon Pro Duo

Auf den Bildern ebenfalls gut zu erkennen ist die All-in-One-Wasserkühlung, die ohne zusätzlichen Axiallüfter auf der Karte selbst auskommt. Auf einigen Bildern war ein solcher zu erkennen. Bei den dort verbauten Karten hat es sich aber offenbar nicht um die Radeon Pro Duo, sondern um eine andere Karte gehandelt. Die Schläuche der Wasserkühlung werden auf Höhe der PCI-Express-Slotblende aus dem Gehäuse der Karte geführt. Im Inneren dürfte sich mindestens eine Pumpe befinden, die das Wasser über zwei Kühlkörper – für jede GPU einen – führt. Allem Anschein nach verwendet AMD einen einzelnen 140-mm-Radiator für den Wärmeaustausch. Auf diesem befindet sich ein ebenso großer Lüfter, der kühle Luft durch den Radiator befördern soll.

AMD hält sich bei der Optik an die eigenen Vorgaben der Fury-Serie. Dazu gehört der matte Lack an der oberen Kante der Karte sowie die Abdeckung – ebenfalls mit Softtouch-Lackierung. Das Radeon-Logo dürfte einmal mehr beleuchtet sein, allerdings verzichtet AMD auf die GPU-Tach-Anzeige mit LEDs, welche bei der Radeon Fury X Auskunft über die Last auf der GPU gibt.

AMD Radeon Pro DuoAMD Radeon Pro Duo

AMD Radeon Pro Duo

Die Radeon Pro Duo soll zu Beginn des zweiten Quartals, also vermutlich noch im April, im Handel erhältlich sein. AMD nennt einen Preis von 1.499 US-Dollar. Zieht man die aktuelle Umrechnung für US-Preise in Betracht, dann dürfte dies auch in etwa dem Euro-Preis entsprechen.

LiquidVR und DirectX 12

Auf einer Entwickler-Messe dürfen natürlich auch die dazugehörigen Software-Schnittstellen nicht fehlen. AMD bietet mit LiquidVR eine API an, die für VR-Anwendungen optimiert ist. Im Vorfeld der GDC wurden einige Spiele veröffentlicht, die bereits eine DirectX-12-Schnittstelle bieten und hier liegt AMD durchweg vor der Konkurrenz und dieses Bild soll sich auch mit den kommenden Titeln, die beispielsweise im Mai erscheinen, so fortsetzen.

Einen großen Beitrag zum Leistungsgewinn wird dabei den Asynchronous Shaders zugesprochen. In Ashes of the Singularity konnten wir uns den Einfluss auf die Leistung bereits anschauen. Um Techniken wie Asynchronous Shaders überhaupt anbieten zu können, muss die GPU-Architektur natürlich entsprechend ausgelegt sein. Mit der GCN-Architektur hat AMD bereits seit einigen Jahren darauf hingearbeitet. Mike Mantor ist als Senior Fellow Architect bei AMD dafür maßgeblich verantwortlich und arbeitet laut Angaben von AMD bereits an der nächsten Generation und damit an den nächsten Entwicklungen in dieser Richtung.

VR, gekommen um zu bleiben

Die große Frage nach der Durchsetzungskraft von VR stellt sich trotz oder gerade wegen des Hypes um die Oculus Rift und HTC Vive, deren Vorbestellungen sicherlich durch die Decke gingen, die von Absatzzahlen im Millionenbereich aber noch etwas entfernt sein dürften. Dabei setzen Hersteller und Partner genau darauf.

Damit das Thema VR nicht wie Technologien wie etwa Stereo 3D oder frühere Anläufe in die virtuellen Welten wieder nach einigen wenigen Jahren klanglos verschwinden, arbeitet AMD an viele Richtungen mit anderen Unternehmen zusammen. Dies zeigt sich bei allen Herstellern, egal ob Software- oder Hardware, die um das Ökosystem rund um die VR-Headsets bemüht sind. Doch AMD sieht natürlich bereits jetzt Verbesserungspotenzial und arbeitet mit einem nicht namentlich genannten Hersteller an einem Headset mit 4K-Auflösung pro Auge. Dass die Auflösung ein wichtiger Faktor ist, zeigt die Entwicklung von StarVR, die an einem VR-Headset arbeiten, welches mit 2.560 x 1.440 Pixel pro Auge bereits eine deutlich höhere Auflösung bieten soll. Allerdings stehen nun erst einmal die Oculus Rift und HTC Vive im Fokus, während andere Hersteller kaum eine Rolle spielen.

Welche Kraft hinter der Entwicklung im VR-Ökosystem steckt, will AMD auch anhand der getätigten Investitionen belegen. So wurden bisher bereits weitaus größere Summen investiert als dies bei vergleichbaren Technologien der Fall war und das wird sich in diesem Jahr weiter fortsetzen, so AMD. Mit der Polaris-Architektur will man aber nicht nur die Leistung der Grafikkarten auf ein Niveau bringen, welches einen problemlosen Betrieb mit einem VR-Headset möglich macht, sondern will entsprechend schnelle Grafikkarten auch günstiger machen. Bisher empfehlen AMD und NVIDIA Grafikkarten der Klasse GeForce GTX 970 und Radeon R9 290 als Mindestvoraussetzung. Doch mit beiden Karten dürften grafisch aufwendige VR-Anwendungen wohl kaum auf beiden Augen mit 90 FPS laufen. Etwa 350 US-Dollar sieht AMD als Sweet Spot für den Verkauf seiner Grafikkarten und hier will man zukünftig mit der Polaris-Architektur entsprechend schnelle Karten anbieten können. Einer Studie zufolge besitzen aktuell nur etwa 7,5 Millionen Nutzer weltweit eine GeForce GTX 970 oder Radeon R9 290 – eine Zahl, die man erhöhen möchte und das natürlich am liebsten mit Grafikkarten aus dem Hause AMD.

Um dem Konsumenten die Wahl der richtigen Komponenten zu erleichtern, startet AMD ein "Radeon VR-Ready Premium"-Programm. An einem entsprechenden Logo auf den Komplettsystemen oder Grafikkarten soll der Käufer erkennen können, ob diese in der Lage sind, mit einem VR-Headset reibungslos zu funktionieren. NVIDIA hat mit dem GeForce GTX VR Ready Programm eine ähnliche Initiative.

Polaris 10 GPU demonstriert


AMD Capsaicin-Event auf der GDC
AMD Capsaicin-Event auf der GDC

Bisher kennen wir nur eine Demo zur Polaris-Architektur und in dieser wird eine Szene von Star Wars: Battlefront durchlaufen, um die Energieeffizienz von Polaris zu demonstrieren. Heute nun wurde eine Demo gezeigt, in der die Aperture-Science-Robot-Repair-Demo auf einem System lief, das von einer Polaris-10-GPU befeuert wurde. Mit dieser Demonstration will AMD beweisen, dass die Herausforderungen an VR durch die kommende GPU-Generation gedeckt sein sollen und dazu durch eine Fertigung in 14 nm FinFET auch noch besonders sparsam sind. Weitere Details zu den GPUs mit Polaris-Architektur verriet man aber nicht.

Aktuell läuft die Präsentation von AMD auf der GDC noch und wir werden diesen Beitrag mit den neuen Erkenntnissen aus dieser Präsentation ergänzen.

Update:

Den Anfang der Präsentation verwendete AMD auf das, was uns in Zukunft erwarten wird und in dieser Zukunft soll der Bedarf nach GPU-Rechenleistung weiter exponentiell ansteigen. Dazu beitragen soll auch das Thema Virtual Reality. Immer höher auflösende Displays sind der treibender Faktor hinter dieser Entwicklung.

AMD Capsaicin-Event auf der GDC
AMD Capsaicin-Event auf der GDC

Außerdem gibt AMD einen Ausblick auf die zukünftigen GPU-Architekturen und hier fällt auch der Name der Generation nach Polaris, die Raja Koduri, Leiter der Radeon Technologies Group bereits in einem Interview entfleuchte - Vega. Vega soll der Roadmap zufolge bereits zum Jahreswechsel erscheinen und HBM2 wird als wichtigste Neuerung aufgeführt. Dies lässt den Rückschluss zu, dass Polaris noch nicht auf HBM2 setzen wird. Auf Vega soll 2018 Navi folgen. Hier sollen die Skalierbarkeit von Multi-GPU und die nächste Speichertechnologie eine Rolle spielen. Was nach HBM2 kommen wird, steht aber noch in den Sternen.

AMD Capsaicin-Event auf der GDC
AMD Capsaicin-Event auf der GDC

Die Demonstration der Polaris-Architektur beschränkte sich auf eine kurze Spielszene im neuen Hitman, die auf einer Polaris-10-GPU gerendert wurde. Bei Polaris 10 handelt es sich um die kleinere der beiden Polaris-Varianten. Hitman wurde natürlich in der DirectX-12-API ausgeführt. Darüber hinaus gab es keinerlei Informationen. Robert Hallock, Chef des technischen Marketings bei AMD, stellte per Twitter klar, dass es sich um die erste Livedemo von Polaris 10 handelte, während auf der CES Polaris 11 in Aktion zu sehen war.

Social Links

Kommentare (89)

#80
Registriert seit: 13.10.2005
Magdeburg
Admiral
HWLUXX Superstar
Beiträge: 17832
Zitat BrahmandYaatra;24519389
GTAV benötigte bei mir zum Beispiel 6,5 GB im Schnitt auf einer Titan X


das dir das spiel 6,5gb vram belegt bedeutet nicht zwangsweise das es so viel vram auch benötigt.

ich sehe es aber auch so das 4gb vram bei der pro duo alles andere als optimal sind, gerade bei dem preis.
#81
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Wann löst man sich denn endlich mal von dem Märchen, dass in erster Linie die Auflösung und/oder AA für den VRAM Bedarf verantwortlich ist?
Das ist ein Überbleibsel aus den Anfängen der 3D Grafik. Wo es Grafikkarten mit 2, 4, vielleicht 8MB Speicher gab und dieser Speicherausbau maßgeblich dafür verantwortlich war, wie hoch man die Auflösung einstellen konnte...
Heute läuft der Hase doch etwas anders... Da gibt es einen Verbrauch in der Basis, dass sind Daten vom Spiel/der Engine in einer gewissen Höhe. Dann gibt es einen riesigen Block von Texturdaten, welche idR gestreamt werden, sprich anhand der Playerposition/des Sichtfeldes des Spielers variabel sind. Und es gibt ein paar "Schalter" im Spiel, die für Mehr/Minderverbrauch des Speichers zuständig sind.
Die Auflösung hat heute einen sehr geringen Einfluss auf den echten Bedarf. Echter Bedarf meint dabei, das, was zwingend notwendig ist, damit überhaupt anständige FPS Raten bei rum kommen... Sofern sichergestellt ist, dass durch Texturstreaming die Änderungrate beim Bewegen des Sichtfeldes abgefedert werden kann, dann bleibt das idR auch über die Spielzeit so.
Nicht das wir uns falsch verstehen. Die Auflösung lässt durchaus den Speicherverbrauch varieren. Aber in Relation zur Pixelanzahl ist das ein Witz. 4x so viele Pixel, wie von FHD auf UHD macht vielleicht 10-30% mehr Verbrauch aus. Absolut gesehen, bei 4GB Basis Verbrauch wären das zwar immerhin 400-1200MB, aber eben in Relation zu 4x so vielen Bildpunkten ist das lachhaft wenig.
Das Argument mit der Auflösung hält sich wohl deswegen noch, weil diese paar wenigen MB mehr Speicher möglicherweise den Ausschlag zwischen spielbar und unspielbar bringen können. Wenn 4GB gerade so reinpassen und man legt 800MB drauf, dann wird das nicht aufgehen ohne mindestens mal unruhige Frametimes. Natürlich knickt bei 4x so vielen Bildpunkten die FPS Rate um Faktor 2-3 ein und damit wird das Spiel möglicherweise sogar unspielbar. Aber das liegt dann eben NICHT am VRAM.

Das Problem, was wir heute haben, die Texturdetailqualität ist einstellbar. Das ist ein Fluch und Segen zugleich. Man kann sie runter drehen -> dann gibts idR Matsche Patsche Texturen, oder man kann sie hoch drehen, dann werden die Texturen idR höher aufgelöst. Und das völlig Auflösungsunabhängig und vor allem, völlig unabhängig der GPU Power. Die kleinsten GPUs mit ausreichend Speicher können "Ultra" Texturen spielend abdecken. Die schnellsten GPUs ohne ausreichend Speicher aber zum Teil auch nicht. Ein gewisses Verhältnis zwischen GPU Leistung und Speichergröße ist zwar zu erkennen. Aber es ist nicht fix... Das Verhältnis wird durch verbreitete Produkte am Markt bestimmt. Und nicht durch Auflösungen oder sonstwas... Gängige Produkte am Markt mit wenig Speicher lassen Spieletitel mit "wenig" Speicherbedarf erscheinen. Gängige Produkte am Markt mit viel Speicher ziehen Spieletiteln mit viel Bedarf nach sich.

Der Sprung, den man 2016 sehen wird, wird gewaltig sein. Heute, vor diesen neuen Generationen haben wir GPUs mit 2-4 GB im Mittelfeld. Obenraus 4-6, Hawaii gar mit 8GB. Die kommende Generation wird dort Faktor 2 anlegen. Das untere Mittelfeld wird wohl mindestens 4GB, vielleicht gleich 8GB Speicher erhalten. Die größeren Modelle mindestens 8GB. HighEnd (2017?) wohl nochmals mehr. 12-16GB je nach Typ des Speichers sind nicht ausgeschlossen.
Lasst einfach ein paar Monate ins Land gehen und die Spieletiteln mit 5, 6, 8GB und mehr Speicherverbrauch bei vollen Texturdetails werden folgen... Dann sieht es ziemlich dünster aus mit Karten, welche da nicht mithalten können. Das trifft Fiji mit 4GB genau so wie die GM204 mit 4GB. Schlimmer noch die 970er mit nichtmal 4GB bei voller Beanspruchung.
#82
customavatars/avatar117663_1.gif
Registriert seit: 04.08.2009

Bootsmann
Beiträge: 651
Zitat fdsonne;24520099
Wann löst man sich denn endlich mal von dem Märchen, dass in erster Linie die Auflösung und/oder AA für den VRAM Bedarf verantwortlich ist?
Das ist ein Überbleibsel aus den Anfängen der 3D Grafik. Wo es Grafikkarten mit 2, 4, vielleicht 8MB Speicher gab und dieser Speicherausbau maßgeblich dafür verantwortlich war, wie hoch man die Auflösung einstellen konnte...
Heute läuft der Hase doch etwas anders... Da gibt es einen Verbrauch in der Basis, dass sind Daten vom Spiel/der Engine in einer gewissen Höhe. Dann gibt es einen riesigen Block von Texturdaten, welche idR gestreamt werden, sprich anhand der Playerposition/des Sichtfeldes des Spielers variabel sind. Und es gibt ein paar "Schalter" im Spiel, die für Mehr/Minderverbrauch des Speichers zuständig sind.
Die Auflösung hat heute einen sehr geringen Einfluss auf den echten Bedarf. Echter Bedarf meint dabei, das, was zwingend notwendig ist, damit überhaupt anständige FPS Raten bei rum kommen... Sofern sichergestellt ist, dass durch Texturstreaming die Änderungrate beim Bewegen des Sichtfeldes abgefedert werden kann, dann bleibt das idR auch über die Spielzeit so.
Nicht das wir uns falsch verstehen. Die Auflösung lässt durchaus den Speicherverbrauch varieren. Aber in Relation zur Pixelanzahl ist das ein Witz. 4x so viele Pixel, wie von FHD auf UHD macht vielleicht 10-30% mehr Verbrauch aus. Absolut gesehen, bei 4GB Basis Verbrauch wären das zwar immerhin 400-1200MB, aber eben in Relation zu 4x so vielen Bildpunkten ist das lachhaft wenig.
Das Argument mit der Auflösung hält sich wohl deswegen noch, weil diese paar wenigen MB mehr Speicher möglicherweise den Ausschlag zwischen spielbar und unspielbar bringen können. Wenn 4GB gerade so reinpassen und man legt 800MB drauf, dann wird das nicht aufgehen ohne mindestens mal unruhige Frametimes. Natürlich knickt bei 4x so vielen Bildpunkten die FPS Rate um Faktor 2-3 ein und damit wird das Spiel möglicherweise sogar unspielbar. Aber das liegt dann eben NICHT am VRAM.

Das Problem, was wir heute haben, die Texturdetailqualität ist einstellbar. Das ist ein Fluch und Segen zugleich. Man kann sie runter drehen -> dann gibts idR Matsche Patsche Texturen, oder man kann sie hoch drehen, dann werden die Texturen idR höher aufgelöst. Und das völlig Auflösungsunabhängig und vor allem, völlig unabhängig der GPU Power. Die kleinsten GPUs mit ausreichend Speicher können "Ultra" Texturen spielend abdecken. Die schnellsten GPUs ohne ausreichend Speicher aber zum Teil auch nicht. Ein gewisses Verhältnis zwischen GPU Leistung und Speichergröße ist zwar zu erkennen. Aber es ist nicht fix... Das Verhältnis wird durch verbreitete Produkte am Markt bestimmt. Und nicht durch Auflösungen oder sonstwas... Gängige Produkte am Markt mit wenig Speicher lassen Spieletitel mit "wenig" Speicherbedarf erscheinen. Gängige Produkte am Markt mit viel Speicher ziehen Spieletiteln mit viel Bedarf nach sich.

Der Sprung, den man 2016 sehen wird, wird gewaltig sein. Heute, vor diesen neuen Generationen haben wir GPUs mit 2-4 GB im Mittelfeld. Obenraus 4-6, Hawaii gar mit 8GB. Die kommende Generation wird dort Faktor 2 anlegen. Das untere Mittelfeld wird wohl mindestens 4GB, vielleicht gleich 8GB Speicher erhalten. Die größeren Modelle mindestens 8GB. HighEnd (2017?) wohl nochmals mehr. 12-16GB je nach Typ des Speichers sind nicht ausgeschlossen.
Lasst einfach ein paar Monate ins Land gehen und die Spieletiteln mit 5, 6, 8GB und mehr Speicherverbrauch bei vollen Texturdetails werden folgen... Dann sieht es ziemlich dünster aus mit Karten, welche da nicht mithalten können. Das trifft Fiji mit 4GB genau so wie die GM204 mit 4GB. Schlimmer noch die 970er mit nichtmal 4GB bei voller Beanspruchung.

tl:dr
Es geht primär um die Bandbreite.
#83
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Es zwingt dich keiner den Text zu lesen... Sollte man vielleicht aber, wenn man nicht immer den Märchen der Vergangenheit nachhängen will.
Und nein, es geht/ging nicht um Bandbreite, sondern um Bedarf nach VRAM Größe in Abhängigkeit der Auflösung -> das war zumindest die Behauptung.
#84
customavatars/avatar117663_1.gif
Registriert seit: 04.08.2009

Bootsmann
Beiträge: 651
Hab nicht über die Behauptung geredet... Sondern was der Flaschenhals wirklich ist.
#85
Registriert seit: 01.01.1970


Beiträge:
Zitat fdsonne;24520099
Wann löst man sich denn endlich mal von dem Märchen, dass in erster Linie die Auflösung und/oder AA für den VRAM Bedarf verantwortlich ist?
Das ist ein Überbleibsel aus den Anfängen der 3D Grafik. Wo es Grafikkarten mit 2, 4, vielleicht 8MB Speicher gab und dieser Speicherausbau maßgeblich dafür verantwortlich war, wie hoch man die Auflösung einstellen konnte...
Heute läuft der Hase doch etwas anders... Da gibt es einen Verbrauch in der Basis, dass sind Daten vom Spiel/der Engine in einer gewissen Höhe. Dann gibt es einen riesigen Block von Texturdaten, welche idR gestreamt werden, sprich anhand der Playerposition/des Sichtfeldes des Spielers variabel sind. Und es gibt ein paar "Schalter" im Spiel, die für Mehr/Minderverbrauch des Speichers zuständig sind.
Die Auflösung hat heute einen sehr geringen Einfluss auf den echten Bedarf. Echter Bedarf meint dabei, das, was zwingend notwendig ist, damit überhaupt anständige FPS Raten bei rum kommen... Sofern sichergestellt ist, dass durch Texturstreaming die Änderungrate beim Bewegen des Sichtfeldes abgefedert werden kann, dann bleibt das idR auch über die Spielzeit so.
Nicht das wir uns falsch verstehen. Die Auflösung lässt durchaus den Speicherverbrauch varieren. Aber in Relation zur Pixelanzahl ist das ein Witz. 4x so viele Pixel, wie von FHD auf UHD macht vielleicht 10-30% mehr Verbrauch aus. Absolut gesehen, bei 4GB Basis Verbrauch wären das zwar immerhin 400-1200MB, aber eben in Relation zu 4x so vielen Bildpunkten ist das lachhaft wenig.
Das Argument mit der Auflösung hält sich wohl deswegen noch, weil diese paar wenigen MB mehr Speicher möglicherweise den Ausschlag zwischen spielbar und unspielbar bringen können. Wenn 4GB gerade so reinpassen und man legt 800MB drauf, dann wird das nicht aufgehen ohne mindestens mal unruhige Frametimes. Natürlich knickt bei 4x so vielen Bildpunkten die FPS Rate um Faktor 2-3 ein und damit wird das Spiel möglicherweise sogar unspielbar. Aber das liegt dann eben NICHT am VRAM.

Das Problem, was wir heute haben, die Texturdetailqualität ist einstellbar. Das ist ein Fluch und Segen zugleich. Man kann sie runter drehen -> dann gibts idR Matsche Patsche Texturen, oder man kann sie hoch drehen, dann werden die Texturen idR höher aufgelöst. Und das völlig Auflösungsunabhängig und vor allem, völlig unabhängig der GPU Power. Die kleinsten GPUs mit ausreichend Speicher können "Ultra" Texturen spielend abdecken. Die schnellsten GPUs ohne ausreichend Speicher aber zum Teil auch nicht. Ein gewisses Verhältnis zwischen GPU Leistung und Speichergröße ist zwar zu erkennen. Aber es ist nicht fix... Das Verhältnis wird durch verbreitete Produkte am Markt bestimmt. Und nicht durch Auflösungen oder sonstwas... Gängige Produkte am Markt mit wenig Speicher lassen Spieletitel mit "wenig" Speicherbedarf erscheinen. Gängige Produkte am Markt mit viel Speicher ziehen Spieletiteln mit viel Bedarf nach sich.

Der Sprung, den man 2016 sehen wird, wird gewaltig sein. Heute, vor diesen neuen Generationen haben wir GPUs mit 2-4 GB im Mittelfeld. Obenraus 4-6, Hawaii gar mit 8GB. Die kommende Generation wird dort Faktor 2 anlegen. Das untere Mittelfeld wird wohl mindestens 4GB, vielleicht gleich 8GB Speicher erhalten. Die größeren Modelle mindestens 8GB. HighEnd (2017?) wohl nochmals mehr. 12-16GB je nach Typ des Speichers sind nicht ausgeschlossen.
Lasst einfach ein paar Monate ins Land gehen und die Spieletiteln mit 5, 6, 8GB und mehr Speicherverbrauch bei vollen Texturdetails werden folgen... Dann sieht es ziemlich dünster aus mit Karten, welche da nicht mithalten können. Das trifft Fiji mit 4GB genau so wie die GM204 mit 4GB. Schlimmer noch die 970er mit nichtmal 4GB bei voller Beanspruchung.


Das habe ich schon prophezeit, bei der neuen Titan gehe ich sogar von 32 GB aus. Karten wie die 970, 980 und Fury werden sterben, gerade aber die 970, da dann selbst eine Mittelklassekarte mehr VRAM hat (Obwohl dies aktuell mit den 960 und 380X schon der Fall ist), die kommende Mittelklasse dürfte aber locker 4-6 GB haben, Einsteigerkarten 4, GP102 / Vega um die 16.
#86
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8676
Oh wie jetzt soll es doch eine 4K Karte sein.:haha:
#87
Registriert seit: 01.01.1970


Beiträge:
Und trotzdem alles andere als 60 FPS... Dafür über 1000 €? Selbst 2 Titans schaffen das nicht.
#88
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8676
Wollte eigentlich nur auf die 2×4GB hinaus.
#89
customavatars/avatar117663_1.gif
Registriert seit: 04.08.2009

Bootsmann
Beiträge: 651
Benchmarks

W
a
n
n
?
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]