TEST

4K-Gaming

AMD gegen NVIDIA - Wer ist bereit für die Zukunft? - Eine erste Einschätzung

Portrait des Authors


Werbung

Ja, die ersten Displays sind am Markt und ja, man muss sich nun nicht mehr vor einen 40 Zoll Monitor setzen, um in den Genuss der UltraHD-Auflösung zu kommen. Doch beinahe die komplette Infrastruktur für 4K fehlt - gerade im Hinblick auf Spieler. Zwar sind die meisten Grafikkarten in der Lage über ihre Ausgänge die volle 4K-Auflösung zu bedienen, allerdings reicht es bei einem HDMI-Anschluss schon nicht mehr für die vollen 60 Hz. Die Auswege heißen DisplayPort und Dual-HDMI, doch bis hier volle 60 Hz über den Bildschirm flimmern, muss sich der Nutzer durch die Treiber-Menüs und Windows-Einstellungen kämpfen. Wer heute schon auf 3.840x2.160 Pixel spielen möchte, hat nicht nur einen gewaltigen finanziellen Kraftakt zu bewältigen, sondern muss sich auch mit mehr oder weniger improvisierter Hard- und Software herumplagen.

Kommen wir nun aber zum eigentlich Kern dieses Artikels zurück: Mit welcher Grafikkarte und dem dazugehörigen Ökosystem bin ich eher auf 4K vorbereitet, AMD oder NVIDIA? Die Antwort fällt eigentlich sehr eindeutig aus: Auf Basis der aktuellen Treiber-Situation und dem Support über den VESA-Standard steht NVIDIA besser da. AMD hat momentan damit zu kämpfen, dass Treiber und 4K-Display nicht wirklich etwas voneinander wissen wollen. Dies macht die Konfiguration schwierig. Weiterhin hat AMD bei einem einzigen Display seine Multi-GPU-Probleme zwar in den Griff bekommen, durch den speziellen Aufbau des 4K-Displays wird man hier aber vor neue Probleme gestellt, die zumindest mit den aktuellen Treibern nicht zu lösen sind.

Schaut man sich nur die Hardware an, so bleibt festzuhalten, dass sowohl AMD wie auch NVIDIA derzeit Karten am Markt haben, die grundsätzlich in der Lage sind, ein 4K-Display zu bedienen. Wir haben die Tests mit jeweils zwei GeForce GTX 780 und Radeon HD 7970 durchgeführt. Allerdings erreichten auch eine GeForce GTX Titan und Radeon HD 7990 akzeptable Frameraten. Bei der Anschaffung eines 3.500 Euro teuren Displays sollte also noch etwas Budget für die dazugehörige Grafikkarte freigelassen werden.

[figure image=images/stories/galleries/reviews/2013/4k-fcat/4k-screenshot-tomb-rs.jpg link=http://download.hardwareluxx.de/sonstiges/aschilling/4k-fcat/4k-screenshot-tomb.jpg alt=4K-Screenshot von Tomb Raider]4K-Screenshot von Tomb Raider[/figure]

Zur Entschuldigung der Grafikkarten-Hersteller muss man allerdings auch sagen, dass die Voraussetzungen alles andere als günstig sind. Der HDMI-Standard 2.0 wurde gerade erst auf der IFA in Berlin vorgestellt. Bis zur Umsetzung in erster Consumer-Hardware vergehen teilweise noch Monate. Wir gehen allerdings davon aus, dass AMD bei seinen kommenden Grafikkarten mit "Hawaii"-GPU den Fokus stärker auf 4K legt - sowohl was den Anschluss des Displays angeht, als auch den Support durch den Treiber.

Allerdings sind nun nicht mehr nur die Hersteller der Grafikkarten in der Pflicht, sondern auch die Spielehersteller. In zwei Beispielen haben wir euch gezeigt, dass ohne korrekte Konfigurationsmöglichkeit auch ein aktuelles Spiel wie Metro: Last Light oder Battlefield 3 nicht auf die UltraHD-Auflösung und deren Umsetzung vorbereitet sind. Allerdings müssen sie sich diesen Schuh wohl auch mit den Treiber-Entwicklern anziehen lassen.

Wir befinden uns gerade erst am Anfang einer neuen Entwicklung, die zwar offensichtlich erscheint, aber wohl noch einiger Anstrengungen bedarf. Wer bereits heute in diesen visuellen Genuss kommen möchte, kann dies tun. Allerdings wird es noch einige Monate dauern, bis wir auch nur annähernd von einer massentauglichen technischen und finanziellen Umsetzung sprechen können.

Quellen und weitere Links KOMMENTARE (88) VGWort