> > > > AMD demonstriert Polaris-System

AMD demonstriert Polaris-System

Veröffentlicht am: von

amd radeon 2013Anfang Dezember zeigte AMD ausgewählten Pressevertretern erstmals eine der neuen GPUs auf Basis der neuen Polaris-Architektur. Hinter verschlossenen Türen war gar ein Blick auf die GPU selbst möglich, auch wenn der Erkenntnisgewinn daraus begrenzt sein dürfte. Auf der CES hatten wir nun auch die Möglichkeit einen Blick darauf zu werfen, Fotos waren natürlich nicht erlaubt. In einer kleinen Box waren zwei Chips zu sehen, zu denen aber keinerlei technische Daten verraten wurden. Erstmals aber gab es nun wohl zwei unterschiedliche GPUs zu sehen, eine etwas größere im Package einer Mittelklasse-GPU für den Desktop und eine weitere, die eher den Notebook-GPUs zugeordnet werden kann.

Für die etwas größere Desktop-GPU kann festgehalten werden, dass sich kein High Bandwidth Memory mit im Package befindet. Wie erwartet wird dieser auch bei den neuen GPUs zunächst einmal den High-End-Karten vorbehalten bleiben – da es sich bei den gezeigten GPUs nicht um die High-End-Varianten handelt, ist hier auch kein HBM auf einem Interposer zu erkennen. Neben dem HBM selbst ist die Interposer-Technologie bzw. die Fertigung sicherlich die größte technische Neuerung der Fiji-Karten aus dem Sommer des vergangenen Jahres. Aus dem was AMD bisher zur Polaris-Architektur bekanntgemacht hat, geht auch hervor, dass am Speichercontroller gearbeitet wurde und dieser eine Speicherkomprimierung bekommen wird. GDDR5 oder GDDR5X wird also in der kommenden Generation eine Rolle spielen, zumindest in der Mittelklasse. Wie gesagt, ansonsten erlaubt ein Blick auf eine GPU im eigentlichen Sinne keinen Erkenntnisgewinn. Da Fotos nicht erlaubt waren und nur ein kurzer Blick möglich war, können wir auch aus den aufgedruckten Markierungen nichts ableiten.

Polaris-Architektur im EinsatzPolaris-Architektur im Einsatz

Polaris-Architektur im Einsatz

Der aus der Vorstellung der Polaris-Architektur bekannte Vergleich zwischen einer neuen AMD-GPU und einer aktuellen von NVIDIA war aber auch auf der CES zu sehen. Es handelt sich dabei um ein System mit Intel Core i7-4790K, 4x 4 GB DDR4-2600 sowie ein Windows 10 64 Bit, auf dem Star Wars: Battlefront läuft. Auf der einen Seite kommt eine unbekannte GPU auf Basis der Polaris-Architektur zum Einsatz, auf der andere ist eine GeForce GTX 950 verbaut. Star Wars: Battlefront wurde natürlich in den exakt gleichen Einstellungen ausgeführt und die FPS wurden auf 60 FPS beschränkt. Während das System mit NVIDIA-GPU auf einen Verbrauch von 152 W kommt, verbleibt das Polaris-System bei etwa 85 W. Damit möchte AMD die hohe Effizienz der Polaris-Architektur sowie der deutlich kleineren Fertigung verdeutlichen.

Laut AMD befinden sich der Treiber sowie die Firmware auf der Karte aber noch in einem recht frühen Stadium. So sollen etwas nur 25 % der Stromsparmechanismen aktiv gewesen sein. Diese greifen nicht nur im Idle-Betrieb, sondern sollen auch bei mittlerer Last dafür sorgen, dass die GPU nur so viel Strom verbraucht, wie notwendig ist. So werden moderne GPUs längst nicht mehr mit einer einheitlichen Betriebsspannung innerhalb der einzelnen Komponenten betrieben. Sogenannte Multi Voltage Islands trennen die Bereiche unterschiedlicher Spannung ab. Diese benötigen dann natürlich wieder eigene Spannungscontroller, was einen zusätzlichen Aufwand bedeutet. Über diese Maßnahmen können bestimmte Bereiche der GPU auch mit unterschiedlichen Taktraten betrieben oder sogar komplett abgeschaltet werden. Über solche Maßnahmen lässt sich zwar die Gesamtleistungsaufnahme reduzieren und die Effizienz erhöhen, allerdings hilft dies nicht direkt eine Mehrleistung aus der Architektur zu entwickeln. Eben solche Bereiche wie Multi Voltage Islands, Clock Gating, Back BIAS sind demnach noch nicht voll aktiv.

Es bleibt aber dabei: Das was AMD bisher angekündigt und gezeigt hat, ist erst einmal nur ein Versprechen, ein letztendlicher Beweis der Leistungsfähigkeit und Effizienz steht noch aus. Die ersten Grafikkarten auf Basis der Polaris-GPUs sollen Mitte 2016 erscheinen.

HDR (links) gegen klassische Darstellung (rechts)
HDR (links) gegen klassische Darstellung (rechts)

Noch vor Weihnachten kündigte AMD ein Update für HDMI, DisplayPort sowie die Darstellung in HDR an. Auch hierzu gab es eine Demo, in der eine HDR-Darstellung mit einer klassischen Ausgabe über den Fernseher verglichen wurde. Die größere Dynamik wirkt auf den ersten Blick etwas künstlich, kann nach ein paar Minuten aber mehr als überzeugen und könnte den Weg zurück auf die klassische Darstellung schwierig machen. Gegen Mitte 2016 erwartet AMD die Verfügbarkeit erster Monitore mit Unterstützung für 10 Bit und HDR – einige wenige beherrschen diese bereits heute, sind aber für den Endkunden nicht erschwinglich. Man sieht die Vorteile bei der Darstellung aber nicht bei Videos, sondern vor allem bei Spielen. Hier ließe sich HDR auch sehr einfach implementieren. AMD spricht von nur wenigen Anpassungen, die je nach Spiel und Engine nur eine Woche benötigen.

HDR, DisplayPort 1.3 und HDMI 2.0a werden im aktuellen Jahr für AMD eine große Rollen spielen. Es wird allerdings noch einige Monaten dauern, bis die dazugehörige Hardware verfügbar ist.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (33)

#24
customavatars/avatar12016_1.gif
Registriert seit: 21.07.2004
Wien
Flottillenadmiral
Beiträge: 5850
Zitat ChuckN0rris;24221246
Dass die Geschwindigkeit nicht mehr stark gesteigert werden kann, wage ich zu bezweifeln.

Bzgl. GPUs hat das auch niemand gesagt. Da geht es noch immer ordentlich voran, allerdings eben meist aufgrund der "Breite", sprich Shaderanzahl (sowie Textureinheiten und Renderoutputs) und auch der Taktsteigerung.
Sieh Dir die letzten Generationen an, bei nV sind wir z.B. von einer 9800 GTX (128:64:16 Shader:TextureMUnits:RasterOPs) und 675MHz GPU Takt auf aktuell bei einer GTX 980 (2048:128:64) 1126MHz (base) GPU Takt gekommen. Und dazwischen gab' es wie gesagt entweder mehr Shader, TMUs und ROPs und/oder mehr Takt. Speichergeschwindigkeiten sind eigentlich auch stetig gestiegen und/oder die Anbindung und das alles unabhänig von den Architekturänderungen welche wohl ebenfalls Vorteile wie neue Features etc. mit sich brachten.

Nur irgendwann wird man auch bei GPUs mit der Fertigung nur noch schwer und teuer kleiner werden können. Sieh Dir an wie lange nV und AMD nun schon auf 28nm herumgurken. Bei nV seit Anfang 2012 (also bald 4 Jahre) z.B. GTX 680 und bei AMD sogar etwas früher mit Anfang Jän 2012 z.B. HD 7970. Davor waren die Abstände definitinv kürzer.

Und Du sprichst es ja schon an, Leistungsaufnahme und Abwärme sind halt ein großes Thema. Und irgendwann wird man entweder sehr lange auf einer Fertigung verharren oder mit aktuellen Technologien nicht mehr kleiner fertigen können und dann kann man mehr Leistung eigentlich nur noch durch Breite, Takt oder eventuell neuen Architekturen erreichen. Das wird dann schwer wenn man nicht gleichzeitig eben die Leistungsaufnahme und dadurch Abwärme erhöht.

Bei den CPUs sieht man es mMn seit Sandy Bridge recht deutlich. Hier kommt noch dazu daß nicht einfach beliebig viele Kerne auf eine CPU geschnallt werden können und sich die Leistung stetig erhöht da ordinäre Software wie Spiele, Office Anwendungen sowie Browser & Co das nicht oder nur moderat nutzen. Spezielle Anwendungen gerade im Server oder Workstation Umfeld können natürlich Gebrauch von vielen Kernen machen und da hat man nach wie vor ordentliche Leistungssteigerungen.
Mit den Taktraten geht es jedoch sehr schleppend voran, und hier vermute ich eben daß effizient nicht viel mehr als 4 bis 4,5GHz drin sind, je nach Architektur. Sieh Dir die FX-9xxx CPUs an. Oder übertakte einen Sandy, Ivy, Haswell oder Skylake. Wenn da welche bis 5GHz gehen sind die deutlich ineffizienter als bei sagen wir 4GHz.

Zitat ChuckN0rris;24221246

Das Problem ist eher, dass das immer mehr zu Lasten von Abwärme, Platz und Leistungsaufnahme geht. Gerade aber kleine Hardware mit niedriger Leistungsaufnahme wird vermehrt vom Markt gewünscht - und das ist auch gut so.

Wir waren vor 10 Jahren schon bei 150-200W Leistungsaufnahme - das schafft man auch heute bei einem midrange Gaming-Rechner, allerdings bei wesentlich mehr Rechenleistung. So wie heute jedes halbwegs normale Smartphone wesentlich leistungsstärker ist, als die PCs vor 1-2 Dekaden.

Es gab eine Zeit wo die PCs immer Strom hungriger wurden. Sieht man sich AT Netzteile an waren dort meist so zwischen 200-250W üblich. Die kleinen vollgepackten Gehäuse mit zig Breitbandkabel hatten auch oft keinen bzw. nur den Netzteillüfter um Abwärme ab zu transportieren. Erst mit den schnelleren 486ern wurden CPU Kühler (passiv und aktiv) zum Quasi Standard und Grafikkarten hatten noch lange keine Kühlkörper geschweige denn aktive Kühlungen. Dann ging es rasch voran, das Mainboard brauchte eine höhere Stromversorgung (wg. CPU) -> ATX 20 Pin dann zusätzlich den 4 Pin ATX 12V Stecker -> dann 24 Pin ATX usw. GPUs bekamen extra Stromanschlüsse usw.
In den letzten Jahren rudert man doch immer wieder etwas zurück, was auch gut ist denn sonst hätte jeder von uns mind. ein 700W Netzteil im Rechner welches vielleicht auch immer wieder mal ausgelastet werden würde.
Also eine Zeit lang hat man mitunter auch mehr Leistung mit mehr Leistungsaufnahme bezahlt.
#25
Registriert seit: 09.09.2008

Flottillenadmiral
Beiträge: 5490
Amd lässt eine Demo auf ner Intel Platform laufen? :fresse:

Vermutlich stehen bei den entwicklern auch intel kiste in den büros :D
#26
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6982
Willkommen in Blitzmerkistan.^^ Wenn ich mich richtig erinnere wurden die Hawaii Benchmarks schon 2013 damals mit einem i7 gemacht.
Bei den GPUs sind sie Konkurrenzfähig, warum sollten sie dann in Ihren Demos und Benchmarks ihre eigene GPU schlechter dastehen lassen?^^

Je nach dem wie Zen wird, ändert sich das wohl Ende 2016/2017.
Vielleicht nutzen sie für die Grafikkarten Veröffentlichungen ja schon Zen Engineering Samples. So könnten sie ein Produktfeld auf den Markt bringen und den Hype für das nächste gleich anfeuern! :D
#27
Registriert seit: 03.11.2006
Bruneck (Südtirol)
Vizeadmiral
Beiträge: 7145
Upcoming changes in the next release:
Added preliminary support of AMD Ellesmere, Baffin, Greenland.

HWiNFO, HWiNFO32/64 - News
#28
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6982
Zitat Berni_ATI;24230409
Upcoming changes in the next release:
Added preliminary support of AMD Ellesmere, Baffin, Greenland.

HWiNFO, HWiNFO32/64 - News


Bitte was??
Sowas kommt doch meistens immer erst kurz vor Release?!

Das ist für mich ein deutlicher Indikator, dass die Serienproduktion für die 3 Chips schon in vollem Gange ist. :)
#29
Registriert seit: 03.11.2006
Bruneck (Südtirol)
Vizeadmiral
Beiträge: 7145
Jupp, denke schlagen Ende Februar auf, zur Cebit Launch der R9 390 Ablöse, daher auch die 4GB R9 390-er Karten nun!
#30
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6982
Ok also ich rechne mit März / April mit Baffin 480(X) und oder Ellesmere 470(X) und dann Juni Greenland 490(X).
Da es ein komplett neues Chip-Portfolio wird, glaube ich nicht das die wieder so eine Titan/Fury Gruppe machen, maximal für dual GPU!


Von mir aus könnte Greenland aber gerne schon Februar kommen, von mir aus auch teurer das wär mir dann egal! xD
#31
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11841
Das wäre klasse.. Dann sind die Karten zeitig zum Erscheinen der VR Brillen im Sommer bereits auf brauchbares Preisniveau gesunken :)
Allerdings teasert AMD doch normalerweise etwas mehr wenn nur 2 Monate bis zum Release wären...
#32
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 6982
Ach das wäre doch auch ein Mega PR Streich, so mitten aus dem nichts die Generation die alles aktuelle fertig macht zu bringen. :D
Twittermeldung: "Jo Leute hier die neue Generation, nächste Woche im Handel" BÄÄÄM
#33
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11841
Das würde uns "Nerds" sicher reizen... aber bei der breiten Masse welche nicht die Foren verfolgt, ist es wahrscheinlich effizienter über längere Zeit, potentielle Kunden zu sammeln.
Allerdings ist PR ja auch nicht AMD's größte Stärke :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Gigabyte GeForce GTX 1080 Ti AORUS im Test

Logo von IMAGES/STORIES/LOGOS-2017/GIGABYTE-GTX1080TI-AORUS-LOGO

Bei den Grafikkarten scheint sich derzeit alles auf den High-End-Markt zu konzentrieren, denn besonders NVIDIA ist mit der Titan Xp und den Custom-Modellen der GeForce GTX 1080 Ti hier sehr gut aufgestellt. Heute nun wollen wir uns die Gigabyte GeForce GTX 1080 Ti AORUS einmal genauer anschauen,... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]