> > > > AMD arbeitet auch an einem GDDR6-Speicherinterface

AMD arbeitet auch an einem GDDR6-Speicherinterface

Veröffentlicht am: von

amd logoModerne GPUs sind auf eine schnelle Anbindung des dazugehörigen Speichers angewiesen. Die Entwicklung von High Bandwidth Memory ist vor allem aus diesem Umstand gestartet worden. Allerdings gab und gibt es bei der Fertigung von HBM noch immer Probleme – die Fertiger hängen bei den Auftragskapazitäten hinterher und auch die Geschwindigkeiten des Speichers sind noch lange nicht auf dem geplanten Niveau. Diese Auswirkungen hat wohl auch AMD mit dem eher mäßigen Start der Vega-Generation zu spüren bekommen.

Auf der anderen Seite hat sich NVIDIA klar positioniert: HBM bzw. HBM2 nur für die professionellen Beschleuniger, GDDR5 bzw. GDDR5X für die Consumer-Karten. An dieser Strategie wird man wohl auch mit der nächsten GPU-Generation bzw. Architektur festhalten, die den Namen Ampere tragen soll.

Doch auch bei AMD wird man sicherlich die Entwicklung des klassischen DDR-Grafikspeichers weiter verfolgt und nicht alle Ressourcen für HBM genutzt haben. Dies wird nun durch die Beschreibung des LinkedIn-Profil eines Mitarbeiter bestätigt. Dieser nennt als Principal Member of Technical Staff zu seinem Aufgabengebiet seit September 2015 unter anderem New DRAM controller: GDDR6.

Aber noch einmal: So wirklich überraschend ist dies eigentlich nicht, denn bei der Entwicklung einer GPU-Architektur müssen auch Eventualitäten wie eine parallele Entwicklung des Speichers mit bedacht werden, bei der es zu Verzögerungen kommen kann. Ein HBM-Speicherinterface ist auch komplexer zu integrieren als ein GDDR-Speicherinterace. All dies dürfte bei der Entwicklung mit einfließen.

Ob der Hinweis auf das Profil aber zugleich auch bedeutet, dass AMD im kommenden Jahr bei den High-End-Karten wieder auf GDDR-Speicher wechseln wird, bleibt abzuwarten. Micron, SK Hynix und Samsung wollen 2018 GDDR6-Grafikspeicher auf den Markt bringen. Pro Chip soll der Speicher dann eine Speicherbandbreite von 16 GBit/s erreichen können. Samsung hat dazu schon entsprechende technische Details verraten. SK Hynix präsentierte seine Umsetzung bereits zur GPU Technology Conference im Frühjahr.

Social Links

Ihre Bewertung

Ø Bewertungen: 4

Tags

Kommentare (46)

#37
Registriert seit: 09.09.2008

Flottillenadmiral
Beiträge: 5490
Zitat fdsonne;25993048

Effizienz ist ein Thema bei AMD, seit GCN ist das der Fall. Solange man einfach im Gamerbereich mehr Rohleistung für die gleiche Spieleperformance benötigt, wird man auch mehr Strom verbrauchen...


Nur dass das Problem zu GCN1 Zeiten (HD7x00) noch kein Problem war, da man ca. auf Augenhöhe mit Nvidia war.
#38
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33283
Zitat mastergamer;25993062
Nur dass das Problem zu GCN1 Zeiten (HD7x00) noch kein Problem war, da man ca. auf Augenhöhe mit Nvidia war.


3 Jahre nach Release stimmt das zweifelsfrei. Aber zu Release und damit zur Lebzeit der Hardware!?
Ne poplige 680er hat sich, wenn auch nur leicht, vor ne 7970 geschoben, AMD brachte darauf hin ne GHz Edition. Letztere hat mal schlappe 40% mehr ALU Rohpower als ne 680er. Und säuft gut und gerne 250W Stock. Ja ich weis, es gibt Customs, die um die 200W brauchen. Aber Bestcase vs. Worstcase zu vergleichen ist halt nicht zielführend. Die besten Customs der 680er brauchen halt auch weniger... Egal wie man es dreht.
Wäre NV wirklich in Zugzwang, hätte man die GK104 auch mit 4GB stock losschicken können. Dann wäre der VRAM Nachteil, der von Anfang an eine begrenzte Lebenszeit der Hardware bescheinigte, vom Tisch... Bei noch mehr Druck seitens AMD hätte man auch nen GK100 bringen können anstatt diese GPU zu verwerfen und die erste Umsetzung als GK110 für den Titan Super Computer only zu bauen und erst ~ 1 Jahr später mit GK110 teildeaktiviert als Titan zu kommen. So lief es aber nicht. Es reichte gut und gerne 1-1,5 Jahre ne GK104 aus um leistungstechnisch ggü. der deutlich fixeren Tahiti GPU zu bestehen.




Für mich ist es auf dauer nicht tragbar, dass AMD versucht alles mit einer GPU zu bauen. Das geht nicht mehr auf. Wie Vega klar zeigt... Viel GPU, aber wenig Gamingperformance. Da nutzen gute Ergebisse im Semi-Profi oder Profibereich halt auch nix in Sachen Gamer. Die kaufen dann halt NV. -> immer weniger Anteil für AMD, immer weniger Drang, da irgendwie AMD wirklich zu berücksichtigen bei der Spieleentwicklung.
Die ganzen Partnerschaften von AMD kommen ja nicht von ungefähr... Denen schwimmen die Fälle auf Dauer weg. Mal gucken was daraus wird. Low(er) Level APIs können nur gut für den Markt sein. Aber wenn AMD bei den GPUs immer mehr Boden verliert, wirds mit Pushen von Lower Level APIs immer schwerer. Wieso man sich aber die Hardware immer schön reden muss mit Rosinen, ist mir halt absolut rätzelhaft. Vega ist lahm im Vergleich zur aufgebrachten Rohleistung. Und kann im Schnitt bestenfalls mit Vulkan/DX12/Mantle da was ändern. Gut muss man das nicht finden, vor allem nicht, wo es nur ein paar wenige Hände voll dieser Spiele gibt.
#39
Registriert seit: 26.04.2015

Bootsmann
Beiträge: 735
Zitat Pirate85;25993017
Okay, dann kaufen wir ab jetzt nur noch nVidia und warten darauf das AMD pleite geht.
Wollen wir ne Preiswette jetzt schon starten oder erst wenns soweit ist?


Ideologisches Einkaufen interessiert die Mehrheit der Kunden nicht --> Siehe Linux und Windows. Da wird es auch nichts helfen, die Leistung falsch und realitätsfremd zu vergleichen, so wie du das vorschlägst. Ich hab mein ganzes Leben bis einschließlich zur 290X nur Ati / AMD Grakas gekauft, aber seit dem kommt nichts mehr brauchbares von dieser Firma für mich. Der Highend Markt ist schon praktisch nVidia Monopol, da brauchen wir nicht mehr warten und daran ist AMD absolut selbst schuld, da sie aktuell die selben Fehler bei Grafikkarten machen, wie sie bei Buldozer gemacht haben. Vega ist wie dir Fury, einfach nur ein Witz.
#40
Registriert seit: 10.03.2017

Bootsmann
Beiträge: 688
Zitat Pirate85;25992657
Was Vega leisten kann sieht man an Games wie Doom oder Wolfenstein, die auf aktuelle Schnittstellen setzen.

Ja, [U]rein theoretisch[/U] kann, wenn AMD jemanden dafür bezahlt das Spiel komplett auf die eigene Hardware zu optimieren. Wenn du wieder in der Realität bist, sag Bescheid. ;)

Zitat Pirate85;25992887
Was ist wohl mehr Indikator für Leistung? Eine offene Schnittstelle worauf jeder optimieren kann, oder nVidias fein säuberlich behüteten Bibliotheken verbaut in Dx11 Engines?

Du meinst Gameworks? Kannst du deaktivieren.
Meinst du mit den offenen Schnittstellen diese offenen Alibi-Technologien von AMD? Die sind komplett auf AMD-Hardware optimiert, da bringt dir Opensource absolut gar nichts. Nvidia bleibt trotzdem klar im Nachteil.

Zitat Pirate85;25993017
Okay, dann kaufen wir ab jetzt nur noch nVidia und warten darauf das AMD pleite geht.

Es steht dir frei das für dich schlechtere Produkt zu kaufen. Oder hat dich jemand dazu aufgefordert Nvidia zu kaufen?

Zitat mastergamer;25993062
Nur dass das Problem zu GCN1 Zeiten (HD7x00) noch kein Problem war, da man ca. auf Augenhöhe mit Nvidia war.

Doch, mit der 7970GHz wurde es langsam aber sicher zum Problem, zumindest kann man heute sagen, dass es sich dort angedeutet hat:
AMD Radeon HD 7970 GHz Edition im Test: Mit aller Macht an die Spitze (Seite 9) - ComputerBase
Zur 290X muss dann denke ich nichts mehr gesagt werden.
#41
Registriert seit: 09.09.2008

Flottillenadmiral
Beiträge: 5490
@ meinen GCN1 Post

stimmt, habe das aus heutiger Sicht betrachtet und außer acht gelassen dass das Performanceverhältnis zwischen HD7970 und GTX680 zu Release noch anders ausgefallen ist.

Somit revidiere ich meine Aussage.
#42
customavatars/avatar108709_1.gif
Registriert seit: 17.02.2009
Sachsen, Naunhof b. Leipzig
Admiral
Beiträge: 17766
Mantle, Vulkan und schlussendlich auch DX12 sind keine Alibi-Technologien (Jaja, DX12 ist von MS... :rolleyes: ). Wo bleibt denn nVidia komplett im Nachteil z.b. bei DX12? Weil sie Asynchronous Shaders noch nicht unterstützen, obwohl klar angegeben? (War mir nicht bewusst bis ich Sniper Elite 4 gezockt habe, was dauernd mit DX12 Fehler abgestürzt ist - abschalten der Asynchronous Shaders Funktion hat die Abstürze behoben).

Mir isses ehrlich gesagt völlig Bockwurst was im System läuft, sonst hätte ich nicht momentan mehr nVidias als AMDs im Haus.

Mich pieselt einfach nur dieses mimimi das ist schlecht und mimimi das ist auch schlecht an.

Es ist einfach Fakt das nVidia die absolute Marktmacht hat und auch dementsprechend optimiert wird - da etwas entgegenzusetzen ist einfach mal so gut wie unmöglich, vor allem dann wenn kein wirkliches Budget mehr da ist.
Genau das ist es auch, was deine eigene Aussage bezüglich "Spiel komplett auf die eigene Hardware zu optimieren" ad absurdum führt. Willkommen in meiner - der wirklichen - Realität. ;)

Von daher sehe ich es wirklich so das AMD früher oder später wohl auch - wie im CPU Markt zu Bulldozer Zeiten - erstmal ne Ruhige Schiene fahren werden wird, außer sie stampfen ne neue Architektur ausm Boden... :fresse:

Ich habe wie gesagt in dem System von dem ich grad schreib ne Vega drin, auch der komplette Rest ist von AMD, quasi - wie auch in der Systeminfo so bezeichnet - ne "Experience Plattform" ... und diese Erfahrung zeigt mir momentan einfach das ich mit dem System lieber arbeite als mit den beiden anderen.

Ich bin sehr wohl in "der Realität" - alleine dass das angezweifelt wird ist schon nen sehr klarer Indikator dafür wie hier einige Ticken...

Schon richtig geil, nur weil man nicht der Meinung wie die "Obrigkeiten" ist und nicht alles rabenschwarz sieht. Solche Zeiten hatte nVidia auch schon, mit der GTX 480... dennoch wurde sie bis aufs Messer verteidigt. nVidia hat daraus gelernt, wo sie jetzt sind sieht man... hoffentlich zieht AMD auch seine Lehren aus der aktuellen Misere...
#43
Registriert seit: 10.03.2017

Bootsmann
Beiträge: 688
Zitat Pirate85;25993712
Mantle, Vulkan und schlussendlich auch DX12 sind keine Alibi-Technologien (Jaja, DX12 ist von MS... :rolleyes: ). Wo bleibt denn nVidia komplett im Nachteil z.b. bei DX12? Weil sie Asynchronous Shaders noch nicht unterstützen, obwohl klar angegeben? (War mir nicht bewusst bis ich Sniper Elite 4 gezockt habe, was dauernd mit DX12 Fehler abgestürzt ist - abschalten der Asynchronous Shaders Funktion hat die Abstürze behoben).

Mantle durchaus. Es ist genauso wie z.B. TressFX (das meinte ich eigentlich) voll und ganz [U]von[/U] AMD [U]auf[/U] AMD optimiert. Da könnte Nvidia allenfalls neue angepasste GPUs entwickeln und bis die in der breiten Masse angekommen sind, hat AMD längst den nächsten Stolperstein ausgelegt. Das ist wie die Tesselation, die Nvidia in der Vergangenheit gerne hoch forciert hat, da man dort besser abgeschnitten hat. Das ist am Ende alles nur zum Nachteil des Kunden.

Zitat Pirate85;25993712
Mich pieselt einfach nur dieses mimimi das ist schlecht und mimimi das ist auch schlecht an.

Darf man seine begründete Unzufriedenheit etwa nicht mehr kundtun und muss alles so hinnehmen wie es einem vorgesetzt wird?

Zitat Pirate85;25993712
Es ist einfach Fakt das nVidia die absolute Marktmacht hat und auch dementsprechend optimiert wird - da etwas entgegenzusetzen ist einfach mal so gut wie unmöglich, vor allem dann wenn kein wirkliches Budget mehr da ist.
Genau das ist es auch, was deine eigene Aussage bezüglich "Spiel komplett auf die eigene Hardware zu optimieren" ad absurdum führt. Willkommen in meiner - der wirklichen - Realität. ;)

Es ist genauso Fakt, dass AMD zur aktuellen Situation einen großen Teil selbst beigetragen hat. Da darf man sich dann auch nicht beschweren von wegen "böser großer Konkurrent". Es gab Zeiten in denen beide etwa gleichauf waren, sowohl von der Leistung her als auch von den Marktanteilen.
AMD hat Bethesda für die Optimierungen in Wolfenstein 2 bezahlt. Die Vega exklusiven Features wurden da nicht aus Spaß eingebaut. Das ist Fakt. Und es gibt nur wenige Spiele, die derart auf Nvidia optimiert wurden. Deine Realität ist ein Wunschdenken, das, dass das jeder andere Hersteller auch macht, tatsächlich macht das praktisch niemand. War schon bei Mantle so. Oder was meinst du warum Vega im Schnitt so lahm ist? Voodoo Zauber von Nvidia? Das über was du sinnierst ist praktisch alles konjunktiv. Hätte, wäre, wenn, usw.
Die LL-APIs schieben den Spieleentwicklern viel Verantwortung in die Schuhe und oftmals kommen die damit nicht zurecht wie man an DX12 häufig gesehen hat. Wenn es sich AMD also einfach machen möchte indem sie Verantwortung abgeben, dann müssen sie auch sicherstellen, dass diese jemand annimmt. Sonst bleibt es beim Status quo.

Zitat Pirate85;25993712
Schon richtig geil, nur weil man nicht der Meinung wie die "Obrigkeiten" ist und nicht alles rabenschwarz sieht. Solche Zeiten hatte nVidia auch schon, mit der GTX 480... dennoch wurde sie bis aufs Messer verteidigt. nVidia hat daraus gelernt, wo sie jetzt sind sieht man... hoffentlich zieht AMD auch seine Lehren aus der aktuellen Misere...

Und mit der GTX460 und 500 Reihe haben sie sich zurückgemeldet, während sich AMD mal wieder auf dem Erfolg des Vorgängers ausgeruht hat. Mit der 7970 hat es dann wieder geklappt, nur um seit dem immer nur hinterherzuhinken. Bei CPUs erstaunliche Parallelen: nach dem tollen Athlon 64 kam nichts mehr, mit Bulldozer wurde ein totaler Tiefpunkt erreicht. Intel hatte sich nach dem Athlon64 hingesetzt, den Pentium 4 begraben und die Core Architektur entwickelt. Davon zehren sie noch heute. DAS ist der Unterschied zwischen AMD und deren Konkurrenz. Diese hat nur kurze Hänger. Nvidia mit der Geforce 5 und den ersten Fermis (die für mich nebenbei allesamt ein NoGo waren, inkl. der GTX465, habe dann bei der zweiten Fermi Generation zugeschlagen). Mit der nächsten Generation haben sie jedoch wieder zurückgeschlagen, während AMD immer längere Zeit in einem Tief ist und allenfalls mit Preisen punkten kann.
#44
Registriert seit: 27.05.2008
Simmerath 52152
Bootsmann
Beiträge: 587
Das amd zu gddr6 wechselt ist bitter nötig weil einfach HBM1/2 ein desaster ist
Lieferprobleme HBM1 zu geringe Speichergröße
teuer
Nur 2 hersteler die sich keine Preisschlacht liefern
geringe verfügbarkeit aufgrund von gpgpu markt (tesla quadro deep learning)
und hohe Produktionkosten was ein gamerabkömling die marge empfindlich auf null bringt

Amd hatte gedacht das mehr hersteller HBM produzieren was nicht geschehen ist.
was bleibt ist eine neuere gen gddr die sicherlich nvidia gefördert hat.
Poker verloren amd

Wo HBM sinnvoll ist notebooks apu, systemram auf itx
nur damit wird kein echter Gewinn gemacht weil der Markt dafür zu klein ist
Außer apple mit ihren ultra dinger gibt es keinen Massenmarkt.
#45
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Vizeadmiral
Beiträge: 6351
Zitat Pirate85;25992657

Edit @Phantomias88: Wie kommst du darauf dass das Patent für HBM bei Raja liegt? nVidia verwendet ihn auch bei ihren Volta Karten. :wink:

Gesendet von meinem STF-L09 mit Tapatalk

Stimmt, Nvidia nutzt es auch bei den Quadros! ;)

Hat irgendwie gepasst an der Stelle. :fresse:
Das Englische WiKi hat eine History drin:
Zitat
The development of High Bandwidth Memory began at AMD in 2008 to solve the problem of ever increasing power usage and form factor of computer memory. Amongst other things AMD developed procedures to solve the die stacking problems with a team led by Senior AMD Fellow Bryan Black. Partners from the memory industry (SK Hynix), interposer industry (UMC) and packaging industry (Amkor Technology and ASE) were obtained to help AMD realize their vision of HBM.[17] High volume manufacturing began at a Hynix facility in Icheon, Korea in 2015.

High Bandwidth Memory - Wikipedia
#46
Registriert seit: 17.10.2017

Obergefreiter
Beiträge: 77
Zitat Casillas;25989394
Lieferprobleme und Probleme mit Speicheranbindungen generell sind Unternehmen wie Intel und Nvidia völlig fremd.


Merkt man ja bei Coffe-Lake
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Gigabyte GeForce GTX 1080 Ti AORUS im Test

Logo von IMAGES/STORIES/LOGOS-2017/GIGABYTE-GTX1080TI-AORUS-LOGO

Bei den Grafikkarten scheint sich derzeit alles auf den High-End-Markt zu konzentrieren, denn besonders NVIDIA ist mit der Titan Xp und den Custom-Modellen der GeForce GTX 1080 Ti hier sehr gut aufgestellt. Heute nun wollen wir uns die Gigabyte GeForce GTX 1080 Ti AORUS einmal genauer anschauen,... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]