> > > > AMD präsentiert hUMA-Technologie

AMD präsentiert hUMA-Technologie

Veröffentlicht am: von

AMDAls Gründungsmitglied der HSA Foundation hat AMD seine neue Technologie namens „hUMA“ vorgestellt. Diese Technologie ermöglicht, dass der Speicheradressraum von GPU und CPU gleichzeitig genutzt werden können. Dies ist eins der Key-Features der HSA (Heterogeneous System Architecture). AMDs APU in Sonys Playstation 4 wird diese Technologie ebenfalls verwenden, die zu erheblichen Leistungssteigerungen führt, da ein hin- und herkopieren der Daten zwischen den verschiedenen Adressräumen entfällt.

Der Begriff „hUMA“ steht für Heterogeneous Uniform Memory Access“. Dies ist ein weiterer Schritt zur vollständigen Verschmelzung von CPU und GPU zur APU. AMD wird diese Technologie erstmals in ihren „Kaveri“ genannten APUs, die auf Steamroller Modulen basieren, verwenden. Durch hUMA werden keine speziellen APIs mehr benötigt, um bei normalen Rechenoperationen die Shader des Grafikparts mit einzubeziehen. Es können also Hochsprachen wie C++ genutzt werden. Dies soll abermals die Performance von Programmen, in die der Code eingebaut ist deutlich beschleunigen. AMDs Kaveri APUs sollen gegen Ende des Jahres released werden und basieren wie weiter oben schon erwähnt auf Steamroller Modulen. Diese zeichnen sich vor allem durch ein verbessertes Frontend und im Vergleich zu den Piledriver Modulen (2. Generation FX) einer verdoppelten Anzahl an Decodern aus. Als Grafikarchitektur wird GCN 2.0 zum Einsatz kommen. Die APUs sollen genauso wie ihre kleineren Geschwister auf Jaguar-Basis in 28nm gefertigt werden. Spekuliert wird, dass der 28nm FD-SOI Prozess von STMicroelectronics genutzt wird, den Globalfoundries in die Liste der Standardprozesse aufgenommen hat.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (16)

#7
customavatars/avatar40366_1.gif
Registriert seit: 19.05.2006
unterwegs
SuperModerator
Märchenonkel
Jar Jar Bings
Beiträge: 21810
Zitat pescA;20552011
Problem wird - wieder mal - die Software sein. GPGPU und OpenCL ist seit Jahren in der Hardware, aber es wird kaum genutzt.


Ja und nein. Es ist ja keine spezielle Sprache mehr notwendig, um die GPU mitrechnen zu lassen. Das Ganze kann extrem effizient werden, wenn man es richtig macht, aber mir fehlt da eindeutig das Fachwissen.
Gut wäre es, wenn AMD hier einen Treiber schreibt, der serielle und parallele Workloads erkennt und selbstständig auf die jeweils besseren Recheneinheiten schiebt. Dann wäre da für Heimanwender gleichsam interessant und HD-Clips sind beispielsweise schnell fertig.
#8
customavatars/avatar178117_1.gif
Registriert seit: 05.08.2012

Oberbootsmann
Beiträge: 945
Da kann die PS4 ja ganz gut werden.
#9
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 6141
Zitat pescA;20552011
Problem wird - wieder mal - die Software sein.

Auch da gibt's Fortschritte, die das Leben der Entwickler deutlich vereinfachen, siehe AMDs Bolt.
#10
customavatars/avatar178117_1.gif
Registriert seit: 05.08.2012

Oberbootsmann
Beiträge: 945
Hätte dann ne Frage zu Bolt. WElche verbeserung bringt den Bolt mit sich? Hab von Bolt relativ wenig gehört.
#11
Registriert seit: 23.09.2009

Korvettenkapitän
Beiträge: 2202
Zitat pajaa;20552093
Ja und nein. Es ist ja keine spezielle Sprache mehr notwendig, um die GPU mitrechnen zu lassen. Das Ganze kann extrem effizient werden, wenn man es richtig macht, aber mir fehlt da eindeutig das Fachwissen.
Gut wäre es, wenn AMD hier einen Treiber schreibt, der serielle und parallele Workloads erkennt und selbstständig auf die jeweils besseren Recheneinheiten schiebt. Dann wäre da für Heimanwender gleichsam interessant und HD-Clips sind beispielsweise schnell fertig.


So eine Erkennung muss entweder in Hardware oder im Compiler passieren, alles andere würde das System nur ausbremsen.

Oder wie stellst du dir den Treiber vor? jeden Befehl zur CPU anschauen und aus einer Datenbank oder wie auch immer die Entscheidung treffen, was schneller wäre? Fragt sich, ob dass dann schneller wäre :D
#12
customavatars/avatar114785_1.gif
Registriert seit: 14.06.2009
Hamburg
Korvettenkapitän
Beiträge: 2194
Mit fehlender Software wollte ich auf den geringen Marktanteil von Kaveri anspielen ;) Wenn die APU dann erscheint, werden sie ja nicht auf einmal alle kaufen, sodass es für Softwarehersteller erstmal keine Motivation gibt, überhaupt darauf zu reagieren.
Erst wenn es entsprechend viele PCs gibt, die überhaupt von entsprechenden Optimierungen profitieren können, werden Softwarehersteller darauf reagieren. Alles andere ist aus finanzieller Sicht auch unlogisch. Aber bis das soweit ist, wird es mindestens 2015 sein... :(
#13
customavatars/avatar64398_1.gif
Registriert seit: 21.05.2007
Wien
Kapitän zur See
Beiträge: 3557
Mit der PS4/xbox infinity kann sich das ändern, außerdem unterstützen auch freeware programme wie vlc schon gpgpu
#14
customavatars/avatar172838_1.gif
Registriert seit: 11.04.2012

Flottillenadmiral
Beiträge: 4711
Zitat
Dies ist eins der Key-Features der HSA (Heterogeneous System Architecture).


Eines... wir sind doch nicht in Bayern ;)
#15
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 6141
Zitat Monster101stx;20552186
Hätte dann ne Frage zu Bolt. WElche verbeserung bringt den Bolt mit sich? Hab von Bolt relativ wenig gehört.

Bolt vereinfacht die HSA Programmierung insofern, dass du damit praktisch so arbeiten kannst, wie bisher mit der C++ STL für CPUs. Die Verrenkungen, die man mit Lösungen wie OpenCL, DirectCompute, CUDA usw machen muss, werden damit deutlich reduziert. Oder mit anderen Worten, Bolt ist ein weiterer Schritt, die HSA Programmierung natürlicher zu gestalten. So wie man das auch bisher gewohnt, nur eben auf CPUs beschränkt.

Hier gibt's ein kleines typisches "Hello World" Beispiel.

Und hier noch eine Übersicht zum Code und wie HSA Bolt das ganze vereinfacht. Damit wird praktisch wieder die Einfachheit der CPU-Programmierung erreicht, nur mit deutlich besserer und flexiblerer Performance.


Zitat why_me;20552240
So eine Erkennung muss entweder in Hardware oder im Compiler passieren, alles andere würde das System nur ausbremsen.

So pauschal kann man das eh nicht sagen. Es ist letztendlich ein Zusammenspiel aus Compiler, Runtime/Treiber und Hardware. Die Erkennung von seriellen und parallelen Workloads muss aber natürlich erst mal in Software geschehen. Erst dann kann man den Code an die entsprechenden Hardwareeinheiten delegieren.
#16
customavatars/avatar35859_1.gif
Registriert seit: 25.02.2006

Admiral
Beiträge: 9558
Bin auf jeden Fall sehr gespannt, hört sich alles Top an für Kaveri^^

Gesendet von meinem GT-I9001 mit der Hardwareluxx App
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

16 Threads für 550 Euro: AMD RYZEN 7 1800X im Test

Logo von IMAGES/STORIES/LOGOS-2017/AMD_RYZEN_TEASER_100

Eine neue Ära – so beschreibt AMD selbst den Start der RYZEN-Prozessoren. Die dazugehörige Zen-Architektur soll ein Neustart für AMD sein und das auf allen wichtigen Märkten. Den Anfang machen die RYZEN-Prozessoren auf dem Desktop. Die Zen-Architektur soll AMD aber auch zu einem Neustart auf... [mehr]

AMD Ryzen 7 1700 im Test und übertaktet - der interessanteste Ryzen

Logo von IMAGES/STORIES/LOGOS-2017/AMD_RYZEN_TEASER_100

Mit dem Ryzen 7 1800X und Ryzen 7 1700X haben wir uns die beiden neuen Flaggschiff-Prozessoren von AMD näher angeschaut. Nun fehlt nur noch das dritte Modell im Bunde, das für viele Umrüst-Interessenten sicherlich der interessanteste Ryzen-Prozessor ist. Die Rede ist natürlich vom Ryzen 7 1700... [mehr]

AMDs Ryzen 7 1700X im Test: Der beste Ryzen?

Logo von IMAGES/STORIES/LOGOS-2017/AMD_RYZEN_TEASER_100

In unserem ausführlichen Testbericht zu AMDs Ryzen 7 1800X in der letzten Woche hatten wir bereits angekündigt, dass wir weitere Artikel rund um AMDs neues Flaggschiff bringen werden. Den Anfang macht ein Kurztest zum Ryzen 7 1700X, der mit knapp 120 Euro weniger Kaufpreis momentan als das... [mehr]

Intel Core i7-7700K im Test - keine großen Sprünge mit Kaby Lake

Logo von IMAGES/STORIES/LOGOS-2016/KABYLAKE

Am heutigen 3. Januar stellt Intel die Desktop-Modelle der Kaby-Lake-Architektur vor. Wir haben natürlich den Launch-Test: Intels Flaggschiff, der Core i7-7700K, wurde von uns in den letzten Tagen durch diverse Benchmarks gejagt und gegen die Vorgänger verglichen. Allerdings sollte... [mehr]

AMD stellt die ersten RYZEN-Modelle offiziell vor: +52 % IPC ab 359 Euro

Logo von

AMD hat soeben die Modelle der RYZEN-Prozessoren offiziell vorgestellt. Dabei werden die meisten Gerüchte bestätigt, aber auch die letzten Fragen zu den Modellen beantwortet. Mit den RYZEN-Prozessoren bringt AMD die ersten CPUs auf Basis der neuen Zen-Architektur auf den Markt, die AMD wieder in... [mehr]

So schnell ist Kaby Lake: Erste eigene Benchmarks zum i7-7500U

Logo von IMAGES/STORIES/REVIEW_TEASER/INTEL_KABY_LAKE

Offiziell vorgestellt hat Intel die 7. Generation der Core-Prozessoren bereits Ende August, doch erst jetzt ist Kaby Lake in Form des ersten Notebooks verfüg- und damit testbar. Dabei handelt es sich um das Medion Akoya S3409 MD60226, in dem ein Core i7-7500U verbaut wird. Während das Notebook... [mehr]