> > > > AMD präsentiert hUMA-Technologie

AMD präsentiert hUMA-Technologie

Veröffentlicht am: von

AMDAls Gründungsmitglied der HSA Foundation hat AMD seine neue Technologie namens „hUMA“ vorgestellt. Diese Technologie ermöglicht, dass der Speicheradressraum von GPU und CPU gleichzeitig genutzt werden können. Dies ist eins der Key-Features der HSA (Heterogeneous System Architecture). AMDs APU in Sonys Playstation 4 wird diese Technologie ebenfalls verwenden, die zu erheblichen Leistungssteigerungen führt, da ein hin- und herkopieren der Daten zwischen den verschiedenen Adressräumen entfällt.

Der Begriff „hUMA“ steht für Heterogeneous Uniform Memory Access“. Dies ist ein weiterer Schritt zur vollständigen Verschmelzung von CPU und GPU zur APU. AMD wird diese Technologie erstmals in ihren „Kaveri“ genannten APUs, die auf Steamroller Modulen basieren, verwenden. Durch hUMA werden keine speziellen APIs mehr benötigt, um bei normalen Rechenoperationen die Shader des Grafikparts mit einzubeziehen. Es können also Hochsprachen wie C++ genutzt werden. Dies soll abermals die Performance von Programmen, in die der Code eingebaut ist deutlich beschleunigen. AMDs Kaveri APUs sollen gegen Ende des Jahres released werden und basieren wie weiter oben schon erwähnt auf Steamroller Modulen. Diese zeichnen sich vor allem durch ein verbessertes Frontend und im Vergleich zu den Piledriver Modulen (2. Generation FX) einer verdoppelten Anzahl an Decodern aus. Als Grafikarchitektur wird GCN 2.0 zum Einsatz kommen. Die APUs sollen genauso wie ihre kleineren Geschwister auf Jaguar-Basis in 28nm gefertigt werden. Spekuliert wird, dass der 28nm FD-SOI Prozess von STMicroelectronics genutzt wird, den Globalfoundries in die Liste der Standardprozesse aufgenommen hat.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (16)

#7
customavatars/avatar40366_1.gif
Registriert seit: 19.05.2006
unterwegs
SuperModerator
Märchenonkel
Jar Jar Bings
Beiträge: 21816
Zitat pescA;20552011
Problem wird - wieder mal - die Software sein. GPGPU und OpenCL ist seit Jahren in der Hardware, aber es wird kaum genutzt.


Ja und nein. Es ist ja keine spezielle Sprache mehr notwendig, um die GPU mitrechnen zu lassen. Das Ganze kann extrem effizient werden, wenn man es richtig macht, aber mir fehlt da eindeutig das Fachwissen.
Gut wäre es, wenn AMD hier einen Treiber schreibt, der serielle und parallele Workloads erkennt und selbstständig auf die jeweils besseren Recheneinheiten schiebt. Dann wäre da für Heimanwender gleichsam interessant und HD-Clips sind beispielsweise schnell fertig.
#8
customavatars/avatar178117_1.gif
Registriert seit: 05.08.2012

Oberbootsmann
Beiträge: 974
Da kann die PS4 ja ganz gut werden.
#9
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6349
Zitat pescA;20552011
Problem wird - wieder mal - die Software sein.

Auch da gibt's Fortschritte, die das Leben der Entwickler deutlich vereinfachen, siehe AMDs Bolt.
#10
customavatars/avatar178117_1.gif
Registriert seit: 05.08.2012

Oberbootsmann
Beiträge: 974
Hätte dann ne Frage zu Bolt. WElche verbeserung bringt den Bolt mit sich? Hab von Bolt relativ wenig gehört.
#11
Registriert seit: 23.09.2009

Korvettenkapitän
Beiträge: 2413
Zitat pajaa;20552093
Ja und nein. Es ist ja keine spezielle Sprache mehr notwendig, um die GPU mitrechnen zu lassen. Das Ganze kann extrem effizient werden, wenn man es richtig macht, aber mir fehlt da eindeutig das Fachwissen.
Gut wäre es, wenn AMD hier einen Treiber schreibt, der serielle und parallele Workloads erkennt und selbstständig auf die jeweils besseren Recheneinheiten schiebt. Dann wäre da für Heimanwender gleichsam interessant und HD-Clips sind beispielsweise schnell fertig.


So eine Erkennung muss entweder in Hardware oder im Compiler passieren, alles andere würde das System nur ausbremsen.

Oder wie stellst du dir den Treiber vor? jeden Befehl zur CPU anschauen und aus einer Datenbank oder wie auch immer die Entscheidung treffen, was schneller wäre? Fragt sich, ob dass dann schneller wäre :D
#12
customavatars/avatar114785_1.gif
Registriert seit: 14.06.2009
Hamburg
Korvettenkapitän
Beiträge: 2346
Mit fehlender Software wollte ich auf den geringen Marktanteil von Kaveri anspielen ;) Wenn die APU dann erscheint, werden sie ja nicht auf einmal alle kaufen, sodass es für Softwarehersteller erstmal keine Motivation gibt, überhaupt darauf zu reagieren.
Erst wenn es entsprechend viele PCs gibt, die überhaupt von entsprechenden Optimierungen profitieren können, werden Softwarehersteller darauf reagieren. Alles andere ist aus finanzieller Sicht auch unlogisch. Aber bis das soweit ist, wird es mindestens 2015 sein... :(
#13
customavatars/avatar64398_1.gif
Registriert seit: 21.05.2007
Wien
Kapitän zur See
Beiträge: 3763
Mit der PS4/xbox infinity kann sich das ändern, außerdem unterstützen auch freeware programme wie vlc schon gpgpu
#14
customavatars/avatar172838_1.gif
Registriert seit: 11.04.2012

Flottillenadmiral
Beiträge: 4861
Zitat
Dies ist eins der Key-Features der HSA (Heterogeneous System Architecture).


Eines... wir sind doch nicht in Bayern ;)
#15
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6349
Zitat Monster101stx;20552186
Hätte dann ne Frage zu Bolt. WElche verbeserung bringt den Bolt mit sich? Hab von Bolt relativ wenig gehört.

Bolt vereinfacht die HSA Programmierung insofern, dass du damit praktisch so arbeiten kannst, wie bisher mit der C++ STL für CPUs. Die Verrenkungen, die man mit Lösungen wie OpenCL, DirectCompute, CUDA usw machen muss, werden damit deutlich reduziert. Oder mit anderen Worten, Bolt ist ein weiterer Schritt, die HSA Programmierung natürlicher zu gestalten. So wie man das auch bisher gewohnt, nur eben auf CPUs beschränkt.

Hier gibt's ein kleines typisches "Hello World" Beispiel.

Und hier noch eine Übersicht zum Code und wie HSA Bolt das ganze vereinfacht. Damit wird praktisch wieder die Einfachheit der CPU-Programmierung erreicht, nur mit deutlich besserer und flexiblerer Performance.


Zitat why_me;20552240
So eine Erkennung muss entweder in Hardware oder im Compiler passieren, alles andere würde das System nur ausbremsen.

So pauschal kann man das eh nicht sagen. Es ist letztendlich ein Zusammenspiel aus Compiler, Runtime/Treiber und Hardware. Die Erkennung von seriellen und parallelen Workloads muss aber natürlich erst mal in Software geschehen. Erst dann kann man den Code an die entsprechenden Hardwareeinheiten delegieren.
#16
customavatars/avatar35859_1.gif
Registriert seit: 25.02.2006

Admiral
Beiträge: 9558
Bin auf jeden Fall sehr gespannt, hört sich alles Top an für Kaveri^^

Gesendet von meinem GT-I9001 mit der Hardwareluxx App
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Coffee Lake: Overclocking-Check

Logo von IMAGES/STORIES/LOGOS-2016/KABYLAKE

Nach dem ausführlichen Overclocking-Check für Skylake-Prozessoren sowie dem Overclocking-Check für Kaby Lake-Prozessoren ist es nach Veröffentlichung der neuen Generation mit Codenamen Coffee-Lake erneut Zeit für einen Overclocking-Check. Wir werfen einen Blick auf die Übertaktbarkeit... [mehr]

Intel kämpft mit schwerer Sicherheitslücke (Update: Intel veröffentlicht...

Logo von IMAGES/STORIES/2017/INTEL

Vor, während und zwischen den Feiertagen herrschte ein wildes Treiben in der Linux-Community. Zunächst war nicht ganz klar, was hier genau vor sich geht, inzwischen aber scheinen die Auswirkungen deutlich zu werden: Intel hat nach einer Lücke in der Management Unit eines jeden... [mehr]

Gelungener Feinschliff: AMD Ryzen 7 2700X und Ryzen 5 2600X im Test

Logo von IMAGES/STORIES/2017/AMD_RYZEN_7_2700X

Rund ein Jahr nach dem Start der Ryzen-Prozessoren legt AMD nach und bringt die zweite Generation in den Handel. Die soll schneller und effizienter arbeiten und den Druck auf Intel weiter erhöhen. Allerdings lautet die Devise Evolution statt Revolution, statt gravierender Änderungen gibt es vor... [mehr]

AMD Ryzen 5 2400G und Ryzen 3 2200G im Test: Die Lücke ist gestopft

Logo von IMAGES/STORIES/2017/AMD_RYZEN_5_2400G

Während Notebook-Käufer sich bereits seit einigen Wochen von den Vorzügen der Zen-basierten Raven-Ridge-APUs überzeugen können, musste sich das Desktop-Lager noch gedulden. Nun aber heißt es auch hier: Intel erhält neue Konkurrenz. Und die könnte einen noch größeren Einfluss als die... [mehr]

AMD Ryzen Threadripper 2990WX und 2950X im Test: Mit Vollgas an Intel vorbei

Logo von IMAGES/STORIES/2017/AMD_THREADRIPPER_2950X

Pünktlich zum ersten Geburtstag startet AMD den Ryzen-Threadripper-Generationswechsel. Und wie schon im Frühjahr beim Sprung von Ryzen 1 zu Ryzen 2 vertraut man auf zwei Dinge: mehr Kerne und einen geringeren Preis. Beide sollen dabei helfen, dem Dauerrivalen Intel im... [mehr]

AMD Ryzen 5 2400G und Ryzen 3 2200G: Raven Ridge kann auch spielen

Logo von IMAGES/STORIES/2017/AMD_RYZEN_TEASER_100

Eine gute Alternative, wenn es um einen Alltags- oder Office-Rechner geht: So lautete vor wenigen Tagen das Fazit zu AMDs neuen APUs. Doch wie sich Ryzen 3 2200G und Ryzen 5 2400G schlagen, wenn die Zeit zwischen Word und Chrome mit dem ein oder anderen Spiel überbrückt werden soll, konnte... [mehr]