> > > > AMD arbeitet an Optimus-Konkurrenz

AMD arbeitet an Optimus-Konkurrenz

Veröffentlicht am: von

amdNVIDIAs Optimus-Technologie erfreut sich einer immer größer werdenden Beliebtheit und findet in immer mehr Geräten ihren Einsatz. Im Grunde genommen ist die Technik allerdings nicht neu. Man verbaut lediglich zwei verschiedene Grafiklösungen: einen integrierten Stromsparer ohne viel Leistungspotential und einen schnellen 3D-Beschleuniger, der dafür aber auch eine höhere Leistungsaufnahme besitzt und unter Umständen die Akku-Laufzeit deutlich verringert. Bislang konnte man allerdings nur manuell zwischen den beiden Grafikkarten umschalten, oder aber dann, wenn das Notebook vom Strom getrennt bzw. an die Steckdose angeschlossen wurde. Hier zeigt sich Optimus deutlich fortschrittlicher, denn der NVIDIA-Treiber erkennt, wann eine 3D-Anwendung gestartet wurde und schaltet zeitgleich auf die potentere Lösung um. Ein Neustart oder gar ein flackernder Bildschirm gehören damit der Vergangenheit an. Auch wenn AMD längst eine ähnliche Lösung in petto hat, die sich aber nicht ganz so fortschrittlich zeigt, arbeitet die US-Amerikanische Grafikschmiede nun an einem Konkurrenz-Produkt zu NVIDIAs Optimus. Noch in diesem Jahr soll es eine ähnliche Hybrid-Lösung geben, die sich im Gegensatz zu Optimus nicht nur auf Intel-Plattformen beschränkt. Zum Ende des Jahres soll es dann auch schon losgehen.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (7)

#1
customavatars/avatar15872_1.gif
Registriert seit: 02.12.2004
Leipzig
[online]-Redakteur
Beiträge: 4157
Schön. Imho absolut logisch und eigentlich längst überfällig, gerade auch im Desktop-Bereich. Da sollte es aber spätestens mit der zunehmenden Verbreitung von CPUs mit integrierter Grafikeinheit Einzug halten. Hoffentlich... .
#2
customavatars/avatar97166_1.gif
Registriert seit: 20.08.2008

Stabsgefreiter
Beiträge: 300
Ist es nicht sinnvoller und wirtschaftlicher für Geräte die ein leistungsstarke Grafik benötigen (dediziert), die dedizierte Grafik dahin gehend zu optimieren, dass Sie im 2D Modus annähernd genauso wenig wie eine integrierte Grafik verbraucht, statt eine stromsparende und schwache und eine stromhungrige und starke Grafiklösungen zu verwenden und dann zwischen diesen hin und her zu schalten. Statt 2 Komponenten, dedizierte Grafik und Treiber, habe ich 5 Komponenten, integrierte Grafik, dedizierte Grafik, Treiber für beide Grafiklösungen und Treiber für das Umschalten zwischen beiden, die Probleme machen können.

Scheint mir als Laie wenig sinnvoll zu sein, eine derartige Lösung zu entwickeln
#3
customavatars/avatar39992_1.gif
Registriert seit: 11.05.2006

Oberbootsmann
Beiträge: 812
@mrt181
Die mobilen CPUs werden in absehbarer Zeit alle über eine integrierte Graphikeinheit (Stichwort APU) verfügen. Und selbst mit geschicktesten Sparmechanismen verbraucht eine große GPU auch im idle immer mehr als eine kleine.
Wenn man also eh eine sehr sparsame GPU (APU) dabei hat, dann ist es ja nur sinnvoll diese auch zu nutzen und die „Dicke“ nur bei bedarf zuschalten.
#4
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6350
Zitat Redphil;14814496
Schön. Imho absolut logisch und eigentlich längst überfällig, gerade auch im Desktop-Bereich. Da sollte es aber spätestens mit der zunehmenden Verbreitung von CPUs mit integrierter Grafikeinheit Einzug halten. Hoffentlich... .

Das hoffe ich auch. Aber selbst ohne APU, also mit Chipsatzgrafik, sollte so eine Technik für Desktop Systeme verfügbar sein. Fragt sich nur, ob bei AMD in Zukunft alle CPUs zur APU mutieren. Die erste Bulldozer Generation soll ja zumindest noch eine reine CPU sein.
#5
customavatars/avatar39992_1.gif
Registriert seit: 11.05.2006

Oberbootsmann
Beiträge: 812
Zitat mr.dude;14814863
Die erste Bulldozer Generation soll ja zumindest noch eine reine CPU sein.

Die kommt ja auch erst einmal nur für Desktop. Der spätere mobile Ableger wird sicher auch eine GPU erhalten.
#6
Registriert seit: 11.04.2010

Matrose
Beiträge: 2
Imho höchste Zeit! Ich finde soetwas hätte man bereits vor 5 Jahren entwickeln können. Technisch ist das nichts neues und Gaming PC die im idle wenig verbrauchen bzw. Notebooks mit vernünftiger Grafikeinheit, deren Akku auch as hält sind schon lange gefragt.
#7
customavatars/avatar121331_1.gif
Registriert seit: 13.10.2009

Oberbootsmann
Beiträge: 891
Wirklich mehr als überfällig! Auch für den Desktop Bereich. Hab mich ohnehin schon aufgeregt das AMD sein Hybrid Crossfire nicht weiterentwickelt hat. Mit den ohnehin sparsamen Karten ala HD3450 wird ja mit den 78x/88x Chipsätzen im Idle nur die interne Grafik genutzt. Sowas würde ich mir trotz meiner sparsamen HD5770 auch wünschen. Da ließen sich nämlich mindestens 15W einsparen. Das wäre bei meinem System eine Einsparung von ~20% im Idle .
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

    Logo von IMAGES/STORIES/2017/AMD-RADEONVII

    Heute ist es endlich soweit: Es gibt in Form der Radeon VII endlich wieder eine neue Grafikkarte aus dem Hause AMD. Zwar kommt auch hier die bekannte Vega-Architektur zum Einsatz, durch die Kombination einer in 7 nm gefertigten GPU mit 16 GB an extrem schnellen HBM2, ist die Radeon VII aber... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]