> > > > Präsentation von NVIDIAs Desktop-Optimus auf der COMPUTEX

Präsentation von NVIDIAs Desktop-Optimus auf der COMPUTEX

Veröffentlicht am: von
nvidia

Mit Virtu hat LucidLogix eine Technologie auf den Markt gebracht, die im Desktop-Segment das automatische Umschalten zwischen disketer und integrierter GPU ermöglicht. Relativ schnell gab es dann die Ankündigung, dass AMD und NVIDIA sich nicht die Butter vom Brot nehmen lassen, sondern mit ähnlichen Lösungen aufwarten wollen (wir berichteten). Anders als Virtu sollen diese Lösungen zudem für die Mainboardhersteller kostenfrei sein.

Jetzt sind Details zu NVIDIAs Fahrplan in dieser Angelegenheit bekannt geworden. Demnach soll Desktop-Optimus (auch als Synergy bezeichnet) auf der kommenden COMPUTEX in Taipei präsentiert werden - also im Zeitraum vom 31. Mai bis zum 4. Juni. Eine erste Folie verrät bereits Details zu Desktop-Optimus. Demnach sollen vorerst Mainboards mit den Intel-Chipsätzen H61, H67 und Z68 unterstützt werden. Mindestens ein Bildschirm muss an die integrierte GPU angeschlossen werden. Wie Virtu wird auch Desktop-Optimus die Möglichkeit bieten, Intels Quick Sync-Technologie bei vorhandener diskreter GPU zu nutzen.

nvidia_desktop_optimus

nvidia_desktop_optimus2

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (9)

#1
Registriert seit: 22.06.2008
Köln
Oberstabsgefreiter
Beiträge: 415
Darauf habe ich lange gewartet. Ich hoffe, die Technologie kann mit den zurzeit am Markt erhältlichen Mainboards und Grafikkarten genutzt werden und erfordert lediglich ein Software update. In jedem Fall ein zu begrüßender Schritt.
#2
customavatars/avatar52111_1.gif
Registriert seit: 22.11.2006
Heidekreis
Oberbootsmann
Beiträge: 821
und wie wird das anschlussmäßig aussehen?
Wo wird der Monitor angestöpselt?
#3
customavatars/avatar40366_1.gif
Registriert seit: 19.05.2006
unterwegs
SuperModerator
Märchenonkel
Jar Jar Bings
Beiträge: 21817
Guck dir die Bilder an: Der Monitor muss dabei natürlich an den on-board-Ausgang, sonst klappt das Ganze nicht.
#4
customavatars/avatar117617_1.gif
Registriert seit: 03.08.2009
Hallein im wunderschönen Salzburg
Kapitän zur See
Beiträge: 3153
Ich verstehe es immer noch nicht.

Wozu soll ich 2 GPU´s Strom verschwenden lassen, wenn dass was ich will auch mit einer klappt.

Ich versteh´s nicht, wo ist der Sinn hinter Lucid´s Lösung`?
#5
Registriert seit: 11.01.2007

Vizeadmiral
Beiträge: 6539
Na du hast eine starke Karte für Games drin und switcht auf die IGP für den Rest. Sparst 20-30 Wh pro Stunde an Energie. Oder was meinst du jetzt?
#6
Registriert seit: 04.07.2009
Schweiz / TG
Bootsmann
Beiträge: 714
Das bringt aber nur wirklich was, wenn man die externe Karte komplett abschalten kann. Und ich vermute mal das das aktuell, wie bei Lucid's Lösung, noch nicht möglich ist.
#7
Registriert seit: 13.09.2008
Oben uff'm Speischer
Kapitän zur See
Beiträge: 3155
Ich finde die Entwicklung gut!

Allerdings warte ich jetzt schon auf das Gestöhne in gewissen Kreisen, wenn den Leuten auffällt, dass sie mit aktivierter iGP plötzlich 15W TDP an Übertaktungsspielraum verlieren...
#8
customavatars/avatar15725_1.gif
Registriert seit: 28.11.2004

Admiral
Beiträge: 13890
Zitat For_sure;16708817
Das bringt aber nur wirklich was, wenn man die externe Karte komplett abschalten kann. Und ich vermute mal das das aktuell, wie bei Lucid's Lösung, noch nicht möglich ist.

eine ähnliche lösung in in einigen nvidia notebooks schon am markt und funzt bisher wunderbar. an sich eine sehr gute idee da es einfach nervt wie sich die akkuzeit in luft auflöst.
#9
customavatars/avatar40366_1.gif
Registriert seit: 19.05.2006
unterwegs
SuperModerator
Märchenonkel
Jar Jar Bings
Beiträge: 21817
Zitat Chezzard;16707185

Ich versteh´s nicht, wo ist der Sinn hinter Lucid´s Lösung`?


Hier geht es aber doch um Nvidias Lösung. ;) Und sofern das Ganze wie in Notebooks funktioniert, ist das doch eine gute Entwicklung.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]