> > > > NVIDIA SLI 2.0?

NVIDIA SLI 2.0?

Veröffentlicht am: von
[url=http://www.nvidia.de]NVIDIA[/url] hat zusammen mit [url=http://www.havok.com]Havok[/url] auf der Game Developers Conference (GDC) vom 21. bis 24. März in San Jose, Kalifornien, eine Effektphysik-Lösung für 3D-Spiele vorgstellt, die komplett vom Grafikprozessor beschleunigt wird. NVIDIA nennt diese Lösung SLI Physics. Viele sehen in diesem Schritt eine Art Generationssprung für das SLI, welches bereits vor gut 1 1/2 Jahren vorgestellt wurde. Die Effektivität im SLI-Modus erreicht in vielen Anwendungen Werte, die kaum noch zu verbessern sind und so musste NVIDIA sich nach Neuerungen umsehen, die in die bestehende SLI Architektur implementiert werden können. Aufgrund der enormen Performance aktueller High-End GPUs sowie der Möglichkeit diese im Quad-SLI sogar vierfach zusammen zu fassen, verlegte NVIDIA seine Strategie weg den reinen Frames pro Sekunde hin zum High-Definition Gaming mit hohen Auflösungen und Qualitätseinstellungen. Nun verlagert NVIDIA das Potenzial seiner Grafikkarten auch auf die Physikberechnung, die zukünftig immer größere Bedeutung gewinnen wird.Bei NVIDIA stellte man sich aufgrund der enormen Leistungsfähigkeit seiner Grafikkarten, vor allem im SLI und Quad-SLI Betrieb, folgende Frage:



Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht


Die Lösung:



Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht


Bei der herkömmlichen Physikberechnung werden sämtliche für die Physik der Objekte relevanten Algorithmen in der CPU ausgeführt, die in den meisten Fällen mit der grafischen Aufbereitung der für die Grafik relevanten Daten schon ausgelastet ist. Daher begrenzte die reine Rechenleistung in der Vergangenheit die Fortschritte in der Physikberechnung.



Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht


Mit Hilfe der Physikberechnung in der GPU gibt die CPU nur einmalig alle relevanten Daten an die GPU weiter, welche dann in der Folge alle Berechnung ausführt. Dies erlaubt eine deutlich höhere Anzahl der möglichen Berechnungen.



Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht


Die Funktionsweise der Havok FX Technik ist recht einfach. Die in der 3D-Engine enthaltenen Codes für die Physik werden mittels der DirectX Schnittstelle an den Grafikkartentreiber weiter gegeben. Dieser kann die anfallenden Daten dann entweder auf eine oder zwei GPUs verteilen.



Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht


Die Mindestanforderung für NVIDIAs SLI Physics liegen bei einer GeForce 7600 GT, empfohlen wird natürlich ein SLI System bestehend aus zwei GeForce 7900 GTX. Die Physikberechnung kann also entweder neben der normalen Grafikberechnung auf einer GPU durchgeführt werden oder aber in einem SLI System komplett auf eine der beiden GPUs ausgelagert werden. Eine GPU kümmert sich also um die Physik der Engine und die zweite bearbeitet die grafische Darstellung.



Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht


Aufgrund der enormen Leistungsfähigkeit heutiger GPUs, kann die Auslagerung der Physikberechnung zu einem recht beeindruckenden Leistungsschub führen. Eine eigens von NVIDIA erstellte "15.000 Boulder Scene", eine komplizierte und physikintensive 3D-Anwendung, die komplett in der CPU berechnet wird, erreicht auf einem System bestehend aus Intel Pentium 4 Extreme Edition mit 3.46 GHz und zwei NVIDIA GeForce 7900 GTX Grafikkarten im SLI einen Wert von 6.2 Bildern pro Sekunde. Wird die Pyhsik in der GPU berechnet, erreicht das gleiche System einen Wert von 64.5 Bilder pro Sekunde. Diese Werte müssten natürlich erst auf ihre "Alltagstauglichkeit" hin überprüft werden, doch bereits jetzt zeigen sich die enormen Möglichkeiten, die sich durch eine dedizierte Physikberechnung ergeben.



Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht


In der SLI Technologie im Allgemeinen aber auch in der SLI Physics Technologie sieht NVIDIA auch eine Möglichkeit für die Spiele- und Engineentwickler einen Blick in die Zukunft zu werfen. Sie Programmierer können schon heute mittels zweier High-End Grafikkarten im SLI Betrieb eine Mainstream-Grafikkarte von Morgen simulieren und so die Anforderungen ihrer Engines abstimmen.



Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht


Erste Spiele, welche unter anderem die Havok FX Engine verwenden, werden noch gegen Ende des Jahres erwartet.

Wo bleibt AGEIA PhysX?
Noch im Herbst verkündete man vollmundig die Verfügbarkeit erster AGEIA PhysX im Frühjahr 2006. Doch auch auf der CeBit konnte keinem potenziellen Hersteller einer solchen Karte ein möglicher Erscheinungstermin entlockt werden.

Social Links

Tags

es liegen noch keine Tags vor.

Zu diesem Artikel gibt es keinen Forumeintrag

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]