> > > > Stream Programming für die G80

Stream Programming für die G80

Veröffentlicht am: von
Bereits vor einigen Wochen berichteten wir an [url=http://www.hardwareluxx.de/story.php?id=4619]dieser Stelle[/url] über [url=http://ati.amd.com/de/]ATIs[/url] „close to the metal“ (CTM) API, mittels derer die Pixel-Prozessoren ausgewählter ATI-Grafikkarten für Gleitkommaberechnungen genutzt werden können. CTM ermöglicht in diesem Zusammenhang durch den direkten Zugriff auf die Hardware der Grafikkarte ein Umgehen des Scheduler des Betriebssystems. Auf diesem Weg können Prozesse im Sinn des Stream-Computing auf die Shader verteilt und somit parallelisiert werden.
Mit der Vorstellung der G80 präsentiert [url=http://www.nvidia.com]NVIDIA[/url] nun ein eigenes, auf den Namen CUDA (Compute Unified Device Architecture) getauftes, Konzept zum Thema Stream Computing . Kern des Paketes ist dabei ein C-Compiler, mit dem sich Anwendungen für die G80 schreiben, und auf die 128 Unified Shaders der 8800-Familie verteilen lassen. Neben der Leistungsfähigkeit der Unified Shader sieht sich NVIDIA dabei insbesondere im Bereich des GPU-Cache gegenüber ATI im Vorteil.NVIDIA bietet das CUDA-Paket inklusive Grafikkartentreiber für Windows XP und Linux an. Das Paket steht allerdings nur Entwicklern zur Verfügung, die sich bei NVIDIA registrieren lassen und ihre Arbeit an professioneller Software auch nachweisen können.

Die Möglichkeit einer GPU in ansehbarer Zeit zusätzliche Aufgaben wie physikalische Berechungen zukommen zu lassen rückt damit in greifbare Nähe.

Social Links

Tags

es liegen noch keine Tags vor.

Zu diesem Artikel gibt es keinen Forumeintrag

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]