MetaMorphX
Semiprofi
- Mitglied seit
 - 13.09.2002
 
- Beiträge
 - 1.721
 
Hier mal ein älterer Ausschnitt zum Theam Ati bzw. nVidia und F@H.
Keine Ahnung ob da der G80 schon mit einberechnet wurde, glaube aber nicht.
Die komplette News gibt es hier LINK
				
			Der Stanford-Mitarbeiter Mike Houston betont, dass die Chips der X1800/X1900-Reihe ein gutes Speicherinterface besitzen und effizient mit einer großen Zahl von Threads umgehen können. Zudem enthalte die Simulationssoftware sehr viele Schleifen und Sprunganweisungen. Und nur die X1000-GPUs seien in der Lage, den Overhead der Sprunganweisungen mit mathematischen Berechnungen zu überdecken, während die Nvidia-Chips Sprung-, Textur- und ALU-Berechnungen nicht gleichzeitig durchführen könnten. Außerdem unterbrächen die Nvidia-GPUs die Berechnung nach 64.000 Instruktionen und könnten die komplexe Software aus mehreren Millionen Anweisungen pro "Pixel" und pro Iteration nicht in einem Pass ausführen. (Manfred Bertuch) / (anw/c't)
Keine Ahnung ob da der G80 schon mit einberechnet wurde, glaube aber nicht.
Die komplette News gibt es hier LINK
						






 .
 

