13 GPUs in einem Desktop-Supercomputer

Wie lahm :shake:
Ein System mit 5870 und 5970 würde das niVida-Teil in Grund und Boden stampfen :shot:

Gibts da nen Grund für deine angenommene These?

Oder ist es einfach nur mal wieder ein pro ATI post,mit ein paar Worten die gar nix Aussagen.

Was bringt es ein paar ATI Karten in nen Rechner zu stopfen wenn die nötigen Applikationen dazu fehlen um die 5DShader einer ATI Karte auszureizen!

Entschuldigung dieser rot grüne Forenkrieg geht einen sowas von auf die E... mittlerweile:(
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja vll geht er nur von der reinen Theoretischen leistung aus und da hätte ne 5970 mehr leistung als die 295, aber ich denl zu der zeit der planung gab es die neuen ATIs noch nicht oder sie haben ihre software auf CUDA aufgebaut , wodurch es leichter ist bei NV zu bleiben!
 
Naja vll geht er nur von der reinen Theoretischen leistung aus und da hätte ne 5970 mehr leistung als die 295, aber ich denl zu der zeit der planung gab es die neuen ATIs noch nicht oder sie haben ihre software auf CUDA aufgebaut , wodurch es leichter ist bei NV zu bleiben!

Da hast du vollkommen recht mit dem was du sagst u sowas stellt auch ne Diskussionsgrundlage da;)

Aber nicht so ein Post wie dort oben:(

Es scheint für Programmierer im allgemeinen einfacher zu sein für 1D Shader entsprechende Applikationen zu entwickeln bzw die Shader voll auszulasten als es mit 5D Shadern der Fall ist.

Das ist zum größten Teil wohl auch der Grund,warum mehr auf Cuda Basis entwickelt wird.

Der Mensch geht eben immer gern den Weg des geringsten Widerstandes
 
Zuletzt bearbeitet:
Es scheint für Programmierer im allgemeinen einfacher zu sein für 1D Shader entsprechende Applikationen zu entwickeln bzw die Shader voll auszulasten als es mit 5D Shadern der Fall ist.

Es scheint nicht nur so, es ist praktisch auch so ;)
Zumahl NV ja auch die Entwickler von Projekten teils unterstützt, was AMD in dem Bereich aktuell sogut wie gar nicht zu machen scheint, zumindest ließt man nirgends davon...
 
Dann wird es mal zeit das mal OpenCL in gang kommt dann haben beide besitzer was von.

Nur werden hier auch die wenigsten , wenn überhaupt, auf Vec5 optimieren.

Aber wenn das teil echt in echtzeit ein CT bild in 3D umwandelt ist das echt top, derzeit dauert das im Krankenhaus ja bissel was länger :d
 
Ihr vergesst, daß auch Fastra I mit Nvidia-Karten lief, lange bevor ATi mit der aktuellen HD5000-Serie auf den Markt drängte. Bei Fastra II auf ATi zu setzen hätte das vollständige Umschreiben der Anwendung zur Folge. Sowas würde ich niemals tun, auch wenn eine Karte eines anderen Herstellers unter Umständen schneller sein könnte.
 
Naja vll geht er nur von der reinen Theoretischen leistung aus und da hätte ne 5970 mehr leistung als die 295, aber ich denl zu der zeit der planung gab es die neuen ATIs noch nicht oder sie haben ihre software auf CUDA aufgebaut , wodurch es leichter ist bei NV zu bleiben!

Naja, die Chinesen setzen ja auf ATI und es reicht bisher zu Platz 5 unter den Supercomputern (bester mit GPU-Power). ;) Klick
 
Naja, die Chinesen setzen ja auf ATI und es reicht bisher zu Platz 5 unter den Supercomputern (bester mit GPU-Power). ;) Klick

Als ich das vor ein paar Wochen gelesen hatte musste ich auch schmunzeln.
NV versucht auf biegen und brechen in den Markt zu kommen und AMD macht das quasi nebenbei ohne wirklich dafür was zu tun.
AMD behandelt den Supercomputermarkt immer noch ziemlich stiefmütterlich.
 
naja aber AMD ist da dank seinen CPUs schon lange vertreten , gibt ja viele supercomputer mit AMD CPU only , AMD CPU+ IBM CELL und AMD CPU+ GPU
 
Ist ja schön das versucht wird der Leistung durch TFlop/s und GFlop/s eine größenordnung zu geben. GPU's sind aber noch weit davon weg all die Arbeiten verrichten zu können die eine CPU verrichten kann.

Nur das was sie können, können sie nunmal sehr schnell.
 
GPUs können sehr schnell massiv parallele Aufgaben erledigen, andere Sachen fressen Rechenlesitung und die GPU bzw. Cluster sind im Endeffekt ineffizient im Vergleich zu einer CPU. Ein möglicher und durchaus sinnvoller Ansatz wäre, die CPU und GPU zusammen arbeiten zu lassen - der Ansatz von Larabee an sich war schonmal gar keine schlechte Idee bzw. Ansatz.
 
Ein möglicher und durchaus sinnvoller Ansatz wäre, die CPU und GPU zusammen arbeiten zu lassen - .

Entweder das oder der Supercomputermarkt wird sich vorerst mal in 2 Gebiete aufspalten,die eine Seite von GPU Clustern dominiert,die andere von den CPU Clustern.

Wobei ich nicht viele Bereiche sehe in denen sich masive Parallelisierung nicht anbieten würde.

Auch sind schon klare Ansätze zu erkennen die GPU der CPU näher zu bringen(spendieren von Cache beim Fermi)

Die Cpu Fraktion ist auf dem Gebiet der Anpassung an die GPU vorerst mal gescheitert(Larrabee Projekt),warten wir ab was die Grafikkartenhersteller aus diesen Vorteil machen;)
 
naja Cache hat auch der G200 und auch der RV870.

Es wird eher immer mehr mischcluster geben wie es sie jetzt schon gibt

X86+Cell oder eben X86+GPU
 
ja das schon , aber eben cache ist ein alter hut, auch bei GPUs.

Betrachtet man die Menge an Cache mit besagter ECC Funktionalität wird schnell klar das dieses nur dem GPGPU Sektor dienen kann,für Gamerkarten sind solche Mengen nicht von Bedeutung.

Also kein alter Hut sondern ein neuer;)
 
naja Shaderberechnungen werden auch immer genauer und länger, wie sich das da auswirkt weiss man ja auch nicht.

weiss gerade nicht wie lang die instruktionen und wie genau sie sein dürfen bei SM5
 
Jedenfalls gibt es ein immenses Einsatzgebiet für parallele Verarbeitung von Berechnungen wie sie eine GPU perfekt beherscht,sei es in den Geo-Wissenschaften für komplexe geografische und seismische Analysen ,Molekular Biologie,Auto Industrie bei Berechnung von Crashtests oder Modellüberabeitungen u.u.u

In all diesen Gebieten sieht es für GPU Cluster rosig aus,aus zweierlei Hinsicht der Energieeffizienz u der zu erwartenden Rechenleistung.

Jede Firma der Welt u hat sich noch soviel Kapital in der Rückhand wird sich über Energiekonsum ihrer Rechencentren in Zukunft Gedanken machen müssen.

Und da beides Rechenpower u die Energieeffizienz ein klarer Pluspunkt für die Grafikkarte ist,siehts für CPU Cluster dort eher düster aus
 
Zuletzt bearbeitet:
Wenn ich bei uns im Ströhmungslehrelabor schauen , wär ein PC mit so einer rechenlesitung einfach hammer!
 
Wenn ich bei uns im Ströhmungslehrelabor schauen , wär ein PC mit so einer rechenlesitung einfach hammer!

So wie du werden auch viele Wissenschaftler,Unis,Automobilkonzerne,Mediziner u.u.u mittlerweile denken u deshalb verspricht der Markt ein enormes Wachstumspotential;)
 
Zuletzt bearbeitet:
Weil bei so sachen kann man das gebrauchen , weil bei ströhmungslehre, je nach genauigkeit kann man nur von echtzeit träumen , selbst mit 8echten kernen :d und HT :d
 
Nicht nur Ströumgslehre sondern auch in der Mechanik, z.B. bei FT Berechnungen zur Bestimmung von Spannungslinien oder Verhalten von Stoffen unter bestimmten Bedingungen. Auf jeden Fall bringt es was bei sehr rechenintensiven Aufgaben die möglichst schnell erledigt werden sollen. Ich bin echt gespannt wie sich die GPU-CPU Geschichte in der näheren Zukunft weiter entwicklet und ob Projekte wie Fusion von AMD überhaupt eine Zukunft haben oder nur als Pilot-Projekt dienen.
 
naja Vordimensionieren und Auslegen hab ich nur immer von hand kleine stellen gerechnet :d

Das braucht man bei mir net soo sehr :d

Da gibt es andere läute für und wenn ne Rührwelle bricht net meine schuld :d
 
ob Projekte wie Fusion von AMD überhaupt eine Zukunft haben oder nur als Pilot-Projekt dienen.

AMD/ATI hätte es mit Fusion noch eher in der Hand was multifunktionales auf die Beine zu stellen als Intel mit ihren Manycore Projekten.

Deshalb verstehe ich nicht wieso man sich da so bedeckt hält auf diesem Einsatzgebiet bzw nicht mehr Recourcen dort konzentriert:hmm:

Man hat die x86 Architektur u auch die GPU Technologie in Form von ATI,bessere Vorraussetzungen kann man meines Erachtens doch gar nicht besitzen.

Übrigens AMD nennt sein Fusions Projekt APU (Accelerated Processing Unit)

Hört sich Indisch an:hmm:

Da hat wohl jemand zu oft die Simsons geschaut:fresse:

Also wird es wohl bald CPUs,GPUs u APUs geben
 
Zuletzt bearbeitet:
Hallo,

das Bild hier passt vielleicht ganz gut zum Thema des Threads:


Wie schon genant wurde, wird man bei Fastra II sicher weiterhin auf nVidia vertraut haben, weil man beim Vorgängerprojekt mit Cuda angefangen hat und mit dem Programmcode nicht nochmal von vorne anfangen wollte nur um dann wieder auf eine Herstellerspezifische Lösung zu setzen.

Ich bin jedenfalls auf die allgemeinen Standards (DirectCompute, ...) gespannt, weil man dann beide Bewerber besser miteinander vergleichen kann.
Vielleicht findet man dann beide in ein und demselben Großrechner, weil der eine Ansatz in einem Bereich besser ist und der andere dafür in einem anderen Bereich.

ciao Tom
 
Ich bin jedenfalls auf die allgemeinen Standards (DirectCompute, ...) gespannt, weil man dann beide Bewerber besser miteinander vergleichen kann.
Vielleicht findet man dann beide in ein und demselben Großrechner, weil der eine Ansatz in einem Bereich besser ist und der andere dafür in einem anderen Bereich.

ciao Tom

Eine allgemein gültige Platform wäre wünschenswert

Wenn AMD den Programmieren ein bisschen mehr unter die Arme greift,bei der Auslastung ihrer 5D Shader könnte das auch was werden.

Nur wie schon angemerkt wurde,der Mensch geht immer den Weg des geringsten Widerstandes u da sind die 1D Shader des Mitbewerbers z.Zt für App Entwickler die atraktivere Lösung.

Solange sich dort die Gegebenheiten nicht ändern wird auch Nvidia kaum daran gelegen sein ihre Cuda Platform in die sie viel Geld gepummt haben aufzugeben für DirectCompute;)
 
Zuletzt bearbeitet:
Sicherlich wird der Entwickler die Platform wählen, welche auch einfacher zu programmieren ist. Wenn die Firmen bzw. Kunden eh schon auf nVidia setzten und wissen, dass es funktioniert, welchen Grund sollte es geben zu wechseln. Wenn nVidia diesen Kunden nun eine Platform anbietet, mit der man mittels CUDA noch effizienter Berechnungen anstellen kann, lohnt es sich erst recht nicht zu wechseln (es sei denn, diese Lösung ist maßlos überteuert).

Eine einheitliche Platform die überall verwendbar ist wird es so in der Form nicht geben. Dies würde bedeuten, dass man jedes Produkt mit einander kombinieren kann. Die beiden Hersteller ATi und nVidia wären aber strikt dagegen, denn so würde manche Produkte einfach wegfallen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh