13 GPUs in einem Desktop-Supercomputer

RonnyD

Semiprofi
Thread Starter
Mitglied seit
30.10.2007
Beiträge
3.065
Asus-Mainboards ASUS P6T7 WS Supercomputer mit sieben PCI-Express-Steckplätzen, vier Nvidia GTX 295 (2PCB), zwei Nvidia GTX 295 (1PCB) und einer Nvidia GTX 275. Die Verwaltung in diesem Rechensystem übernimmt ein Intel Core i7 920. Diesem stehen dabei insgesamt zwölf Gigabyte Arbeitsspeicher zur Seite. Für ausreichende Stromversorgung stehen das Thermaltake Toughpower 1500W und drei zusätzliche Netzteile für einen 5,25"-Laufwerkschacht, die Thermaltake PowerExpress 450W, zur Verfügung. Untergebracht wird die gesamte Hardware in einem Lian-Li PC-P80 Armorsuit.


http://www.computerbase.de/news/allgemein/forschung/2009/dezember/13_gpus_desktop-supercomputer/
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So langsam wird es immer deutlicher, die CPU verkommt immer mehr zur Steuereinheit.
Die nächste Evolution ist dann tatsächlich, eine GPU mit integierter CPU und nicht umgekehrt.
Die Gewichtung ist entscheidend.
 
Naja, diese Deutung ist wohl eher ein Blick in die Glaskugel und bestimmt nicht auf alle Bereiche der PC Nutzung übertragbar.
 
Naja, diese Deutung ist wohl eher ein Blick in die Glaskugel und bestimmt nicht auf alle Bereiche der PC Nutzung übertragbar.

Wieso?
GpGpu ist ja auch kein Fremdwort mehr und ich mächte die unterstützung beim Encoden und auch in Photoshop nicht mehr missen.
Klar ist es noch Zukunftsmusik, aber sie wird immer lauter.
 
Interessant wird das für den Supercomputerbereich erst mit entsprechender Double Precision Leistung.

Aber interessant wie der 512 Core Cluster aus x86 Cpus gegen dieses System mit 13 GPUs in SP null Chancen hat bzw dieses System 4mal so schnell ist u dabei wesentlich weniger Energie schluckt als der Cluster.

Wie prekär wird die Lage im Supercomputingbereich werden für IBM u Co,wenn der Fermi hält was er verspricht

Ich sehe fast schwarz für herkömmliche Cluster,sowohl in der Leistung als auch in der Energieeffizienz,wenn ATI u Nvidia ihre GPUs in DP weiter anpassen können

Cpus werden wohl dann nur noch der Verwaltung dieser Rechencentren dienen u spielen bei der Berechnung selbst bald gar keine Rolle mehr
 
Zuletzt bearbeitet:
da bricht ja dann ein riesen markt für intel ein ;)

Nicht nur Intel wird ein Markt wegbrechen wenn das so weiter geht,auch die anderen Grössen aus dem Supercomputerbereich sind extremst gefährdet;)

Und wie wir wissen,kann die DP Performance bei Grafikkarten gesteigert werden,was gebe es in Zukunft dann noch für einen Grund auf energieschluckende CPU Cluster zu setzen;)
 
Zuletzt bearbeitet:
stimmt schon, wobei ich da noch nicht ganz sehe das nvidia die nachfrage annähernd befriedigen kann ;)
 
Noch läuft das Teil nicht wie gewünscht... Außerdem war erst ein Spezialbios von Asus nötig, damit das Board mit den 13 GPUs überhaupt bootet.
Und sobald wir in den "double precision"-Bereich gehen, brechen die GPUs einfach weg, daher sind die CPU-Supercomputer nicht in ihrer Allgemeinheit gefährdet.
 
stimmt schon, wobei ich da noch nicht ganz sehe das nvidia die nachfrage annähernd befriedigen kann ;)
Vielleicht sieht AMD/ATI ja auch bald die Notwendigkeit ein,auf diesem Gebiet aktiver zu werden;)

---------- Beitrag hinzugefügt um 23:29 ---------- Vorheriger Beitrag war um 23:28 ----------

Und sobald wir in den "double precision"-Bereich gehen, brechen die GPUs einfach weg, daher sind die CPU-Supercomputer nicht in ihrer Allgemeinheit gefährdet.
Du solltest das Wörtchen "noch" benutzen,denn Fermi steht in den Startlöchern u hat ein wesentlich gesteigertes DP zu SP Verhältniss als es noch beim G200 der Fall war;)

Ich sehe da schon in Naher Zukunft eine Bedrohung für Clustersysteme,wenn auch Cuda oder Stream sich den Gegebenheiten weiter anpassen können
 
Zuletzt bearbeitet:
Du solltest das Wörtchen "noch" benutzen,denn Fermi steht in den Startlöchern u hat ein wesentlich gesteigertes DP zu SP Verhältniss als es noch beim G200 der fall war;)
Ja, in idealen Benchmarks unter Idealbedingungen... Nicht alles lässt sich in shadern modellieren und massiv parallelisieren.
Warten wir ab, wie sich Fermi in anerkannten Benchmarks schlägt (Linpack und co).
 
Ja, in idealen Benchmarks unter Idealbedingungen... Nicht alles lässt sich in shadern modellieren und massiv parallelisieren.
Warten wir ab, wie sich Fermi in anerkannten Benchmarks schlägt (Linpack und co).

Linpack stand glaub ich schon auf den Folien von Nvidia "Vergleich zwischen G200 u Fermi"

---------- Beitrag hinzugefügt um 23:47 ---------- Vorheriger Beitrag war um 23:36 ----------

Passend dazu diese Meldung auf Golem

Australischer Supercomputer mit 256 Grafikprozessoren
64 Tesla-Module als Rackeinschub
http://www.golem.de/0911/71405.html

Und hier die Seite von dem Monster:eek:

http://www.csiro.au/resources/GPU-cluster.html#1
 
Zuletzt bearbeitet:
Kann jemand für mich kurz umreißen, warum GPUs so viel schneller sind in der Berechnung als CPUs?

Ist das so, weil man die Aufgaben parallelisiert und die GPU eine wesentlich höhere Parallelleistung hat, wohingegen ein CPU-Kern Aufgabe nach Aufgabe abarbeitet?
 
in dem bereich ist nunmal stock das maß der dinge ;)

---------- Beitrag hinzugefügt um 23:56 ---------- Vorheriger Beitrag war um 23:55 ----------

Kann jemand für mich kurz umreißen, warum GPUs so viel schneller sind in der Berechnung als CPUs?

Ist das so, weil man die Aufgaben parallelisiert und die GPU eine wesentlich höhere Parallelleistung hat, wohingegen ein CPU-Kern Aufgabe nach Aufgabe abarbeitet?

volltreffer, der kandidat darf sich rühmen, seien frage selbst beantwortet zu haben ;)
 
Kann jemand für mich kurz umreißen, warum GPUs so viel schneller sind in der Berechnung als CPUs?

Ist das so, weil man die Aufgaben parallelisiert und die GPU eine wesentlich höhere Parallelleistung hat, wohingegen ein CPU-Kern Aufgabe nach Aufgabe abarbeitet?

So in etwa stell dir die Frage wieviel "Shader Prozessoren" hat eine GPU u wieviele Kerne bzw Threads eine CPU.Wenn die Berechnung dann auf die Kerne/Shader aufgeteilt werden kann"Parallelisierung" ist eine GPU klar im Vorteil;)

Der zweite wichtige Aspekt für Supercomputer ist allerdings die Performance im DP Bereich,da waren bzw sind die GPUs von heute noch nicht in dem Maße konkurenzfähig.

Aber die neuen Generationen die dieses Manko beseitigen sollen,stehen ja schon in den Startlöchern
 
Zuletzt bearbeitet:
Sobald Fermi auf einem Dual-GPU-Board daher kommt, kommt sicher ein Upgrade. Denn das was die da machen, lechzt nach processing power.
 
Ist ein weiterer Vorteil nicht auch, das GPUs vergleichsweise einfach gestrickt sind? Eine CPU muss ja den gesamten x86-Befehlssatz abkönnen, mit allen möglichen Erweiterungen, wohingegen eine CPU nur wenige Befehle kennt und darum gleich loslegen kann, ohne großartig zu "übersetzen". Aber so gut kenn ich mich auf dem Gebiet nicht aus, bin mir da nicht sicher...
 
Sobald Fermi auf einem Dual-GPU-Board daher kommt, kommt sicher ein Upgrade. Denn das was die da machen, lechzt nach processing power.

Das denke ich auch das die da bald wieder ausbauen werden,somal die andere Hardware drumherum ja Bestandsschutz haben sollte;)

Und ein bisschen Sponsoring von gewissen Seiten scheint es da ja auch zu geben wie das dicke Logo im Hintergrund verrät
 
Ja, in idealen Benchmarks unter Idealbedingungen... Nicht alles lässt sich in shadern modellieren und massiv parallelisieren.
Warten wir ab, wie sich Fermi in anerkannten Benchmarks schlägt (Linpack und co).

So schauts aus. Eine GPU nutzt einem rein gar nix, wenn die Anwendung nicht mit der GPU redet.
Und ich waage zu bezweifeln, das wir zukünftig nur noch GPU Anwendungen sehen werden. Dafür kann die GPU zu wenig und die CPU ist zu sehr zur Eierlegenden Wollmilchsau mutiert in den letzten Jahren.
 
Die CPU war doch immer schon einen langsame Eierlegende.... Ich würde eher sagen das die GPUs in den letzten Jahren eine extrem schnell Ei-legende-Henne geworden ist. Zumindest was den großen Maßstab angeht. Ich weiß nich ob früher, sagen wir so im Zeitraum S3/ bis Gefurz 2 irgendwas mit General Purpose mit GPUs in verbindung gebracht wurde.

MFG Jubeltrubel
 
Das Problem ist nicht die schnelligkeit, sondern viel eher die unfelxibilität der GPU. Eine CPU kann quasi alles, eine GPU nur nen Bruchteil davon. Das dann aber richtig richtig fix ;)
 
Dafür kann die GPU zu wenig und die CPU ist zu sehr zur Eierlegenden Wollmilchsau mutiert in den letzten Jahren.

Zur Eierlegenden Wollmilchsau wäre sie vielleicht geworden wenn Larrabee bzw das gesamte Multicoreprojekt nicht den Bach runtergegangen wäre vorerst.

Dann hätte man was in der Hand gehabt gegen die Shader einer Grafikkarte;)

Aber wenn es so weiterläuft wie bisher werden einige Marktanteile im Supercomputerbereich in die Grafikabteilung überwechseln,somal Cuda und die Applikationen dafür auch nicht auf dem Uhrzeitlevel von GPGPU stehengeblieben sind.Tendenzen sind ja schon ganz klar erkennbar
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh