2*GPU => 2*fps!... Irgendwann mal möglich?

M.D. Geist

Enthusiast
Thread Starter
Mitglied seit
10.02.2008
Beiträge
2.586
Ich weiß, dass sowohl Ati mit XFire als auch Nvidia mit SLI dual oder gar mehr GPUs auf einmal ansprechen kann.

Allerdings verhindert die AFR-Technik afaik, dass da wirklich die doppelte Performance bei rauskommt. Bei gut optimierten sinds ja vl 50-60%, aber auch nur auf hohen Auflösungen... Auch zieht AFR die fiesen Microruckler nach sich...
Aber darum solls hier nicht gehen!

Mit DX11 und Windows7 vor der Tür, neuen GPU´s von ATI und NVidia in der mache, ist irgendwas in richtung Multigpuskalierung bei rausgekommen? Oder wenigstens angedacht ?


Intels Larrabee wäre auch son heißer Favorit.

Oder spielen da Games nicht mit ?

Dachte immer Computergrafik sei so mit das parallelisierbarste zum berechnen überhaupt...

Hatte nich diese eine Firma (Caustic oder so) auch was vor ?
Irgendwo isses doch bekloppt, sich wegen ein paar fps die zum flüssigen Spielen fehlen ne komplett neue Graka zu kaufen und die alte wegzuschmeißen... Immerhin gibts bereits Mobos mit mehr als 6 PCIE Slots...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Könntes auch gewesen sein... Irgendwer wollte mal ne andere Technik als AFR im dual GPU Modus anbieten. Aber war vielleicht nur ne Studie =(

---------- Beitrag hinzugefügt um 23:59 ---------- Vorheriger Beitrag war um 23:57 ----------

jo war hydra... schon 1 jahr her und letztes lebenszeichen im thread um märz
narf

http://www.hardwareluxx.de/community/showthread.php?t=510406&highlight=Lucid+Hydra&page=2

http://www.hardwareluxx.de/community/showthread.php?t=523287&highlight=Lucid+Hydra

wobei das wohl richtung HPC/server richtung ging... mit nv only und in rackmounts, wtf...
 
Zuletzt bearbeitet:
Im Laufe der Jahre skaliert zumindest normales SLI oder CF teils deutlich besser - im Optimalfall sind es + 70 - 80% !

ATI skaliert anscheinend mit CF noch ein wenig besser und schafft da zumindest bei der HD 4870 1GB auf 4870X2 teils bis zu knapp + 90% Leistung.
Ist halt immer vom Spiel her abhängig - es können z.B. bei CoD 5 - WoW (NV Domäne) auch mal nur + ~ 60% sein.

Bei 3 oder 4 GPUs geht der Zuwachs gegenüber normalem SLI bzw. CF bekanntlich ziemlich nach unten - hier sind + 40% Leistung schon als sehr gut zu bezeichnen.

http://www.computerbase.de/artikel/...i_crossfire_x/17/#abschnitt_performancerating


Ich denke mal, dass AFR noch weiter verbessert wird. Ein 100% Leistungsgewinn mit einer Alternative - Rendermethode wär natürlich optimal.

Ich habe da allerdings Zweifel, ob da was alternatives wie Hydra in den nächsten Jahren kommt.
 
exakt 100% oder mehr Leistungszuwachs werden wir wohl nie sehen...

Wie du schon sagtest, bringt hier AFR erhebliche Nachteile mit sich, aber es ist wohl vom Verwaltungsaufwand her das einfachste und somit derzeit best skalierendste...

Zu sagen wäre vllt noch, um so mehr GPUs mit rechnen bei AFR um so stärker werden Microruckler auftreten und um so größer wird das Inputlag werden, einfach aus dem Grund, weil die GPUs die Bilder im Vorraus berechnen, eine einzellne Usereingabe könnte somit die kompleten Bilder zunichte machen und zum neu-Berechnen zwingen...

Das Problem MR und Inputlag wird man aber nur mit anderen Rendermodi in den Griff bekommen, beispielsweise SFR...
Aber der Verwaltungsaufwand ist hier ungleich höher als bei AFR, was der Skalierbarkeit im Weg steht.
 
Zuletzt bearbeitet:
exakt 100% oder mehr Leistungszuwachs werden wir wohl nie sehen...

gabs aber schon mal ;)
sogar über 100% zuwachs, be 2 gpus und richtung 120% im vergleich zu 2 gpus bei 4en

aber das war zu voodoo-zeiten, die her wohl kaum noch einer in erinnerung hat ;)

generell stelle ich mri die frage wozu man bei der immer größer werdenen zahl an steam-prozessoren oder shadereinheiten noch ne zweite gpu braucht,

selbst wenn eine zweite karte 100% mehr leistung bringt wäre sie mir die 100% mehr preis und 100% mehr stromverbrauch nicht wert ;)

da ich fürchte das ein großteil der menschen so denkt wird die industrie da nicht so viel geld in die eintwicklung stecken, da die käuferschaft einfach zu klein sein wird als dass sich horrende summen in der entwicklung jemals rentieren
 
Zuletzt bearbeitet:
gabs aber schon mal ;)
sogar über 100% zuwachs, be 2 gpus und richtung 120% im vergleich zu 2 gpus bei 4en

aber das war zu voodoo-zeiten, die her wohl kaum noch einer in erinnerung hat ;)

Neja, das kommt wohl stark auf die Szene und das Spiel drauf an, den rein vom logischen kann eine theoretische Verdopplung der Leistung keine FPS im Bereich größer 2x herbringen...
In dem Fall wo man derartiges doch beobachten kann, scheint wohl anderweitig was zu limtieren bei der Single GPU Messung im Gegensatz zur Multi GPU Messung...

Bei damaligen 7300GT GDDR3 Tests hat man ähnliches auch schon gesehen ;)
 
das sli-system der voodoo-karten basierte nicht auf AFR sondern SFR, das bitte gleich mal vorweg, dazu kommt ein ganz anderes internes system, es funktionierte und war den anderen chiphersteller um meilen vorraus,
ich bin mir auch nicht mehr sicher b man beim voodoo-sli nicht sogar den speicher addieren durfte, da de rgemeinsam genutzt wirde, nicht wie heute getrennt (da bin ich aber wirklich nicht mehr sicher)
der untergang von 3dfx ist aber fakt, von daher... ;)
wen das interesiert, im pc-games forum findet man irgendwo den link zur geschichte dazu, die mehr als 100% zuwachs waren nicht so selten wie man denkt,
 
Die Addition vom Speicher könnte gut gewesen sein, wobei ich nie ein SLI Voodoo Gespann in den Händen hatte ;)
Aber bei heutigen Bandbreiten ist die Anbindung der zweiten GPU an den Speicher der ersten GPU einfach nur noch undenkbar, ohne massive Leistungsverluste hinnehmen zu müssen...
Damals war das halt alles noch bisschen einfacher...
 
naja, sagen wir mal so, qpi schafft das auf mainbords für xeons ja uch ;), sehe das weniger als problem an,die sli-cf brücke könnte ja auch gut pci- 8x breite haben ;) würde doch ausreichen ;)

der aufwand ist einfach enorm, und, afr einfach unpraktisch ;)
 
Soweit ich weiß wurde der Speicher (Bild-, NICHT Texturspeicher!) bei der Voodoo doch gemeinsam genutzt :)
Die ganze Sache mit AFR/SFR ist mMn nach nur ein Notbehelf und wird nie so wirklich funktionieren. Umso mehr Einheiten an der ganzen Sache beteiligt sind, desto mehr Verwaltungsoverhead hat man. Dieser wächst dann exponentiell.

Einfach mehr GPUs auf ein PCB packen und somit mehr Leistung erzielen geht nicht so einfach wie man sich das denkt. Eigentlich sollten die Hersteller erstmal ein bisschen mehr Grundlagenforschung betreiben und schauen, wie sie geeignete Algorithmen für einen "idealen" Scheduler schreiben damit der Overhead auf Softwarebasis so gering wie möglich gehalten wird ...
 
Zuletzt bearbeitet:
naja, sagen wir mal so, qpi schafft das auf mainbords für xeons ja uch ;), sehe das weniger als problem an,die sli-cf brücke könnte ja auch gut pci- 8x breite haben ;) würde doch ausreichen ;)

der aufwand ist einfach enorm, und, afr einfach unpraktisch ;)

Neja aber auch bei den Xeons ist das Problem die QPI Verbindung, wobei sich das ganze hier noch in Grenzen hällt, wenn man bedenkt, das ein Tripple Channel DDR3 Interface mit im Schnitt wohl so um die 20GB/sec im Praxiseinsatz agiert und beim QPI Interface ca. 5-6GB/sec durch gehen hällt sich der Abzug noch in Grenzen...

Aber den GPUs sieht das anders aus, man schaue auf die HD4870, dort gibts ~110GB/sec Speicherdurchsatz, würdest du nun ne 16x PCIe 2.0 Verbindung zwischen den GPUs erschaffen, kämst du dennoch nur auf ca. 8GB/sec, das sind nichtmal 10% von der Ursprungsbandbreite...

Und das mein ich damit ;) heute ist die Speicherbandbreite viel zu groß um diese gemeinsam nutzbar zu machen, ohne irgendwelche spezielle Anpassungen...
Ne extrem schnelle Crossbar für mehrere GPUs oder ähnliches wäre da schon was gutes, aber hier bleibt ebenso wieder die Realisierungsfrage, denn diese Verbindung extern über das PCB zu realisieren halte ich für schwierig bis unmöglich, intern in einem DIE aber machbar, nur bleibt dann ebenso wieder die Frage warum zwei Cores in einen DIE, wenn auch ein Core mit doppelter Ausführungseinheiten-Menge machbar wäre ;)


@PCZeus
beim SFR sollten zumindest das Inputlag und die MR Geschichte sein, ebenso sollte das ganze bei einigermaßen anstendiger Lastverteilung auch sehr sehr gut skalieren, nur bleibt eben der imense Verwaltungsaufwand um die Last punktuell und dynamisch für jedes Einzellbild optimal auf alle Recheneinheiten zu verteilen...
 
Hachja... VooDoo II SLi... das waren noch Zeiten :drool:
Aber auch die VooDoo I war schon killer (Im Vergleich zur Riva 128). :shot:


²T: Zumindest bei AMD könnte ich mir vorstellen, dass AFR nichtmehr
lange zum Einsatz kommen wird, sondern die Direct Connect Architecture
mit HyperTransport-Links (deren Latenz geringer ist als die von PCIe)
Einzug in den GPU Sektor halten könnte.

Allerdings werden wir das frühestens bei dem Nachfolger des bald erscheinenden
RV870 zu sehen bekommen, da afaik selbst dieser schon stand, als AMD ATi aquiriert hat.

Ansonsten würde auch RayTracing eine bessere Parallelisierbarkeit erlauben,
aber ob und wann das jemals als alleinige Rendertechnik zum Einsatz kommt,
wird sich erst noch zeigen müssen.

Auf Larrabee bin ich auch noch gespannt, der könnte die Verschmelzung von
CPU und GPU stark vorantreiben. Vllt. sehen wir ja auch einen Bulldozer, der
Berechnungen an eine per HTX angebundene Grafikkarte verteilen kann?

Ich würde also sagen, dass sich in dieser Richtung schon viel tun wird, allerdings
frühestens mit der nächsten Generation. Vllt. überrascht uns aber auch
nV mit dem G300?


Grüße,
Mr.Malik
 
@Mr.Malik
Raytracing könnte da in der Sache Abhilfe schaffen, aber Raytracing ist leider nur die andere Seite des Schwerts, denn auch Raytracing bietet teilweise erhebliche Nachteile wie es jetzt bei der Rasteriesierung der Fall ist, zwar in anderen Bereichen, aber es sind ebenso welche vorhanden, was die Rasteriesierung erheblich besser kann...

Ein Mix aus beiden, sprich die Vorteile von beiden wäre wohl wünschenswert, aber ob sowas jemals kommen wird, bleibt abzuwarten ;)
 
@fdsonne: Deshalb ja der "aber" Satz dahinter ;)

Zu QPI: QPI mit 3,2 GHz hat 6,4 GT/s, allerdings resultiert das in einer Bandbreite
von 12,8 GB/s je Richtung, oder 25,6 GB/s bidirektional.

HyperTransport 3.1 kommt bei 3,2 GHz immerhin schon auf 25,6 GB/s je Richtung,
oder 51,2 GB/s bidirektional.
Mit 4 HT 3.1 Links würde man damit immerhin schon 102,4 GB/s je Richtung
erreichen. Allerdings würde das leider ja nur für die Verbindung von 2 GPUs
reichen, aber immerhin.


Grüße,
Mr.Malik
 
der verwaltunsaufwand bei sfr ist mMn nicht so das problem, immerhin kann man jeder gpu eine zeile des bildes geben an de rgerendert wird nd dann die nächste...

das ist meiner meinung nach wenige rproblematisch als 2 oder mehr bilder gleichzeitig zu berechnen, diese dann gedämpft auszugeben und bei ner unerwarteten änderung gleich mehrere bilder verwerfen zu müssen

afr ist in meinen augen die schlechteste möglichkeit mehrere gpus zu nutzen, sfr ist da in meinen augen viel sinnvoller, weil immerhin das das bild schon definitiv fest steht und sich nicht bei de rberechnung plötzlich ändert

zum thema link, zwischen den karten,die 8x breite war auf die mechanisch breite der verbindung gemeint, nicht die elektrische, das man d was mit deutlich mehr als 80GB/s braucht war mir schon klar ;)
 
@fdsonne: Deshalb ja der "aber" Satz dahinter ;)

Zu QPI: QPI mit 3,2 GHz hat 6,4 GT/s, allerdings resultiert das in einer Bandbreite
von 12,8 GB/s je Richtung, oder 25,6 GB/s bidirektional.

HyperTransport 3.1 kommt bei 3,2 GHz immerhin schon auf 25,6 GB/s je Richtung,
oder 51,2 GB/s bidirektional.
Mit 4 HT 3.1 Links würde man damit immerhin schon 102,4 GB/s je Richtung
erreichen. Allerdings würde das leider ja nur für die Verbindung von 2 GPUs
reichen, aber immerhin.


Grüße,
Mr.Malik

Ja gut, für die Bandbreite ansich würde sowas machbar sein, aber wie ereicht man eine ähnlich niedrige Latenz wie bei direkter Speicheranbindung?

Man sieht ja recht schön wie stark teilweise das Ändern der Timings bei aktuellen CPUs mit MC die Performance steigen/sinken lässt, sprich wenn die Latenz sinkt, bleibt mehr Performance übrig...
Im GPU sollte das noch viel stärker ausfallen...

Und das nächste Problem wäre wohl, bei einem derartigen Vorhaben müsste man die Memory Bandbreite pro GPU nochmals drastisch erhöhen (50%+)
Da bei nem Zugriff der anderen GPU die eigene GPU nicht zu kurz kommen darf...

der verwaltunsaufwand bei sfr ist mMn nicht so das problem, immerhin kann man jeder gpu eine zeile des bildes geben an de rgerendert wird nd dann die nächste...

das ist meiner meinung nach wenige rproblematisch als 2 oder mehr bilder gleichzeitig zu berechnen, diese dann gedämpft auszugeben und bei ner unerwarteten änderung gleich mehrere bilder verwerfen zu müssen

afr ist in meinen augen die schlechteste möglichkeit mehrere gpus zu nutzen, sfr ist da in meinen augen viel sinnvoller, weil immerhin das das bild schon definitiv fest steht und sich nicht bei de rberechnung plötzlich ändert

zum thema link, zwischen den karten,die 8x breite war auf die mechanisch breite der verbindung gemeint, nicht die elektrische, das man d was mit deutlich mehr als 80GB/s braucht war mir schon klar ;)

Mhh, in der Theorie würde ich dir da sogar zustimmen, aber in der Praxis läuft das irgendwie gänzlich anders, SFR bringt oft nur sehr wenig Performance, AFR hingegen funkt eigentlich immer sehr gut...

Bei SFR wird ja das Bild zu gleichen (Last)Teilen auf die GPUs verteilt, sprich es wird nicht Zeilen oder Pixel-weise verteilt, sondern es wird geprüft, wie viel Bild wie viel Last erzeugt und dann für jedes Bild eine in etwa gleicher Berechnungsaufwand an die GPUs gesendet...
Die Frage ist dabei, wie viel Overhead bleibt beim auseinandersetzen/zusammensetzen über und was passiert zum Beispiel, wenn mitten in der Bruchstelle irgendwas aufwendiges passiert? Wie eine Rauchbildung oder Explosion?
Die Berechnung muss ja von dem Ursprungspunkt aus stattfinden, sprich beide GPUs müssten dann die Berechnung ausführen um zu wissen, wie sich der Rauch oder die Explosion ausbildet...

Um das mal zu verdeutlichen, wenn im unteren Bereich bei GPU1 Rauch erzeugt wird, dieser sich nach und nach auf den Bereich von GPU0 ausbreitet, müsste GPU0 ebenso die Rauchentwicklung berechnen um zu wissen, wie sich der Rauch ausbreitet und das das ganze am Ende ein stimmiges Bild ohne Versatz ergibt...
Das mein ich mit Verwalungsaufwand...

Statische Bilder sollten sich im SFR deutlich einfacher händeln lassen, aber die GPU rendert ja nicht nur das Bild als Bild, sondern muss erstmal den Code berechnen, der das Bild erzeugt...
 
Zuletzt bearbeitet:
ok, das stimmtso auch wieder
da muss ich dir wieder recht geben,


ich glaub beide möglichkeiten sidn nicht der weisheit letzter schluss ;)
 
ich glaub beide möglichkeiten sidn nicht der weisheit letzter schluss ;)

Eben, wie eigentlich das ganze Thema Multi GPU ansich...
Es handelt sich meiner Meinung nach nur um eine kostengünstige Leistungssteigerungsmethode. Wem die Leistung ner Single GPU nicht reicht muss halt mit den Nachteilen leben.

Ob sich das jemals ändern wird, bleibt abzuwarten, vor allem wenn man auf Intels Larrabee blickt muss Intel aber da ne recht brauchbare und intelligente Lösung im Petto haben, da ja dort gleich einiges an Cores verwendet werden...
Ob sich derartiges 1:1 auf "echte" GPUs übertragen lassen wird, bleibt denke ich mal abzuwarten, so richtig sehe ich da aber noch keinen Lösungsansatz... ;)

Eine ähnliche Diskusion läuft ja grad HD5000 Speku Thread, man könnte wohl durch ein natives Design und die damit verbundene schnelle Kommunikation Probleme in den Griff bekommen, aber das wäre dann im Grunde keine Multi GPU Lösung mehr, sondern wiederum ne SingleGPU mit mehr Ausführungseinheiten...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh