• Hallo Gast!
    Noch bis zum 10.05. kannst Du an unserer Hardwareluxx Hardware-Umfrage 2026 teilnehmen! Als Gewinn verlosen wir unter allen Teilnehmern dieses Mal ein Notebook für bis zu 1.800 EUR - über eine Teilnahme würden wir uns sehr freuen!

nvidia SLI vs. alienware video array

DoubleJ

Redakteur , Moderator
Thread Starter
Mitglied seit
02.01.2004
Beiträge
9.605
Ort
Südhessen
moin,

wollte mal fragen was ihr von den beiden technologien haltet, besonders im vergleich zueinander... würde mich sehr interessieren

SLI:
- load balancing
- leistungssteigerung 80-100%
- max. 2 karten vom gleichen typ

video array:
- kein load balancing
- leistungssteigerung max. bis zu 75%
- bis zu 4 grafikkarten
- karten müssen nicht gleich sein (z.b. eine 6800 gt und eine ultra)

insgesamt finde ich sli besser, weil mehr als 2 grakas wirklich übertrieben teuer sind und die leistungssteigerung bei 2 grakas höher ist als beim video array (vermutl. wegen load balancing?)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich neige auch eher zu SLI. Alienware kann mich mit deren Preispolitik mal kreuzweise am... ne, ihr wisst schon.

Aber andererseits stelle man sich mal 4 Geforce 6800 Ultra Karten im Verbund vor die jeweils noch durch Minus Temperaturen ins Unendliche übertaktet sind...

3DMurks03 = 70000 Punkte :lol:

4 Karten sind voll der Unsinn, 2 sind ja schon böse.

2 Karten zu kaufen bin ich aber bereit. GT's denke ich mal...
 
Sowas gibts schon:
http://www.forumdeluxx.de/forum/showthread.php?t=70026&highlight=nvidea+sli
Haltet euch mal nicht an Prozentzahlen der Hersteller fest, das ist echt schwachsinnig. Grade nVidia ist großzügig was angeblich Performancesprünge angeht. Und 4 Karten sind kein Unsinn, vergesst nicht das diese Systeme nicht nur zum Spielen sind.

Alienware kann mich mit deren Preispolitik mal kreuzweise am... ne, ihr wisst schon.
Aha.
Wenn deine Aussage bedeuten soll, das du findest das Alienware teuer ist, solltest du ein paar Zeilen drunter nicht schreiben das du bereit bist die 2 Gts zu kaufen.
 
Nvidia wird mit dem SLI aber wohl mehr Erfolg haben. Denn die haben damals ja 3dFx aufgekauft und die hatten mit SLI ja uch schon einen riesen Erfolg.
Das wird auf jeden Fall was ganz dickes. :drool:
 
andere frage... wenn man z.B. 2 ultras kauf... woher bekommt man den verbindungsstecker? für paar 100€ extra oder wo???
 
4 Grakas...man ich stell mir jetzt so 4 mal die 6800 Ultra mit Wasserkühlung vor :d
 
Also ich finde die Softwarelösung von Alienware besser. Nachdem ATi letztens bei einem Interview auch durchblicken lassen hat, dass man sich eine Softwarelösung wie diese von Alienware gut vorstellen kann.

Das ganze ist einfach schneller durchzusetzen und dynamischer, schließlich brauche ich z. B. nicht zweimal die gleiche Grafikkarte. So kann ich z. B. in einem neuen Rechner meine alte Grafikkarte weiterverwenden.

Schaut euch nur die Leute an, die jetzt eine x800 kaufen und davor schon eine 9800 hatte, die eigentlich immer noch genug Leistung hat, dann brauch ich Theoretisch nicht meine alte Grafikkarte auf den Müll werfen. Es wäre auch möglich ATi und nVidia-Karten zu komprimieren und so die jeweiligen Stärken beider Karten ausnutzen. Darum bin ich für eine Softwarelösung.
 
Stimmt dann würde miene Geforce 2 GTS ein Comeback starten :d
 
kaiser schrieb:
andere frage... wenn man z.B. 2 ultras kauf... woher bekommt man den verbindungsstecker? für paar 100€ extra oder wo???

die sollen jeder retail-karte beiliegen, also kein problem :d

sycho schrieb:
Haltet euch mal nicht an Prozentzahlen der Hersteller fest, das ist echt schwachsinnig. Grade nVidia ist großzügig was angeblich Performancesprünge angeht.

meinst du das nvidia so übertreibt? ich dachte da beides angaben der "hersteller" sind, könnte man das so ungefähr vergleichen...


was mir an dem video array halt nicht gefällt ist das es kein load balancing gibt... ich denke dadurch geht ein bisschen leistung verloren, und was ist wenn man 2 ungleiche karten hat? da bremst die langsamere die schnellere doch nochmal aus, oder?
 
Ich werde mir ja so ein 6800ultra SLi zulegen, das ist schon beschlossene Sache und dafür geh ich die ganzen Ferien lang jeden Tag buckeln. Naja was ich mich abr schon länger frage wie das mit dem Strom funktionieren soll, da die 6800u für jeden ihrer Stromanschlüsse ne eigene 12vLeitung braucht wären das bei 2 Karten ja satte 4 eigenständige Leitungen, da bleibt ja nix mehr übrig für die LAufwerke. Wollen die für SLI Systeme spezielle Netzteile bringen oder wie soll des gehen? Gespannt bin ich auch auf die nforce 4 SLi Boards, werden sicherlich nicht wenig kosten wegen dem höheren Aufwand da die 2 PCI Express 16x Steckplätze ja einiges an Leiterbahnen verbrauchen.
 
TheRealPredator schrieb:
Naja was ich mich abr schon länger frage wie das mit dem Strom funktionieren soll, da die 6800u für jeden ihrer Stromanschlüsse ne eigene 12vLeitung braucht wären das bei 2 Karten ja satte 4 eigenständige Leitungen, da bleibt ja nix mehr übrig für die LAufwerke. Wollen die für SLI Systeme spezielle Netzteile bringen oder wie soll des gehen?

Kudie schrieb:
haben die pci-e karten nicht nur einen Stromanschluss da der pci-e mehr Saft liefert?

öhm, die pci-e grakas haben doch diesen speziellen 6-poligen anschluss, siehe hier: http://www.hardwareluxx.de/Images/Nocona/geforce6800sli2.jpg ( :drool: )
 
Hört sich ja alles ganz Lustig an....
Für den Fall das Sich SLI oder Video Array tatsächlich durchsetzten sollte, Warte ich auf jedenfall noch ein oder 2 Grakagenerationen und was viel wichtiger ist Chipsatzgenearationen ab.

1. Ob sich das durchsetzt (also sagen wir mal in 5 Jahren oder so) noch zu finden sein wird ist sehr fraglich und das aus mehreren Gründen.

Selbst wenn manche Leute bereit sind ihr ganze Vermögen einzusetzen um sich so ein System zuzulegen (was ich keineswegs Verurteile) so stellt sich noch die Frage ob sich genug leute SLI systeme (Karten und Boards) kaufen , dass es für die Firmen auch noch Rentable ist den Kram weiter zu entwickeln.

2. Vor gar nicht langer Zeit gefiel mir die Vorstellung eines Dual-Prozessor-Systems. Jetzt liest man, dass AMD 2005 Dual-Core und 2007 Quad-Core bringen will (ob das zu den genannten Terminen geschiet kann man sicherlich noch nicht sagen) dennoch dürfte eine CPU mit Dual-Core besser und erschwinglicher sein als ein Dual-System. Besser da bei einem Dual-System OS und Software 2 Prozzis unterstützen müssen um das Performance Plus auszuschöpfen.
Und das 1 CPU mit Dual-Core günstiger sein dürfte als als 2 MP - Prozessoren Plus Board ist wohl klar.
Da stellt sich doch die Frage - Warum nich einfach ne GPU mit Dual-Core bauen?

- Nur ein Slot wird benötigt.
- Keine Probleme mit der Stromversorgung
- Generell weniger aufwand
- Höchstwahrschein auch güstinger zu entwickeln.

3. Als ich das erste mal von SLI hörte war ich auch begeistert, was sich jedoch relativierte als ich mir ein paar hintergundinformationen besorgte:

Feststeht der nForce 4 auch die SLI Variante unstützt nur 20 PCIe-Lanes die führt dazu, dass bie 2 PCIe 16x Slot jeder nur 8 Lanes anstatt 16 bekommt. Im Moment ist das nicht weiter tragisch, da alle Karten so konzipiert sind das AGP 8x Vollkommen ausreichend ist, was die Bandbreite angeht, so dass die theoritisch mögliche PCIe 16x Bandbreite gar nicht genutzt wird. Allerdings denke ich das die Hersteller die größere Bandbreite von PCIe in Zukuft gerne nutzen würden ... hätte zur folge, dass wenn ich ein SLI system mit der nächstn Graka generation betreiben würde SLI an sich zu nem Flaschenhalls führen könnte. Da keine der Beiden Karten die volle Bandbreite nutzen kann. Ob es dann wieder en neunen Chipsatzt gibt ist fraglich, da der ja auch wieder Entwicklungskosten mit sich bringt und wirklich nur für Leute die SLI wollen und auch bezahlen können interessant wäre und ob das genung sind um sowas zu finanzieren weiß im mom wohl keiner.

4. Video Array ist sehr neu und SLI wird wohl auch etwas anders ablaufen als zu Voodoo zeiten, so dass ich wenn ich mir jetzt ein SLI oder Video Array System kaufe alle Kinderkrankten der neuen Technik mitbekomme. Nur um in ein oder 2 Jahren festzustellen, das DUAL-GPU (welche es ja auch schon bei Voodoo gab und damit der nächste logische entwicklungsschritt wäre wenn man das was Voodooo gemacht hat auf heute Standarts überträgt) doch die bessere alternative ist?

Aus diesen Gründen stehe ich beiden Systemen noch mit gewisser Skepsis gegenüber.

mfG
Satan

PS: Viedo-Array mit 4 Grakas? Es gab da mal ne Voodoo mit mit 4 GPUs ... die hat es auch nicht bis in das System des Entkunden geschaft.
 
Zuletzt bearbeitet:
Satan schrieb:
Da stellt sich doch die Frage - Warum nich einfach ne GPU mit Dual-Core bauen?

- Nur ein Slot wird benötigt.
- Keine Probleme mit der Stromversorgung
- Generell weniger aufwand
- Höchstwahrschein auch güstinger zu entwickeln.

nun dazu gibt es wohl mehrere gründe... die voodoo 5 6000 (die ja leider nie richtig produziert wurde) hatte 4 gpus. nur überleg dir mal was die gpus für eine verlustleitung damals hatten und heute haben!
- wenn schon eine 6800u gpu eine dualslot kühllösung brauch, was brauchen dann erst zwei?!
- keine probs mit der stromversorgung? 2 gpus brauchen doppelt so viel wie eine gpu...
- weniger aufwand? es war schon bei agp sehr kompliziert (vgl. xgi duo karten) 2 gpus auf einer karte zu betreiben, weil ja schließlich die beiden gpus untereinander kommunizieren müssen. was ich so gelesen habe (bitte ggf. korrigieren) wird sowas bei pci express noch schwerer zu realisieren sein

weiter hast du gesagt das es fraglich ist ob sich viele leute so ein system kaufen würden (z.b. wegen kosten). meinst du eine graka mit 2 gpus kostet weniger?

usw, usw...

Satan schrieb:
Feststeht der nForce 4 auch die SLI Variante unstützt nur 20 PCIe-Lanes die führt dazu, dass bie 2 PCIe 16x Slot jeder nur 8 Lanes anstatt 16 bekommt.

der nforce 4 hat 32 lanes. macht einen 16x pge und einen 8x pge slot, es bleiben noch 8 weitere lanes für sonstiges. grakas haben ja kaum agp 4x ausgereizt. agp 8x ist doppelt so schnell, pice 16x viermal so schnell. und agp8x ist auch laaaaaaange noch nicht am ende, jedenfalls was die bandbreite betrifft. bis grakas mal einen 16x slot nötig haben, gehen noch einige jahre ins land. bis dahin kauft man sich eh einen komplett neuen computer!

Satan schrieb:
PS: Viedo-Array mit 4 Grakas? Es gab da mal ne Voodoo mit mit 4 GPUs ... die hat es auch nicht bis in das System des Entkunden geschaft.

ja, weil 3dfx pleite gegangen ist, da sie nichts gegen die neue generation von nvidia damals vorzuzeigen hatten! und natürlich nicht zu vergessen die argumente die ich oben schon aufgeführt habe... hitzeentwicklung bei 4 6800u gpus auf EINER karte...?! was für einen kühlkörper brauch man da, oder wird gleich LN2 mitgeliefert.. :fresse: ?
 
Zuletzt bearbeitet:
Also ich weiss ja nicht, aber 3DLabs schaffen es auch irgendwie mehrere GPUs und mehrere Rasterizer-Chips und 512MB speicher auf eine Karte zu bringen und dabei Hitzeentwicklung und Energieversorgung unter Kontrolle zu halten.

Okay, die Karten sind für AGP Pro50 ausgelegt aber was hält die anderen Grafikkartenhersteller davon es genau so zu tun als auf so eine schwachsinnige Idee zu kommen, wie einen extra Stromanschluss auf die Karte zu löten?

Und wo soll denn bitte das Problem liegen 4x 6800 zu kühlen? Eine Wakü und hat sich die Sache.

'cuda
 
Öhm 4 Gpu´s mit je 100Watt wären 400Watt + Cpu 100W


das wird selbst mit ner Wakü hart

Gruß
 
Das ist doch scheissegal, ob ich jetzt 4 GPUs auf einer Karte habe oder 4 GPUs auf 4 Karten, oder?

Vor allem wie will man die ganze Scheisse mit Saft versorgen?????

'cuda
 
sycho schrieb:
Wenn deine Aussage bedeuten soll, das du findest das Alienware teuer ist, solltest du ein paar Zeilen drunter nicht schreiben das du bereit bist die 2 Gts zu kaufen.

wieso denn?! zwei 6600GTs sind vom preis her noch ganz vernünftig
wenn eine ~250€ kostet, würde ich mir eher 2 6600GT holen anstatt eine 6800ultra ....

außerdem haben softwares es an sich nicht richtig zu funktionieren, zumahl ein zusätzlich latenz durch eine software die erst die "arbeit an die grakas verteilen" muss durchaus nachteilhaft ist ...

sli ist meiner meinung nach die bessere lösung, allein schon weil alienware ihre lösung für sich behält und deshalb versuchen wird die preise oben zu halten ...

mfg emerald
 
Zuletzt bearbeitet:
...sli ist meiner meinung nach die bessere lösung...

Meiner Meinung nach ist SLi auch besser als das Alienware-System, aber beides wurde noch nicht von seriösen Testern getestet, deswegen einfach mal abwarten.
...allein schon weil alienware ihre lösung für sich behält und deshalb versuchen wird die preise oben zu halten ...
Ach, und was mach NVIDIA? Die haben das auch patentiert ;)
Wären ja auch schön blöd wenn nicht. Das würde jeder Geschäftsmann genauso machen.
 
Zuletzt bearbeitet:
[QUOTE='cuda]Und wo soll denn bitte das Problem liegen 4x 6800 zu kühlen? Eine Wakü und hat sich die Sache.[/QUOTE]

ja klar! nicht jeder will eine wakü bzw. hat die möglichkeit eine wakü zu verbauen und schließlich kostet sie ja auch einiges. und stell dir mal vor nvidia liefer eine graka mit 4 gpus aus, standardmäßig mit wasserkühler. was meinst du wieviele die noch kaufen würden (zu wenige jedenfalls!) ??

ich halte SLI/video array für vielversprechender als eine dual/triple/quad-gpu-graka, wegen den argumente die ich oben ja bereits aufgeführt habe
 
Hallo???????

Meinst Du ernsthaft, dass jemand, der sich so ein System kauft/kaufen will keine ausreichenddimensionierte Wakü hat? Und noch was, der so viel Geld für so ein Scheiss ausgibt, wird sich auch eine Wakü kaufen.

Und ich frage nochmal, wo liegt das Problem eine Grafikkarte mit 4 GPUs zu bauen? Das ist doch sowas von scheissegal, ob ich jetzt eine grafikkarte mit 4 GPUs habe die im SLI arbeiten oder 4 Grafikkarten habe, die ebenfalls im SLI arbeiten? Und führt euch auch mal das Stromversorgungsproblem vor Augen...

'cuda
 
[QUOTE='cuda]Meinst Du ernsthaft, dass jemand, der sich so ein System kauft/kaufen will keine ausreichenddimensionierte Wakü hat?[/QUOTE]

ich will mir zwar keine 4 grakas kaufen, aber ein SLI ist für nächstes jahr fest einprogrammiert. mal abgesehen das ich dafür jeden euro sparen muss und so nichts mehr übrig bleibt, nichtmal fürn cdrom laufwerk, würde ich mir auch nie eine wakü holen... dieses "wenn man sich das kauft kann man sich auch gleich das noch kaufen" passt mir eben überhauptnicht, das kann eben nicht jeder!

[QUOTE='cuda]Und führt euch auch mal das Stromversorgungsproblem vor Augen...[/QUOTE]

meinst du eine graka mit 4 gpus braucht wesentlich weniger als 4 grakas mit einer gpu?


p.s. wenn eine dual gpu graka so einfach wär warum wurden dann nicht schon entspr. produkte angekündigt? zumindest ati muss sich dringend was einfallen lassen, wenn sie nich im schatten von nvidia + sli stehen wollen!
 
Zuletzt bearbeitet:
DoubleJ schrieb:
meinst du eine graka mit 4 gpus braucht wesentlich weniger als 4 grakas mit einer gpu?

von dir wird jetzt eh wieder ein entsprechender konter kommen, deswegen: ich warte auf sli, du auf dual/quad gpu-grakas und jeder ist zufrieden...
Natürlich nicht, die wird genau so viel verheizen. Mit der Frage habe ich nur das gemeint, dass man dann ein 1kW Netzteil braucht.....

Wenn Du Geld wie Scheisse hast, nur zu, ich werde Dich ganz bestimmt nicht davon abhalten. Ich halte wie gesagt beide Lösungen für einen ausgesprochnen Schwachsinn.

Es sind halt Sachen, die kein Mensch wirklich braucht, aber wenn sie mal angekündigt werden, wird an jeder Ecke gebrühlt "ja, fett, geil, das braucht man unbedingt". Keiner weisst, was die SLI-Lösung überhaupt geschwindigkeittechnisch bringen wird, aber jeder brühlt rum, ja das braucht man.

Das mit dem "Im Schatten von nVidia und SLI stehen" würde ich ganz ausser Acht lassen. Keiner weisst, was ATI in der Schublade hat.

Und zu Deinem PS: Es gibt Dual-GPU Grafikkarten, nur nicht für Gamerbereich.

'cuda
 
[QUOTE='cuda] Wenn Du Geld wie Scheisse hast, nur zu, ich werde Dich ganz bestimmt nicht davon abhalten. Ich halte wie gesagt beide Lösungen für einen ausgesprochnen Schwachsinn. [/QUOTE]

das habe ich sicherlich nicht, weswegen mich das "wer sich das leisten kann kann sich auch locker noch ne wakü kaufen" so störend fand.

[QUOTE='cuda]Es sind halt Sachen, die kein Mensch wirklich braucht, aber wenn sie mal angekündigt werden, wird an jeder Ecke gebrühlt "ja, fett, geil, das braucht man unbedingt". Keiner weisst, was die SLI-Lösung überhaupt geschwindigkeittechnisch bringen wird, aber jeder brühlt rum, ja das braucht man. [/QUOTE]

stellt sich raus das SLI der absolute flopp ist werde ich mir selbiges sicher nicht zulegen, bei einem ordentlichen peformance plus halte ich das aber durchaus für ok...

[QUOTE='cuda]Und zu Deinem PS: Es gibt Dual-GPU Grafikkarten, nur nicht für Gamerbereich.[/QUOTE]

ja ich weiß, XGI hat auch dual gpu grakas... und das sogar für gamer :) nur leider sind die treiber halt nix, aber das is ja ne andere geschichte... haben die gpus dieser cad grakas denn eine vergleichbare verlustleistung wie die 6800u.. ?!
 
DoubleJ schrieb:
stellt sich raus das SLI der absolute flopp ist werde ich mir selbiges sicher nicht zulegen, bei einem ordentlichen peformance plus halte ich das aber durchaus für ok...
Was heisst für Dich "bei einem ordentlichen peformance plus". Ich würde mir bei +50% definitiv kein Spezialboard + 2 Karten + ein fettes Netzteil kaufen.

DoubleJ schrieb:
ja ich weiß, XGI hat auch dual gpu grakas... und das sogar für gamer :) nur leider sind die treiber halt nix, aber das is ja ne andere geschichte... haben die gpus dieser cad grakas denn eine vergleichbare verlustleistung wie die 6800u.. ?!
Scheiss auf XGI, die habe ich nicht gemeint. Die GPUs einer CAD-Karte haben wesentlich kleinere Verlustleistung als irgendwelche 6800, mal ganz davon abgesehen, dass sie viel mehr Dampf haben. Schau Dir einfach die Specs der 3DLabs Wildcat 4 7210 an. Und dann noch die Kühlvorrichtung der Karte.

Irgendwas scheint nVidia völlig falsch zu machen, wenn ihre Karten eine so bestialische Verlustleistung haben. Wenn ich mir so die ATIs anschaue mit ihren kleinen und leisen Lüfter (und in etwa gleicher Leistung), dann verstehe ich es nun wirklich nicht.

'cuda
 
Zuletzt bearbeitet:
der nforce 4 hat 32 lanes


http://www.k-hardware.de/news.php?s=&news_id=3158

Die Basic Variante wird einen ähnlichen Funktionsumfang wie der nForce3 250Gb haben, er wird allerdings um 7.1 Audio (also HDA) und PCI-Express (ein PEG x16 Slot sowie vermutlich 2 x1 Slots) erweitert. Die Ultra Variante bietet zusätzlich SATA 300, also Serial-ATA in der neuen, schnelleren Version. Somit dürfte die Ultra Variante Features wie Native Command Queuing (NCQ) unterstützen. Weiters verfügt sie über eine verbesserte Firewall (im nForce3 250Gb war erstmals eine Firewall inkludiert).
Die SLI Variante bietet zusätzlich zu der Ultra Variante den SLI Modus. Da der nForce4 MCP nur 20 PCIe Lanes unterstützt, verwendet NVIDIA eine Schaltung die entweder 16 Lanes auf einen PEG-Slot schaltet oder jeweils 8 Lanes auf zwei PEG-Slots. Außerdem gibt es noch eine Pro Variante, die für den Server- und Workstationmarkt gedacht ist.

Zugegeben ich habe auch schon mal irgendwo gelesen, dass er ein Maximum an 32 Lanes unterstützen kann .... stellt sich die Frage ob sowas jemals gebaut wird.

- wenn schon eine 6800u gpu eine dualslot kühllösung brauch, was brauchen dann erst zwei?!!

2 Werden auch nicht mehr brauchen oder glaubst du, dass da AMD nächstes Jahr mit ner DUAL-Core-CPU auch noch ne Komplett neue Kühlung einführen wird? Ich weiß es nicht, halte es jedoch für unwahrscheinlich. Das Gleiche gilt für die Stromversogung, durch die Fertigung in immer kleineren Dimensionen ist auch immer weniger spannung nötig um den Chip zu betreiben. Deiner Aussage könnte man so interpretieren, dass Stromvergleich proportional zur leistung ansteigt.... Wenn man sich da die ersten Rechner anschaut die noch en ganzes Gebäude brauchten und der Stromverbrauch, dann müsste jeder Heimrechner heute en eigenes AKW benötigen.

... dieses "wenn man sich das kauft kann man sich auch gleich das noch kaufen" passt mir eben überhauptnicht, das kann eben nicht jeder!

Da stimme ich zu, nur:

bis dahin kauft man sich eh einen komplett neuen computer!

Steht die Aussage nich irgend wie im Gegensatz zum ersten Statement? Ich gebe doch wohl kaum €1000 oder mehr nur für Grakas aus um mir 2 Jahre später en neues system zu kaufen oder?

weiter hast du gesagt das es fraglich ist ob sich viele leute so ein system kaufen würden (z.b. wegen kosten). meinst du eine graka mit 2 gpus kostet weniger?

Definitiv glaube ich das, denn eine Graka a €1000 da wird der Kundenkreis dann aber verdammt klein. Das würde um mal die Bezug zu CPU herzustellen bedeuten, dass sich mit dem DUAL Core die Prozessorpreise verdoppeln und mit dem Quadcore nochmals. Dies ist meiner Ansicht nach mehr als Fraglich.

- weniger aufwand? es war schon bei agp sehr kompliziert (vgl. xgi duo karten) 2 gpus auf einer karte zu betreiben, weil ja schließlich die beiden gpus untereinander kommunizieren müssen.

Und das müssen sie bei SLI / Video Array nicht?
Da managen wir dann das ganze über Software, was der Leistung sicherlich nicht zuträglich ist (betrifft jetzt Video Array)

mfG
Satan
 
Zuletzt bearbeitet:
zum nforce4:

http://www.theinquirer.net/?article=17058
"This chipset will support a maximum of 32 PCI-E"

ich denke eher er hat 32 lanes, sonst könnte er ja nichtmal einen "echten" 16x slot haben, wenn er zwei peg slots haben soll.

ich habe mich mit dualcore cpus noch nich beschäftigt, deswegen weiß ich nicht ob man eine dual-gpu graka und eine dualcore cpu so einfach vergleichen kann. rein logisch betrachtet: wenn ein 6800u chip z.b. 50w (exemplarischer wert!) verlustleistung hat, dann haben zwei solche chips doch 100w, das ist doch nur logisch, oder etwa nicht?

Satan schrieb:
Steht die Aussage nich irgend wie im Gegensatz zum ersten Statement? Ich gebe doch wohl kaum €1000 oder mehr nur für Grakas aus um mir 2 Jahre später en neues system zu kaufen oder?

man beachte die zeiträume... bis es soweit ist, das (gamer) grafikkarten agp8x bzw. pcie 8x vollkommen ausgereizt haben gehen meiner meinung noch einige jahre ins land (ich schätze mind. 5 aufwärts). ich denke solange hat kein ernster gamer einen pc.
außerdem spar ich so, dass ich sobald ich einen neuen pc hab, schon wieder auf den nächsten spar, und das geht dann meistens bis auf den letzten euro auf. da ist also kein platz mehr für irgendwelche sachen wie wakü. hoffentlich werd ich jetzt richtig verstanden :( [es geht halt nur um die aussage "wenn man sich sowas kauft, dann muss man ja auch geld haben um noch x zu kaufen"... so z.b. "wer sich eine 6800u kauft der muss ja wohl auch genügend geld für nen porsche haben", um es mal übertrieben darzustellen)
 
Laut den News von Gamestar.de

ist der nForce 4 der einzige Chipsatz, der SLI nutzen kann.
Das würde dann aber bedeuten, dass nur AMD-Kunden SLI nutzen können... :stupid:

:shot:
 
Zuletzt bearbeitet:
stimmt so nicht, der VIA PT894 Pro bringt zwei PGE slots für die intel-lga plattform! :)

edit: also doch nur 20 lanes... schade, ich hätt auch mehr bezahlt für 32 lanes und einen "echten" pge slot

"Durch die geringere Anzahl an Lanes entsteht eine Kostenersparnis bei der Fertigung, die nVidia hoffentlich an die Kunden weiter gibt."

ja hoffentlich, sonst wird nämlich wieder der kunde abgezockt :shake:
 
Zuletzt bearbeitet:
Ich hab mich auch nicht sehr intensiv mit DUAL-Core technologie beschäftigt, allerdings habe ich hier mal irgendwo gelesen, dass es ein Projekt gibt, dessen Ziel es ist, Berechnungen, die nomalerweise die CPU macht von der GPU mitberechnen zu lassen, sofern diese gerade nix zu tun hat, daher denke ich das, es hier achitektonische gemeinsamkeiten geben muss, da sich das ganze sonst wohl kaum realisieren ließe.

Aber was solls .... abwarte Tee trinken, mal sehen was die Zukunft bringt.

aber :btt:

Irgenwer äußerte, dass Alienware verdammt teuer sein, dem muss ich zustimmen, die wollen für en System mit FX 53, 1 GB Corsair, 2 74 GB WD Raptor, Audigy 2 ZS und ATI x800xt bzw. Gforce 6800. $5000 haben. Gut da sind jetzt noch ein oder 2 Alienware Features drin von denen ich nicht weiß ob die es wirklich brinen. Aber mal erlich einsolches System bekomme ich für zwischen 2000 und 2500 Euro. $5000 ist einfach nur Wucher.

mfG
Satan
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh