XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

Coole Karte, aber irgendwo hört der Spaß auch auf (beim Preis)...

D.h. wir haben einen Stillstand in der Entwicklung wie bei den Prozessoren, wo "man" sich es erlauben kann mal eben € 1.000,- abzurufen.
Wenn die Karte nur die Hälfte kosten würde - wäre das ein Grund zum feiern.

10.000 Stück für die EU wäre fast ein Paperlaunch.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jo, wobei die GTX680 ja auch schon unverschämt teuer war - obwohl sie nicht mal der "echte" GTX580 Nachfolger war...

Aber anscheinend funktioniert es für Nvidia ausserordentlich gut - man weiß ja wieviele GTX690 verkauft wurden...
 
Zuletzt bearbeitet:
Viel interessanter finde ich wie die Karten verteilt werden, viele Seiten bekommen gar keine und nur die Infos und andere Seiten bekommen gleich 3 Stück. Intressante PR.

Zumindest eines hat es bewirkt: Die Leaks halten sich dieses mal in Grenzen. Erst gestern, nachdem NVIDIA die komplette Presse informierte, tauchten die ersten Bilder und Folien auf. Zufall? Sicher nicht.
 
@Don, du schreibst im Test, das die GPU Boost V1 nicht Temperaturabhängig ist... Woher stammt die Info?
Direkt von NV?

Weil auffallend ist, max. GPU Boost bekommst du mit ner 680er beispielsweise genau nur dann, wenn die Temp unter! 70°C bleibt. Geht sie drüber, gibts abzug. ca. 6-8MHz. Ne zweite Stufe gibts bei 75°C. Gehts da drüber, gehen nochmal 6-8MHz runter.
Mehr habe ich bei mir auf den GPUs bis dato nie! gesehen :fresse:

Das klingt nämlich im Text so, als wäre die Temp abhängigkeit nun neu bei V2. Nur eben bis 80°C und eben den Offsetschalter für die Temp selbst. Letzteres ist in der Tat neu, nur das "Templimit" selbst gabs mit GK104 auch schon.
 
Meine Frau wird mich killen:) Leider habe ich aus den ersten Reviews (@ Don: Danke!) noch kein Killerargument gefunden was die Titan für mich ausschliessen würde. Vor allem die geringe Lautstärke war für mich wichtig und hier scheint die Titan super zu sein. Bei 1000€ würde ich ungern selbst auf WK umbauen und die wassergekühlten EVGA HC's etc. werden wahrscheinlich preislich noch weiter von "Gut und Böse" entfernt sein bzw. in den nächsten Monaten auch nicht verfügbar sein. Der ~ 50% Leistungszuwachs zur 680 GTX ist aber auch für mich bei dem Preis enttäuschend - vermute aber, dass der Titan bald (unmittelbar bei Launch) mit ~850€ Strassenpreis gelistet sein wird.. Warte einmal die realen Benchmarks ab. Bin eh in einer Woche in den USA und werde dort versuchen etwas billiger an eine Titan zu kommen - vielleicht habe ich Glück und kann eine EVGA HC ergattern was aber ein Wunder wäre..... Freue mich schon auf die Benchmarks. @Don: Super Bericht!
 
Zuletzt bearbeitet:
Mit hörig hat das nichts zu tun. Die Frage ist, welche Alternative haben wir?

Hätten wir heute auch noch die Benchmarks veröffentlicht, wäre das auf absehbare Zeit das letzte mal gewesen, dass wir ein Sample bekommen haben. Wir haben das getrennte NDA bis ganz nach oben bei NVIDIA kritisch angemerkt, mehr können wir nicht tun.

Also doch hörig, was anderes sagst du doch nicht. ;) Kannst du dich noch an die Anfänge von Toms Hardware erinnern, 1996, ist bald 20 Jahre her, da war es noch anders! Mit jedem Jahr, seit Gründung des Internets, hat sich die Presse mehr verkauft. Und ich weiß, wovon ich rede, ich bin selbst seit den Anfängen dabei, sowohl auf Firmenseite als auch auf Seite des Journalismus, aber lassen wir das - die Zeit kann nicht zurückgedreht werden und Presse steht heute zum Größten Teil nur noch für "Verkauf" und das in allen Variationen, wie man den Begriff "Verkauf" deuten kann oder möchte! ;)

Grüße
 
Zuletzt bearbeitet:
Die Karte interessiert mich zu dem Preis zwar nicht, ich finde es aber äußerst interessant, wie die Presse heute den Firmen hörig ist. Die ganzen Seitchen im Netz verkommen mehr und mehr zu den PR-Agenturen für die Firmen, es nimmt immer absurdere Züge an, Tests ohne Benchmark, Werbevideos gedreht von Redaktionen, Berichterstattung nur so, wie die Firma es sagt und vorgibt! Weia, wo soll das alles nur enden!

Das und vorallem diese vollkommen lächerliche Geheimnis-Cremerei nur wenige Wochen bzw Tage bis man dann merkt...hoppla - die Karten wurden bereits produziert und sind schon verpackt bzw längst zu ihren Bestimmungsorten verschifft.

Erst kommen Benchmarkergebnisse - akribisch bearbeitet/erstellt um Verwirrung/Fragen aufzuwerfen. Dann total verwaschene Bilder, irgendwelche Schatten eines PCBs und Folien, dann kommen andere verwaschene Fotos mit geschwärzten Bauteilen. Dann zeigen verwaschene Fotos teile der Karte (mein Handy aus 2007 macht bessere Fotos) und dann ..ja dann zeigt man die komplette Karte - aber nicht im detail - mit verwaschenen Fotos.

(ohje, Nividia hat wieder "Worlds fastest" in einem ihrer Bilder verwendet..)
 
Zuletzt bearbeitet:
Ich habe Fragen bezüglich Boost 2.0

Im Video wird ja eine Software gezeigt, in der man Einstellungen vornehmen kann, geht das auch komplett ohne Software zB per BIOS der Karte?

Außerdem würde mich interessieren ob die Taktraten auch immer stabil sind. Wenn ich 90°C als Grenze eingebe und einen riesigen offset für GPU und Speicher, kann es doch sein, dass Boost die Taktraten in nicht stabilen Bereich schraubt oder sogar zu viel Spannung bereit stellt.
 
@Trill, Redfrog,

Verstehe nicht worüber Ihr Euch aufregt. Die Dramaturgie ist super und genau das was sich jemand erwartet der die "neueste und beste jemals entwickelte" GK haben will. Besseres Marketing gibt es nicht. Diese Vorgehensweise rechtfertigt auch den Preis und hat zur Unterhaltung vieler Enthusiasten beigetragen. Kann nur sagen Kompliment! Wer würde sonst eine Single GK um diesen Preis kaufen. Glaubt Ihr dass ohne dieses "Marketing" jemand 1000€ für eine GK ausgeben würde? Die Titan zielt ganz klar in die Richtung Enthusiasten (Porschefahrer unter den GK Besitzern) die das auch so erwarten (mich eingeschlossen). Wen interessiert eine GK um diesen Preis ohne dieses "Drumherum" und damit der Bestätigung das Beste/ etwas besonderes zu besitzen das sich nicht jeder leisten kann und Luxus ist. Für den Durchschitts-/ Massenuser reicht jeder GKxxx.
 
Zuletzt bearbeitet:
Also doch hörig, was anderes sagst du doch nicht. ;) Kannst du dich noch an die Anfänge von Toms Hardware erinnern, 1996, ist bald 20 Jahre her, da war es noch anders! Mit jedem Jahr, seit Gründung des Internets, hat sich die Presse mehr verkauft.

Was hat das mit hörig zu tun?
Du scheinst NDA nicht zu verstehen. Entweder du hälst dich an den Vertrag, oder du brichst den Vertrag. Letzteres machst du aber genau nur ein einziges mal. Und dann kannst du sehen, wie du zu deiner Hardware kommst, für die du Tests schreiben willst.
Und früher war das auch eigentlich genau so. Nur war man nicht ganz so streng, seitens der Hersteller.
Wenn ein Hersteller sich auf den Plan schreibt, Leaks bis zum letzten Tag möglichst zu verhindern, ist das eben so. Das ist ihr gutes Recht und ist alles andere als "hörig". Denn die bestimmen, wann sie ihr Produkt veröffentlichen.
Sei doch froh, das es so ist, wie es ist.

Außerdem würde mich interessieren ob die Taktraten auch immer stabil sind. Wenn ich 90°C als Grenze eingebe und einen riesigen offset für GPU und Speicher, kann es doch sein, dass Boost die Taktraten in nicht stabilen Bereich schraubt oder sogar zu viel Spannung bereit stellt.

Das kann dir natürlich passieren.
Reicht die Spannung für die Taktrate nicht aus, gibts Bildfehler oder Abstürze. manuelles OC ist und bleibt OC. Und somit komplett auserhalb jeglicher Garantien.

PS: zu viel Spannung wird eher nicht bereit gestellt. Denn mit steigendem Takt steigt der Verbrauch, somit auch die Temperatur. Und irgendwann bist du am "Limit"... Die Karte deckelt sich selbst nach oben hin. Heist bis zum Limit und nicht weiter. Da kann eigentlich nicht viel passieren. Vor allem, es scheint so, als würde NV nicht freie vGPU Spannungswahl zulassen, sondern nur ne Art Overvoltage in gewissen Regionen erlauben. Heist also, analog der Gk104 GPUs jetzt schon, gehts bis zu ner bestimmten Obergrenze und du musst sehen, was du damit rausholen kannst.
 
(Porschefahrer unter den GK Besitzern)
Das wäre aber sehr traurig wenn man sich in dieser Rolle sieht. Kein guter Vergleich.
Die Karte kann ich mir einfach so kaufen - einen Porsche (+Unterhaltung) nicht.

Und wahrscheinlich dann auf einem einzelnen Monitor mit irgendwelchen Konsolenports. Ein Porsche in der 30iger also.

(manche Leute sehen auch einfach nur den Spass am benchen - das ist auch mehr oder minder verständlich. Naja für viele eher nicht aber ist halt Hobby)
 
Zuletzt bearbeitet:
@Don, du schreibst im Test, das die GPU Boost V1 nicht Temperaturabhängig ist... Woher stammt die Info?
Direkt von NV?

Erstens das und zweitens habe ich das von dir beschriebene Verhalten nie selbst beobachtet. GPU Boost 2.0 bietet zumindest den direkteren Zugriff auf die Temperaturen bzw. lässt damit arbeiten. Bei GPU Boost 1.0 lief da vielleicht was im Hintergrund, darauf hatte der Nutzer aber bis auf die Shutdown-Temperatur keinen Einfluss.

Ich habe Fragen bezüglich Boost 2.0

Im Video wird ja eine Software gezeigt, in der man Einstellungen vornehmen kann, geht das auch komplett ohne Software zB per BIOS der Karte?

Außerdem würde mich interessieren ob die Taktraten auch immer stabil sind. Wenn ich 90°C als Grenze eingebe und einen riesigen offset für GPU und Speicher, kann es doch sein, dass Boost die Taktraten in nicht stabilen Bereich schraubt oder sogar zu viel Spannung bereit stellt.

GPU-Boost funktioniert, so wie es demonstriert wurde, nur mit der Software. Wie auch bei der GeForce GTX 680 wird es aber vielleicht auch wieder verschiedenen Variationen eines OC-BIOS geben, wo zumindest einige Grundvoraussetzungen anders sind (Takt, Spannung, etc.).

Zuviel Spannung gibt es nicht, NVIDIA gibt eine Grenze vor. Aber klar, du kannst GPU und/oder Speicher in instabile Bereiche bringen über den Offset, egal was du mit dem Power- oder dem Temp-Target machst.
 
dreh mal Lüfter auf 100% um das Teil unter 70°C zu zwingen mit ner 680er...
Ich halte ~65-70°C mit einer 680er bei 1264MHz fix. Gehts über 70°C, gehts auf 1256MHz runter. Gehts über 75°C, sinds wiederum 1250-1248.

Ihr messt ja ~80°C für die 680er. Könnte also sein, das das da gar nicht mehr wirkt, bzw. du nie dir anderen Stufen dauerhaft sehen wirst.
Für Wakü User aber durchaus interessant. Wobei das auch nur ein paar Kleckerprozent sind :fresse: Aber wir sind ja hier im Luxx und so ;)
 
Zuletzt bearbeitet:
Für ne Anständige ganz PC Wakü legst aber auch gut und gerne mal 500€ auf den Tisch. Das ist schon ein halber Lufttitan :fresse:
 
Also, erstmal schöner erster Teil des Tests. Zur Karte selbst, beeindruckt mich der wenig gestiegene Verbrauch trotz der Spezifikationen. Mit custom Kühler sollte auch die Lautstärke und die Temperatur sehr gut sein, von Wakü ganz zu schweigen. Der Preis ist natürlich nicht gerechtfertigt, nicht mal wenn die Leistung gegenüber einer 7970 Ghz um 50% zulegt, was ich jedoch anhand des so gering gestiegenen Stronverbrauches nicht glaube. Auch dass man gleich 3 Testsamples zur Verfügung stellt, wirft in mir die Frage auf: wird die Leistung der Einzelkarte so geringfügig höher ausfallen als vs. einer 680 oder 7970 Ghz, dass man gleich ein SLI benutzen muss? Dieser Punkt wird ja morgen geklärt.
Was mich noch zusätzlich interessieren würde: dieser GPU Chip entspringt einem Zeitpunkt, wo der 28nm Prozess am "besten" und "reifesten" ist und deshalb eigentlich die qualitativ besten Chips hergeben müsste, seit Beginn der Produktion (was sich eigentlich in niedrigerer Spannung und Leckströme widerspiegeln müsste). Jetzt wäre es interessant Titan mit einer 680 und 7970 Ghz entgegenzutesten, welche auch einer letzten Produktions-Charge entspringen. Man verwendet in Diagrammen ja den Verbrauch von Testsamplen bei release der jeweiligen Karten. Vielleicht würden auch letztere vom reifen Produktionsprozess profitieren und wieder ein anders Bild im Verbrauch darbringen
 
Zuletzt bearbeitet:
Was hat das mit hörig zu tun?
Du scheinst NDA nicht zu verstehen. Entweder du hälst dich an den Vertrag, oder du brichst den Vertrag. Letzteres machst du aber genau nur ein einziges mal. Und dann kannst du sehen, wie du zu deiner Hardware kommst, für die du Tests schreiben willst.
Und früher war das auch eigentlich genau so. Nur war man nicht ganz so streng, seitens der Hersteller.
Wenn ein Hersteller sich auf den Plan schreibt, Leaks bis zum letzten Tag möglichst zu verhindern, ist das eben so. Das ist ihr gutes Recht und ist alles andere als "hörig". Denn die bestimmen, wann sie ihr Produkt veröffentlichen.
Sei doch froh, das es so ist, wie es ist.

Nein, das was früher nicht so! Leider fehlt es dir wohl an Wissen, wie es vor 10 - 15 - 20 Jahren in einer Redaktion bzw. in den Firmen aussah. Zu dieser Zeit hat, ich oute mich mal ein wenig, Lars (Borsti) von RivaStation, er arbeitet ja heute selbst bei Nvidia, die Grafikkarten noch bei mir in der Firma abgeholt, zu dieser Zeit war Nvidia gar nicht für das Bemustern zuständig, das haben die Kartenhersteller selber gemacht, ausschließlich - und er hat von mir nie ein NDA bekommen, das er unterschreiben musste! In diesem Sinne, ich weiß, was ein NDA ist, sei dir sicher!
 
Zuletzt bearbeitet:
Ich sagte doch, früher war man nicht ganz so streng. Wo kein NDA, da auch keine Verträge... :rolleyes:

Und ja, sei dir gewiss. Ich kenne auch die Zeit vor 15 oder 20 Jahren ;)
Es ändert aber nix an der Tatsache, das damals alles einfach ganz anders aufgestellt war. Da ging viel mehr über Zeitschriften und Co. Veröffentlich heute vor Release ner Hardware irgendwo auf der Welt in einem Forum oder whatever ein Bild. Und guck zu, wie sich das Teil über den Erdball verteilt.
Zu Zeiten ohne Internet bzw. mit teils hohen Kosten und weniger Webpräsenz und auch weniger Konkurenz unter den Redaktionen war es nunmal etwas einfacher, Informationen unter Verschluss zu halten.
Und selbst wenn da jemand geplappert hat. Hat doch fast niemand mitbekommen...
 
Das was mich am meisten vom hocker gehauen hat ist das monitor oc!
Wird das auch mit anderen (nvidia) karten gehen? Ist dies eine reine treibersache oder steuert die Titan GPU selbst ihren teil hinzu?
Ich glaube ich könnte mir nochmal ne grüne karte in den pc schnallen (wenn die alten karten dies auch irgendwie auf die reihe bekommen sollten)
 
Zumindest eines hat es bewirkt: Die Leaks halten sich dieses mal in Grenzen. Erst gestern, nachdem NVIDIA die komplette Presse informierte, tauchten die ersten Bilder und Folien auf. Zufall? Sicher nicht.
Das sind aber (sogut wie nie Deutsche Webseiteb, die Leaks veröffentlichen, das sind meistens Asiatische Seiten wo das her kommt).
 
Ich frag mich, ob das so gesund für die Monitore ist, vor allem, falls das auch mit mehr als von 60 auf 80Hz gehen sollte.
 
Ich sagte doch, früher war man nicht ganz so streng. Wo kein NDA, da auch keine Verträge... :rolleyes:

Und ja, sei dir gewiss. Ich kenne auch die Zeit vor 15 oder 20 Jahren ;)
Es ändert aber nix an der Tatsache, das damals alles einfach ganz anders aufgestellt war. Da ging viel mehr über Zeitschriften und Co. Veröffentlich heute vor Release ner Hardware irgendwo auf der Welt in einem Forum oder whatever ein Bild. Und guck zu, wie sich das Teil über den Erdball verteilt.
Zu Zeiten ohne Internet bzw. mit teils hohen Kosten und weniger Webpräsenz und auch weniger Konkurenz unter den Redaktionen war es nunmal etwas einfacher, Informationen unter Verschluss zu halten.
Und selbst wenn da jemand geplappert hat. Hat doch fast niemand mitbekommen...

Hast du recht, das Netz war zu dieser fast "Unwichtig", dennoch würde es auch heute prächtig funktionieren, auch ohne diese NDAs! ;) Aber nun back to topic - wollte auch nur kurz sagen, ich finde die Berichterstattung heute in höchstem Maße amüsant, so diktiert von NDAs! ;)
 
Es gibt Monitore die kannst du von 60 auf 120Hz takten, ohne Titan (und das bei 2560x1440)
 
Man kann in der NVIDIA-Systemsteuerung anscheinend jeden Monitor manuell einstellen, hab das grade rausgefunden ;)
Ich frag mich halt nur, ob das auch jeder mitmacht :)

Ich hab hier nämlich nen Acer 120Hz, der macht im Betrieb recht unangenehme Geräusche und daher wäre es für mich ne Alternative, den AoC daneben hochzutakten. Nur weiß ich net, ob der das mag bzw. überhaupt überlebt :fresse:
 
ACHTUNG ! Bitte lacht mich gleich nicht aus *g* aber ich habe nicht so viel AHnung (female *:P)

also, ich bin am überlegen mir die Titan zu holen. Geld ist genug vorhanden. Warte jetzt erstmal die Game-Benchmarks an und gucke dann, was die verschiedenen Anbiter für Titanen in den Ring werfen (ich würde die mit der höchsten Bootclock kaufen, da ich glaube zu wissen, dass dieser Wert wohl ziemlich wichtig für die FPS in Spielen zu sein scheint??? sprich je höher der Bootwert dort,desto mehr fps können erzielt werden, ist das richtig =??? 876 ist ja uninteressant, wenn Asus zb. eine mit 915 rausbringt oder evga noch höher, whatever).

Die Sache ist jetzt. Kann ich die überhaupt in meine PC bauen, ohne, dass die Komponenten, die verbaut sind, die Grafikkartenleistung ausbremsen (habe gelesen, dass sowas wohl durchaus möglich ist).

Mein rechner:

700 Watt be quiet Netzteil (Netzteil ist wohl nicht ganz unwichtig in dem fall *;D)
i7 2600 K - 4 * 3,4 GHZ
Asus P8P67 R.3.0. Mainboard
DDR3 1600 8 GB RAM
Cooler Master HAF RC-922M-KKN1-GP Gehäuse..
..mit "Scythe Mugen 3" Kühler

Ja die Geforce 580 (Zotac, 1,5 GB) fliegt dann raus *;D - sofern ich die Titan in den Rechner einbauen kann, ohne da sonst noch was upgraden zu müssen (prozessor/mainboard). Evtl. wollte ich noch zusätzliche 8 GB RAM verbauen.

Ich habe dazu einen 21,5" TFT Monitor (LG E2260V-PN).

Spielen tue ich im Grunde immer auf Full HD AUflösung. Wie man downsampled weiß ich nicht und wäre sicher auch bei meinem aktuellen rechner nicht möglich. BIn jedoch "bestmögliche Grafik"-Fetischistin. Daher könnte ich mir vorstellen downsampling anzuwenden. Muss dann nur mal gucken, wie man das macht.

Ich spiele auch nur selten PC, meistens nur am we mal 2, 3 Stunden. Manchmal, wenn ich Urlaub habe, aber auch schon mehr (hatte für far cry 3 urlaub genommen ne woche O:) ). Aber mit der 580er geht nicht mehr viel. FC3 ging nicht mehr in "bestmöglich", habe halt AA ausgelassen und 2, 3 punkte in den gbrafikoptionen ein bisl runtergestellt (Posgt FX und so, was man halt im internet so lesen konnte an tipps).

Naja interessante spiele für mich (außer kommende Stalker Mods - liebe stalker über alles) wären von den neuen nur Metro Last Light erstmal. wobei ich am überlegen bin crysis 3 zu probieren, das geht mit meinem rechner nicht mehr (auf zufriedenstellenden grafikeinstellungen zumindest *;D).

Klar, ich denke ihr werdet jetzt sagen, kauf sie nicht... aber naja weiß nicht, crysis 3... *;D und metro last light wird sicher auch hardwareoverkill deluxe und naja mit ner titan köntne ich downsampling machen und mehr rausholen *;D

nur die frage ist.. wenn man jetzt 1000+ bezahlt... ist die titan noch stärker als die kommende 7xxer reihe von nvidia ?! Wenn nicht, wäre es pure geldverschwendung, aber an sich kann das doch nit sein oder ???? die titan muss die kommende 7xx GTX reihe doch noch zumindest etwas übertrumpfen ?!

das wäre wixchtig zu wissen bzw. von profis relativ sicher vermuten zu lassen.

dann die frage... ist mein pc gut genug für die titan ?

und wo kann man sie dann kaufen *:d ?Wird man doom 4 damit noch voll auslasten können (mal immer erstmal von normaler full hd auflösung ausgehend) ?

ja ich weiß, ich spiele nur wenig usw. also könnt ihr zurecht sagen, ne kauf lieber nicht... aber keine ahnung, hätte das Geld halt dafür und will scon gerne meine gpu upgraden für kommende spiele (und fc3 noch mal maxed out anspielen).... aber so die aktuerll vorhandenen Karten sind ja scon nicht mehr wirklich fähig die spiele in hohen AA stufen spielbar zu performen.... daher wäre eine titan doch sinnvoll ?

Dual GPU ala 690 kommt nicht in die Tüte, muss single GPU sein, man liest +überall nur von den Problemen, die Dual GPU Karten oder SLI Setups hervorufen.

wäre super wenn ihr mir meine Kernfragen beantworten könntet *;D !

*lg Melanie
 
Die Titan an sich ist Geldverschwendung, genau wie die extreme-Series von Intel ;)
Aber genau das zeichnet diese "Enthusiasten"-Teile aus, man will unbedingt das stärkste seiner Art zu egal welchem Preis :fresse:

Die Dual-GPU-Probleme werden mMn sehr dramatisiert, die 690 hat das alles sehr gut im Griff. Außerdem kann man die "SLI-Bits" für verschiedene Spiele in optimierter Version downloaden und einsetzen, was nochmal nachbessert :)
 
Zuletzt bearbeitet:


Wir ham in etwa den selben Rechner aber komisch das ich weder Fc3 noch Crysis 3 solche probleme hab wie du sie beschreibst, vll mal doch bisschen intensiver mit Pc beschäftigen denn, einfach rechner hin werfen anmachen los daddeln ist auf dauer nicht das non plus ultra. Vorallem zugemüllte Rechner die sowas wie Defrag noch nie gesehn haben oder 3.000.000 icons aufem Desktop usw usw finden Rechner sehr gut xD


Von Downsampling mal abgesehn gibts ja kaum Gründe die 6xx und Titan nicht einfach zu Überspringen ;)
 
ja kann gut sein, ich habe auch schon high heels für fast 600€ gekauft, habe sie aber wieder zurückgescickt, weil in echt sahen sie zu braun aus, im interet auf fotos war es ein schönes altrosa... *;D

ja, die 690 wird wohl n bisl mehr rohleistung noch in den benches haben, aber weiß nit, rein gefühlstechisch (weibliche intuition) sagt mir hol dir eine single gpu karte (auch zb. wegen stromverbrauch, der bei sli zb. ziemlich höher sein dürfte).

wichtig ist vor allem die frage, ob mein pc die karte zügellos lässt und ob die titan superior zu den kommenden gtx 7xx sein wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh