> > > > GeForce GTX 560 wird zur GTX 560 Ti, erste Benchmarkergebnisse

GeForce GTX 560 wird zur GTX 560 Ti, erste Benchmarkergebnisse

Veröffentlicht am: von

nvidiaMit der GeForce GTX 560 steht NVIDIAs neue Midrange-Lösung in den Startlöchern. Basierend auf dem GF114 soll sie mit ihren 384 Shader-Prozessoren vor allem der Radeon HD 6950 Paroli bieten können (wir berichteten). Die Gerüchteküche Fudzilla will jetzt neue Informationen zu dieser Grafikkarte in Erfahrung gebracht haben.

So soll für diese Grafikkarte ein geradezu historisches Kürzel reaktiviert werden. Das "Ti" als Abkürzung von "Titanium" kam z.B. bei dem erfolgreichen Midrange-Modell Geforce4 Ti 4200 zum Einsatz. Scheinbar will NVIDIA an diese Tradition anknüpfen. Enthüllt wurde diese Benennung durch einen geleakten Treiber (266.44). Nachdem Gerüchten zufolge schon AMD die FX-Prozessoren wiederauferstehen lassen wird (wir berichteten), wäre die GeForce GTX 560 Ti eine weitere Rückbesinnung auf längst vergangen geglaubte IT-Zeiten.

GeForce_GTX_560_Ti

"Butter bei die Fische" gibt es in einer zweiten Fudzilla-Meldung, die erste Benchmarkergebnisse der GTX 560 Ti im 3DMark Vantage enthüllt. Diese Ergebnisse stammen ursprünglich aus dem chinesischen Forum Chiphell.com. Demnach ist die die neue Midrange-Karte etwa 25 Prozent schneller als ihr Vorgänger, die GeForce GTX 460 und als die Radeon HD 6870. Sie kann sogar der Radeon HD 6950 gefährlich werden. Die in unserer letzten News enthüllten Spezifikationen wurden bestätigt und im Detail ergänzt. Neben den 384 Shader-Prozessoren soll die Karte demnach über 32 ROPs verfügen. Der 1024 MB große GDDR5-Speicher wird per 256-Bit-Interface angebunden, die Bandbreite liegt bei 128,3 GB/s. Der GPU-Takt soll bei 823 MHz liegen, Shader und Speicher mit 1645 bzw. 1002 MHz takten.

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht
Wie bereits bekannt war, soll die GeForce GTX 560 Ti am 25. Januar auf den Markt kommen.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (31)

#22
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Vizeadmiral
Beiträge: 7081
Hab mal etwas aufgeräumt - Back To Topic !

Übrigens soll NV den Boardpartnern, anders als damals bei der 460er, eine mögliche 2GB Version nicht freigeben (laut PHK).
Grund: In extremeren Settings könnte diese der GTX 570 (1280 MB) gefährlich nahe kommen:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8506430&postcount=556

GTX 560 Ti (wohl ~ 10% vor der GTX 470) und HD 6950 werden wohl relativ nah beeinander liegen.
Das VRAM - Management ist bei den Fermis ja auch nicht das schlechteste.
Klar, spätestens in 2560x1600 mit hohem AA (oder allgemein in entsprechenden Anwendungen) muss man dann im Vergleich deutlich Federn lassen.
Dann kann schon mal eine HD 6950 2GB vor einer GTX 580 liegen.

Preislich werden die Ti und HD 6950 1GB sicherlich ähnlich liegen.
Mal sehen, ob noch weitere GTX 560 Versionen (etwa als GTX 560 oder 560 SE -> GTX 460 Neuauflage) auf den Markt kommen oder man
diese dann gleich als GTS 550 bringen wird.

MfG
Edge
#23
customavatars/avatar19026_1.gif
Registriert seit: 05.02.2005
^^ Blägg Forrescht ^^
Admiral
Beiträge: 26296
Es gibt sich Neuigkeiten. :coolblue:

Geforce GTX 560 Ti mit 900 MHz GPU-Takt gelistet - fermi, geforce, nvidia
#24
customavatars/avatar34469_1.gif
Registriert seit: 30.01.2006
NRW
Admiral
Beiträge: 10903
Echt geil wollte es gerade auch posten,also sind die 1Ghz doch drin und wahrscheinlich noch mehr,wenn die hersteller schon ne 1ghz karte bringen :D.

Icke freu mir ;).Wird also sehr nahe an ne 570 kommen,darum auch der 2gb Vram verbot von nvidia :D.

Speicher scheint auch besser zu gehen,wenn schon 2290mhz kommen werden.Denke die Karte hat das TI verdient
#25
Registriert seit: 03.11.2009

Hauptgefreiter
Beiträge: 158
Gut, dass ich bisher noch nie Crysis gespielt habe.. Na das wird ja ein Fest! :drool:
#26
customavatars/avatar116502_1.gif
Registriert seit: 15.07.2009
Ingolstadt/Neuburg
Bootsmann
Beiträge: 609
Wow, in der Computerbase News ist jetzt auch die zweite mit 1Ghz bestätigt

Zwei übertaktete GeForce GTX 560 (Ti) von Gigabyte - 17.01.2011 - ComputerBase
#27
customavatars/avatar18241_1.gif
Registriert seit: 21.01.2005

Flottillenadmiral
Beiträge: 5874
Schön endlich eine Alternative zur GTX470(aktuell für 210 zu bekommen)
die sich mit wakü auf single slot bringen läßt.

Ist der einzige kapitale Haken an den ATI(AMD) Karten für mATX builds.
Räumt das Anschlußfeld auf 1xDVI(dual link) 1x HDMI 2x mini Displayport reicht doch aus.

Jetzt erstmal die Finger still halten.

MfG
#28
customavatars/avatar50757_1.gif
Registriert seit: 03.11.2006
Hamburg
Oberbootsmann
Beiträge: 1020
und hier mal nen preis :D

MSI N560GTX-Ti Twin Frozr II OC | GT500 Serie | ARLT Computer
#29
customavatars/avatar142409_1.gif
Registriert seit: 22.10.2010
Capital of Norddeutschland
Oberbootsmann
Beiträge: 840
Wow Supi, eine Hausfolie von nVidia und alle spielen verrückt. :vrizz:
Wie wäre es mit warten auf unabhängige Tests zur Karte, falls es so etwas überhaupt noch gibt. :kotz:
#30
customavatars/avatar19026_1.gif
Registriert seit: 05.02.2005
^^ Blägg Forrescht ^^
Admiral
Beiträge: 26296
Ouch die MSI ist teuer. Die üblichen 20% Aufschlag für den Twin Frozer Kühler.:fresse:

Denke dass sich die Karten vom Preis her knapp unter HD6950 positionieren.

@fana123 Hast Du gut gefunden. Schreib gleich die PCGH Redaktion an. ;)
#31
customavatars/avatar34469_1.gif
Registriert seit: 30.01.2006
NRW
Admiral
Beiträge: 10903
mhm langsam wird es ernst und ich freu mir :).was neues zum spielen :D
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]