> > > > NVIDIA: GK110-Karten heißen GeForce Titan

NVIDIA: GK110-Karten heißen GeForce Titan

Veröffentlicht am: von

nvidia geforce logoDer US-amerikanische Grafikkartenhersteller NVIDIA bietet seit mehreren Jahren verschiedene 3D-Beschleuniger an. Im Desktop-Bereich unterscheidet man dort in die drei Hauptgruppen Tesla, Quadro und GeForce. Die beiden zuerst genannten Karten richten sich speziell an Firmenkunden, die diese beispielsweise in Workstations einsetzen. Letztere dagegen sind für den Endkunden vorgesehen. Dabei klassifiziert NVIDIA seit vielen Jahren die GeForce-Grafikkarten an Hand ihrer Rechenleistung mit verschiedenen Kürzeln wie GTX, GTS oder GT.

Geht es nach den neusten Meldungen im Netz, könnten die Kalifornier ihr Namensschema demnächst erweitern. So sollen die auf dem GK110 basierenden Pixelbeschleuniger "GeForce Titan" heißen. Grund dafür ist die Tatsache, dass die bisherige High-End Bezeichnung GTX sich nun schon bis weit in den Mittelklassebereich erstreckt. Repräsentativ dafür wäre zum Beispiel die GeForce GTX 650 zu nennen.

Durch die Einführung der "Titan"-Bezeichnung könnte man die Grafikkarten stärker voneinander abgrenzen und damit die GK110-Modelle aus der Masse herausstechen lassen. Ob dem jedoch wirklich so ist, werden wir spätestens bei der Veröffentlichung besagter Grafikkarten erfahren.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (80)

#71
customavatars/avatar92992_1.gif
Registriert seit: 10.06.2008
Emsland / Bochum
Admiral
Beiträge: 10859
Jaja die typischen Sprüche wieder.

Wenn die es schaffen eine schnelle Karte einfach so weit runterzutakten, dass sie dann nurnoch 20% verbraucht dann hat das nichts mit Effizienz zu tun.
#72
Registriert seit: 31.01.2011
Werne
Oberleutnant zur See
Beiträge: 1453
Egal was nvidia rausbringt und zu welchem preis die leute WERDEN es kaufen einfach weil sie es haben MÜSSEN und weil sie ebend die Grüne front sind können sie sich solche preise erlauben.. genauso wie intel es ist teuer aber die leute kaufen es muss ja keiner aber alle machen es ganz einfach :D
#73
Registriert seit: 05.11.2010

Obergefreiter
Beiträge: 102
Ich muss mal die Fanboykeule rausholen, denn ich bin fest davon überzeugt das die neue GTX 780 die Karten von AMD
auf den 2. Platz verdrängen wird. Die GTX 680 zählt in meinen Augen einfach nicht, nachdem damals bekannt wurde das die Kiste "nur" ein 256bit Speicherinterface spendiert bekommt, hatte ich die Karte schon abgeschrieben.
Ich bin auf jedenfall heiss auf GTX 780 Titan(oder wie auch immer sie heissen wird) und kann es kaum abwarten!

greetz

IORI
#74
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Solche Preise kann Nvidia nur halten wen folgendes eintrifft:

1. Sehr magere Ausbeute und daher hohe Verkaufspreise
2. AMD sehr deutlich zurückliegt.

Das zweite kann man sogut wie ausschließen. AMD wird auch ungefähr 20 bis 30% oben drauf packen.

Die 40 bis 50% Merhleistung auf die GTX 680 würden für GK110 ungefähr 10 bis 15% Vorsprung gegenüber der HD 8970 erlauben.

Ergo hohe Preise relativ unwahrscheinlich, außer die Karten sind wirklich Exclusivprodukte ( "Titan").
#75
customavatars/avatar26398_1.gif
Registriert seit: 19.08.2005
Gifhorn
Admiral
Beiträge: 12943
Hoffendlich wird die karte dann auch ein wahrer titane mit brutaler leistung :D mein yamakasi monitor braucht gewalt karten :D
#76
customavatars/avatar177874_1.gif
Registriert seit: 31.07.2012

Banned
Beiträge: 541
Zitat Marcel7795;20077523
Egal was nvidia rausbringt und zu welchem preis die leute WERDEN es kaufen einfach weil sie es haben MÜSSEN und weil sie ebend die Grüne front sind können sie sich solche preise erlauben.. genauso wie intel es ist teuer aber die leute kaufen es muss ja keiner aber alle machen es ganz einfach :D


Ist wie bei Eierphone, jeder muss es haben weils einfach Mainstream ist, trotzdem ist Eierphone scheiße! Mich würde viel mehr interessieren, wie viele Menschen ihre Handys/Hardware auf Raten kaufen nur um mit der Masse zu schwimmen. :lol:
#77
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32997
Zitat Sanek;20075706
Ist PCIe-Layout nur für 300 Watt spezifiziert? Wie geht es dann mit MultiGPU-Karten, die haben doch meistens drei 8Pin Anschlüsse?


Wenn ich das jetzt recht in erinnerung habe, ist eine PCIe Steckkarte! auf 300W limitiert, um sauber in den Spezifikationen zu laufen.
Was jetzt nicht ganz 100% klar ist. Im Grunde sprechen wir ja hier von DualSlot Karten. Soweit mir bekannt, schreibt die Spezifikation nicht die Anzahl der Slots vor, die minimal belegt sein müssen um 300W zu fahren.
Es wäre also theoretisch auch potentiell möglich eine SingleSlot Karte im 300W Design zu bringen. Zwei Karten mal 300W wären 600W in Summe auf gleichem Platz, sprich zwei Slots.

Zumindest könnte man so argumentieren. Obwohl es laut Spezifikationen immernoch unsauber wäre.

PS: die Anzahl der Stromanschlüsse hat damit auch weniger zu tun. Es geht eher um die gesamt Leistungsaufnahme sowie die gesamt Wärmeabgabe der Karte. Die eben Spezifikationen unterliegen sollte, damit sich andere Hersteller, die direkt oder indirekt darauf aufbauen müssen (beispielsweise Gehäusehersteller zur Dimensionierung, Kühlerhersteller usw) daran orientieren können.
Die Dual GPU Lösungen könnte man aber theoretisch auch einfach als Custom Designs betrachten. Die Spezifikation ist ja kein zwingendes muss. Ein Hersteller der diese überschreitet hat grundsätzlich damit ja keine Probleme.

Problematisch wirds da eher im OEM Bereich. Ne fertig PC Kiste von Fujitsu, HP, Dell und Co. baut idR stark auf diese Standards. Und passt da was nicht, gehts halt nicht ;) bzw. wird nicht genommen. Und der OEM Markt im ganzen (für privat und Business) dürfte mindestens genau so groß sein, wie der selbstbau Bastlermarkt.
Ein Hersteller, der die Spezifikationen weit überschreitet läuft somit Gefahr, das im OEM Markt sein Produkt keine Verwendung findet. -> unschön für die Hersteller.
Deswegen versucht man auch sogut wie möglich, sich an gängige Standards zu halten.

Bei Dual GPU Karten ist das aber in meinen Augen auch halbwegs verschmerzlich, wenn diese da drüber gehen, einfach weil der potentielle Kundenkreis sowas von gering ist... Und auch im OEM Bereich findet man idR sowas nicht.

Zitat LSSJBroly;20075944
Ich rede die ganze Zeit von der GHz Ed., welche rund 5-10% schneller als die GTX 680 ist.


Das war mal so vor dem 12.11er Treibern... Schau dir neue Benches an mit aktuellen Treibern. Da ragt ne GHz 7970 idR um die 12-15% je nach Settings und Restsystem vor ner 680er.
Es ist jetzt nicht die Welt, aber immerhin. Zugegebenermaßen hat AMD in Sachen Leistung seit Release da gut was zugelegt. Selbst ne default HD7970 non GHz ohne Turboboost liegt quasi gleichauf mit der 680er. Im Vergleich zum 680er Release war diese noch gut und gerne 10% zurück.

Zumindest was gängige Benchgames betrifft...
Einen 100% Marktüberblick kann man natürlich nicht geben, das ist klar.
Aber AMD hat gewaltig in den aktuellen Top Games ala Skyrim, BF3 usw. zugelegt. Bei BF3 sogar über 30% nachweisbar...

Zitat Hardwarekäufer;20077321
Jaja die typischen Sprüche wieder.

Wenn die es schaffen eine schnelle Karte einfach so weit runterzutakten, dass sie dann nurnoch 20% verbraucht dann hat das nichts mit Effizienz zu tun.


Du hast irgendwie nicht verstanden, was Effizienz ist.
Die Effizienz (in dem Fall Leistung pro Verbrauch (Watt)) misst sich ausschließlich am Endprodukt. Also genau so, wie die Karte auf dem Markt geworfen wird. Was schlussendlich mit anderen Taktraten möglich ist und was nicht, spielt nicht die Rolle...
Und wenn die ihre GPUs runtertakten um eben den Verbrauch zu senken, ist das schlicht ne Effizienzsteigerung. Einfach aus dem Grund, weil idR hohe Taktraten aufgrund von mehr nötiger vGPU Spannung in Sachen Effizienz schlechter dastehen als niedrige Taktraten. -> und das ist Fakt! Denn der Verbrauch steigt/fällt 1:1 mit dem Takt, aber im Quadrat zur anliegenden Spannung.
#78
customavatars/avatar92992_1.gif
Registriert seit: 10.06.2008
Emsland / Bochum
Admiral
Beiträge: 10859
Zitat
Und wenn die ihre GPUs runtertakten um eben den Verbrauch zu senken, ist das schlicht ne Effizienzsteigerung.

Nein das ist schlicht eine Skalierung. Du sagst doch selbst dass Verbrauch und Takt proportional zueinander sine.

Effizienzsteigerung wäre, wenn sie bei gleicher objektiver Ausgangsleistung (gemessen an der grafischen Leistung in fps oder wie auch immer) den Verbrauch senken könnten.

Da haben die aber kein Interesse dran, weil sich die Entwicklung teurer ist. Nvidia will am Ende auch nur möglichst viel Geld in möglichst kurzer Zeit machen ( da sind sie ironischerweise sehr auf Effizienz aus ^^ ). Gäbe es AMD nicht als Gegenspiele würde man sich auch viel mehr Zeit lassen mit der Entwicklung.
Im Moment gilt eher Klotzen statt Kleckern oder besser Quantität statt Qualität.
#79
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Das tun sie doch bereits über den Shrink Prozess

Wenn du heute eine 560TI kaufst dann hat die locker die Leistung einer ehemaligen 470 bei weniger Verbrauch[COLOR="red"]

---------- Post added at 14:09 ---------- Previous post was at 14:05 ----------

[/COLOR]
Zitat espanolplaya;20077936
Ist wie bei Eierphone, jeder muss es haben weils einfach Mainstream ist, trotzdem ist Eierphone scheiße! Mich würde viel mehr interessieren, wie viele Menschen ihre Handys/Hardware auf Raten kaufen nur um mit der Masse zu schwimmen. :lol:


Na "Mister Fäkal",wieder mal vergessen das hier Erwachsene Leute sind,die sich sowas leisten können u auch wollen

Die Beweggründe der jenigen,kannst du mit dem begrenzten Horizont sowieso nicht ergründen,also lass deine abenteuerlich Mutmaßungen mal schön da wo sie keinen stören

Und nein die Grünen sind nicht "scheiße",weils Taschengeld von Mama nicht gereicht hat dafür,oder die Leute einfach wie du es unterstellst "zu blöde sind"auf deinen Discountzug aufzuspringen
#80
customavatars/avatar136469_1.gif
Registriert seit: 24.06.2010

Flottillenadmiral
Beiträge: 5457
@Hardwarekäufer: mehr Takt-->höhere Spannung-->quadratischer(!) Anstieg der Leistungsaufnahmen.

@fdsonne: Das stimmt schon alles, nur würde ich die Ghz-Edition mit einer 100Mhz höher getakteten GTX680 vergleichen. Das ist nämlich im Schnitt bei Nvidia mehr drin an OC. Klar, die Leistungskrone hat trotzdem noch die 7970. Ich versteh auch nicht, warum Nvidia nicht die Preise senkt. Haben sie wohl nicht nötig.... Eigentlich schade, solche Features wie TXAA oder adaptives VSync sind mir persönlich wichtiger als die letzten 5 Frames.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]