> > > > NVIDIA: GK110-Karten heißen GeForce Titan

NVIDIA: GK110-Karten heißen GeForce Titan

DruckenE-Mail
Erstellt am: von

nvidia geforce logoDer US-amerikanische Grafikkartenhersteller NVIDIA bietet seit mehreren Jahren verschiedene 3D-Beschleuniger an. Im Desktop-Bereich unterscheidet man dort in die drei Hauptgruppen Tesla, Quadro und GeForce. Die beiden zuerst genannten Karten richten sich speziell an Firmenkunden, die diese beispielsweise in Workstations einsetzen. Letztere dagegen sind für den Endkunden vorgesehen. Dabei klassifiziert NVIDIA seit vielen Jahren die GeForce-Grafikkarten an Hand ihrer Rechenleistung mit verschiedenen Kürzeln wie GTX, GTS oder GT.

Geht es nach den neusten Meldungen im Netz, könnten die Kalifornier ihr Namensschema demnächst erweitern. So sollen die auf dem GK110 basierenden Pixelbeschleuniger "GeForce Titan" heißen. Grund dafür ist die Tatsache, dass die bisherige High-End Bezeichnung GTX sich nun schon bis weit in den Mittelklassebereich erstreckt. Repräsentativ dafür wäre zum Beispiel die GeForce GTX 650 zu nennen.

Durch die Einführung der "Titan"-Bezeichnung könnte man die Grafikkarten stärker voneinander abgrenzen und damit die GK110-Modelle aus der Masse herausstechen lassen. Ob dem jedoch wirklich so ist, werden wir spätestens bei der Veröffentlichung besagter Grafikkarten erfahren.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (80)

#71
customavatars/avatar92992_1.gif
Registriert seit: 10.06.2008
Emsland / Bochum
Admiral
Beiträge: 10409
Jaja die typischen Sprüche wieder.

Wenn die es schaffen eine schnelle Karte einfach so weit runterzutakten, dass sie dann nurnoch 20% verbraucht dann hat das nichts mit Effizienz zu tun.
#72
Registriert seit: 31.01.2011
Werne
Oberleutnant zur See
Beiträge: 1419
Egal was nvidia rausbringt und zu welchem preis die leute WERDEN es kaufen einfach weil sie es haben MÜSSEN und weil sie ebend die Grüne front sind können sie sich solche preise erlauben.. genauso wie intel es ist teuer aber die leute kaufen es muss ja keiner aber alle machen es ganz einfach :D
#73
Registriert seit: 05.11.2010

Obergefreiter
Beiträge: 102
Ich muss mal die Fanboykeule rausholen, denn ich bin fest davon überzeugt das die neue GTX 780 die Karten von AMD
auf den 2. Platz verdrängen wird. Die GTX 680 zählt in meinen Augen einfach nicht, nachdem damals bekannt wurde das die Kiste "nur" ein 256bit Speicherinterface spendiert bekommt, hatte ich die Karte schon abgeschrieben.
Ich bin auf jedenfall heiss auf GTX 780 Titan(oder wie auch immer sie heissen wird) und kann es kaum abwarten!

greetz

IORI
#74
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Solche Preise kann Nvidia nur halten wen folgendes eintrifft:

1. Sehr magere Ausbeute und daher hohe Verkaufspreise
2. AMD sehr deutlich zurückliegt.

Das zweite kann man sogut wie ausschließen. AMD wird auch ungefähr 20 bis 30% oben drauf packen.

Die 40 bis 50% Merhleistung auf die GTX 680 würden für GK110 ungefähr 10 bis 15% Vorsprung gegenüber der HD 8970 erlauben.

Ergo hohe Preise relativ unwahrscheinlich, außer die Karten sind wirklich Exclusivprodukte ( "Titan").
#75
customavatars/avatar26398_1.gif
Registriert seit: 19.08.2005
Gifhorn
Admiral
Beiträge: 12799
Hoffendlich wird die karte dann auch ein wahrer titane mit brutaler leistung :D mein yamakasi monitor braucht gewalt karten :D
#76
customavatars/avatar177874_1.gif
Registriert seit: 31.07.2012

Banned
Beiträge: 541
Zitat Marcel7795;20077523
Egal was nvidia rausbringt und zu welchem preis die leute WERDEN es kaufen einfach weil sie es haben MÜSSEN und weil sie ebend die Grüne front sind können sie sich solche preise erlauben.. genauso wie intel es ist teuer aber die leute kaufen es muss ja keiner aber alle machen es ganz einfach :D


Ist wie bei Eierphone, jeder muss es haben weils einfach Mainstream ist, trotzdem ist Eierphone scheiße! Mich würde viel mehr interessieren, wie viele Menschen ihre Handys/Hardware auf Raten kaufen nur um mit der Masse zu schwimmen. :lol:
#77
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31960
Zitat Sanek;20075706
Ist PCIe-Layout nur für 300 Watt spezifiziert? Wie geht es dann mit MultiGPU-Karten, die haben doch meistens drei 8Pin Anschlüsse?


Wenn ich das jetzt recht in erinnerung habe, ist eine PCIe Steckkarte! auf 300W limitiert, um sauber in den Spezifikationen zu laufen.
Was jetzt nicht ganz 100% klar ist. Im Grunde sprechen wir ja hier von DualSlot Karten. Soweit mir bekannt, schreibt die Spezifikation nicht die Anzahl der Slots vor, die minimal belegt sein müssen um 300W zu fahren.
Es wäre also theoretisch auch potentiell möglich eine SingleSlot Karte im 300W Design zu bringen. Zwei Karten mal 300W wären 600W in Summe auf gleichem Platz, sprich zwei Slots.

Zumindest könnte man so argumentieren. Obwohl es laut Spezifikationen immernoch unsauber wäre.

PS: die Anzahl der Stromanschlüsse hat damit auch weniger zu tun. Es geht eher um die gesamt Leistungsaufnahme sowie die gesamt Wärmeabgabe der Karte. Die eben Spezifikationen unterliegen sollte, damit sich andere Hersteller, die direkt oder indirekt darauf aufbauen müssen (beispielsweise Gehäusehersteller zur Dimensionierung, Kühlerhersteller usw) daran orientieren können.
Die Dual GPU Lösungen könnte man aber theoretisch auch einfach als Custom Designs betrachten. Die Spezifikation ist ja kein zwingendes muss. Ein Hersteller der diese überschreitet hat grundsätzlich damit ja keine Probleme.

Problematisch wirds da eher im OEM Bereich. Ne fertig PC Kiste von Fujitsu, HP, Dell und Co. baut idR stark auf diese Standards. Und passt da was nicht, gehts halt nicht ;) bzw. wird nicht genommen. Und der OEM Markt im ganzen (für privat und Business) dürfte mindestens genau so groß sein, wie der selbstbau Bastlermarkt.
Ein Hersteller, der die Spezifikationen weit überschreitet läuft somit Gefahr, das im OEM Markt sein Produkt keine Verwendung findet. -> unschön für die Hersteller.
Deswegen versucht man auch sogut wie möglich, sich an gängige Standards zu halten.

Bei Dual GPU Karten ist das aber in meinen Augen auch halbwegs verschmerzlich, wenn diese da drüber gehen, einfach weil der potentielle Kundenkreis sowas von gering ist... Und auch im OEM Bereich findet man idR sowas nicht.

Zitat LSSJBroly;20075944
Ich rede die ganze Zeit von der GHz Ed., welche rund 5-10% schneller als die GTX 680 ist.


Das war mal so vor dem 12.11er Treibern... Schau dir neue Benches an mit aktuellen Treibern. Da ragt ne GHz 7970 idR um die 12-15% je nach Settings und Restsystem vor ner 680er.
Es ist jetzt nicht die Welt, aber immerhin. Zugegebenermaßen hat AMD in Sachen Leistung seit Release da gut was zugelegt. Selbst ne default HD7970 non GHz ohne Turboboost liegt quasi gleichauf mit der 680er. Im Vergleich zum 680er Release war diese noch gut und gerne 10% zurück.

Zumindest was gängige Benchgames betrifft...
Einen 100% Marktüberblick kann man natürlich nicht geben, das ist klar.
Aber AMD hat gewaltig in den aktuellen Top Games ala Skyrim, BF3 usw. zugelegt. Bei BF3 sogar über 30% nachweisbar...

Zitat Hardwarekäufer;20077321
Jaja die typischen Sprüche wieder.

Wenn die es schaffen eine schnelle Karte einfach so weit runterzutakten, dass sie dann nurnoch 20% verbraucht dann hat das nichts mit Effizienz zu tun.


Du hast irgendwie nicht verstanden, was Effizienz ist.
Die Effizienz (in dem Fall Leistung pro Verbrauch (Watt)) misst sich ausschließlich am Endprodukt. Also genau so, wie die Karte auf dem Markt geworfen wird. Was schlussendlich mit anderen Taktraten möglich ist und was nicht, spielt nicht die Rolle...
Und wenn die ihre GPUs runtertakten um eben den Verbrauch zu senken, ist das schlicht ne Effizienzsteigerung. Einfach aus dem Grund, weil idR hohe Taktraten aufgrund von mehr nötiger vGPU Spannung in Sachen Effizienz schlechter dastehen als niedrige Taktraten. -> und das ist Fakt! Denn der Verbrauch steigt/fällt 1:1 mit dem Takt, aber im Quadrat zur anliegenden Spannung.
#78
customavatars/avatar92992_1.gif
Registriert seit: 10.06.2008
Emsland / Bochum
Admiral
Beiträge: 10409
Zitat
Und wenn die ihre GPUs runtertakten um eben den Verbrauch zu senken, ist das schlicht ne Effizienzsteigerung.

Nein das ist schlicht eine Skalierung. Du sagst doch selbst dass Verbrauch und Takt proportional zueinander sine.

Effizienzsteigerung wäre, wenn sie bei gleicher objektiver Ausgangsleistung (gemessen an der grafischen Leistung in fps oder wie auch immer) den Verbrauch senken könnten.

Da haben die aber kein Interesse dran, weil sich die Entwicklung teurer ist. Nvidia will am Ende auch nur möglichst viel Geld in möglichst kurzer Zeit machen ( da sind sie ironischerweise sehr auf Effizienz aus ^^ ). Gäbe es AMD nicht als Gegenspiele würde man sich auch viel mehr Zeit lassen mit der Entwicklung.
Im Moment gilt eher Klotzen statt Kleckern oder besser Quantität statt Qualität.
#79
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Das tun sie doch bereits über den Shrink Prozess

Wenn du heute eine 560TI kaufst dann hat die locker die Leistung einer ehemaligen 470 bei weniger Verbrauch[COLOR="red"]

---------- Post added at 14:09 ---------- Previous post was at 14:05 ----------

[/COLOR]
Zitat espanolplaya;20077936
Ist wie bei Eierphone, jeder muss es haben weils einfach Mainstream ist, trotzdem ist Eierphone scheiße! Mich würde viel mehr interessieren, wie viele Menschen ihre Handys/Hardware auf Raten kaufen nur um mit der Masse zu schwimmen. :lol:


Na "Mister Fäkal",wieder mal vergessen das hier Erwachsene Leute sind,die sich sowas leisten können u auch wollen

Die Beweggründe der jenigen,kannst du mit dem begrenzten Horizont sowieso nicht ergründen,also lass deine abenteuerlich Mutmaßungen mal schön da wo sie keinen stören

Und nein die Grünen sind nicht "scheiße",weils Taschengeld von Mama nicht gereicht hat dafür,oder die Leute einfach wie du es unterstellst "zu blöde sind"auf deinen Discountzug aufzuspringen
#80
customavatars/avatar136469_1.gif
Registriert seit: 24.06.2010

Flottillenadmiral
Beiträge: 5277
@Hardwarekäufer: mehr Takt-->höhere Spannung-->quadratischer(!) Anstieg der Leistungsaufnahmen.

@fdsonne: Das stimmt schon alles, nur würde ich die Ghz-Edition mit einer 100Mhz höher getakteten GTX680 vergleichen. Das ist nämlich im Schnitt bei Nvidia mehr drin an OC. Klar, die Leistungskrone hat trotzdem noch die 7970. Ich versteh auch nicht, warum Nvidia nicht die Preise senkt. Haben sie wohl nicht nötig.... Eigentlich schade, solche Features wie TXAA oder adaptives VSync sind mir persönlich wichtiger als die letzten 5 Frames.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]