> > > > Technische Daten und Preis zur GeForce GTX 1650 bekannt

Technische Daten und Preis zur GeForce GTX 1650 bekannt

Veröffentlicht am: von

turing-gpuEs ist längst ein offenes Geheimnis - und wird nun abermals bestätigt. Am 23. April wird die GeForce GTX 1650 erscheinen. Ebenfalls bekannt ist, dass der bisher kleinste Turing-Ausbau mit einem 4 GB fassenden GDDR5-Speicher auskommen muss. Nun aber ist auch die Anzahl der Shadereinheiten bekannt. Nicht 768, sondern 896 Shadereinheiten wird NVIDIA auf der TU117-GPU verwenden. Dies vermeldet einmal mehr Videocardz.

Die genauer als TU117-300 bezeichnete GPU bietet 896 Shadereinheiten, die in 14 SMs (Turing Shader Multiprozessor) organisiert sind. Hinzu kommen 56 Texturheinheiten und wie bei allen kleineren TU11x-GPUs sind keinerlei Tensor und RT Cores vorhanden. Das ist auch schon für die GeForce GTX 1660 Ti und GeForce GTX 1660 der Fall. Dennoch hat die Turing-Architektur auch ohne Tensor und RT Cores einige Änderungen vorzuweisen.

Die TU117-300-GPU soll mit einem Basistakt von 1.485 MHz arbeiten. Per GPU-Boost sollen 1.665 MHz erreicht werden. Diese Zahlen beziehen sich sicherlich auf die Referenzvorgaben von NVIDIA. Je nach Modell von den Boardpartnern werden wir aber auch noch höhere Boost-Taktraten sehen.

Die technischen Daten der GeForce GTX 16x0 in der Übersicht
Modell GeForce GTX 1660 Ti GeForce GTX 1660 GeForce GTX 1650
Preis ab 265 Euro ab 220 Euro ab 170 Euro
Technische Daten
Architektur Turing Turing Turing
GPU TU116 TU116 TU117
Fertigung TSMC 12 nm TSMC 12 nm TSMC 12 nm
Transistoren 6,6 Milliarden 6,6 Milliarden -
Diegröße 284 mm² 284 mm² -
Shadereinheiten 1.536 1.408 896
Tensor Cores - - -
RT Cores - - -
Textureinheiten 96 88 56
ROPs 48 48 32
GPU-Takt (Basis) 1.500 MHz 1.530 MHz 1.485 MHz
GPU-Takt (Boost) 1.635 MHz 1.785 MHz 1.665 MHz

Speichertakt

1.500 MHz 2.000 MHz 2.000 MHz
Speichertyp GDDR6 GDDR5 GDDR5
Speichergröße 6 GB 6 GB 4 GB
Speicherinterface 192 Bit 192 Bit 128 Bit
Bandbreite 288 GB/s 192 GB/s 128 GB/s
TDP 120 W 120 W 75 W
Versorgung  1x 8-Pin 1x 8-Pin -
NVLink/CrossFire - - -

Die 4 GB GDDR5-Speicher werde über ein 128 Bit breites Speicherinterface angebunden. Die Speicherbandbreite liegt damit bei 128 GB/s. Die Thermal Design Power des Referenzdesigns liegt bei 75 W. Damit werden wir viele Karten sehen, die ohne eine zusätzliche Stromversorgung auskommen – auch dies wurde bereits erwartet.

Die unverbindliche Preisempfehlung für die GeForce GTX 1650 wird mit 149 US-Dollar genannt. Dieser wird sich nicht ganz 1:1 in einen Euro-Preis umrechnen lassen. Erste Listungen der Karten in den europäischen Shops sprechen je nach Modell von 169 bis 189 Euro.

Die GeForce GTX 1650 soll ab dem 23. April erhältlich sein.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (21)

#12
customavatars/avatar46160_1.gif
Registriert seit: 29.08.2006
Bad Bentheim
Kapitän zur See
Beiträge: 3128
Zitat Tech Enthusiast;26907953

Der Preis schreckt Kunden nicht so sehr, ab wie man hier im Forum vermuten würde.
In der Realität scheinen Kunden dann doch eher nach Leistung zu gieren, statt nach Rabatten.
Für mich verständlich, da man so ne GPU ja über Jahre nutzen kann und sich jeder Preis da verdammt schnell relativiert.


Als ob die Käufer von 2080 und 2080Ti diese lange behalten würden, die meisten verkaufen sie wieder, wenn die nächste Generation erscheint. Finde die Statistik trotzdem krass, die Karten sind für das gebotene ja nun wirklich unverhältnismäßig teuer. Ich meine auch, vor einer Weile gelesen zu haben, dass NV seine Gewinnprognose zurückschrauben musste und dies größtenteils auf die nicht wie erwartet laufenden Gewinne der Turings zurückzuführen sei.
#13
Registriert seit: 26.05.2006
Bern (CH)
Leutnant zur See
Beiträge: 1054
Zitat angelsdecay;26907618
Das macht kein unterschied, die encoder/decoder Leistung ist bei allen GPU einer gen identisch weil separater chip
Nur unterschiedliche gen sind unterschiedlich schnell also ein e gtx960 h264 ist langsamer als der von gtx 1650


Nicht ganz korrekt, gibt Karten die haben 2-3 NVENC engines, sprich es können 2 Threads verarbeitet werden,
das merkt man schon ziemlich, da sich in dem Fall die FPS verdoppeln bzw. verdreifachen.
Video Encode and Decode GPU Support Matrix | NVIDIA Developer
#14
Registriert seit: 02.04.2019

Matrose
Beiträge: 11
Zitat Shiga;26908176
Nicht ganz korrekt, gibt Karten die haben 2-3 NVENC engines, sprich es können 2 Threads verarbeitet werden,
das merkt man schon ziemlich, da sich in dem Fall die FPS verdoppeln bzw. verdreifachen.
Video Encode and Decode GPU Support Matrix | NVIDIA Developer


Danke. Wertvoller Hinweis. Sowas wird ja weder unter "Technische Daten" auf nvidia.com noch unter "Technische Daten" z.B. bei einem Händler wie Mindfactory kommuniziert.
Früher dachte ich für Videorendering braucht man eine teure Quadro oder Tesla Karte. - Nee, man braucht eine Karte mit zwei NVENC Engines (bei drei gibt es leider Ärger an der Kasse ;)).
#15
customavatars/avatar73342_1.gif
Registriert seit: 22.09.2007

Admiral
Beiträge: 21921
Was ich null verstehe, die 1650 positioniert sich Preislich da wo aktuell die RX580-8G Steht, und dass die der 75W Turing dann doch den Leistungsrang ab läuft ist wohl kaum strittig.
Der Preis ist definitiv zu hoch, vor allem bei gerade mal mageren 4GB VRAM. Da wird wohl auch weiterhin die RX570-8g zu etwa 140€ Einstiegspreis die Empfehlung bleiben.

Die 1650 ist doch nur noch für kleine OEM-PCs interessant, wo keine GPU mit Stromanschluss rein geht.
Dafür halte ich die Karte aber für zu teuer.
#16
customavatars/avatar238501_1.gif
Registriert seit: 01.01.2016

Oberleutnant zur See
Beiträge: 1394
Zitat Tigerfox;26908006
Als ob die Käufer von 2080 und 2080Ti diese lange behalten würden, die meisten verkaufen sie wieder, wenn die nächste Generation erscheint.


Sicher, aber das macht es ja noch extremer.
Die Hohen Preise können also jede Generation abgerufen werden.
Der Geiz-Ist-Geil-Trend ist doch eher auf kleine Foren wie Luxx begrenzt anscheinend. ;-)

Das NVidia die Gewinnprognose aufgrund von Turing zurückgeschraubt hat, ist von Medien verbreitet, nicht von NVidia (soweit ich das gelesen habe, könnt mich gerne korrigieren).
Soweit ich das gelesen habe, haben sie die Gewinnprognose wegen Minern zurückgefahren.
Die Verkaufszahlen von Turing wirken zumindest nicht schlecht. Es kann aber natürlich auch sein, dass sie NOCH bessere Verkaufszahlen erwartet haben.
Nach nur 6 Monaten haben die RTX GPUs aber viel billigere AMD GPUs überholt, die es teils schon viele Jahre auf dem Markt gibt, teils für 200 und weniger. Schlechte Verkaufszahlen sehen FÜR MICH anders aus, aber sind natürlich relativ. Tomb Raider war ja auch auf der Kippe, weil 14mio nicht genug Verkäufe waren. ;-)

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat [W2k]Shadow;26908396

Die 1650 ist doch nur noch für kleine OEM-PCs interessant, wo keine GPU mit Stromanschluss rein geht.


War das jemals anders bei xx50er, oder gar xx30er GPUs?
Ich habe das noch nie verstanden, ehrlich gesagt. Für nen Fuffi mehr bekommt man ne deutlich bessere GPU, egal von welchem Team.
Wofür man ne GPU kauft, die kaum schneller als ne integrated GPU ist, nur um nen 1-3h Lohn zu sparen, wird mir immer ein Rätsel bleiben.
Das kann doch nur für Office only PCs sein, die aber an 4k/60hz Monitoren angeschlossen sind und deswegen nicht mit integrated laufen können.
#17
customavatars/avatar97719_1.gif
Registriert seit: 29.08.2008

Fregattenkapitän
Beiträge: 2744
Zitat Tech Enthusiast;26907953

Der Preis schreckt Kunden nicht so sehr, ab wie man hier im Forum vermuten würde.
In der Realität scheinen Kunden dann doch eher nach Leistung zu gieren, statt nach Rabatten.


Ach deshalb sind die Absatzzahlen der GTX1060 6GB, RX580 und Co. so viel höher als die von teuren High End Karten. Weil der Großteil der Kunden nach möglichst hoher Leistung giert, so so.
Die höchsten Verkaufszahlen werden schon immer im Midrange und Mainstream erreicht. Eben, weil der Großteil der Spieler eben NICHT nach möglichst hoher Leistung schreit, sondern lediglich ausreichende Leistung zum Spielen haben will, die möglichst günstig zu haben ist.

Die RX580 war die meiste Zeit ihres Bestehens durch den Mining Boom vollkommen überteuert. Entsprechend gering waren da also auch die Absatzzahlen unter Spielern.
#18
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€Uropäische Union - Bairischer Sprachraum
Kapitän zur See
Beiträge: 4068
Zitat Tech Enthusiast;26908476

Ich habe das noch nie verstanden, ehrlich gesagt. Für nen Fuffi mehr bekommt man ne deutlich bessere GPU, egal von welchem Team.
Wofür man ne GPU kauft, die kaum schneller als ne integrated GPU ist, nur um nen 1-3h Lohn zu sparen, wird mir immer ein Rätsel bleiben.
Das kann doch nur für Office only PCs sein, die aber an 4k/60hz Monitoren angeschlossen sind und deswegen nicht mit integrated laufen können.

Was ist mit den zahlreichen älteren PCs wo deren Netzteil diese Mehrleistung nicht stemmen kann, wo generell keine Grafikkarte darin war oder eine die nur über den PCIe Slot den Strom bezieht, wenn einer von einer IPG oder sagen wir einmal einer GT700er oder R7 200er Karte aufrüsten will, weil er die Leistung jetzt benötigt, hmm...
Nicht jeder spielt die nur Leistungshungrige spiele, kein Wunder das viele Populäre Spiele kaum Grafikleistung benötigen.
Wer nicht sein ganzes System aufrüsten will, also viel höhere kosten haben will, kauft solche Karten, sollte eigentlich klar sein.
Das solche Karte ihre Daseinsberechtigung abgesprochen werden ist doch sehr befremdlich, vor allem in einem Forum das sich damit auskennen will, traurig.
Schon mal überlegt das nicht jeder die Leistung benötigt die man selbst haben will... scheinbar nicht.
Wenn solche Karten keinen Abnehmer finden würde, nach deiner geschätzten Meinung, würden AMD und Nvidia solchen Karten gar nicht auf den Markt werfen.
#19
customavatars/avatar46160_1.gif
Registriert seit: 29.08.2006
Bad Bentheim
Kapitän zur See
Beiträge: 3128
Nicht gleich so beleidigt sein, ich sehe das ähnlich. Wir sprechen ja hier über einen Preisbereich, wo man alle 20 bis 50€ eine schnellere Grafikkarte kriegt, nicht über den Bereich zwischen 2060 und 2070.
Ich verstehe, dass sich viele eine Grenze setzten, aber wenn ich jetzt für 200€ statt 150€ eine deutlich schnellere Karte kriege, muss ich doch nicht lange überlegen. Das führt auch irgendwie OC-Modelle ad absurdum, wenn ich da schnell wieder bei der nächstschnelleren Karte bin.
Und es stimmt auch, ich brauche auch die günstigen Karten nur, wenn ich zocken will, für Office und Multimedia reichen die IGPs, die man nun seit etlichen Jahren im Mainstream-Bereich in der CPU hat, ob man will oder nicht.
#20
customavatars/avatar73342_1.gif
Registriert seit: 22.09.2007

Admiral
Beiträge: 21921
Ja, nur wenn die rx570-8g schneller bleibt, günstiger zu haben ist, ... wozu dann die 1650, wenn man preislich das neue Netzteil trotzdem zu zahlt und auf 8gb vram verzichtet?

Sorry, die Rechnung ging auf, so lange die Konkurrenz quasi nicht da war, dieses mal, nein.
#21
customavatars/avatar238501_1.gif
Registriert seit: 01.01.2016

Oberleutnant zur See
Beiträge: 1394
Zitat Tigerfox;26908697
Nicht gleich so beleidigt sein, ich sehe das ähnlich.


Keine Sorge, ich bin das gewohnt... es wird immer nur Schwarz weiß gedacht.
Versuche ja schon möglichst ausführlich zu beschreiben warum ich so denke, das geht aber bei den üblichen Verdächtigen einfach unter.
Ich habe gesagt, dass sich die 2080TI gut verkauft, also muss ich damit automatisch gemeint haben, dass midrange GPUs auf keinen Fall Abnehmer finden.
Irgendwie so muss die Logik funktionieren, ansonsten machen die Antworten keinen Sinn.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

    Logo von IMAGES/STORIES/2017/AMD-RADEONVII

    Heute ist es endlich soweit: Es gibt in Form der Radeon VII endlich wieder eine neue Grafikkarte aus dem Hause AMD. Zwar kommt auch hier die bekannte Vega-Architektur zum Einsatz, durch die Kombination einer in 7 nm gefertigten GPU mit 16 GB an extrem schnellen HBM2, ist die Radeon VII aber... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]