> > > > Weniger als 150 US-Dollar: NVIDIA präsentiert die GeForce GTX 1650

Weniger als 150 US-Dollar: NVIDIA präsentiert die GeForce GTX 1650

Veröffentlicht am: von

zotac geforce gtx 1650 ocNVIDIA hat am Nachmittag nicht nur zwei neue Notebook-Grafikkarten auf Turing-Basis präsentiert, sondern auch die GeForce GTX 1650 als bislang kleinsten Turing-Ableger in den Desktop geschickt. Der kleine 3D-Beschleuniger soll ab heute für etwa 150 US-Dollar in den Läden stehen. 

Die Gerüchte der vergangenen Tagen behielten recht und wurden am Nachmittag von NVIDIA offiziell bestätigt: Die GeForce GTX 1650 ist ab heute für 149 US-Dollar erhältlich. Sie basiert auf der neuen TU117-GPU, die mit 896 Shadereinheiten dem bislang kleinsten Ausbau entspricht und wie die beiden anderen GTX-16-Modelle auf die dedizierten RT- und Tensor-Cores für beschleunigtes Raytracing und DLSS verzichten muss. Trotzdem erhält auch sie die Verbesserungen der Turing-Architektur wie die Complex-Shader oder den größeren Cache- und Speicherausbau, weswegen NVIDIA in 1080p ein Leistungsplus gegenüber der GeForce GTX 1050 von bis zu 70 % verspricht. Gegenüber der GeForce GTX 950 aus der Maxwell-Generation soll die neue Turing-GTX sogar doppelt so schnell arbeiten.

Gegenüber der GeForce GTX 1660 reduziert sich jedoch nicht nur die Zahl der Shadereinheiten, sondern auch der Speicherausbau. Dieser ist auf nur noch 4 GB GDDR5 beschnitten, während das Speicherinterface mit 128 Bit ebenfalls kleiner ausfällt. Zusammen mit einem Speichertakt von 2.000 MHz reduziert sich die Speicherbandbreite auf rund 128 GB/s. Der TU117-Chip soll sich mit einem Basistakt von 1.485 MHz ans Werk machen, während im Boost Frequenzen von mindestens 1.665 MHz erreicht werden sollen. 

Die GeForce GTX 1650 ist die erste Turing-Grafikkarte, die auf eine zusätzliche Stromversorgung verzichtet. Mit einer TDP von 75 W reicht die Versorgung über das PCI-Express-Interface aus. Boardpartner können jedoch auch weiterhin eigene Designs entwerfen und mit Übertaktung Modelle mit zusätzlicher Stromversorgung auf den Markt bringen – die ersten OEMs haben bereits entsprechende Modelle angekündigt. 

Mit der GeForce GTX 1650 rundet NVIDIA sein Turing-Aufgebot nach unten hin ab und zielt damit klar auf die Radeon RX 570 und Radeon RX 580 ab, die in Sachen Preis fast konkurrenzlos günstig waren.

Die technischen Daten der GeForce GTX 1650 in der Übersicht
Modell GeForce GTX 1660 Ti GeForce GTX 1660 GeForce GTX 1060GeForce GTX 1650
Preis ab 290 Euro ab 225 Euro ab 200 Euroab 149 US-Dollar
Technische Daten
Architektur Turing Turing PascalTuring
GPU TU116 TU116 GP106TU117
Fertigung TSMC 12 nm TSMC 12 nm TSMC 16 nmTSMC 12 nm
Transistoren 6,6 Milliarden 6,6 Milliarden 4,4 Milliarden4,7 Milliarden
Diegröße 284 mm² 284 mm² 200 mm²200 mm²
Shadereinheiten 1.536 1.408 1.280896
Tensor Cores - - --
RT Cores - - --
Textureinheiten 96 88 8056
ROPs 48 48 4832
GPU-Takt (Basis) 1.500 MHz 1.530 MHz 1.506 MHz1.485 MHz
GPU-Takt (Boost) 1.635 MHz 1.785 MHz 1.708 MHz1.665 MHz

Speichertakt

1.500 MHz 2.000 MHz 2.000 MHz2.000 MHz
Speichertyp GDDR6 GDDR5 GDDR5GDDR5
Speichergröße 6 GB 6 GB 6 GB4 GB
Speicherinterface 192 Bit 192 Bit 192 Bit128 Bit
Bandbreite 288,1 GB/s 192,1 GB/s 192 GB/s128 GB/s
TDP 120 W 120 W 120 W75 W
Versorgung  1x 8-Pin 1x 8-Pin 1x 8-Pin-

Gerne hätten wir unseren Lesern pünktlich zum NDA-Fall um 15:00 Uhr einen Test präsentiert, doch konnte uns NVIDIA vorab über das Osterwochenende nicht mit einem Treiber versorgen –wir wurden auf den finalen Endkunden-Treiber, welcher inzwischen zum Download bereit steht, verwiesen. Wir werden unseren Test in Kürze nachliefern.

Social Links

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (30)

#21
Registriert seit: 03.07.2007

Obergefreiter
Beiträge: 98
Zitat Powl;26916094
Ne 570 kriegt man schon n gutes Stück unter 100W, dann auch mit ähnlicher Performance wie ne 1650. Aber die 75W erreicht man bei gleicher Perf sicher nicht.


Also die MSI 1650 bei Tomshardware hatte ein Power Target von 85W, braucht beim Gaming etwa 80W. Das ist ja genau das, was ich nicht verstehe. Hätte man die Karte auf ein Target von 65W gestellt (etwas Luft braucht man ja zur Spec von 75W für den PCIe), hätte man den zusätzlichen 6Pin Stecker nicht gebraucht. Klar, dann wäre sie noch mal langsamer. Aber das ist ja auch keine hardcore Gamer Karte...
#22
customavatars/avatar97341_1.gif
Registriert seit: 23.08.2008
Bitz
Anime und Hardware Otaku
Beiträge: 14465
Zitat Powl;26916094
Ne 570 kriegt man schon n gutes Stück unter 100W, dann auch mit ähnlicher Performance wie ne 1650. Aber die 75W erreicht man bei gleicher Perf sicher nicht.


Was heisst ein gutes Stück runter? Wie sieht die Leistung & die Temps. dabei aus?

Tatsache ist. Hier haben wir eine sehr schönes & sparsame Karte die für FullHD @High vollkommen ausreicht.
Mehr VRAM ist unnötig, da eher der GPU die Puste ausgeht bevor der VRAM knapp wird.

Jetzt fehlen nurnoch Single-Slot-Ver. :D

Zum Preis: die Graka ist erst diese Woche erschienen. Wartet 4-6 Wochen, dann sehen wir weiter :p

Und ständig kommen immer die Alternativen aus dem roten Lager. AMD bringt seit Jahren nur Refreshs.
Die Vega VII (7nm) ist eine Ausnahme und ein Witz (Leistung und Preis).

AMD kann nur billig, heiß & laut. Hinkt NV hinter her. Out-of-the-box gibt es seit Jahren nicht mehr.
Man muss erstmal "optimieren" damit es einigermaßen vernünftig läuft. Aber hey: lass uns eine 570er
als Alternative anbieten, die (@Stock) fast das Doppelte verbrät und nur ca. 10% schneller ist als
die 1650er :shot:

Die hat aber 8GB ... :wall:
#23
Registriert seit: 27.05.2008
Simmerath 52152
Oberbootsmann
Beiträge: 830
Ich habe mal meine gtx 1060 auf 50% powerlimit gesetzt und den Takt um 400mhz gesenkt
Ergebnis
1,3ghz max 65w
Dann den speicher auf 1,8ghz=7,2ghz original 8,2ghz
Dieselbe Leistung der gtx 1650
in
the division 2 avg 42fps original 52 (cpu limit) -24%
shadow of the tomb raider 38 original 54 -42%
FHD maxed settungs profil ultra ohne vsync
leider ist das presets bei Sootr mit aa ohne erreiche ich 62fps
#24
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Flottillenadmiral
Beiträge: 4496
Ach Menchi. Polaris ist mittlerweile 2 Jahre alt, natürlich ist ootb da nicht so effizient.
Fakt bleibt aber, dass man damit für weniger Geld mehr Leistung kriegt, mit dem einzigen Nachteil, dass man einen 6-pin braucht und halt mehr Strom verbrät.
Bei um die 100W ist Verbrauch dann aber auch nicht mehr das Killeargument wo man hochrechnen braucht. Die paar Euro im Jahr kann man verkraften, wenn man sich Gaming im allgemeinen als Hobby leisten kann. Die Preisdifferenz zur 1650 muss man ja auch erstmal verbrauchen ;)

Vernünftig läuft Polaris auch ab Werk. Mit UV holt man halt nochmal einiges an Effizienz raus...genau wie bei Nvidia, nur die machens einem nicht so einfach.

Sent from OP6
#25
customavatars/avatar285234_1.gif
Registriert seit: 04.07.2018

Hauptgefreiter
Beiträge: 136
Zitat Powl;26916094
Ne 570 kriegt man schon n gutes Stück unter 100W, dann auch mit ähnlicher Performance wie ne 1650.


Das glaube ich nicht, dass dies möglich ist.
#26
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Flottillenadmiral
Beiträge: 4496
Zitat Ryze mit Sauce;26917946
Das glaube ich nicht, dass dies möglich ist.

Na klar geht das. Stock vcore sind ~1.05v bei 1200-1300MHz und ~120W Verbrauch. Zieh das auf 0.95v bei 1100-1200MHz runter und du bist bei knapp 90W oder weniger.
Mit 1000-1100MHz und 0.9v dürfte man dann auch auf 80W kommen.

In Mining Foren gibts mitunter Settings für 75W bei 0.8-0.85v aber gleichzeitig übertaktetem Speicher. Polaris war bei Minern ja recht beliebt, deshalb gibts recht einfach findbare Zahlen.

Sent from OP6
#27
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Flottillenadmiral
Beiträge: 4496
Zitat MENCHI;26916566
Was heisst ein gutes Stück runter? Wie sieht die Leistung & die Temps. dabei aus?


1100MHz bei 0.9-0.95v, dabei 80-90W. Leistung somit ca 10% unter Ref, aka 1650 Niveau.
Temps kommen halt auf den Kühler an, logischerweise...

Ich kann gern mal schauen wie weit ich meine 570 drosseln kann.


Sent from OP6
#28
customavatars/avatar285234_1.gif
Registriert seit: 04.07.2018

Hauptgefreiter
Beiträge: 136
Zitat Powl;26917950
Na klar geht das. Stock vcore sind ~1.05v bei 1200-1300MHz und ~120W Verbrauch.


Seit wann benötigt eine RX 570 nur 120 Watt? AMD´s TBP gibt 150 Watt an und das ist genau der Verbrauch den alle Reviewseiten messen.
Zitat Powl;26917950

Zieh das auf 0.95v bei 1100-1200MHz runter und du bist bei knapp 90W oder weniger.


Das kannst du auch auf 0,8 Volt herunterziehen und den Takt auf 1000Mhz senken, weniger als 100 Watt waren bei meinen Tests nicht möglich.
Problem ist der Verbrauch von PCB/RAM sowie dem 256bit breiten Interface das einfach zu viel saugt.
Zitat Powl;26917950

In Mining Foren gibts mitunter Settings für 75W bei 0.8-0.85v aber gleichzeitig übertaktetem Speicher. Polaris war bei Minern ja recht beliebt, deshalb gibts recht einfach findbare Zahlen.


Zeig mal her.
#29
customavatars/avatar234560_1.gif
Registriert seit: 13.11.2015

Flottillenadmiral
Beiträge: 4496
Zitat Ryze mit Sauce;26917956
Zeig mal her.


Auf die Schnelle: How to Bios Mod Gigabyte Aorus RX570 4GB(Step by step) - YouTube
Oder auch: Hashrate RX 570

Wenn Reviewer 150W Verbrauch @wall messen, dann sind das bei ~80% Effizienz 120W Verbrauch an der GPU selbst. Passt doch?

Ed: was geben Nvidia und AMD jeweils eigentlich bei den digitalen Messwerten zu Verbrauch an? TBP oder interner Verbrauch?

Sent from OP6
#30
customavatars/avatar55096_1.gif
Registriert seit: 05.01.2007
NRW
Kapitänleutnant
Beiträge: 1929
Wenn es rein um die Leistung geht, dann brauch man nicht über eine 1650 nachdenken.

GTX 1650 vs RX 570 Test in 7 Games - YouTube
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

    Logo von IMAGES/STORIES/2017/AMD-RADEONVII

    Heute ist es endlich soweit: Es gibt in Form der Radeon VII endlich wieder eine neue Grafikkarte aus dem Hause AMD. Zwar kommt auch hier die bekannte Vega-Architektur zum Einsatz, durch die Kombination einer in 7 nm gefertigten GPU mit 16 GB an extrem schnellen HBM2, ist die Radeon VII aber... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]