> > > > Sparsame Sapphire Radeon RX 560 Pulse mit nur 45 W angekündigt

Sparsame Sapphire Radeon RX 560 Pulse mit nur 45 W angekündigt

Veröffentlicht am: von

sapphire radeon rx560 pulseIm Dezember schickte Sapphire eine zweite Variante seiner Radeon RX 560 Pulse ins Rennen, die mit Blick auf die Anzahl der Streamprozessoren leicht beschnitten wurde und fast 1:1 auf das Niveau der Radeon RX 460 aus der Vorgänger-Generation gebracht wurde. Eine Kennzeichnung zwischen der Variante mit den üblichen 1.024 Shadereinheiten und der zweiten mit nur 896 ALUs hat zumindest damals nicht stattgefunden. Nun hat der AMD-Boardpartner einen weiteren Ableger des günstigen 3D-Beschleunigers präsentiert.

Während die Radeon RX 560 eigentlich über eine TDP von 80 W verfügt und damit einen zusätzlichen 6-Pin-PCI-Express-Stromstecker verlangt, soll die neue Version mit nur 45 W auskommen, womit sie deutlich sparsamer wäre als die Referenzversion. Der Blick in das Datenblatt überrascht, denn eine Reduzierung der Shadereinheiten oder eine Beschneidung des Videospeichers hat Sapphire nicht vorgenommen. 

Wie die Urversion der Sapphire Radeon RX 560 Pulse basiert auch die 45-W-Version auf dem Vollausbau von Polaris 21 und kann damit die vollen 16 Shadercluster mit ihren 1.024 Streamprozessoren vorweisen. Die vier TMUs pro Cluster bleiben ebenfalls bestehen, womit weiterhin 64 Textureinheiten bereitstehen. Beim Videospeicher setzt man wahlweise auf 2 oder 4 GB GDDR5, die über einen 128 Bit breiten Speicherkanal an die GPU angeschlossen werden.

Einzig die Taktraten wurden leicht nach unten korrigiert. Statt der sonst üblichen 1.300 MHz im Boost soll die neue Pulse-Karte nur noch 1.216 MHz erreichen, was immerhin 84 MHz darunter und leicht unter dem Referenzmodell von AMD mit 1.275 MHz liegt.

Auf Nachfrage teilte uns Sapphire mit, dass man das Power-Limit bei seiner neuen, sparsamen Karte auf 45 W festgesetzt habe, um den zusätzlichen Stromanschluss einsparen zu können. Vermutlich wird die neue Sapphire Radeon RX 560 Pulse 45W den angegebenen Boost-Takt in der Praxis kaum halten können, um innerhalb der 45 W zu bleiben. Am Ende dürfte der Performance-Einbruch also deutlich größer ausfallen, als angenommen. Man versucht, uns ein Testmuster zur Verfügung zu stellen.

In unserem Preisvergleich wird immerhin schon die 2-GB-Version davon gelistet. Für sie sollen etwa 134 Euro fällig werden, womit das Modell nur unwesentlich teurer ist als die Urversion. Eine Kennzeichnung findet zumindest auf der Verpackung nicht statt, in unserem Preisvergleich werden alle Varianten inzwischen aber unterschiedlich aufgeführt.

Social Links

Kommentare (12)

#3
customavatars/avatar182753_1.gif
Registriert seit: 28.11.2012

Hauptgefreiter
Beiträge: 252
Wenn es nur darum ging ohne extra Stromanschluss auszukommen hätten es doch auch <75W schon getan? Also wieso mehr kastrieren als nötig?
#4
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€Uropäische Union - Bairischer Sprachraum
Kapitän zur See
Beiträge: 3674
@M4deman
Um Nvidia nicht das ganze Feld zu überlassen, die GT1030 hat wahlweise entweder einen verbrauch von 30 Watt (GDDR5) oder 20 Watt (DDR4), man will wenigstens halbwegs dran bleiben.

________________

Nachtrag:

@Morrich

Du hättest schon einen Schritt weiter denken können, dabei ging es nicht um den direkten Leistungs-Konkurrenten sondern es war der Hinweis was Nvidia bei den TDP-reduzierten Karten anbietet - die sehr niedrig sind, da hätte man aber durchaus realisieren können.
Wen das interessiert, offensichtlich sehr viele, warum sonst bieten ALLE Hersteller (egal ob CPU, GPU oder RAM usw) TDP reduzierte Versionen beziehungsweise Produkte an, sicher nicht weil keine Nachfrage besteht.
Man muss doch nur überlegen was es dem Kunden bringen kann, niedrigere Temperaturen, gesenkte Geräuschkulisse, kostensparende Kühlung, was alle interessiert und nicht nur wenige die sich für informiert "halten", dem einfachen Käufer der sich nicht damit auskennt kommt dies doch auch zugute wenn man dem Händler gewisse vorgaben gibt.
Und wer sich was warum kauft, darüber darfst du dir offenbar kein Urteil erlauben.
#5
customavatars/avatar97719_1.gif
Registriert seit: 29.08.2008

Korvettenkapitän
Beiträge: 2490
Zitat lll;26285408
@M4deman
Um Nvidia nicht das ganze Feld zu überlassen, die GT1030 hat wahlweise entweder einen verbrauch von 30 Watt (GDDR5) oder 20 Watt (DDR4), man will wenigstens halbwegs dran bleiben.


Wen interessiert das?
Dem Laien ists egal und der informierte Kunde kauft sich eh nicht son beschnittenes Ding.

Zumal die GT1030 in einer anderen Leistungsklasse unterwegs ist. Hier ist die RX550 die Konkurrenz.
#6
Registriert seit: 08.03.2013

Leutnant zur See
Beiträge: 1162
Zitat BessereHälfte;26284957
Und warum? Für passiv würde der Kühler kaum schmaler bauen. Der da, für 45W, kann mit einem Drehzahlprofil zwischen 300 und 450 laufen. Und hält 10 Jahre. Das hörst du nie und 70% der Wärme die so eine Karte macht kann schon an den Slotblechschlitzen raus.

Das erkenne ich grad also nicht als nachteilig.


Warum? Weil es schlicht mehr Passiv Karten geben soll!
Manche finden Gefallen an sowas ;)

Wenn du bei einer 45W Karte einen Lüfter willst, gibt es doch genug (!) Auswahl.
Sapphire würde damit zudem eine weitere Zielgruppe ansprechen. Auch wenn es eher eine kleine ist.
#7
customavatars/avatar281911_1.gif
Registriert seit: 13.02.2018

Fregattenkapitän
Beiträge: 2800
Ich bin mal gespannt was sich in der kommenden Generation auf ~75 W tut. Gegebenenfalls würde ich auch eine mit 120 kaufen, mehr bekomme ich im HTPC aber nicht gekühlt. Da wären also 75 W mit ausreichend Leistung für 4K (Warframe und co.) schon sehr ansprechend. Zudem gebe ich keine 400 € für eine Mittelklassekarte aus.
#8
Registriert seit: 12.01.2012
Bayern
Leutnant zur See
Beiträge: 1062
Hab im Büro noch zwei passive 7700 hd (glaub ich) verbaut mit 1-2gb ram bei photoshop in 2d könnte die 4gb version mit ddr5 ne Überlegung wert sein
#9
customavatars/avatar104207_1.gif
Registriert seit: 12.12.2008
Wien
Kapitänleutnant
Beiträge: 1806
Klingt bisschen komisch, einerseits brauchst du anscheinend im Büro Photoshop, andererseits gurkst du aktuell mit alten Consumer-Schnecken herum. (und PS nutzt nur 1 GPU, kein Crossfire, warum dann 2 Karten?)
#10
Registriert seit: 08.03.2013

Leutnant zur See
Beiträge: 1162
Ich glaub er meint, dass er 2 PCs hat und dort jeweils eine HD7700
#11
customavatars/avatar281911_1.gif
Registriert seit: 13.02.2018

Fregattenkapitän
Beiträge: 2800
Macht GDDR5 da überhaupt irgendeinen Unterschied? Ich denke gerade da ist DDR3 sparsamer und mehr Kapazität.
#12
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6350
Zitat lll;26285408
Um Nvidia nicht das ganze Feld zu überlassen, die GT1030 hat wahlweise entweder einen verbrauch von 30 Watt (GDDR5) oder 20 Watt (DDR4), man will wenigstens halbwegs dran bleiben.

Die GT 1030 GDDR5 mit 30W TDP kommt doch nicht mal an die RX 550 ran, ganz zu schweigen von der RX 560. Die GT 1030 DDR4 mit 20W TDP ist nochmals langsamer. Letztendlich ist man mit einer APU auf Raven Ridge (Vega 11) Niveau besser beraten als mit der GT 1030. Die GT 1030 war eh nie wirklich sinnvoll, ist mittlerweile aber ziemlich überflüssig. Die RX 560 mit 45W TDP richtet sich da an eine andere Zielgruppe.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]