> > > > Erste Benchmark-Ergebnisse zur ATI Radeon HD 4890

Erste Benchmark-Ergebnisse zur ATI Radeon HD 4890

Veröffentlicht am: von

amd Nachdem wir erst heute Vormittag die ersten handfesten Informationen zur ATI Radeon HD 4890 liefern konnten , gibt es nun sogar die ersten Benchmark-Ergebnisse zu begutachten. Laut OCHeaven.com soll dem kommenden 3D-Beschleuniger, welcher schon für den 6. April 2009 erwartet wird, ein Intel -Core-i7-920-Prozessor samt 3072-MB-DDR3-Arbeitsspeicher zur Seite gestanden haben. Auch die angegebenen Taktraten decken sich mit denen von heute Morgen. Demnach arbeitete der RV790-Chip mit einer Taktfrequenz von 850 MHz. Der GDDR5-Videospeicher ging hingegen mit 975 MHz ans Werk. Somit verfügt die Karte über 100 MHz mehr GPU- und 75 MHz mehr Speichertakt. Während man im 3DMark Vantage eine Gesamtpunktzahl von 10.996 Punkten erzielen konnte, waren es im 3DMark 2006 16.096 Punkte. Damit liegt die kommende 55-nm-GPU exakt zwischen einer NVIDIA GeForce GTX 285 und derem Vorgänger. Ob sich die möglichen Extreme-Editions weiter absetzen können, bleibt abzuwarten. Zumindest scheint es AMD seinen Board-Partnern freistellen, ob diese neben dem 6-Pin-PCI-Express-Stecker auch einen 8-Pin-Stromanschluss zur stabileren Stromversorgung verlöten. Auch fehlen zum jetzigen Zeitpunkt praxisnahe Spiele-Benchmarks.

Außerdem ist die ATI Radeon HD 4890 in der Zwischenzeit heimlich still und leise in unserem Preisvergleich aufgetaucht - jedoch hat sie bislang kein einziger Hersteller im Programm. Die günstigste ATI Radeon HD 4870 mit 1024-MB-GDDR5-Speicher wechselt allerdings schon für rund 170 Euro den Besitzer.

 

Einen Test der ATI-Radeon-HD-4800-Familie finden Sie unter diesem Link .

{gallery}/galleries/news/astegmueller/2009/ocheaven-4890-01{/gallery}

 

 

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (72)

#63
Registriert seit: 11.07.2006

Banned
Beiträge: 6042
Für mich ist wichtig was hinten rauskommt.
Wenn ich den Quark immer Lese Preis/Leistung...echt.
Ich will immer MSAA oder SSAA haben und das einstellen "WENN ICH WILL" und das nachvollziehen können und nicht das nutzen müssen wozu ATI Treibermäsig (AI) gerade in dem und dem Spiel Lust hat.
Wenn das mal wieder offen gelegt wird in den "alten" Zeiten, denk ich mal wieder über ATI nach.

Zur Zeit bleibt da nur NV>Treiber-nHancer.
Und da brauchen auch keine bestimmten Fanboys drauf zu antworten, die Leute die das wollen >nachvollziehbare Qualli die man selbst bestimmen kann sind längst wieder zu NV zurück oder nie umgestiegen.
#64
customavatars/avatar55197_1.gif
Registriert seit: 06.01.2007

Hauptgefreiter
Beiträge: 215
@luhri

Genau und schon allein dadurch hat sie ihre Berechtigung, ne Radeon 4870 mit 1024Mb für 167 Euro, der Preis ist doch richtig gut!
Einige andere Karten wurden dadurch im Preis auch noch gedrückt, was will man mehr?! :stupid:

Und wenn sich Radeon 4890 bei ca. 220 Euro einpegelt wird auch diese ihre Käufer finden.:)
#65
customavatars/avatar34574_1.gif
Registriert seit: 01.02.2006
Hessen\LDK
Moderator
Beiträge: 41230
Zitat zuppi;11621010
Für mich ist wichtig was hinten rauskommt.
Wenn ich den Quark immer Lese Preis/Leistung...echt.
Ich will immer MSAA oder SSAA haben und das einstellen "WENN ICH WILL" und das nachvollziehen können und nicht das nutzen müssen wozu ATI Treibermäsig (AI) gerade in dem und dem Spiel Lust hat.
Wenn das mal wieder offen gelegt wird in den "alten" Zeiten, denk ich mal wieder über ATI nach.

Zur Zeit bleibt da nur NV>Treiber-nHancer.
Und da brauchen auch keine bestimmten Fanboys drauf zu antworten, die Leute die das wollen >nachvollziehbare Qualli die man selbst bestimmen kann sind längst wieder zu NV zurück oder nie umgestiegen.


das ist j auch in ordnung, aber es gibt genug leute, für die preis/leistung ein wichtiger punkt ist.
jeder hat eben seine eigenen ansprüche an eine karte :)
#66
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Zitat
?? dachte da sind mehr shader aktiviert bzw mehr ram

also würde die ausbeute eher sinken

und von besserer fertigung würde die 260 auch profitieren


Nein es sind nicht mehr Shadereinheiten und auch nicht mehr Ram.

Und die 260er wird durch die Fertigung in 55nm schon günstiger geworden sein weil mehr Chips pro Waver produziert werden können, natürlich hat sich auch die Fertigung verbessert, aber günstiger als jetzt wird die Herstellung des Chips nicht mehr!
#67
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33283
Zitat zuppi;11621010
Für mich ist wichtig was hinten rauskommt.
Wenn ich den Quark immer Lese Preis/Leistung...echt.
Ich will immer MSAA oder SSAA haben und das einstellen "WENN ICH WILL" und das nachvollziehen können und nicht das nutzen müssen wozu ATI Treibermäsig (AI) gerade in dem und dem Spiel Lust hat.
Wenn das mal wieder offen gelegt wird in den "alten" Zeiten, denk ich mal wieder über ATI nach.

Zur Zeit bleibt da nur NV>Treiber-nHancer.
Und da brauchen auch keine bestimmten Fanboys drauf zu antworten, die Leute die das wollen >nachvollziehbare Qualli die man selbst bestimmen kann sind längst wieder zu NV zurück oder nie umgestiegen.


Na das ist doch schön für dich, ganz ehrlich, ich freu mich für dich...
Aber lass doch bitte die anderen Leute in ruhe, mit Aussagen wie:
"Wenn ich den Quark immer Lese Preis/Leistung...echt."

Du hast uns nun mittlerweile zu genüge gezeigt, das du NV Anhänger bist, bzw. derzeit voll auf deren Produkte abfährst, ich denke mal das weis jetzt jeder hier, der halbwegs täglich mitliest...
Wenn dich AMDs Sachen stören, dann kauf es halt nicht. Punkt aus Basta...

Immer dieses rumgeheule, langsam nervt es :stupid::wall:

@Jubeltrubel
Jup, das ist ein Punkt, wo NV noch dran arbeiten muss, aber da gibts noch ganz andere Sachen, beispielsweise beim verwenden von einer G200 zusammen mit ner kleinen anderen und 3-4 Monitoren, das die G200 Karten keine brauchbare 3D Leistung mehr bringen usw... da gibts auch Threads zu hier im Forum...

Beide Produkte haben halt Vor- und Nachteile, die es abzuwegen gilt. Danach kann man entscheiden.
Übrigens, ich kann dir versichern, das die AMD Karten mit RV770, RV670 und R600 GPU bei verwenden von 2 Monitoren auch in den 2D Modus schalten...
Wie gut dieser im Falle einiger RV770 am Ende Strom spart mal außen vor ;)
#68
customavatars/avatar50294_1.gif
Registriert seit: 27.10.2006

Kapitänleutnant
Beiträge: 1615
Da bin ich ja beruhigt das es wenigstens die amd Sparte es geschafft hat bei 2D auch in den 2D Modus zu gehen. Ich find wir sind heute in einem Zeitalter wo man Leistung UND Effizienz verlangen kann, was NV derzeit in meinem Falle jedenfalls nicht schafft! Ich werde mir Spannung die neuen ATI und NV Karten verfolgen und dann zuschlagen wenn das umschalten in 2D möglich ist, denn wenn man nur den Takt senkt, reduziert sich noch lange nicht die GPU Core Spannung.
Frage beiseite: Verfierfacht sich der Verbrauch auch bei doppelter Corespannung, aber läuft linear mit erhöten Taktraten so wie bei einer CPU? Oder verläuft die Kurve gar noch krasser oder ist dem nicht der Fall?

MFG Jubeltrubel
#69
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33283
Der verbrauch steigt glaub guadratisch zur VCore Spannung, soweit ich weis... Und weiterhin sollte der Verbrauch sich in etwa linear zum Takt steigern.

Bei den AMD GPUs derzeit ist das aber ein wenig schwieriger, dort bringt die Sture Taktabsenkung teilweise schon extrem viel, vor allem beim Speicher... die VGPU Spannung hingegen im Vergleich dazu hingegen recht wenig.

Wobei ich letzteres nicht so 100% weis, weil mir der Verbrauch im Grunde total hupe ist ;)
#70
customavatars/avatar50294_1.gif
Registriert seit: 27.10.2006

Kapitänleutnant
Beiträge: 1615
Jo das meinte ich :)
Nunja eig. ist es für mich ein persönlich nicht so relevantes Thema, weil mir das egal ist ob es nun 30W weniger verbraucht im Idle oder nicht, nutze sowieso viel mein Laptop der 30W braucht und gut is. Vielmehr seh ich es als Frechheit an Features anzubieten und diese dann nicht einhalten zu können. Genau wie bei Motorrädern, ich brauche keine 182PS um im Stadverkehr schneller zum Aldi zu kommen, aber es ist ein gutes Gefühl wenn man weiß unter einem sind 182PS die ich jederzeit abrufen kann. Da sollten die GPU Hersteller doch ein weniger mehr drauf achten. Ich frage mich ob das Risiko zu groß wird wenn sie den Takt zu salopp runterregeln das mehr Käufer zu ATI rennen und ein Problem melden als das ein paar Leute die sich der Problematik bewusst sind bemerken das die Karte im idle nicht runtertaktet...

MFG Jubeltrubel
#71
Registriert seit: 16.09.2002
Saalfeld
Leutnant zur See
Beiträge: 1254
@fdsonne & thom_cat,

genau, nichts anderes hat NV mit der 260GTX 216 und der GTX 285 gemacht, ein bisschen Feintuning(Takte angehoben, vorhandene Hardwareeinheiten freigeschaltet) und fertig. Das hier noch ein längst überfälliger Shrink (65>55) dazukam tut da auch nichts weiter zur Sache den grundsätzlich ist es der selbe chip geblieben.

MfG
#72
customavatars/avatar41008_1.gif
Registriert seit: 01.06.2006
Germania
Banned
Beiträge: 3455
Ist hat ein normales Refresh, etwas geschrumpft der Chip. Vielleicht hole ich mir mal ne zweite HD4870 die wird ja jetzt noch günstiger, obwohl eine davon ja dicke ausreicht.

Bin viel mehr auf die 58xx gespannt^^
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Gigabyte GeForce GTX 1080 Ti AORUS im Test

Logo von IMAGES/STORIES/LOGOS-2017/GIGABYTE-GTX1080TI-AORUS-LOGO

Bei den Grafikkarten scheint sich derzeit alles auf den High-End-Markt zu konzentrieren, denn besonders NVIDIA ist mit der Titan Xp und den Custom-Modellen der GeForce GTX 1080 Ti hier sehr gut aufgestellt. Heute nun wollen wir uns die Gigabyte GeForce GTX 1080 Ti AORUS einmal genauer anschauen,... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]