> > > > ATI Radeon HD 4750 angetestet

ATI Radeon HD 4750 angetestet

Veröffentlicht am: von
amd

Aktuellen Gerüchten zufolge soll AMD bereits im April mit der ATI Radeon HD 4770 und der ATI Radeon HD 4750 zwei neue Mainstream-Grafikkarten auf Basis des RV740-Chips vorstellen. Wie so häufig konnten nun fleißige Tester ein solches Modell in die Finger bekommen und einem Vor-Ab-Test starten. Wie schon im Vorfeld bekannt, arbeitet der neue RV740-Chip, der bereits im 40-nm-Fertigungsverfahren gefertigt werden soll, mit einem Chiptakt zwischen 650 und 700 MHz. Dabei stehen dem 3D-Beschleuniger wahlweise 512- oder auch 1024-MB-Videospeicher, der zudem über ein leicht beschnittenes Speicherinterface von 128 Bit angebunden ist, zur Verfügung. Um die Speicherbandbreite nicht ganz so stark einbrechen zu lassen, spendierte der Hersteller GDDR5-Speicherchips.

Mit angesetzten Taktraten von effektiven 3200 MHz steht damit eine Bandbreite von bis zu 51,2 GB/s zur Verfügung. Ansonsten soll die kommende Mittelklasse-Grafikkarte über insgesamt 640 Streamprozessoren, 32 Textur-Mapping-Units und 16 ROPs verfügen. Mit den Taktfrequenzen des Vorserienmodells (650 MHz), bringt es die ATI Radeon HD 4750 auf eine Rohleistung von 832 GFlops. Damit pendelt sie sich exakt zwischen der ATI Radeon HD 4830, welche es auf immerhin 736 GFlops bringt, und der ATI Radeon HD 4850 ein. Letztere erreicht die 1000-GFlops-Marke. Doch die englischsprachige Webseite Guru3D enthüllte nicht nur die Spezifikationen, sondern schickte den kleineren RV740 auch durch diverse Benchmarks. So musste sich das kommende Mainstream-Modell nicht nur im 3DMark Vantage von seiner besten Seite zeigen, sondern auch seine Leistung unter Far Cry 2, Call of Duty 5, Crysis WARHEAD und zwei weiteren Action-Spielen unter Beweis stellen. Als Testsystem kamen dabei insgesamt 6144-MB-DDR3-Arbeitsspeicher samt übertakteten Intel Core i7 965 Extreme Edition, welcher mit 3750 MHz arbeitete, zum Einsatz. Das ASUS Rampage II Extreme diente dabei als Basis.

Das, was eingangs auch vermutet wurde, scheint sich auch unter einer praxisnäheren Umgebung zu bescheinigen: Die ATI Radeon HD 4750 liegt exakt zwischen den beiden genannten Grafikkarten, wobei sie vom größeren Bruder eher Abstand nimmt. Im 3DMark Vantage kam der neue 3D-Beschleuniger auf 5998 Punkte. Während der RV740-Chip in Far Cry 2 bei einer Auflösung von 1024 x 728 Bildpunkten mit der ATI Radeon HD 4850 gleichauf liegt, verliert sie unter 1920 x 1200 Bildpunkten mit 40 zu 37 Frames. Auch in den anderen Benchmarks zeigt sich ein ähnliches Bild. Allerdings verlor Guru3D kein einziges Wort über die Leistungsaufnahme der Grafikkarte. Gerade bei Mainstream-Karten ist dies ein entscheidender Faktor. Da das Vorserien-Modell mit einem zusätzlichem 6-Pin-PCI-Express-Stromanschluss daherkam, muss man derzeit davon ausgehen, dass sich die maximale Leistungsaufnahme bei über 75 Watt einpendeln wird. Als Kühler kam hingegen ein Zalman VF900-Cu zum Einsatz. Auch zum Preis lassen sich zum jetzigen Zeitpunkt nur Vermutungen aufstellen. So sollte der Preis für die ATI Radeon HD 4770 bzw. HD 4750 zwischen 100 und 120 US-Dollar liegen. Inwieweit der Test von Guru3D glaubwürdig erscheint, bleibt abzuwarten, schließlich darf der RV740 erst im April 2009 das Licht der Welt offiziell erblicken.

Hochauflösende Bilder zeigen wir in der Galerie.

{gallery}/galleries/news/astegmueller/2008/ati_radeon_hd4750_angetestet{/gallery}

 

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (17)

#8
customavatars/avatar84364_1.gif
Registriert seit: 05.02.2008
Braunschweig
Kapitänleutnant
Beiträge: 1746
leistungsmäßig wär die natürlich nicht nötig, aber amd kann so einfach noch günstiger produzieren, im 40nm Verfahren, kleinerem SI, dafür aber dem mittlerweile wohl nicht mehr ganz so teuren gddr5.

Außerdem können sie schön Erfahrungen sammeln mit dem geshrinkten Chip für spätere Generationen.

Ich finds toll ^^
#9
customavatars/avatar63140_1.gif
Registriert seit: 02.05.2007
Hessen
Admiral
Beiträge: 11188
Bin mal gespannt wie weit sich das beschnittene SI niederschlägt, klar wird das durch GDDR5 etwas abgemildert, aber 128bit sind schon sehr knapp.
#10
customavatars/avatar47447_1.gif
Registriert seit: 17.09.2006
Manila / Philippines
Forenleitung
Chefsklave
Turbo Froschn !
Beiträge: 24334
Ist wurde doch schon im Sammelthread besprochen das es keinen Unterschied macht , ist mit beidem das gleiche.

Ich zitiere mal die gute Erläuterung von FdSonne

Zitat
Als Sinnbildliches Beispiel.
Du hast ne Autobahn mit 4 Spuren (steht für 256Bit SI), und schickst dort alle Autos mit 100km/h (steht für 1GHz GDDR3) drüber.
Nach 60min kommen genau x viele Autos am Ende der Straße an.
Nun machst du 2 Spuren zu (128Bit SI) lässt die Autos aber mit 200km/h fahren (1GHz GDDR5)
Am Ende kommen ebenfalls exakt x viele Autos am Ziel an.

Du kannst es drehen und wenden wie du willst, es ist einfach so...
Und nur so nebenbei, die HD4830 hat mit 900MHz GDDR3 und 256Bit SI eine Bandbreite von 56,25GB/sec.
Die HD4850 mit 993MHz GDDR3 und 256Bit SI besitzt eine Bandbreite von 62,06GB/sec.
Die neue Mittelklassenkarte würde mit 128Bit SI und 1GHz GDDR5 Speicher auf 62,5GB/sec kommen. Sprich sogar mehr Bandbreite wie sie die HD4850 hätte...
Wo ist also das Problem?
#11
customavatars/avatar59112_1.gif
Registriert seit: 01.03.2007

Admiral
Beiträge: 13404
Das reißt der Speicher raus denke ich.

Außerdem ist das ja max. eine Midrange Grafikkarte.

Da darf nicht verlangt werden, dass man mit >4x AA ruckelfrei spielen kann, wie ich finde.
#12
customavatars/avatar63140_1.gif
Registriert seit: 02.05.2007
Hessen
Admiral
Beiträge: 11188
Ja die Erklärung macht, wie von fdsonne gewohnt, auch Sinn. Von daher wäre die Karte prinzipielll mit 256bit GDDR3 vergleichbar, was bei nV ja auch ausreicht.
#13
customavatars/avatar59112_1.gif
Registriert seit: 01.03.2007

Admiral
Beiträge: 13404
Finde das eine Topkarte.

Lässt darauf hoffen, dass die "großen" Brüder demnächst auch in 40nm auf den Markt kommen.
#14
customavatars/avatar47545_1.gif
Registriert seit: 19.09.2006
Hamburg
ʇuɐuʇnǝluäʇıdɐʞ
Beiträge: 2209
Bei solchen Nachrichten freue ich mich richtig auf die Cebit. :)
#15
Registriert seit: 27.06.2008

Admiral
Beiträge: 10221
ist die cebit denn schon oder wann fängt die denn an??
wenn einer da hin kommt könnte er ja mal nach der karte schauen. Mich würde einer mit dualslot lüfter erfreuen.
Denn im coolermaster elite 330 staut sich sonst die luft, wie mit der 9800GT auch mit accelero S1, zwar am anfang kühl. Aber so langsam wird die imemr wärmer udn danna uch nb, sb cpu hdd. daher frag ich.
#16
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34161
Zitat Archiee;11465007
Ja die Erklärung macht, wie von fdsonne gewohnt, auch Sinn. Von daher wäre die Karte prinzipielll mit 256bit GDDR3 vergleichbar, was bei nV ja auch ausreicht.


Jup so in etwa kann man das vergleichen, aber zu erwähnen sei vllt noch, das die Karte eben nicht mit 1GHz GDDR5 kommen soll, sondern nur mit 800MHz GDDR5.
Je nachdem welcher Speicher auf der Karte genau verbaut wird, ist da vllt sogar gut Luft nach oben, die HD4870 Karten machen ja eigentlich auch fast alle 1GHz Speichertakt mit, obwohl Std. nur 900MHz sind.

Denke mal wenn dort an der Spannung nicht zu doll gedrückt wurde, hat die Karte ganz klar keine Bandbreitenprobleme...

Aber wie auch schon erwähnt, es ist und bleibt ne Mittelklasse Karte, all zu viel brauch man von dieser also nicht erwarten.
Finde es aber mittlerweile auch schon erstaunlich, wie stark die Mittelklasse GPUs gewurden sind.
Wenn man mal bedenkt, wie es 2-3 Jahren aussah, da war an max. Details mit Mittelklassekarten gar nicht zu denken, von AA/AF sprach da auch keiner...
Mittlerweile gehen max. Details eigentlich immer, auch in neueren Games und oft ist auch noch bissl AA/AF drin.
#17
customavatars/avatar35214_1.gif
Registriert seit: 12.02.2006

Vizeadmiral
Beiträge: 7071
Bitte hier weiter diskutieren -> http://www.hardwareluxx.de/community/showthread.php?t=590051
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]