> > > > Auch XFX mit neuer AGP-Grafikkarte

Auch XFX mit neuer AGP-Grafikkarte

Veröffentlicht am: von

xfxAMD-Board-Partner XFX, welcher erst seit wenigen Monaten auch Grafikkarten der US-Amerikanischen Chipschmiede verkauft, scheint nun auch den inzwischen überholten AGP-Port mit einem neuen 3D-Beschleuniger zu versorgen. Nach Sapphire, HIS und Gigabyte soll nun auch die AGP-Version der ATI Radeon HD 4650 von XFX auf den Markt kommen. Der Mittelklassechip setzt dabei auf den RV730-Chip, der mit insgesamt 320 Streamprozessoren (64 5D) aufwarten kann, und arbeitet mit einer Geschwindigkeit von 600 MHz. Der 1024 MB große DDR2-Speicher hingegen ist wie gewohnt über einen 128 Bit breiten Bus angebunden und verrichtet mit einer Frequenz von 400 MHz seinen Dienst. Auf dem Slotblech befinden sich nicht nur zwei DVI-Anschlüsse, sondern auch ein S-Video-Ausgang. Wie auch schon das Sapphire-Modell, benötigt der neue 3D-Beschleuniger eine zusätzliche Stromzufuhr. Diese wird in diesem Fall über einen herkömmlichen 4-Pin-Molex-Stromstecker realisiert.

Die neue XFX Radeon HD 4650 mit 1024 MB für AGP soll in Kürze im Handel zu finden sein. In unserem Preisvergleich ist der Neuling allerdings noch nicht gesichtet worden. Dort wechseln die AGP-Karten der anderen Hersteller allerdings schon für knapp 70 Euro ihren Besitzer.

xfx_hd4650_agp-01

xfx_hd4650_agp-02

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (25)

#16
customavatars/avatar31874_1.gif
Registriert seit: 22.12.2005

Admiral
Quietsche-Entchen
Beiträge: 13626
Es gab verschiedene GS. Gainward zB hatte den GT Chip mit vollen Pipes im Programm.
#17
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34176
Zitat Barbrady;12659512
Ati soll aber erst mal fukntionierende Treiber für die 4000er AGP Reihe machen, sonst bringen die einem nicht viel. Bis jetzt gibt es doch nur Beta Treiber von den Herstellern. Und auf meinem Nforce 2 Board läuft wohl nichtmal eine 3650 problemlos, oder?


Wieso sollte das Aufgabe von AMD sein?
AMD supportet die Karten offiziell gar nicht mehr.
AMD stellt nur den Partnern frei, eine Karte mit AGP Slot zu bauen... Offiziell gibts von AMD seit ich glaub der X19x0 Generation keine AGP Karten mehr.
#18
customavatars/avatar17459_1.gif
Registriert seit: 06.01.2005
in der schönsten Stadt der welt.
Admiral
Beiträge: 20777
wird zeit das der AGP quark qufhört, wozu immer neue Karten, wenn es keinen Bios MB Support mehr gibt ?
#19
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34176
Zitat Hardwarekenner;12683902
wird zeit das der AGP quark qufhört, wozu immer neue Karten, wenn es keinen Bios MB Support mehr gibt ?


sagt wer?
Ich kenne Leute, die lassen auf Dual Slot 1 oder Dual S370er Systeme mit P3 CPUs ne HD3850 AGP laufen...
#20
customavatars/avatar73342_1.gif
Registriert seit: 22.09.2007

Admiral
Beiträge: 21693
ja, mag sein, die war aber vom amd aber auch noch supportet ;)
ne 3850 ist aber eigentlich eh schon zuviel für 2 p3 1,4er (max was aufm 370er lief)
#21
Registriert seit: 30.03.2008

Leutnant zur See
Beiträge: 1254
Bei 2 P3 merkt man immerhin den Unterschied zwischen FX3000 (FX5900) und ATI 2600XT. Und wenn da Ding noch mit 1.62GHz läuft erst Recht. FarCry 1 läuft mit max flüssig...aber es ist schon klar, aktuelle Spiele kann man damit vergessen. Oblivion läuft z.B. auf mittleren Details, Warhammer 40k I läuft mit maximalen Details (jeweils 1280x1024) und Warhammer 40k II mit mittleren Details auf 1024x768...laufen heisst: man kann flüssig spielen. Wichtig sind auf jedenfall 2GB RAM. Mit 1 ruckelts arg.

Ich gehe davon aus, dass eine 46xx nochmals einen Performanceschub ergäbe, aber ich würde mir die Karte eher zum Spass holen, was ich, wenn als SingleSlot verfügbar, auch tun werde.
#22
customavatars/avatar61695_1.gif
Registriert seit: 07.04.2007

Bootsmann
Beiträge: 636
ein großer teil der dual p3-besitzer würden sich wohl auch noch eine gtx295 agp auf ihr board schnallen:shot:

das sind aber nicht genug, um die produktion rentabel zu machen...
#23
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34176
Zitat [W2k]Shadow;12684283
ja, mag sein, die war aber vom amd aber auch noch supportet ;)
ne 3850 ist aber eigentlich eh schon zuviel für 2 p3 1,4er (max was aufm 370er lief)


Nein Offizieller Support gabs bei ab den HD2xxx Karten keinen mehr...
Bin mir auch grad nich ganz sicher ob die X1950Pro AGP überhaupt offiziell supportet wurde... Aber wenn dann schon äußerst Stiefmütterlich. ;)
#24
customavatars/avatar96051_1.gif
Registriert seit: 31.07.2008
hadde Frankfurt
ulaY!
Beiträge: 3314
Hab ja auch noch eine X1950Pro ... denke ich werde mir die Karte zulegen. Damit kann ich bestimmt Strom sparen und wunderbar Videos von meiner Kamera per GPU konvertieren. Zum Spielen wird die Karte sicherlich auch noch taugen. Sie würde dann von einem Athlon XP-M @ 2400mhz (Realtakt) befeuert werden.
#25
customavatars/avatar73342_1.gif
Registriert seit: 22.09.2007

Admiral
Beiträge: 21693
Zitat fdsonne;12688336
Nein Offizieller Support gabs bei ab den HD2xxx Karten keinen mehr...
Bin mir auch grad nich ganz sicher ob die X1950Pro AGP überhaupt offiziell supportet wurde... Aber wenn dann schon äußerst Stiefmütterlich. ;)


die 2xxx karten waren tatsächlich nur herstellerware, die 3850 hatte rückhalt bei amd, merkt man auch beim treiber
2600er machen ungleich mehr probleme als die 3850er auf agp,


nebenbei ist es eigentlich egal, weil selbst ne x1950gt/pro nen athlon xp oder p4
überfordert ;)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]