> > > > AMD auch bald mit ATI Radeon HD 5350, HD 5570 und nicht zuletzt auch HD 5890?

AMD auch bald mit ATI Radeon HD 5350, HD 5570 und nicht zuletzt auch HD 5890?

Veröffentlicht am: von

amdSchon zu Beginn des nächsten Jahres könnte es wieder richtig spannend werden. So erwartet die Presse nicht nur die ersten Fermi-Ableger, sondern auch die neuen "Clarkdale"-Prozessoren. Während AMD mit seiner ATI-Radeon-HD-5000-Reihe bislang nur den High-End-, Performance- und Mainstream-Markt abdecken konnte, soll ab Januar auch das Einstiegs-Segment wieder bedient werden. So verriet jetzt eine HP-Präsentation, welche den Kollegen von engadget.com zugespielt wurde, den Releasetermin der kommenden Grafikkarten. Demnach soll die US-Amerikanische Chipschmiede bereits am 07. Januar - und damit pünktlich zur CES in Las Vegas - mindestens einen neuen 3D-Beschleuniger vorstellen. Sowohl "Jaguar", als auch "Evora Cedar" sollen mit HDMI, DVI und DisplayPort nicht nur die aktuellsten Anschlüsse mit sich bringen, sondern auch Direct-X-11-Unterstützung. Während die ATI Radeon HD 5350 mit dem Codenamen "Evora Cedar" mit 1024-MB-Videospeicher bestückt werden kann, kann eine ATI Radeon HD 5570 hingegen über 2048 MB verfügen. Letztere soll allerdings erst am 20. Februar das Licht der Welt erblicken.

{gallery}/galleries/news/astegmueller/2009/engadget-hp-hd5350-hd5570-01{/gallery}

Doch damit nicht genug. Auch die ATI Radeon HD 5870 (Hardwareluxx-Test) könnte demnächst schon ein Update bekommen. Ähnlich wie bei der ATI-Radeon-HD-4800-Familie reagierte AMD auf die starke NVIDIA-Konkurrenz und legte mit den RV790 nach. Wie die türkische Webseite donanimhaber.com berichtet, könnte man nach dem Fermi-Release eine ATI Radon HD 5890 nachschieben. Den Informationen zufolge will man allerdings nur die Taktraten anheben. So sei ein GPU-Takt von 1,0 GHz durchaus im Bereich des Machbaren, heißt es weiter. Dass der RV870 sehr taktfreudig ist, ist kein Geheimnis. Mit leichter Spannungserhöhung und zweier 8-Pin-PCI-Express-Stromstecker könnte man die gesteckten Ziele durchaus erreichen. Doch bis dahin werden mit Sicherheit noch ein paar Tage verstreichen.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (7)

#1
customavatars/avatar31123_1.gif
Registriert seit: 10.12.2005
Magdeburg
Stabsgefreiter
Beiträge: 257
wozu brauche ich da zwei 8Pin Stromanschlüsse? 1Ghz schafft sie auch mit 1x6 und 1x8Pin bei 1,35V. Da wird keiner ausserhalb der Spezifikation arbeiten.
#2
Registriert seit: 01.06.2005

Stabsgefreiter
Beiträge: 302
Ich hab mal Gerüchte gehört, nach denen viele High-End-Käufer ihre Grafikkarten übertakten. Das Übertakten soll angeblich in einer höheren Leistungsaufnahme resultieren. Ist aber nur so ein Gerücht. ;)
#3
Registriert seit: 03.09.2004

Oberstabsgefreiter
Beiträge: 444
2gb fuer die gammelkarten, sag nochma einer nur nvidia verarscht ihre kundschaft^^
#4
customavatars/avatar112818_1.gif
Registriert seit: 01.05.2009

Leutnant zur See
Beiträge: 1212
Zwei 8Pins find ich doch recht heftig, OC hin oder her. Das ist immerhin eine Single-GPU!
#5
customavatars/avatar76352_1.gif
Registriert seit: 05.11.2007
Mittelfranken
Flottillenadmiral
Beiträge: 5816
Die 5890 dürfte mit 2x6 pin auch kein Problem haben meine 5870 macht 1050/1300 auch mit moderater Spannungserhöhung mit guten Chips dürfte das locker gehen.
#6
customavatars/avatar14663_1.gif
Registriert seit: 25.10.2004
weit weg......
Banned
Beiträge: 13720
meine 3x 5850 schafen mit dem 5870 Bios (also 1.162V) 1000 Mhz.

an 2x 8Pin glaub ich daher nicht so richtig.
#7
Registriert seit: 21.11.2009

Gefreiter
Beiträge: 54
Eine HD5570 mit 2GB? da macht ja AMD voll einen auf Nvidia!
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]