> > > > Erste Spekulationen zur AMD Radeon HD 7990 erreichen die Gerüchteküche

Erste Spekulationen zur AMD Radeon HD 7990 erreichen die Gerüchteküche

Veröffentlicht am: von

amd_radeon_neuKaum ist AMDs Radeon HD 6990 (Hardwareluxx-Test) auf dem Markt, keimen kurz vor dem Start der NVIDIA GeForce GTX 590 die ersten Gerüchte zum Nachfolger der zweifachen "CaymanXT"-Grafikkarte auf. Demnach soll die US-Amerikanische Grafikschmiede weiterhin an ihrem Namensschema festhalten und das kommende Flaggschiff im zweiten Quartal 2012 auf den Markt werfen. Wie üblich soll die Leistung der nächsten Generation noch höher ausfallen. Während "Antilles" aktuell bei doppelter Genauigkeit 1,27 TFLOPS erreicht, soll es die AMD Radeon HD 7990 schon auf 3,04 TFLOPs bringen – etwas mehr als das Doppelte. Hierfür sollen insgesamt 6.400 Streamprozessoren, 256 Textur-Mapping-Units und 96 ROPs zum Einsatz kommen. Auch bei der Speicheranbindung soll es eine Änderung geben. Während die GDDR5-Chips bislang über ein 256 Bit breites Speicherinterface angebunden waren, soll der Videospeicher der nächsten Generation hingegen über 384 Datenleitungen kommunizieren und mit 6 GB Speicher 50 Prozent mehr Kapazität bieten.

Trotz der gesteigerten Anzahl an Rechenwerken und des größeren Videospeichers soll AMD die Leistungsaufnahme weiter gesenkt haben. Den Angaben zufolge soll diese bei 30 Watt im Leerlauf und bei 300 Watt unter 3D-Last liegen, was hauptsächlich der fortschrittlicheren 28-nm-Fertigung zuzuschreiben wäre. Über die Taktraten hat man allerdings noch kein einziges Wort verloren. Bei einer Speicherbandbreite von 288 GB/Sek. würde sich allerdings ein Speichertakt von rund 1500 MHz ergeben – damit 250 MHz über dem jetzigen Modell. Auch auf PCI-Express 3.0 will man schon zurückgreifen.


Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

Die hier genannten Angaben sind allerdings noch mit größter Vorsicht zu genießen. Es ist wenige Tage nach dem Start der AMD Radeon HD 6990 einfach noch zu früh für Spekulationen. Wir halten diese Angaben ehrlich gesagt für eine Ente bzw. Wunschdenken, wollen Ihnen diese Informationen aber dennoch nicht vorenthalten.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (28)

#19
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Moderator
Beiträge: 7081
Sicher ist das nicht unbedingt unmöglich, wenn die Karte frühstens im 2. Quartal 2012 erscheint. Aber es sind halt derzeit maximal grobe Spekulationen.
384 Bit SI wäre schon möglich und 2 x 3GB. Das 28nm schon deutlich sparsamer ist, ist auch klar - aber einfach würde es so oder so nicht, mehr als die doppelte Performance zu Antilles zu erreichen bei niedrigerem Verbrauch - mal sehen, wie es nächstes Jahr aussieht. Möglich wäre es sicherlich schon. :)

MfG
Edge
#20
customavatars/avatar84854_1.gif
Registriert seit: 11.02.2008

GM110
Beiträge: 10256
Zitat mr.dude;16531052
3200 SPs wäre doch nichts anderes als ein doppelter Cayman + 2 zusätzliche SIMD Engines. Das bedeutet doch nicht automatisch "5D".
was würden die 2x zusätzlichen SIMD Engines bringen? lohnt sich so ein aufwand? bei Cayman @40nm wurde hier gespart.
Zitat mr.dude;16531052

Es könnten natürlich auch "nur" 6144 SPs für die HD 7990 am Ende sein.
das wäre dann ein Faktor2 Cayman ohne SIMD erweiterung, in der Folie steht aber 6400, was 2x 3200 bedeutet ;)
Zitat mr.dude;16531052

Zu genau sollte man die Zahlen eh nicht nehmen. Wenn man bedenkt, was im Vorfeld von Cayman alles spekuliert wurde. :rolleyes:

genau, kann mich noch errinern das für Cayman 1920 Shader spekuliert wurden ;)
Zitat mr.dude;16531052

Eine etwaige Verdopplung klingt aber realistisch. Das war von 55 auf 40 nm auch schon so. Von RV670 auf RV770 lag der Faktor gar bei 2,5.

klar sowas wie RV770 > RV870 ist das minimum, diesmal gibt es keine neue DX Schnitstelle, man hat mehr Zeit für Rechenleistung.
#21
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6250
Zitat Duplex;16531156
was würden die 2x zusätzlichen SIMD Engines bringen? lohnt sich so ein aufwand? bei Cayman @40nm wurde hier gespart.

Ob es etwas bringen würde? Keine Ahnung. Das können dir nur die Designer beantworten. Nur die wissen, was das Transistorbudget hergibt. Cayman sollte man hier sicherlich nicht als Maszstab nehmen. Wie gesagt, das Design war ursprünglich für 32 nm geplant. Wer weiss, welche Kompromisse da letztendlich gemacht werden mussten.
#22
customavatars/avatar95983_1.gif
Registriert seit: 30.07.2008
Bayern
Leutnant zur See
Beiträge: 1143
Naja biss dahin ist ja noch ne ganz schöne zeit hin glaube nicht das AMD zwischenzeitlich nichts bringt denke nich das das solange dauert.
#23
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6250
Vorher wird es sicherlich noch kleinere Modelle in 28 nm geben. Womöglich noch dieses Jahr.
#24
customavatars/avatar46160_1.gif
Registriert seit: 29.08.2006
Bad Bentheim
Fregattenkapitän
Beiträge: 2938
Also an der Zahlen ist allen schon merkwürdig, dass das seit dem R600 beibehaltene Verhältnis von Textureinheit zu Shadern von 1:4 nicht mehr stimmen würde, egal ob 4D- oder 5D-Shader:

RV870: 80:320x5=1:4
RV970: 96:384x4=1:4
RV1070: 128:800x4 =6,25 bzw 128:640x5=5

AUßerdem halte ich es für unwahrscheinlich, dass AMD auf ein "krummes" Speicherinterface zurückgreift, gerade jetzt, wo es Nvidia dank des krummen SI bei den Highend-Karten schwerer hat, die Karten zu annehmbaren Preisen mit ausreichend Speicher für SLI auszustatten.
#25
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6250
Jup, das ALU:TMU Verhältnis schaut merkwürdig aus. Das Speicherinterface halte ich allerdings nicht für unwahrscheinlich. Das Gerücht von 384-bit hält sich ja schon einige Zeit. RV1090 braucht deutlich mehr Bandbreite. Und das lässt sich erstmal nur mit einem breiteren Speicherinterface lösen, da deutlich schnellerer Speicher (DDR4/GDDR7) noch einige Zeit brauchen wird. Ich sehe das aber nicht so kritisch, da mit 28 nm deutlich mehr Transistor- und Powerbudget zur Verfügung steht. Schon der G80 in 90 nm hatte ein 384-bit SI.
#26
customavatars/avatar46160_1.gif
Registriert seit: 29.08.2006
Bad Bentheim
Fregattenkapitän
Beiträge: 2938
Ja, und schon seit dem G80 hat Nvidia danke krummem Speicherinterface auch krumme Speichermengen, während AMD auf einem geraden Interface beharrt und dem R600 versuchsweise lieber ein recht überdimensioniertes 512Bit-SI gegeben hat, als etwas krummes.
Eher sehen wir eine Wiederbelebung eines 512Bit-SI, als so etwas krummes!
Wie kommst du eigtl. auf GDDR7, was ist aus nummer 6 geworden? Bloß weil die "Zwischengenerationen" (GDDR2, GDDR4) bisher immer Mist waren, muss man die geraden Nummern doch jetzt nicht auslassen.
#27
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6250
Zitat Tigerfox;16533255
Ja, und schon seit dem G80 hat Nvidia danke krummem Speicherinterface auch krumme Speichermengen, während AMD auf einem geraden Interface beharrt und dem R600 versuchsweise lieber ein recht überdimensioniertes 512Bit-SI gegeben hat, als etwas krummes.
Eher sehen wir eine Wiederbelebung eines 512Bit-SI, als so etwas krummes!

Glaube ich ehrlich gesagt nicht, dass man unnötig überdimensioniert. AMD hatte mit dem R600 ja auch noch gar nichts zu tun.

Zitat Tigerfox;16533255
Wie kommst du eigtl. auf GDDR7, was ist aus nummer 6 geworden? Bloß weil die "Zwischengenerationen" (GDDR2, GDDR4) bisher immer Mist waren, muss man die geraden Nummern doch jetzt nicht auslassen.

Es war bisher immer so. Die ungeraden GDDR-Versionen basierten auf neuen DDR Speicherstandards (GDDR = DDR, GDDR3 = DDR2, GDDR5 = DDR3). Die geraden GDDR-Versionen waren dann leichte Updates davon. Ich sehe keinen Grund, warum dieses Schema plötzlich über den Haufen geworfen werden soll. Falls GDDR6 kommt, dann wird es vermutlich auch nur eine leicht verbesserte Version von GDDR5. Erst GDDR7 sollte wieder deutlich mehr Bandbreite bereitstellen, um eine doppelte Anzahl an Streamprozessoren kompensieren zu können.
#28
customavatars/avatar46160_1.gif
Registriert seit: 29.08.2006
Bad Bentheim
Fregattenkapitän
Beiträge: 2938
DDR4 braucht zwar noch eine Weile, aber meinst du nicht, wenn es vorher GDDR6 auf DDR3-Basis gäbe, dass wir schon was davon gehört hätten? Ich glaube, nach GDDR4 hat man es aufgegeben, Zwischengeneration mit lediglich niedrigerer Spannung und höheren Taktraten zu entwickeln. GDDR4 war gab es ja damals schon nur von Samsung und nur auf ATIs.
Und nie und nimmer überspringen die Marketing-Fuzzis, falls es keine Zwischengeneration geben sollte, GDDR6, nur weil sich ungerade Zahlen für die wirklich neuen Generation bisher so ergeben haben.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]

EVGA GeForce GTX 1060 Gaming im Kurztest

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX1060-GAMING/EVGA_GTX1060_KURZTEST-TEASER

Während der letzten Tage hatten wir uns zahlreiche Custom-Modelle der NVIDIA GeForce GTX 1060 näher angeschaut und viele verschiedene Modelle von ASUS, Gigabyte, MSI und Inno3D auf den Prüfstand gestellt. Mit der GeForce GTX 1060 SC Gaming war darunter auch ein Ableger von EVGA, welcher mit... [mehr]

EVGA GeForce GTX 1070 und 1060 FTW Gaming im Doppeltest

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX1070_1060_FTW/EVGA_GTX1060_1070FTW_TEASER

Von der NVIDIA GeForce GTX 1070 und GTX 1060 hatte EVGA nicht nur die Founders Edition ins Programm genommen, sondern natürlich auch Modelle mit eigenem Kühlsystem und höheren Taktraten. Ein eigenes Platinenlayout mit einer aufgemöbelten Strom- und Spannungsversorgung gibt es bei den bislang... [mehr]