Aktuelles

Neue Roadmap zeigt AMD GPUs bis 2018 – Offenbar kein Rebranding für Radeon 400 Serie

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

G3cko

Semiprofi
Mitglied seit
06.05.2005
Beiträge
3.176
Wird es euch eigentlich niemals langweilig, unter jeden Thread jeden Tag das Gleiche zu schreiben?
Fazit: Mal ist die Eine, mal die Andere Karte schneller. Sobald jedoch die Mehrheit aller Spiele DirectX 12 und Vulkan nutzt, stehen sowieso schon wieder neue Generationen ins Haus. ;)
Wer Ende 2011 Eine 7970 gekauft hat, konnte die Karte 5 Jahre ohne große Einschränkungen nutzen. Die Nutzungsdauer von HW wird immer länger, vorrausgestzt man kauft mit etwa Weitsicht. Eine Bulldozer CPU ist genauso schnell untauglich geworden wie Kepler mit 2GB und mangelndem Hersteller-Support. DX12 wird eine schnelle Adaptionsrate haben.
 

cRaZy-biScuiT

Enthusiast
Mitglied seit
07.05.2006
Beiträge
2.695
Genau das ist der Punkt: Manchmal ist es schwierig das abzuschätzen. Ich habe mir jetzt einen 2500k gebraucht gekauft, da bei max. Details und > 4 GHz die Unterschiede zwischen 2500k - 3570k - 4670k und 6600k sehr marginal und spiegeln sich oft eher nur in den Minimum-FPS oder bei sehr, sehr schnellen GPUs wieder. Und genau das ist das Problem: Da ich auf performante Linux-Treiber angewiesen bin, bleibt mir eigentlich nur nVidia. Und eine gebrauchte 780ti ist alles Andere als eine gute Idee (keine Treiberoptimierungen mehr seit 9xx), eine gebrauchte 980 wird selbst nach 1080 launch vermutlich teuer bleiben.
 

Josedan03

Banned
Mitglied seit
13.06.2013
Beiträge
2.981
Ort
Kölle
Zu Thema:
Die Bezeichnung "NextGen Memory" gibt großen Anlass für Spekulatius, aber genaueres weiß man erst, wenn AMD mehr dazu sagt. Die Frage ist ja, was AMD als Memory Generation bezeichnet, sind GDDR4 und GDDR5 eine oder zwei Memory Generationen (mit leichten Verbesserungen), HBM und GDDR5 sind zwei Generationen.
 
Zuletzt bearbeitet:

Krümel

Enthusiast
Mitglied seit
27.09.2005
Beiträge
907
Ort
Schleswig-Holstein
System
Details zu meinem Desktop
Prozessor
AMD Ryzen R9 3950x
Mainboard
ASUS Prime B350-Plus
Kühler
TR Macho Rev.B
Speicher
2 x 16 GB Corsair LPX @ 3.600 MHz (Samsung C-Die)
Grafikprozessor
Zotac GTX 1070Ti Mini
Gehäuse
Define R4
Netzteil
BQ Strait Power 9 - 400 Watt
Betriebssystem
Win 10
Webbrowser
Opera
Wenn man innerhalb entsprechender TDP Limits schuat, wird dieses Jahr ziemlich interessant. Womöglich interessanter als die letzten 4 Jahre zusammen.
Genau, darauf warte ich schon die ganze Zeit! Ich will endlich mal meine 7850 ablösen, aber alle Karten bis 100 Watt sind nicht wirklich merkbar schneller geworden. Mir kribbelt es schon in den Fingern, ich freue mich auf die neue AMD Generation in diesem Jahr.
 

mastergamer

Semiprofi
Mitglied seit
09.09.2008
Beiträge
6.665
Genau, darauf warte ich schon die ganze Zeit! Ich will endlich mal meine 7850 ablösen, aber alle Karten bis 100 Watt sind nicht wirklich merkbar schneller geworden. Mir kribbelt es schon in den Fingern, ich freue mich auf die neue AMD Generation in diesem Jahr.
Und ich dachte ich bin der einzige der in diese Zwickmühle ist :fresse:

Genau darauf warte ich auch... auf einen bezahlbaren Nachfolger meiner HD7850.
 

mr.dude

Enthusiast
Mitglied seit
12.04.2006
Beiträge
6.370
Die neuen Karten sollen sich von den alten GCN (alles ab HD7000) Karten was die Register betrifft kaum unterscheiden. Die sollten also noch weiter mit Treibern versorgt werden.
Naja, gibt auch Gerüchte, dass sich softwareseitig doch einiges ändern wird. Inwiedern das die Treiber betrifft, wird man sehen.

AnandTech Forums - View Single Post - AMD: Polaris 10 targets mainstream desktop & high-end notebook

Polaris uses a fully new coding scheme (ASIC 130), and an earlier GCN binary is not executable on this microarch.
 

sTOrM41

Admiral , HWLUXX Superstar
Mitglied seit
13.10.2005
Beiträge
21.581
Ort
Magdeburg
Wer Ende 2011 Eine 7970 gekauft hat, konnte die Karte 5 Jahre ohne große Einschränkungen nutzen. Die Nutzungsdauer von HW wird immer länger, vorrausgestzt man kauft mit etwa Weitsicht. Eine Bulldozer CPU ist genauso schnell untauglich geworden wie Kepler mit 2GB und mangelndem Hersteller-Support.
Die 7970 ist also toll weil man mit ihr heute noch ordentlich daddeln kann und der Bulldozer ist doof weil man mit ihm heute noch ordentlich daddeln kann :confused:

Das ist ja eine spannende Logik.

 
Zuletzt bearbeitet:

G3cko

Semiprofi
Mitglied seit
06.05.2005
Beiträge
3.176
Die 7970 ist also toll weil man mit ihr heute noch ordentlich daddeln kann und der Bulldozer ist doof weil man mit ihm heute noch ordentlich daddeln kann?

Das ist ja eine spannende Logik.

Gesendet von meinem LG-H815 mit Tapatalk
Wo habe ich geschrieben das Bulldozer toll war? Lesen -> denken-> antworten
 

oooverclocker

Semiprofi
Mitglied seit
29.08.2012
Beiträge
5.627
Naja, gibt auch Gerüchte, dass sich softwareseitig doch einiges ändern wird. Inwiedern das die Treiber betrifft, wird man sehen.

AnandTech Forums - View Single Post - AMD: Polaris 10 targets mainstream desktop & high-end notebook
Du solltest nicht alles glauben, was ein einziger User in einem Forum schreibt. Der ist meiner Meinung nach einfach nur ein Troll.

Edit: AMD hat seine Stromverbrauch- Angaben geändert. Mittlerweile spricht man von 110-135W für Ellesmere
Das deutet darauf hin, dass AMD die Karte doch so hoch taktet, dass sie leistungsmäßig wahrscheinlich sogar erkennbar vor die 980Ti und GP104 kommen kann.
 
Zuletzt bearbeitet:

fdsonne

Moderator
Hardwareluxx Team
Mitglied seit
08.08.2006
Beiträge
35.501
Ort
SN
AMD hat seine Stromverbrauch- Angaben geändert. Mittlerweile spricht man von 110-135W für Ellesmere
Das deutet darauf hin, dass AMD die Karte doch so hoch taktet, dass sie leistungsmäßig wahrscheinlich sogar erkennbar vor die 980Ti und GP104 kommen kann.
Woher kommen denn eigentlich immer diese aus meinen Augen maßlos übertriebenen Erwartungshaltungen?
Wenn da 2304 ALUs stehen, dann wird sich das Ding schwer tun, überhaupt die 390er Modelle zu übertreffen, was die reine Leistung angeht. Warum? Woher soll die Einheiteneffizienz denn kommen? Glaubt man ernsthaft daran, dass die Polaris Modelle entscheidend mehr pro Taktleistung liefern als die Tonga/Fiji/Hawaii/Tahiti Generationen? -> ich nicht. Es scheint doch arg unwarscheinlich...
Was den neuen Produkten hilft, das Backend wird wohl wieder schmaler werden... Bei 2304 ALUs könnte das neun Blöcke zu 64 ALUs bedeuten. Und das ganze vier mal.
Das ist recht nahe an der damaligen PitCairn Ausführung dran und ebenso an Tonga. Dort waren es 10x2x64 ALUs (PitCairn) und 8x4x64 (Tonga). Man senkt also von 10 auf 9 und verdoppelt die Anzahl der Blocke in Summe. Schon PitCairn damals hatte den Vorteil in erster Instanz, dass die Skalierung teils besser als bei Tahiti war. Der ganze FrontEnd Part bleibt entsprechend "Breit", wie bei Hawaii und Tonga... Das kommt Games mit hoher Anforderung an bspw. Tesselation Power zu gute.
Auf der anderen Seite steht dann noch der Part mit dem Speicher? AMD hat der Käuferschaft erzählt, wie gut HBM ist. Und nun soll die GPU der kommenden Generation mehr Power als das alte HighEnd TopDog Modell bei gleichzeitig nur nem Bruchteil der Speicherbandbreite liefern? Wie soll das aufgehen?

Rein vom Takt her, wenn wir mal Spekulieren, müssten da irgendwas um die 1,3GHz stehen um Hawaii zu packen. Für den großen Fiji/GM200 müsste man aber schlappe 30-35% mindestens drauf tun. Das wären Taktraten jenseits der 1,5GHz Marke und wohl alles andere als Effizient zu betreiben. Für "erkennbar vor" der 980TI wäre noch mehr Takt notwendig. Und was heist erkennbar? 10%? 20%? 30%? -> 10% bei 30 FPS wären 3 Frames -> das ist nix, worüber man sich aufziehen müsste. Wäre für mich nicht primär erkennbar.
 

oooverclocker

Semiprofi
Mitglied seit
29.08.2012
Beiträge
5.627
Woher kommen denn eigentlich immer diese aus meinen Augen maßlos übertriebenen Erwartungshaltungen?
Wenn da 2304 ALUs stehen, dann wird sich das Ding schwer tun, überhaupt die 390er Modelle zu übertreffen, was die reine Leistung angeht. Warum? Woher soll die Einheiteneffizienz denn kommen? Glaubt man ernsthaft daran, dass die Polaris Modelle entscheidend mehr pro Taktleistung liefern als die Tonga/Fiji/Hawaii/Tahiti Generationen? -> ich nicht.
Ich schon :). Das sieht man ja in der letzten Zeit auch schon an Intel VS AMD:

Intel Core i5-2500:
  • 32nm Fertigung
  • Prozessortakt bei Belastung aller Kerne: 3,4GHz
  • 1,16 Mrd. Transistoren
  • 216mm² Die Fläche
  • 95W TDP
AMD FX-8310:
  • 32nm Fertigung
  • Prozessortakt bei Belastung aller Kerne: 3,4GHz
  • 1,2 Mrd. Transistoren(Ca. 3% mehr)
  • 315mm² Die Fläche
  • 95W TDP

Wie jeder weiß, hat der AMD FX-8310 8 ALUs(Falsch - sorry:siehe unten), während der i5-2500 nur 4 hat. Und was bringt ihm das? - Nix :d. Der Leistungsunterschied zwischen dem FX-8310 und dem i5-2500 beträgt in Multicore- Benchmarks im Durchschnitt ca. 2% zugunsten des FX-8310, und somit etwa so viel mehr, wie er Transistoren mehr hat.

Mein Fazit: Die Anzahl der ALUs ist meiner Meinung nach völlig egal. Wenn man aber davon ausgeht, dass die Ingenieure ziemlich optimal gearbeitet haben, kann man die Anzahl der Transistoren multipliziert mit dem Takt als groben Anhaltspunkt deutlich besser hernehmen, um eine Einschätzung zu treffen. Und bei Grafikkarten kann man davon ausgehen, dass viele ALUs auch ziemlich immer ausgelastet sind, wobei natürlich auch da mehr Leistung pro weniger ALUs der Leistungskonstanz wegen vorzuziehen ist - somit eine niedrige Zahl an ALUs bei höherer Anzahl an Transistoren ziemlich vorteilhaft sein müsste.
 
Zuletzt bearbeitet:

fdsonne

Moderator
Hardwareluxx Team
Mitglied seit
08.08.2006
Beiträge
35.501
Ort
SN
???
Der CPU Vergleich ist mal völlig aus der Luft... Und tut bei Grafikkarten effektiv so gar nix zur Sache ;) Das sind zwei völlig getrennte Anwendungsgebiete.
Noch dazu ist der sogar falsch. Ein FX Modul hat 2x2 ALUs. Ein Intel Core aus der Sandy Bridge Generation hat 1x3 ALUs. -> letzteres mal vier Cores macht 12 ALUs aufgeteilt auf vier Cores. Ersteres mal vier Module macht 16 ALUs aufgeteilt zu acht Threads. -> hier ist/liegt/lag eins der Probleme. Der BD kann pro Thread nur zwei ALUs ansprechen. Der Sandy aber drei, seit Haswell sogar vier... Das Skaliert nicht perfekt, definitiv nicht. Vorteile können aber trotzdem allein dadurch entstehen.


Und natürlich kann man wenigstens ansatzweise davon ausgehen, dass bei gleicher Basis die Leistung in etwa mit der Anzahl der Ausführungseinheiten wie auch dem Takt skalieren wird. Nur das habe ich dir oben versucht vorzurechnen. 2816 ALUs x 1,05GHz für Hawaii benötigen fast 1,3GHz bei 2304 ALUs für den spekulierten Polaris. -> du wolltest aber gleich > Fiji rauskommen. Das sind dann 4096 ALUs x 1,05GHz...

Das IST überzogene Erwartungshaltung. Mehr Power bei halben Verbrauch und alles schön billig am Besten noch wird es nicht geben... Mindestens eins von den drei Argumenten geht nicht auf. :wink:

Und was letzteres angeht. Wenn du das Milchmädchen rechnen lässt, dann kannst du da nicht einfach maßgebliche Teile der GPU rauslassen. Die GPU besteht nunmal nicht "nur" aus ALUs... Sondern noch aus einer ganzen Menge mehr... Wie ein Vergleich mit einem Hawaii auf der Transistorebene ausgehen wird, muss sich zeigen. Hawaii kann einige Sachen, die Tonga und Fiji nicht kann. Bspw. FP64 im Verhältnis 1:2 (zu FP32), die Speicheranbindung ist anders (spart Fläche und Transistoren), die Aufteilung der Einheiten ist eher Tahiti like mit 16x64er Blöcken usw.
 

oooverclocker

Semiprofi
Mitglied seit
29.08.2012
Beiträge
5.627
Ein FX Modul hat 2x2 ALUs. Ein Intel Core aus der Sandy Bridge Generation hat 1x3 ALUs. -> letzteres mal vier Cores macht 12 ALUs aufgeteilt auf vier Cores. Ersteres mal vier Module macht 16 ALUs aufgeteilt zu acht Threads.
Ich habe meine oben genannten Informationen mehrfach gelesen und mich darauf verlassen. Jetzt habe ich in einer Schema- Zeichnung selbst gesehen, dass Du Recht hast. Ich kann mich somit für die falsche Behauptung nur entschuldigen.


Und natürlich kann man wenigstens ansatzweise davon ausgehen, dass bei gleicher Basis die Leistung in etwa mit der Anzahl der Ausführungseinheiten wie auch dem Takt skalieren wird.
Das finde ich trotzdem nicht, denn:
dann kannst du da nicht einfach maßgebliche Teile der GPU rauslassen. Die GPU besteht nunmal nicht "nur" aus ALUs... Sondern noch aus einer ganzen Menge mehr...
und deshalb wären die Ingenieure ziemlich dumm, wenn sie die Chipfläche(Anzahl an Transistoren) größer machen als nötig (= höhere Kosten als nötig), während gleichzeitig die Leistung sinkt, weil es weniger ALUs sind. Das macht einfach keinen Sinn. Ich bleibe deshalb dabei, dass man, egal was im Innern mit den Transistoren an Schaltungen gebaut wurde, mit der Anzahl der Transistoren(=Diegröße) und dem Takt sehr gut die Leistung vorhersagen kann, weil man ausgehen kann, dass die Schaltungen innen effizienter sind als bei der Vorgängerversion und deshalb selbst bei doppelter Größe (14nm vs 28nm) und sonst gleichen Umständen besser performen.

Einen kleinen Punkt möchte ich aber noch nennen: Ich rede hier natürlich nur vom Vollausbau. Wenn GPU- Kerne deaktiviert werden, sind natürlich noch immer "tote" Transistoren mit drauf, die nicht mehr mitskalieren.;)

Edit: Wobei ich gerade gelesen habe, dass der GP104 333mm² groß sein soll. Bisher bin ich von 300mm² ausgegangen. Dann glaube ich doch nicht, dass der Ellesmere schneller sein könnte.
 
Zuletzt bearbeitet:

mr.dude

Enthusiast
Mitglied seit
12.04.2006
Beiträge
6.370
Du solltest nicht alles glauben, was ein einziger User in einem Forum schreibt. Der ist meiner Meinung nach einfach nur ein Troll.
Soll angeblich ein Entwickler sein, der Polaris bereits in Händen hat. Also nicht immer gleich die Leute als Trolle abstempeln.
 

oooverclocker

Semiprofi
Mitglied seit
29.08.2012
Beiträge
5.627
Ich habe nur kurz andere Posts von dieser Person gelesen und hatte das Gefühl, dass er schon selbst den Chip designed haben muss, um derartiges Wissen zu haben. Zudem kann der "ASIC" mit Versionsnummer nur ein interner Begriff sein, da er eigentlich zur Einstufung von GPUs des gleichen Typs benutzt wird, oder einen IC bezeichnet, was eine GPU zweifelsfrei ist, aber eben die Versionsnummer keinen Sinn macht.
Edit: Folglich habe ich aufgrund der vielen Ungereimtheiten aus seinen Posts darauf geschlossen, dass er mit ziemlich fachbezogener Wortwahl unwissende täuscht, denen die Begriffe nicht geläufig sind. Und es würde auch Sinn ergeben, wenn er sich vielleicht dadurch wichtig und ernstgenommen fühlt.
 
Zuletzt bearbeitet:
Oben Unten