> > > > Finale ASUS ARES III in Kürze mit 3x 8-Pin-Versorgung erhältlich

Finale ASUS ARES III in Kürze mit 3x 8-Pin-Versorgung erhältlich

Veröffentlicht am: von

asusAuf der Computex zeigte ASUS die ARES III. Dabei handelt es sich um eine Radeon R9 295X2 im Eigendesign, auch das PCB will ASUS komplett überarbeitet haben. Damit ist sie im eigentlichen Sinne mit der PowerColor Dual-Core Radeon R9 290X Devil 13 vergleichbar, die wir bis heute aber auch noch nicht im Handel erblicken konnten. Nun aber hat ASUS die ARES III final angekündigt und spricht auch von endgültigen technischen Daten sowie einer baldigen Verfügbarkeit.

Auf der ASUS ARES III zum Einsatz kommen wie auch auf der Radeon R9 295X2 zwei vollwertige "Hawaii XT"-Grafikchips, die jeweils 2.816 Streamprozessoren, 176 Textureinheiten und 64 Rasterendstufen bereitstellen. Pro Grafikprozessor gibt es einen 4.096 MB großen GDDR5-Videospeicher, welcher wie gewohnt über ein 512 Bit breites Speicherinterface angebunden ist. In der Summe stehen so 8 GB Videospeicher zur Verfügung. Die beiden GPUs kommen auf einen GPU-Takt von 1.030 MHz, während der Speicher mit 1.250 MHz arbeitet. Damit ist die ARES III nicht wirklich schneller als die anderen Varianten der Radeon R9 295X2.

Große Besonderheit der ASUS ARES III ist die Kühlung. Während man in der Vergangenheit mächtige Triple-Slot-Kühler verbaute, besitzt die dritte Generation der ARES-Karten einen Komplett-Wasserkühler im Single-Slot-Design, der einen schon bestehenden Kühlkreislauf voraussetzt. Integriert wird die ASUS ARES III über zwei G1/4Zoll-Schraubanschlüsse. Mit Strom versorgt wird die neue ASUS-Karte über drei 8-Pin-PCI-Express-Stecker, was einem zusätzlichen Stromanschluss im Vergleich zur Radeon R9 295X2 entspricht. Diese drei Anschlüsse beliefern die Strom- und Spannungsversorgung mit insgesamt 16 Phasen. Die einzelnen Komponenten dieser Phasen sollen besonders hochwertig sein. ASUS verwendet einmal mehr Komponenten aus Japan sowie solche, die sich besonders durch ihre Langlebigkeit oder hohe Effizienz auszeichnen.

Im Lieferumfang befinden sich drei PCI-Express-Stromadapter, ein "Never Settle Forever"-Gold-Reward, zwei Gewindeaufsätze für die Anschlüsse der Wasserkühlung sowie ein 8 GB fassender ROG USB-Stick. Geliefert wird die Karte samt Zubehör in einem Aluminiumkoffer. In unserem Preisvergleich ist sie noch nicht aufgetaucht, allerdings gehen wir von einem Preis von etwa 1.500 Euro aus.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (23)

#14
Registriert seit: 04.09.2012

Bootsmann
Beiträge: 539
Zitat Pickebuh;22603657
.Was für Vorteile entstehen dadurch ?
Da nun mehr Informationen auf Reserve vorhanden sind, können Dual-Karten nun gewisse Engpässe kompensieren. Sie brechen nun weniger ein, wenn es in hohen Anforderungen einmal eng werden sollte. Eine Single-GPU geht da schnell die Puste aus, weil sie eben wenig Rücklagen bzw. Reserven besitzt. Somit können Dual-Karten selbst mit weniger Videospeicher oder kleinerem SI trotzdem, bei hohen Anforderungen, ihre Leistung, prozentual gesehen, steigern. Sprich, sie kommen mit einem Speichermangel besser zurecht.


Wenn ich das jetzt richtig verstanden habe, dann ist 2 x 4 GB Speicher besser als 1 x 8 GB.
Aber wieso ließt man, dass diese 2 x 4 trotzdem nicht so gut sein sollen?
#15
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11636
Man liest allgemein dass Crossfire und Sli nachteile haben ---> Mikroruckler. Das liegt leider offenbar in der Natur der Sache, auch wenns heute besser ist als früher.
Kann man die benötigte Gaming-Leistung irgendwie per single-karte erhalten, sollte man die jedem dualsystem-system vorziehen. Darum macht CF/Sli auch nur bei High-end karten (wie hier) Sinn.
#16
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33141
Zitat Pickebuh;22603657
Doch, natürlich sind die 2x4 GB verfügbar, nur sie werden nicht ganz so ausgenutzt, wie es bei einer Singlekarte der Fall ist, wie meine Vorredner schon gesagt haben.


2x4GB sind verbaut, weil 2xGPU verbaut ist. Die Nutzung der Speicher pro GPU entspricht ziemlich genau dem, wie es auch bei einer Single GPU der Fall ist, da gibt es keine Unterschiede. Einzig der Absolute Inhalt unterscheidet sich, nicht aber der Bedarf pro GPU.

Zitat Pickebuh;22603657

Was für Vorteile entstehen dadurch ?
Da nun mehr Informationen auf Reserve vorhanden sind, können Dual-Karten nun gewisse Engpässe kompensieren. Sie brechen nun weniger ein, wenn es in hohen Anforderungen einmal eng werden sollte. Eine Single-GPU geht da schnell die Puste aus, weil sie eben wenig Rücklagen bzw. Reserven besitzt. Somit können Dual-Karten selbst mit weniger Videospeicher oder kleinerem SI trotzdem, bei hohen Anforderungen, ihre Leistung, prozentual gesehen, steigern. Sprich, sie kommen mit einem Speichermangel besser zurecht.


Du schlussfolgerst hier falsch und das sogar mehrfach, es sind AFR Modus bedingt zwar die doppelte absolute Anzahl an Bildern bereit, aber das kompensiert schlicht gar nix ;) Tripple Buffering soll auch keine Leistungsdefizite ausgleichen.

Ein MGPU Gespann im AFR Modus hat eine andere Leistungsskalierung als eine um das doppelte aufgebohrte SGPU, das liegt aber in der Natur der Sache von AFR -> wo zwei aufeinander folgende Bilder zur gleichen Zeit berechnet werden.

Auch geht einer SGPU nicht schneller die Puste aus genau so wie ein MGPU Gespann nicht besser mit Speichermagel zurecht kommt. Das gleiche gilt zur Aussage mit dem SI, was ich dir vor Monaten schon mal gesagt habe...
Zumal du selbst ja mittlerweile sagst, dass das MGPU Gespann zwei Bilder berechnet, es erhöht sich also auch nach wie vor der Bedarf an Bandbreite mit der Anzahl der GPUs.

Der Vorteil von MGPU liegt idR. genau dort, wo man es zum gegenwärtigen Zeitpunkt nicht schafft mehr Leistung aus einer SGPU zu quetschen... und für Games macht auch normal genau nur der HighEnd MGPU Ansatz Sinn, da die Nachteile von AFR einfach überwiegen gegen ähnlich schnelle SGPUs.
#17
customavatars/avatar163959_1.gif
Registriert seit: 27.10.2011

Oberbootsmann
Beiträge: 787
Technisch sind 8 GB verbaut, praktisch können bei Spielen nur 4 GB genutzt werden. Kann man das nicht so aufschreiben? Es bringt nichts, zwar technisch absolut einwandfrei zu schreiben, wenn man damit fast schon zwangsweise bei manchen Lesern zu Verwirrung stiftet.
#18
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33141
In Games ja, also überall dort, wo Crossfire genutzt wird, aber es gibt nun mal noch die Welt neben den Games, Sprichwort GPGPU... da geht tendenziell auch die Nutzung vom vollen VRAM. Ist halt dort Fallabhängig.
Rein formal würde das gar auch in Games klappen, wenn du ohne aktivem CF zwei Games (je eins pro GPU) berechnen lassen würdest. Oder auf GPU 1 ein Spiel läuft und auf GPU 2 eine GPGPU Anwendung ;)
#19
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2917
Zitat fdsonne;22604500
.
Du schlussfolgerst hier falsch und das sogar mehrfach, es sind AFR Modus bedingt zwar die doppelte absolute Anzahl an Bildern bereit, aber das kompensiert schlicht gar nix ;) Tripple Buffering soll auch keine Leistungsdefizite ausgleichen.


Schonmal auf die Idee gekommen, das du es einfach nicht blickst ? Das Thema ist einfach zu hoch für dich, also lass bitte diese unqualifizierten Bemerkungen deinerseits Ja ?

Zitat

Ein MGPU Gespann im AFR Modus hat eine andere Leistungsskalierung als eine um das doppelte aufgebohrte SGPU, das liegt aber in der Natur der Sache von AFR -> wo zwei aufeinander folgende Bilder zur gleichen Zeit berechnet werden.


Willst du mich verarschen ?
Also 1 + 1 ergibt definitiv 2 und wenn man da die 1 wieder abzieht gelangt man wieder zur 1 . Zu hoch ? Egal kannst ja darüber nachdenken. :stupid:
Glaube mir, das AFR (Alternate Frame Rendering) habe ich sicherlich besser verstanden als du.

Zitat

Auch geht einer SGPU nicht schneller die Puste aus genau so wie ein MGPU Gespann nicht besser mit Speichermagel zurecht kommt. Das gleiche gilt zur Aussage mit dem SI, was ich dir vor Monaten schon mal gesagt habe...
Zumal du selbst ja mittlerweile sagst, dass das MGPU Gespann zwei Bilder berechnet, es erhöht sich also auch nach wie vor der Bedarf an Bandbreite mit der Anzahl der GPUs.


Völliger Unsinn den du da von dir gibst.
AMD Radeon R9 295X2 im Test
AMD Radeon R9 295X2 im Test
AMD Radeon R9 295X2 im Test

In allen drei Tests legt die R9 295X2 gegenüber der R9 290X(Über) immer mehr zu, sobald die Anforderungen steigen.
Natürlich sind die Frames bei zwei GPUs schon höher, aber der Abstand wird immer größer je höher die Auflösung wird.
Daraus folgt, das ein Dual-Karte durchaus mehr ist als nur rein die Summe ihrer Teile. Durch die Zusammenarbeit der beiden GPUs lassen sich Krisen besser bewältigen.

Zitat

Der Vorteil von MGPU liegt idR. genau dort, wo man es zum gegenwärtigen Zeitpunkt nicht schafft mehr Leistung aus einer SGPU zu quetschen... und für Games macht auch normal genau nur der HighEnd MGPU Ansatz Sinn, da die Nachteile von AFR einfach überwiegen gegen ähnlich schnelle SGPUs.


Da sieht man es wieder. Du hast es nicht verstanden ! Hier geht es nicht um die bloße Leistung von zwei GPUs. Es geht um die Fähigkeit diese Leistung auch immer konstant zu halten, auch wenn es schwieriger/anspruchsvoller wird.
Jetzt verstanden ? Schwere Geburt !
#20
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11636
Zitat Pickebuh;22604766

Also 1 + 1 ergibt definitiv 2 und wenn man da die 1 wieder abzieht gelangt man wieder zur 1 . Zu hoch ? Egal kannst ja darüber nachdenken. :stupid:


Selten so nen Blödsinn bezüglich Gaming gehört. Für Berechnungen auf der GPU, etc. mag das stimmen, aber nenn mir ein Spiel das ohne CPU-Limit, bei 2 GPUs doppelt so viele Frames bringt wie bei nur einer GPU!
In aller Regel muss man sich mit 160-190% begnügen. Bei BF4 z.B. bringt die 295x2 rund 50fps vs ~30Fps bei eienr einzelnen 290X. Es gibt ein Video davon auf YT.
Mit viel Pech, wenn das CF/Sli profil nichts taugt, gibts sogar weniger FPS als bei ner einzelnen GPU...

Edit: Hier das vid: https://www.youtube.com/watch?v=aC1SsnS6naA
#21
customavatars/avatar95761_1.gif
Registriert seit: 27.07.2008

Fregattenkapitän
Beiträge: 2917
Das war nur sarkastisch mit einem Schuss Polemik gemeint.
#22
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11636
Zitat Pickebuh;22604794
Das war nur sarkastisch mit einem Schuss Polemik gemeint.

Sorry, jetzt begreif ich aber garnichts mehr aus deinem und fdsonne's Konflikt... ._.'' Ich geh was anderes machen :D
#23
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33141
Zitat Pickebuh;22604766
Willst du mich verarschen ?
Also 1 + 1 ergibt definitiv 2 und wenn man da die 1 wieder abzieht gelangt man wieder zur 1 . Zu hoch ? Egal kannst ja darüber nachdenken. :stupid:
Glaube mir, das AFR (Alternate Frame Rendering) habe ich sicherlich besser verstanden als du.


??
Ja und jetzt? Das hat genau was mit der Leistungsskalierung von MGPU und SGPU zu tun?
Wenn du AFR verstanden hast, wieso schlussfolgerst du dann immer noch irgendwelchen Nonsens?
Nimms mir nicht übel, aber du hast AFR nicht verstanden ;)

Aber hey, so was nennt man Wissenschaft, man sieht Werte, und interpretiert sich das Ganze so zusammen, damit man auf irgendwelche Werte kommt, die zufälligerweise den Werten entsprechen, die irgendwelche Benches aussagen.
Das hat schon Ptolemäus seinerzeit so gemacht, er konnte die Planetenbewegung vorrausberechnen, hat das eigentliche System dahinter aber völlig falsch interpretiert. -> soll heißen, nur weil etwas mit Werten übereinstimmt, ist es lange nicht richtig ;)

Zitat Pickebuh;22604766
In allen drei Tests legt die R9 295X2 gegenüber der R9 290X(Über) immer mehr zu, sobald die Anforderungen steigen.
Natürlich sind die Frames bei zwei GPUs schon höher, aber der Abstand wird immer größer je höher die Auflösung wird.
Daraus folgt, das ein Dual-Karte durchaus mehr ist als nur rein die Summe ihrer Teile. Durch die Zusammenarbeit der beiden GPUs lassen sich Krisen besser bewältigen.


Und genau hier ist deine Schlussfolgerung falsch. Denn idR. gilt immer noch, je niedriger die FPS, desto besser die Skalierung. Und das gilt völlig unabhängig von MGPU für jegliche Kombinationen.
Schau dir dazu am besten Benches an, wo man eine SGPU gegen ein MGPU Gespann testet, was beides unterm Strich gleiche Leistung bringt. Anbieten würde sich bspw. ein HD7870 CF gegenüber einer 290X.

Zitat Pickebuh;22604766
Da sieht man es wieder. Du hast es nicht verstanden ! Hier geht es nicht um die bloße Leistung von zwei GPUs. Es geht um die Fähigkeit diese Leistung auch immer konstant zu halten, auch wenn es schwieriger/anspruchsvoller wird.
Jetzt verstanden ? Schwere Geburt !


Nur ist das eben quatsch, da eben keine Unterschiede zu sehen sind.
Deine Schlussfolgerung baut einzig und allein darauf, das du MGPU Gespanne als Basis nimmst, wo es keine entsprechend schnelle SGPU Karten im Vergleich gibt. Such dir lieber ein Mittelklasse MGPU Gespann und vergleiche das, du wirst stauen, wie deine Argumentation in sich zusammen bricht. :wink:
Selbst wenn du rein logisch darüber nachdenkt, sollte das schon auffallen...

Zitat DragonTear;22604810
Sorry, jetzt begreif ich aber garnichts mehr aus deinem und fdsonne's Konflikt... ._.'' Ich geh was anderes machen :D


Ich hab ehrlich gesagt keine Ahnung was er für ein Problem hat...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]