Intel Arc A750 und A770 in der Limited Edition im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.377
Das Warten hat ein Ende: Mit der Arc 750 und Arc A770 Limited Edition schauen wir uns die beiden schnellsten Modelle der ersten Arc-Generation an. Wie weit hat es Intel mit einer ersten Generation geschafft? Welche Schwachstellen sind auch Monate nach dem Erstauftritt der Arc A380 (Test) noch auszumachen. Sind Preis und Funktionen wie XeSS echte Argumente anstatt zu einem Modell von NVIDIA und AMD zu greifen? Das alles klären wir auf den kommenden Seiten.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich bin doch positiv überrascht wie gut sich die Karten positioniert haben. Mal schauen was in zwei Generationen los ist
 
der idle verbrauch ist wirklich erschrekend. gibs informationen dazu ob man das mit software in den griff bekommen kann/will/wird?
 
Also... ich mag das Design gut leiden.
Ich finde es klasse, dass es einen dritten Player am Markt gibt, der dann auch hoffentlich bleibt.
Treiberoptimierungen müssen natürlich her, aber ich bin da ziemlich zuversichtlich. Wenn jetzt noch der Preis einer A770 unter dem einer 3060 liegen sollte, wie schon im Fazit als ein "muss" angedeutet... mega.. was will man mehr? Wir als Verbraucher können uns nur freuen!

Für einen ersten echten Wurf (jaa... Intel hatte schon einmal was vor, wir wissen es) wirklich gut. AMD und Nvidia sind nicht mehr alleine.

Edit:
der idle verbrauch ist wirklich erschrekend. gibs informationen dazu ob man das mit software in den griff bekommen kann/will/wird?

Steht doch mehrmals im Test? Für die A350 wurde das für August angekündigt, konnte aber mangels Sample nicht getestet werden. Wenn die das für die 350 vor haben (hatten), wird das garantiert auch für die anderen 2 kommen.
Und im Test steht ja auch, dass beide grundsätzlich einen weiteren power state noch könnten.

Edit 2:
@pillenkoenig
Seite 5 des Tests:
Die Karten wechseln offenbar nicht vom dazugehörigen Power State G2 auf einen sparsameren Betriebsmodi. Unterstützt wird aber auch der Power State G8, in dem die Karten bei 10 W landen sollten.
 
Ich bin doch positiv überrascht wie gut sich die Karten positioniert haben. Mal schauen was in zwei Generationen los ist

dito. bin gespannt wohin die Reise hingeht wenn die Treiber immer besser werden.
 
@Don gab es in einem der getesten Spiele Grafikfehler? Rein aus Interesse.
 
Punktladung für Raja, man liegt etwas über der Leistung einer Vega64 :bigok:

Ansonsten, ordentlich für die ersten echten dGPUs, schön zu sehen wie sich der Treiber positiv entwickelt, denn wie man sieht ist 3070 Leistung möglich wenn alles passt.
 
Zuletzt bearbeitet:
Die zweite Arc-Generation wird möglicherweise konkurrenzfähig sein (bessere Treiber),

die Modelle der ersten Arc-Generation sind ein Anfang,mehr nicht
:coffee2::coffee:
Beitrag automatisch zusammengeführt:

Punktladung für Raja, man liegt etwas über der Leistung einer Vega64 :bigok:
Schwache Leistung!:fresse2::fresse::hust:
 
@Don gab es in einem der getesten Spiele Grafikfehler? Rein aus Interesse.
Nein, wir hatten ein paar Bugs oder Spiele die erst nicht starten wollten, konnte das aber zusammen mit Intel alles ausräumen. Man ist also sehr bemüht hier den Treiber entsprechend mit dem Feedback weiterzuentwickeln.
 
Gefällt!

Mit RT schneiden die Karten ziemlich gut ab, hätte ich jetzt nicht erwartet.
 
Hier kann Intel nur über den preis was machen .
 
Wie den? Der Chip ist fast doppelt so groß wie der GA106 oder Navi 23, dafür inkonsistenter von der Leistung bei mehr Verbrauch.
Sogar der GA104 ist kleiner und das trotz 8nm Samsung (real 10nm) :fresse:
Typische Raja Papier GPU. Am Zettel: "wow das muss abgehen" in Benchmarks: "Wo Leistung?" aber dafür nuckeln an der Steckdose

... Hoffentlich bleibt Intel dran und konzentriert sich nicht nur auf Server und Low End.
 
Aber die 2070 Super ist halt 3 Jahre alt und die 3060 gibts doch auch schon 1,5 bzw. fast 2 Jahre, oder?
Ich sehe ja, dass Intel sich das Ziel gesetzt hat, die 3060 anzugreifen und dass sie das auch quasi geschafft haben, finde ich super...aber es ist halt auch eine annähernd 2 Jahre alte Grafikkarte :d Da frage ich mich halt, warum ich die Intel-Karte kaufen sollte. Die hat offensichtlich immense Treiber-Probleme, verbraucht extrem viel Strom und liefert Leistung, die ich schon vor 1,5 Jahren haben konnte.
 
Wie isn das mit dem Aufnehmen bei OBS?
Mit meiner RX 580 kann ich H.264 und H.265 (HEVC) auswählen, während HEVC die bessere Qualität bietet mit dem CQP Modus.

Streamen mit dem AV1-Codec ist von der Qualität her bestimmt recht gut, ein Vergleich zu NVENC und x264 wäre toll.
 
Wenn der Idle Verbrauch gefixt ist und der Preis stimmt, why not.
Overclocking und UV würden mich noch interessieren. Zumindest scheint ja die kühlung angenehm leise zu sein.
 
Wer eine will sollte bei Release schnell sein, bei Chipgröße und dem Preis wird die Karte Pats Axt spüren.
AMD hat eine fast doppelte so hohe Ausbeute pro Wafer bei fast der selben Fertig.
Nvida hat eine 50% größere Ausbeute pro Wafer bei einer billigeren Fertigung.
 
Wie isn das mit dem Aufnehmen bei OBS?
Mit meiner RX 580 kann ich H.264 und H.265 (HEVC) auswählen, während HEVC die bessere Qualität bietet mit dem CQP Modus.

Streamen mit dem AV1-Codec ist von der Qualität her bestimmt recht gut, ein Vergleich zu NVENC und x264 wäre toll.
H.264/5 Ist nicht Arcs stärke, aber AV1 ist schon ziemlich nice (und performant).

Eigentlich schade um die Karten. Nette AI features, aber inkonsistente Performance, hoher Verbrauch (vor allem idle), kein Linux Kernel 5 support, Treiberprobleme. Wenn ich mir Benches von Divinity: OS II oder Borderlands anschauhe kräuseln sich mir die Haare.
Wenn die RX 6600 gegen 250€ gehen sollte, dann müsste die Arc 750 schon (imho) gegen 200€ übern Tisch gehen, für eine Karte die evtl. in 6 Monaten ausgereift ist.
 
Wenn der Preis passt, sie den Idle-Verbrauch via Update fixen & die Vulkan-Performance verbessern, ist die Karte für meinen Linux-Desktop gekauft!

@Don Stellen die GPUs eigentlich GVT-g-Unterstützung bereit?
 
GVT-G is von Intel eingestellt worden, XE unterstützt es nicht mehr.
War angeblich zu instabil und aufwenig zu maintainen

SR-IOV wurde offizell als Nachfolger ernannt, auch wenn nicht vergleichbar.
 
  • Danke
Reaktionen: Don
Wenn der Preis passt, sie den Idle-Verbrauch via Update fixen & die Vulkan-Performance verbessern, ist die Karte für meinen Linux-Desktop gekauft!

@Don Stellen die GPUs eigentlich GVT-g-Unterstützung bereit?
Alles was Linux betrifft habe ich mir nicht angeschaut.
 
GVT-G is von Intel eingestellt worden, XE unterstützt es nicht mehr.
War angeblich zu instabil und aufwenig zu maintainen

SR-IOV wurde offizell als Nachfolger ernannt, auch wenn nicht vergleichbar.
Danke für den Hinweis! vGPUs vs GPU passthrough ist ja eine völlig andere Sache. Schade, das wäre ein weiteres Alleinstellungsmerkmal gewesen.
 
Wäre halt vor 1-2 Jahren noch halbwegs okay gewesen, jetzt nicht mehr. RDNA3 wird extrem brutal für diese Karten.

AMD hat eine fast doppelte so hohe Ausbeute pro Wafer bei fast der selben Fertig.
Nvida hat eine 50% größere Ausbeute pro Wafer bei einer billigeren Fertigung.
So siehts aus.
 
PS: Habt ihr euch mal die synthetischen Benchmarks angesehen? Offensichtlich liegt da eine Menge Performance brach. Angenommen sie bringen noch genügend Ressourcen auf um den Treiber zu verbessern, sollten sie des Öfteren eine RX 6700 (XT) schlagen können.
Beitrag automatisch zusammengeführt:

Wäre halt vor 1-2 Jahren noch halbwegs okay gewesen, jetzt nicht mehr. RDNA3 wird extrem brutal für diese Karten.


So siehts aus.
Meinst du es wird auch sparsamere RDNA3-Karten geben, die max. 200W ziehen? Andernfalls sinken die Intel-Preise halt auf <200 €. Ist mir auch recht. ;)
 
Für Linux interessierte der Phoronix Test ist auch schon online, Leistung ähnlich wie unter Windows.

@cRaZy-biScuiT
Da AMD stark auf Chiplett setzen will ist die Wahrscheinlichkeit hoch, preislich wirds aber sicher nicht billiger.
 
Für Linux interessierte der Phoronix Test ist auch schon online, Leistung ähnlich wie unter Windows.
Jein - teilweise etwas schlechter. Zudem gibt es leider noch keinen richtigen Vulkan-Support, weshalb DXVK und moderne Spiele nicht getestet werden konnten. Ich hoffe in 2-3 Monaten sind wir diesbezüglich ein Stück weiter.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh