Großer Kampfmagier: Intel Arc Pro B70 im Gaming-Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
117.865
Vor wenigen Tagen stellte Intel mit dem Arc Pro B65 und B70 die Workstation-Karten auf Basis des großen Battlemage-Chips alias BMG-G31 vor. Ein um 60 % größerer architektonischer Ausbau, ein 256 Bit breites Speicherinterface und ein 16 Lane breites PCIe-Interface bleiben dem Endkundenmarkt vorenthalten. Neben einem Workstation-Test mit gleich vier Arc-Pro-B70-Karten, haben eine der Karten aber auch durch unsere Spiele-Benchmarks geschickt.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Leerlaufverbrauch ist noch immer unter aller Kanone, gefällt mir nicht :cautious:

Jetzt bitte nicht ankommen mit "Das kann man einstellen im BIOS und Windows", buhuhu, was gefühlt 99% der Leute nicht mal wissen.
 
Das Bild mit vier Karten sieht schon beeindruckend aus.
Aber ob die Turbo-Blower Kühler nur durch die 12 Löcher an der Rückseite genug Luft bekommen? Die mittleren beiden Karten werden jedenfalls glühen.
Leistungsmäßig sieht das ganz OK aus für eine Workstation Grafikkarte. Als Gaming Karte wäre wohl 5060 TI und 9060XT in Reichweite. Mit 16GB und passendem Preis hätte man in dem Segment wohl Eindruck schinden können.
 
Nuja grob 9060xt bis 5060TI. Erstere vor dem KI Hype für 320€ mit Tendenz nach unten. Die Karte ist interessant aber der Chip deutlich zu groß und damit inkl. des PCB zu teuer. Intel ist schlicht eine Generation zu spät dran.
 
Jop, das zieht sich seit Anbeginn so durch. Die Chips sind im Verhältnis einfach viel zu groß.
 
Die Frage ist doch auch der Treiber, ich sehe hier das Problem unter anderem im Treiber. Da geht sicherlich noch ein bisschen mehr.
 
Finde die Karte eigentlich ganz nett, oder was sie als gamer karte hätte werden können. 5060ti Niveau in manchen games wo der Treiber nicht die Grenzen zeigt.
Gogo next gen.
 
Die Frage ist doch auch der Treiber, ich sehe hier das Problem unter anderem im Treiber. Da geht sicherlich noch ein bisschen mehr.
Gestern hat Intel einen Arc-Treiber (nicht der Pro-Treiber) veröffentlicht, der die B70 unterstützt. Bin diese Woche im Urlaub. Kommende Woche schaue ich mir das mit dem neuen Treiber noch einmal an.
 
Intel ist schlicht eine Generation zu spät dran.
Intel hat auch selber nur den Anspruch das Low End bis Mid End Segment mit günstigen Karten zu versorgen und das schaffen sie, mehr oder weniger (alleine durch das + an VRAM).
Laut intel damals will man erst mit der Next Arc Family (Celestial aufwärts) den Angriff des High End segments wagen.
 
Gestern hat Intel einen Arc-Treiber (nicht der Pro-Treiber) veröffentlicht, der die B70 unterstützt. Bin diese Woche im Urlaub. Kommende Woche schaue ich mir das mit dem neuen Treiber noch einmal an.
(y)
 
Verbraucht unter Last ungefähr soviel wie ne 3070 (Ti). Leistung auf Höhe einer 3060.
Dazu noch die notorisch schlechten Intel-Treiber.
Wen wollen die denn 2026 damit hervorlocken?
 
Hm... weiß nicht so recht was ich von dem Test halten soll, eure mühe das Überhaut zu Testen steht außer Frage und Danke dafür. Aber auch wenn ihr es überall hinschreibt das dieser Test auf eine mögliche B770 keine wirkliche Anwendung findet, bzw. nicht verdeutlichen kann wie eine B770 in Wirklichkeit abschneiden würde, stößt es einem dann doch irgendwie auf, das nicht mal Bezug zum neuen Treiber genommen wurde dem regulären ARC Treiber der B70 Unterstützung bietet, ok ja ist gestern erst erschienen, hab ich sogar noch irgendwie Verständnis, allerdings wäre eine Erwähnung sich nicht schwer gefallen. Bei diesen Karten muss um Überhaut eine gewisse Gaming-Relevanz zu bieten ECC sprich die Fehlerkorrektur des Speichers abgeschaltet werden, hab ich das überlesen?

Trotz allem Danke für den Test.

Jetzt bitte nicht ankommen mit "Das kann man einstellen im BIOS und Windows", buhuhu, was gefühlt 99% der Leute nicht mal wissen.
Sehe ich nicht so wegen jedem anderm kram kann auch im Bios rumgefummelt werden, das ist keine andere Einstellung als XMP zu aktivieren oder die Lüfterkurve einzustellen, das es bei einigen Boards nicht geht bzw. die Funktion nicht greift ist etwas anderes, eine Erwähnung das es dann auf dem Testboard nicht möglich ist, ist da zielführender. Wie man diese Einstellung überhaupt ignorieren kann, ist mir unverständlich, wir sind PC Tüftler keine Konsolen Spieler, ein PC muss optimiert und gepflegt werden wozu sonst das ganze Geld ausgeben?

Dazu noch die notorisch schlechten Intel-Treiber.
Bin mir nicht sicher was du meinst, aber Probleme gab es bei keinem Treiber, will jetzt nicht sagen es gäbe keine, ich kann von keinen berichten und Intel ist sehr bemüht, quasi alle 2 Wochen gibt es ein neuen Treiber (erst Beta dann WHQL). Bei Nvidia zB. sieht das ganz anders aus, die Probleme scheinen da nicht aufzuhören und das über die letzten Jahre jetzt schon.
 
wir sind PC Tüftler keine Konsolen Spieler, ein PC muss optimiert und gepflegt werden wozu sonst das ganze Geld ausgeben?
Für uns gilt das, ja, aber Intel veröffentlicht die Karten nicht für unsere winzige Nerd-Minderheit, Karten müssen für alle gemacht werden, auch für die "Ich kann den PC einschalten, den Browser nutzen und ein Spiel installieren, muss ich mehr können?"-Leute.
Außerdem, wie will man sonst mehr Leute für den PC begeistern, wenn es nicht von Haus aus sauber beim Stromverbrauch automatisch funktioniert, so wie bei AMD und Nvidia.
Mir sind in den vielen Jahren in diversen Foren schon viele untergekommen, die nicht mal wussten das man das RAM-Profil im BIOS aktivieren muss, wenn man es ihnen sagt wussten sie nicht selten wie das geht, wie man überhaupt ins BIOS kommt.
Außerdem, wenn man mit dem niedrigeren Stromverbrauch nicht bei allen Boards klappt, was nun mal der Fall ist, schießt sich Intel bei dem Punkt selbst ins Knie, dass muss unbedingt angegangen werden.
Schon alleine das sich der Vram nicht herunter taktet, ist etwas was man relativ leicht und schnell machen kann, dies sollte bei der nächsten breit verfügbaren Karte unbedingt repariert werden.
 
Verbraucht unter Last ungefähr soviel wie ne 3070 (Ti). Leistung auf Höhe einer 3060.
Dazu noch die notorisch schlechten Intel-Treiber.
Wen wollen die denn 2026 damit hervorlocken?
Bei den Karten war jetzt Gaming nicht das oberste Ziel. Die schlechte Leistung kommt durch die Treiber, die Rohdaten für theoretische Leistung(Hardware) sind ja nicht schlecht.
 
Für uns gilt das, ja, aber Intel veröffentlicht die Karten nicht für unsere winzige Nerd-Minderheit, Karten müssen für alle gemacht werden, auch für die "Ich kann den PC einschalten, den Browser nutzen und ein Spiel installieren, muss ich mehr können?"-Leute.
Ich bin ja prinzipiell auch dafür und es ist eine erhebliche Schwachstelle - aber diese angesprochene Klientel, baut auch gar nicht selbst PCs zusammen. Oder holt sich eine Intel Karte, um sie einzubauen.
Das machen nur Nerds oder Leute die für diese Klientel die Rechner zusammenstellen und bauen. Und wer so viel Tau hat, da eben nicht eine Standard nVidia Karte reinzustecken, weil einfach und jeder will das, sondern eben ausgesuchtere Hardware, weiß Bescheid und wird auch noch viel mehr an den BIOS Einstellungen und auch dem SW-System rumbasteln.

Bzw. weiß und interessiert sich so jemand auch gar nicht über das Thema Leerlaufverbrauch.


aber zum Thema allgemein: Ich finde die Entscheidung nur fürs Pro-Segment auch richtig. In der Tat bietet es im Gamermarkt zu wenig. Aber ich finde es ebenso erstaunlich, dass so viele bereit sind 1k + für eine reine Spielegrafikkarte hinzublättern. Doch als Arbeitsgerät kann es natürlich sinnvoll sein. Wie mit dieser B70 hier. Falls ich den Speicher ausnutzen kann (wie auch immer) und nach Feierabend auch noch gut damit spielen kann, ist es perfekt :-)
 
Es ist immer noch keine Gamerkarte. Ein 5080-Killer ist das wohl definitiv nicht. Dennoch frage ich mich ob Intel das hinbekommen hätte. Die 580 ist ja gar nicht so übel wenn man VRAM und Preis für ~3070-Leistung mal bedenkt, gerade der VRAM ist ja der KO-Punkt der 3070 (die ich letztes Jahr selber mal hatte).
 
Viel Strom und Abwärme für vergleichsweise ernüchternde Gaming-Leistung. Bei NVIDIA ist Gaming wenigstens ein brauchbares Abfallprodukt :-D
 
Viel Strom und Abwärme für vergleichsweise ernüchternde Gaming-Leistung. Bei NVIDIA ist Gaming wenigstens ein brauchbares Abfallprodukt :-D
Das ist mal wieder ziemlich unqualifiziert der Kommentar.
Leider hat hier Nvidia sich schon tief in die Branche eingekauft, die meisten Games werden in Zusammenarbeit mit Nvidia entwickelt.#
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh