Einsteiger Workstation-Lösung: Intel Arc Pro B50 im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.759
Mit der Vorstellung der ersten Arc-Grafikkarten auf Basis der Battlemage-Architektur, genauer gesagt der Arc B580 (Test), konnte Intel zumindest durch Preis und Speicherausstattung überzeugen. Auch die Effizienz der Battlemage-Architektur konnte verbessert werden und zusammen mit den weiteren Verbesserungen von Xe2 ergibt sich ein rundes Gesamtbild, auch wenn Intel auch mit der zweiten Generation nicht nach der Leistungskrone greifen konnte. Nun wurde die Arc-Pro-Serie ebenfalls auf Battlemage aktualisiert. Mit der Arc Pro B50 schauen wir uns heute die kleinste Variante der Workstation-Karte an.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke für den Kurztest!

Interessant wären für mich mal Tests des Video-Encoders. Und zwar im Vergleich zu den Consumer-Modellen B570/580. Also die Leistung (Rechengeschwindigkeit) und der Verbrauch. Wäre der verbrauch bei ansonsten gleicher Leistung spürbar geringer, wäre das für mich ein Grund, die B50 zu nehmen. Und die Encoder sind ja auch im professionellen Umfeld von Bedeutung.
 
Sind eure Benchmarks eigentlich "dynamisch" in dem Artikel?
Also, wenn ihr jetzt z.B. ne Consumer Blackwell testet (was ja für KI Benchmarks ein sinnvoller Vergleich wäre, wenn nicht fast der einzig sinnvolle, zumindest für den durchschnittlichen Leser in eurem Kundenstamm), erscheint das dann von selbst in den alten Tests (also diesem), wo diese Grafiken drin sind?

Wäre nämlich schön, wenn diese Diagramme noch ein bissl mit Daten gefüllt werden würden, mit dem, was da jetzt drin ist, fängt man eigetnlich nichts an.
 
Danke für den Kurztest!

Interessant wären für mich mal Tests des Video-Encoders. Und zwar im Vergleich zu den Consumer-Modellen B570/580. Also die Leistung (Rechengeschwindigkeit) und der Verbrauch. Wäre der verbrauch bei ansonsten gleicher Leistung spürbar geringer, wäre das für mich ein Grund, die B50 zu nehmen. Und die Encoder sind ja auch im professionellen Umfeld von Bedeutung.
Ich schaue morgen mal, ob ich noch ein paar Tests mit den Encodern mache.
Sind eure Benchmarks eigentlich "dynamisch" in dem Artikel?
Also, wenn ihr jetzt z.B. ne Consumer Blackwell testet (was ja für KI Benchmarks ein sinnvoller Vergleich wäre, wenn nicht fast der einzig sinnvolle, zumindest für den durchschnittlichen Leser in eurem Kundenstamm), erscheint das dann von selbst in den alten Tests (also diesem), wo diese Grafiken drin sind?

Wäre nämlich schön, wenn diese Diagramme noch ein bissl mit Daten gefüllt werden würden, mit dem, was da jetzt drin ist, fängt man eigetnlich nichts an.
Wir müssen das Testsystem hier einzeln sehen, da die Testumgebungen komplett andere sind und wir hier kaum was vergleichen können.
 
Ich fände es ja schön, wenn man alle relevanten Leistungsdaten mit angeben würde. So auf die Schnelle finde ich dazu:
FP16 (half)
9.626 TFLOPS (2:1)

FP32 (float)
4.813 TFLOPS

FP64 (double)
1,203.2 GFLOPS (1:4)

int4, int8 und bf16, falls unterstützt, wären auch noch ganz nett zu erfahren.

Ausschließlich FP8 anzugeben.... schade.
 
Absolut genial. Statt einer A380 wäre ggf. eine B50 was für IMMICH :bigok:
 
Die B50 kann wenigstens noch FP64, das konnte schon die Arc Pro A40 um 170€.
Eine RTX A400 hat, 0,04 TFLOP FP64 als Konkurent zu einer A40 Pro die mal eben 0,80 TFLOP FP64 hat.

Hinfort mit dem Nvidia Dreck, das sag ich als A400 Besitzer. 😝
 
Ich fände es ja schön, wenn man alle relevanten Leistungsdaten mit angeben würde. So auf die Schnelle finde ich dazu:
FP16 (half)
9.626 TFLOPS (2:1)

FP32 (float)
4.813 TFLOPS

FP64 (double)
1,203.2 GFLOPS (1:4)

int4, int8 und bf16, falls unterstützt, wären auch noch ganz nett zu erfahren.

Ausschließlich FP8 anzugeben.... schade.
Habe noch eine Tabelle mit zusätzlichen Daten eingebaut in den Artikel. Diese ist unter der Vorstellung der Karten zu finden.
 
Bei solchen Karten frage ich mich, ob den Nutzern bekannt ist, dass der Consumer Bereich i. d. R. ein günstigeres Äquivalent bereithält. Nicht ohne Grund wird Nvidia die Namensgebung, bspw. der Nvidia RTX A1000 so wählen, dass sich auf den ersten Blick keine Rückschlüsse zum Consumer Modell ziehen lassen.

Nicht falsch verstehen, ich will solchen Lösungen keinesfalls die Berechtigung absprechen, nur würde ich annehmen, dass nicht immer solch eine teure Lösung vonnöten ist. Bei mir hingegen war's genau andersherum... so wurde dazumal auf Grund eines Preisfehlers eine AMD Radeon Pro W5700 für ~ 35 Euro samt Versand inseriert. Quasi eine leicht eingebremste AMD Radeon RX 5700, welcher das PCB der XT verpasst wurde. Und das zum Einführungspreis von ca. 830 Euro. :d
 
Es kommt darauf an, wie man "günstiger" definiert. Meine erste Graka, mit der ich beim Videoberechnen den Umstieg von CPU auf GPU begann, war eine Pro-Karte von AMD. Ich glaube, die Pro WX 3100 mit Polaris-Architektur. War klein, nicht günstig aber bezahlbar, sparsam und bei gutem Ausgangsmaterial waren die Filme in H.264 denen der CPU nahezu ebenbürtig.

@Don

Bei Igors Lab wird angedeutet, daß es diesmal auch Partnerkarten geben soll? Wäre etwa wegen der Kühlung und der Anschlüsse (hier Mini-DP interessant. Wißt Ihr was darüber?
 
Könnt ihr was zur Leistungsaufnahme im Leerlauf sagen? Wäre schön..
 
@Don

Danke für den Test. :)
Hast du evtl. auch Informationen ob man den großen Bruder B60 als Endkunde irgendwann kaufen kann? Das wäre die ideale 24 GB VRAM GPU im bezahlbaren Rahmen für lokale LLMs und Co.
 
Interessant wären für mich mal Tests des Video-Encoders. Und zwar im Vergleich zu den Consumer-Modellen B570/580. Also die Leistung (Rechengeschwindigkeit) und der Verbrauch. Wäre der verbrauch bei ansonsten gleicher Leistung spürbar geringer, wäre das für mich ein Grund, die B50 zu nehmen. Und die Encoder sind ja auch im professionellen Umfeld von Bedeutung.
Ich habe mal ein Diagramm mit dem Encoding von AV1 in 4K hinzugefügt. Auch ein Diagramm zur Leistungsaufnahme dabei gibt es.
Könnt ihr was zur Leistungsaufnahme im Leerlauf sagen? Wäre schön..
Dazu gibt es bereits ein Diagramm im Artikel.
 
Zuletzt bearbeitet:
Mich würde bei der A1000 interessieren wie lange sie in einem normalen Gehäuse an einem feinen Sommertag ihren Boosttakt halten kann,
die A400 mit dem selben Kühler kann die 1762MHz bei 28°C Raum Temperatur nicht halten und geht auf 1580-1612 MHz runter. also ca 10% von ihren 2,71 TFLOP verliert diese.
 
Dazu gibt es bereits ein Diagramm im Artikel.
Lieben Dank, da war ich wohl blind.

Darf ich fragen, ob die Karte eine Leihgabe ist, oder bei jemanden aus dem Team liegt?
Hintergrund der Frage, ich bin noch neugierig am idle-Verbrauch unter Linux (Debian, genauer Proxmox), kann man wohl nur messen 1x mit und 1x ohne diese Karte (Betrieb über IGPU oder Headless), die Differenz...
Und sobald SR-IOV Unterstützung da ist... eine Überprüfung, ob das denn auch funktioniert.



Ich weiss, sind sehr spezielle Fragen/Wünsche, ich könnte mir aber vorstellen, dass das dem Luxx unsofern zugute kommen würde, weil man im Internet allgemein wenig über sowas findet (am ehesten bei sth) und das vllt. auch den ein oder anderen "Neuleser" anlockenkönnte...
Imho wäre das eine relativ relevante Sache für die Home-Server Guys, für den Gamer ist so eine Karte eh uninteressant.


Sonst zur Not als Lesertest, wobei ich mich selbst dafür nicht als kompetent genug betrachte (naja, könnte ich versuchen, aber... mh)... aber wir haben ja ein paar Leute, die da durchaus glänzen.
 
Mich würde bei der A1000 interessieren wie lange sie in einem normalen Gehäuse an einem feinen Sommertag ihren Boosttakt halten kann,
die A400 mit dem selben Kühler kann die 1762MHz bei 28°C Raum Temperatur nicht halten und geht auf 1580-1612 MHz runter. also ca 10% von ihren 2,71 TFLOP verliert diese.
Wieso keine Antwort darauf @Don ist die A1000 noch mehr Dreck als die A400 ?

Bevor du Ausreden suchst, ich benutze die A400 selbst 🥲

Da ich eine A400 im Lowprofile Single Slot verwende sage ich diese Karten mit dem 40mm radial Lüfter sind Müll und dem Preis nicht angemessen,
selbst AMD oder Intel nutzen einen 50mm radial Lüfter.
 
Wieso keine Antwort darauf @Don ist die A1000 noch mehr Dreck als die A400 ?

Bevor du Ausreden suchst, ich benutze die A400 selbst 🥲
Was ist das denn für ein Tonfall? Heute um 12 Uhr stellst du eine Frage, davor habe ich weitere Tests gemacht. Ich sitze hier nicht und warte darauf, dass du um die Ecke kommst mir eine Aufgabe zu geben.
 
Weniger Nvidia Spnsoring :unsure:
 
Du machst dich lächerlich. Haltlose Beschuldigungen in der Richtung können kompliziert werden, wenn man keinen Nachweis dazu hat.
 
Ist es so, die A1000 schneidet gut ab, dagegen ist selbst eine Arc Pro A40 alleine mit 192GB/s besser als eine A1000.

Meine A400 erreicht bei GPU Compute bzw. Cuda trotz nur 1/2 der Shader der A1000 die Leistung und läuft nebenbei voll in das hardcoded 50W TGP Limit.
 
RTX A1000 unter längerer Last (100 % GPU / 40 % Speichercontroller über 20 Minuten):

Takt: Wird nicht signifikant reduziert, geht aber von 1.425 auf 1.365 MHz zurück im Schnitt.
GPU-Temp: 77,4 °C
Hot-Spot: 87,3 °C
Speicher: 86,0 °C
Lüfter: 4.050 RPM
TBP: 49,8 W
 
Als Vergleichswert:
RTX A400 1762MHz, bei 28°C Raum Temperatur geht es auf 1580-1612 MHz runter.

GPU Temp: 91,4°C
Hotspot: 102 °C
Speicher: 88°C ohne OC (92°C mit OC)
Lüfter 6400 - 6800 RPM
TGP 49,7W
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh