Hey, ich Versuche gerade ein upscaling modell per openvino auf der GPU rechnen zu lassen. Ich benutze Ubuntu Server 25.10, es sind zwei Arc B580 verbaut. Mein Skript läuft zwar, aber leider nutzt er nur GPU.0. Wenn ich die Ausführung auf GPU.1 erzwinge, bricht er mit "CL_INVALID_KERNEL_ARGS" ab. Habt ihr eine Idee oder Vorschläge wie sich Multi-GPU Inferenz besser umsetzen lässt? Notfalls wechsle ich wohl auf zwei unabhängige Instanzen, eine pro GPU, aber ich hätte schon lieber eine Pipeline, die beide GPUs nutzt.