B550 - Dual GPU-Passthrough inkl. iGPU - Bitte um Bewertung

eehm

Enthusiast
Thread Starter
Mitglied seit
13.09.2011
Beiträge
680
Hallo,

mein Ziel ist es meinen alten DDR4 ECC Speicher in einem neuen Server/"Workstation" wegen der DDR5 Preise nochmals sinnvoll einzusetzen.
Anmerkung: Einen M2.PCIe-Slot brauche ich für einen M2 nach SAS Adapter um meine Intel U2-SSD einzubinden.

Mindestanforderung für das Proxmox-System sind:
  • VM1: Win 11
    GPU-Passthrough: RTX4060
    • Anschluss. 3x Monitor
  • VM2: Linux
    GPU-Passthrough: Quadro P600 oder iGPU
    • Anschluss. 2x besser 3x Monitor
  • VM3: TrueNAS VM
    HBA Passthrough oder SATA-Onboard-Controller Passthrough
    • Anschluss 4 xl SATA HDD
Ich habe eigentlich mit einem X570 Board geplant und einer Ryzen 9 5900 oder 5950 CPU. Leider sind x570 Boards neu eigentlich nicht mehr zu bekommen. Jedenfalls nicht in einem nutzbaren Zustand (schlechte Erfahrung beim aktuellen Kauf).
Mein Kauf eines x570 Boards war ein Reinfall. Mal sehen, ob ich das Geld wieder sehe ... ;)

Jetzt habe ich überlegt es ggf. mit B550 über die Ecke zu biegen. Als CPU eine AMD Ryzen 7 PRO 5755G, 8C/16T also mit iGPU.
Alle B550 Boards können eigentlich den ersten PCIe Slot durchreichen, weil in einer eigenen IOMMU Gruppe.
Somit wäre für VM1 ein GPU und für VM2 ein iGPU Passthrough möglich.

Jetzt habe ich allerdings keinen PCIe Slot mehr für Passthrough übrig.
Gibt es noch eine Möglichkeit um 4 SATA Festplatten per Passthrough in die TrueNAS VM zu bekommen?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auf meinem produktiven Unraid Server und auch auf dem Backup sind die Onboard Chipset SATA Controller jeweils in einer eigenen IOMMU Gruppe ... einmal auf einem ASRock B650M PG Lightning und das zweite ist ein ASRock A320M Pro4-F, ich könnte sie also an eine VM durchreichen.
Ob das auch bei deinen Boards und Proxmox so problemlos geht, weiß ich nicht, sollte aber ohne Weiteres machbar sein.
 
Jetzt habe ich allerdings keinen PCIe Slot mehr für Passthrough übrig.
Gibt es noch eine Möglichkeit um 4 SATA Festplatten per Passthrough in die TrueNAS VM zu bekommen?
Du hast doch die Onboard-SATA-Anschlüsse.
Die sollten ja auch durchreichbar sein. Die Frage ist da eher ob die alle in einer IOMMU Gruppe sind, oder ob die in zwei separaten oder sogar mehr Gruppen sind.
Und davon abhängig ist dann die Frage, wieviele SATA-Anschlüsse das Board hat und ob du ggf. einen SATA-Anschluss für das Host-OS brauchst usw. Aber das hängt wohl auch vom Board ab... ich würde nicht davon ausgehen das das auf allen B550-Boards zwangsläufig gleich ist.
Pauschal würde ich mal vermuten, das wenn Shared-SATA-Anschlüsse vorhanden sind, also z.B. SATA5 und 6 nur geht, wenn der zweite (oder dritte) M.2-Anschluss nicht verwendet wird, diese beiden auch in einer eigenen IOMMU-Gruppe sind.
Abgesehen davon kann man wohl so oder so das Host-OS auf eine NVMe-SSD installieren und dann die SATA-Anschlüsse ohnehin komplett an eine VM durchreichen.
 
VM2 ein iGPU Passthrough möglich.
Das geht nicht wirklich wegen dem "Reset-Bug" ... gibts wohl irgendwelche "patches" dafür, aber ob das klappt? Weiss nicht. Mir war das zu kompliziert das zu probieren, so gut bin ich leider nicht.

Hab aber noch nen 5650G am MC12 stecken am Test-Rechner, wenns ne nachvollziehbare Anleitung gibt, probier ichs.
Beitrag automatisch zusammengeführt:

Hier mein B550 Riptide:
Da sieht das so aus, wenn ich auf PCIe Passthrough gehe (kann nix real testen weil das Ding produktiv läuft).
1768012599396.png
Der 4x SATA ist imho ne PCIe Karte im Chipsatzslot, der obere "500 Series" muss der vom Board sein ...
ASM1062 Hmm ist das nicht ein x2? Haben die dort nen "Port-Doppler" drin?

4x SATA haben die B550 alle, wsl. alle so.
2x kommt vom Chipsatz, wahlweise mit dem 2. PCIe 3.0x4 M.2 Slot.



Imho brauchst du ein X570.
Beitrag automatisch zusammengeführt:

B550 kann das elektrisch schon, bei x4x4x4x4 oder x8x4x4 Bifurication hast du extra IMMOU Gruppen.
Aber mechanisch gibts halt keine Boards.

Sowas ist aber auch Gefrickel aus der Hölle. Und billig ist der Kram sicher nicht. Dann lieber ein X570 Board suchen?
 
Zuletzt bearbeitet:
Die sollten ja auch durchreichbar sein. Die Frage ist da eher ob die alle in einer IOMMU Gruppe sind, oder ob die in zwei separaten oder sogar mehr Gruppen sind.
Genau, das ist die Schlusselfrage. :)

ASRock B650M PG Lightning und das zweite ist ein ASRock A320M Pro4-F, ich könnte sie also an eine VM durchreichen.
Danke für den Hinweis, dann müssen die SATA bei diesen Boards in jedem Fall in einer IOMMU Gruppe sein. Sonst könnte das nicht funktionieren.

Das geht nicht wirklich wegen dem "Reset-Bug" ... gibts wohl irgendwelche "patches" dafür, aber ob das klappt? Weiss nicht. Mir war das zu kompliziert das zu probieren, so gut bin ich leider nicht.
Also ich habe auch ein MC12 und der Resetbug ist doch nur relevant, wenn die VM abschmiert oder?
Falls man den Server dann neu Starten "Kann" ist es auch kein Problem aus meiner Sicht. Mein Backup Server ist ja nur Abends für ein paar Stunden produktiv für die ZFS Replication. Das wars.
Aber eine wirkliche Lösung für den Reset Bug kenne ich nicht.
Was du machen kannst, falls du mit LXC auskommst, ist die iGPU so einbinden. Das funktioniert. Habe ich am MC12 so am laufen. Ist natürlich kein Passthrough.

Sowas ist aber auch Gefrickel aus der Hölle. Und billig ist der Kram sicher nicht. Dann lieber ein X570 Board suchen?
Ja ich würde gerne ein X470/570 kaufen, wenn du mir hier eine Quelle für ein neues Board (preislich fair) nennen könntest, dann wäre ich dir sehr dankbar.
 
Also ich habe auch ein MC12 und der Resetbug ist doch nur relevant, wenn die VM abschmiert oder?
Weiss nicht, hast einen -G dort und läufts?
Bei mir ist das nie zuverlässig gelaufen... und dass ne VM abschmiert, wenn man mit dem GPU Zeug rumdoktort ist relativ normal. :rolleyes:
Imho ist das Problem genau so da, wenn du die VM einfach wieder herunterfährst oder sonst was...
Auf jeden Fall haben bei mir alle iGPU Passthrough Versuche im Hard-Reset geendet - vielleicht liegts ja auch an mir. Jedoch hat meine Fehlersuche ergeben, dass da wenig zu machen ist.

Wenn du es soweit bekommst, dass ne VM nicht abschmiert... gut.
Das Problem ist aber, der Host braucht auch ne GPU idR.... Proxmox/TrueNAS lassen dich keine GPU durchreichen, die vom Host verwendet wird.

Klar, du kannst irgend ne GPU in nen PCIe Slot stecken der nicht druchreichbar ist für den Host oder ein Mainboard mit AST2500 verwenden (das hat aber wieder nicht genug Display Ausgänge idR. und ist anders problematisch...).


Die KI ist für solche Fragen überraschend brauchbar, zumindest am ersten Blick, was wirklich dahinter ist, weiss man wohl erst, wenn mans probiert:
1768068476254.png

Ich hab gerade nicht so die Kapazität das zu testen... hast du noch MC12 + -G CPU stehen?

Ja ich würde gerne ein X470/570 kaufen, wenn du mir hier eine Quelle für ein neues Board (preislich fair) nennen könntest, dann wäre ich dir sehr dankbar.
Schon mitm Luxx Marktplatz probiert?

Wenn ich auf Willhaben (österr. Gebrauchtmarkt) schau, sehe ich auch ein paar wenige, die realistsich brauchbar wirken...

Musst aber aufpassen mit ECC, Asus und Asrock sollten das eigentlich alle können, Gigabyte und MSI bin ich mir nicht so sicher, speziell bei MSI nicht...

Man müsste mal schauen, welche relevanten Unterschiede zwischen X370, X470 und X570 bestehen... was es davon am Ende sein muss... imho ist das mit ECC aber erst mit der Zeit dazu gekommen bei den meisten, zumindest bei manchen... ich würde da in erster Linie mal auf Geizhals schauen (die Infos sind relativ gut idR.) und dann im genaueren Bedarfsfall zur Kontrolle im User Manual nachlesen, ob was dazu steht...
 
Wenn du es soweit bekommst, dass ne VM nicht abschmiert... gut.
Das Problem ist aber, der Host braucht auch ne GPU idR.... Proxmox/TrueNAS lassen dich keine GPU durchreichen, die vom Host verwendet wird.

Klar, du kannst irgend ne GPU in nen PCIe Slot stecken der nicht druchreichbar ist für den Host oder ein Mainboard mit AST2500 verwenden (das hat aber wieder nicht genug Display Ausgänge idR. und ist anders problematisch...).
Danke dir, das war mir nicht klar.
Das macht die Sache natürlich wieder aus Sicht des Stromverbrauchs uninteressant!

Schon mitm Luxx Marktplatz probiert?

Wenn ich auf Willhaben (österr. Gebrauchtmarkt) schau, sehe ich auch ein paar wenige, die realistsich brauchbar wirken...

Musst aber aufpassen mit ECC, Asus und Asrock sollten das eigentlich alle können, Gigabyte und MSI bin ich mir nicht so sicher, speziell bei MSI nicht...
Ja, aber da war aktuell nix drin!
Mit Kleinanzeigen (ist wahrscheinlich wie Willhaben) habe ich leider schon schlechte Erfahrungen gemacht. Da würde ich nur Abholen und Bar Zahlung wollen, aber finde da mal was .....!
Es ist aktuell wirklich schwierig ......
 
Ich hätte noch ein MC12-LE0 mit nem 5600G da und könnte Dinge testen wenn unbedingt nötig. Richtig Bock hab ich da allerdings gerade nicht drauf…
 
Ich würde VM2 garnicht erst machen sondern das als Host verwenden. Da läuft doch eh schon Linux und dann sind alle deine Probleme gelöst.

Für VM1 empfehle ich eine extra USB-Karte (10-20 Euro) zu kaufen, damit du an dieser Maus und Tastatur betreiben kannst.

Edit: Und für Desktopvirtualisierung würde ich nicht auf Proxmox setzen, sondern KVM/Qemu aus der Paketverwaltung clean installieren. Wenn deine Linux Distri ein Major Update macht, ist das dann ganz einfach. Wenn man dann Proxmox hat, ist das wieder blöd/Aufwand.
 
Zuletzt bearbeitet:
Das macht die Sache natürlich wieder aus Sicht des Stromverbrauchs uninteressant!
Aber wie gesagt, gibt da schon workarounds, hatte nur bisher nicht die Nerven dafür, das zu probieren, ausm Screenshot. Wenn du die passende Hardware vor Ort hast, check mal.
Wird aber schwer ein B550 Board mit 3x Monitor Out zu finden bzw. ob die DP Daisychain können?
Ich hätte noch ein MC12-LE0 mit nem 5600G da und könnte Dinge testen wenn unbedingt nötig. Richtig Bock hab ich da allerdings gerade nicht drauf…
I feel you... aber vielleicht reitet mich ja noch irgendwas. Nach ner Woche Männergrippe ist mir momentan eher nach einfacher Beschäftigung ohne denken.

Am Ende hilft das der Sache ja trotzdem nur bedingt, weil der Host wohl auch ne Grafikeinheit will (wobei... kann man dem dann wohl auch irgendwie wegnehmen, meine ich, geht ja bei manchen Boards auch headless, auch wenn das imho relativ sinnlos is weil man nicht ins Bios kann etc...).

Edit: Und für Desktopvirtualisierung würde ich nicht auf Proxmox setzen, sondern KVM/Qemu aus der Paketverwaltung clean installieren. Wenn deine Linux Distri ein Major Update macht, ist das dann ganz einfach. Wenn man dann Proxmox hat, ist das wieder blöd/Aufwand.
Aus Neugier: Warum?


Darf ich so neugierig sein und fragen, was das für eine Anwendung sein soll?
Ich kann mir keinen Reim draus bilden...
 
Aber wie gesagt, gibt da schon workarounds, hatte nur bisher nicht die Nerven dafür, das zu probieren, ausm Screenshot. Wenn du die passende Hardware vor Ort hast, check mal.
Wird aber schwer ein B550 Board mit 3x Monitor Out zu finden bzw. ob die DP Daisychain können?
Ja du hast Recht, vielelicht bleibe ich am Ende doch bei 2 Kisten im Arbeitszimmer. :)
Dachte nur ich könnte das irgendwie einfach und stromsparend in eine Kiste packen. :d

Am Ende hilft das der Sache ja trotzdem nur bedingt, weil der Host wohl auch ne Grafikeinheit will (wobei... kann man dem dann wohl auch irgendwie wegnehmen, meine ich, geht ja bei manchen Boards auch headless, auch wenn das imho relativ sinnlos is weil man nicht ins Bios kann etc...).
Das Bios nutzt man doch vor dem laden des Bootloaders.
Also da holt sich das OS noch nicht die GPU und somit kommt man doch ohne Probleme ins Bios oder mache ich hier einen Denkfehler?
 
Ach du willst das Ding quasi als Ersatz für 2 Desktops verwenden?

Aber was machst du dann mit Maus/Tasta/Monitor, hast da 2 extra Arbeitsplätze oder führst du das zusammen per KVM?
Ist doch auch Käse auf die Art?

Würd mir das Leben da nicht schwer machen, ein 5650/55G mit einem B550 Board braucht unter Linux keine 20W, wenn das Netzteil kein Mist ist, unter Windows 5W mehr.


Oder halt einer der vielen beliebten Thin-Clients...
Das Bios nutzt man doch vor dem laden des Bootloaders.
Also da holt sich das OS noch nicht die GPU und somit kommt man doch ohne Probleme ins Bios oder mache ich hier einen Denkfehler?
Eh richtig, meinte 100% Headless. So sollte gehn.
 
Ach du willst das Ding quasi als Ersatz für 2 Desktops verwenden?
Genau ;)

Aber was machst du dann mit Maus/Tasta/Monitor, hast da 2 extra Arbeitsplätze oder führst du das zusammen per KVM?
Ist doch auch Käse auf die Art?
Aktuell hängt das schon an einem KVM Switch.

Würd mir das Leben da nicht schwer machen, ein 5650/55G mit einem B550 Board braucht unter Linux keine 20W, wenn das Netzteil kein Mist ist, unter Windows 5W mehr.
Ja, das ist richtig. Ich dachte ich kann es vielleicht doch irgendwie in einer Kiste vereinen. :d
 
Bin mir nicht sicher, ob der Plan so geil ist.

Die Sache an VMs ist ja, dass man gern mal mehrere VMs hat, für dieses und jenes so, und nicht unbedingt alles mit der einen macht. Zumindest ist das bei mir so.
Ne weitere VM müsstest dann vom Arbeitsplatz aus durch ne VM erreichen - geht sicher, aber hmh...

Hatte so ne ähnliche Idee auch schon, dass es ja nett wäre, quasi ein echtes "Dual-Boot" zu haben, also 2 OS parallel laufen lassen und rum tabben.. aber auf die Art und Weise spielt es das ja auch nicht..

Aber schau mal, ob die Intel B50 pro das angeblich versprochene SR-IOV bekommen hat...
Beitrag automatisch zusammengeführt:

Unten wirds interessant, also die neuesten Posts.
 
Hatte so ne ähnliche Idee auch schon, dass es ja nett wäre, quasi ein echtes "Dual-Boot" zu haben, also 2 OS parallel laufen lassen und rum tabben.. aber auf die Art und Weise spielt es das ja auch nicht..

Aber schau mal, ob die Intel B50 pro das angeblich versprochene SR-IOV bekommen hat...
Ja, genau.
Aber das das Geht brauche ich bestenfalls 2 GPUs, egal ob iGPU oder GPU und mindestens 2 bis 3 Videoausgänge je GPU um Bildschirme anzuschließen.
Hier hilft mir SR-IOV so und so nichts oder wieder Denkfehler bei mir?
 
Bin mir nicht sicher, ich glaub rauszulesen, dass man selbst wenns geht die Ports nicht zuweisen kann an verschiedene VMs, weils halt für die Rechenleistung gedacht is und nicht für die Ausgabe... was ich so lese.
Also in dem Fall nicht.

Sonst ist die Idee dass du beim SR-IOV die GPU auf mehrere VMs gleichzeitig verteilen kannst.


Vielleicht wärs sinnvoller die Zeit in die Suche nach einer brauchbaren "RDP Lösung" zu stecken...
 
Vielleicht wärs sinnvoller die Zeit in die Suche nach einer brauchbaren "RDP Lösung" zu stecken...
Das funktioniert auch oft nicht wie man will.

Ich habe jetzt nochmals alle verfügbaren B550 Mainboards durchsucht.
Es bleiben ggf. nur übrig:
Leider finde ich bei den Boards kein Blockdiagramm zum elektrischen Aufbau. :(

Im Handbuch steht beim Pro4:
AMD Ryzen series CPUs (Vermeer and Matisse)
• 2 x PCI Express x16 Slots (PCIE1: Gen4x16 mode; PCIE3:Gen3 x4 mode)

Im Handbuch vom Riptide gar:
AMD Ryzen series CPUs (Vermeer and Matisse)
• 3 x PCI Express x16 Slots (PCIE1: Gen4x16 mode; PCIE3:Gen3 x4 mode; PCIE4: Gen3 x1 mode)

Heißt das dann das bei diesen Boards 2 bzw. sogar 3 PCIe-Slots direkt an der CPU hängen und man die durchreichen könnte per Passthrough?
 
Es bleiben ggf. nur übrig:
Die sind imho fast gleich, das Riptide läuft bei mir mit dem 5750G und TrueNAS seit 2 Jahren super stabil.
Leider finde ich bei den Boards kein Blockdiagramm zum elektrischen Aufbau. :(
Gibts nicht viel.

Chipsatz PCIe Lanes können:
x0-x4-x0 oder x1-x2-x1
Sind alles Chipsatzlanes, ich vermute stark, dass die alle die gleiche IMMOU Gruppe sind (weil ein x4 Bündel aufgeteilt werden kann auf mehrere Slots).. müsste ich genauer testen, dafür müsste ich das NAS mal runterfahren und irgendwas einbauen. Bei dringendem Bedarf kann ichs wohl testen.

Der 2. M.2 ist geshared mit SATA 5+6.

Bifurication im x16 Slot ist je nach CPU x4x4x4x4 möglich oder halt x8x4x4 und natürlich alle anderen Spielarten wie x8x8...
 
Sind alles Chipsatzlanes, ich vermute stark, dass die alle die gleiche IMMOU Gruppe sind (weil ein x4 Bündel aufgeteilt werden kann auf mehrere Slots).. müsste ich genauer testen, dafür müsste ich das NAS mal runterfahren und irgendwas einbauen. Bei dringendem Bedarf kann ichs wohl testen.
Danke dir.
Dann ist das Handbuch hier irreführend. :(
Naja, wenn die alle am Chipsatz hängen, dann werden die wohl auch sicher die selbe IOMMU Gruppe haben.
Das wird dann wohl auch nichts. :(
 
B550 sind alle mehr oder weniger gleich.

AM4 hat ja "nur" freie PCIe Lanes. 16x für den GPU Slot und 4x für den ersten M.2.

Der B550 hat dann noch mal ca. 8 (3.0) Lanes, in der Regel hast du dort eben 4 davon am zweiten M.2 (geshared mit SATA 5+6) und nochmal 4, die auf diverse PCIe Slots aufgeteilt werden.

X570 hat halt bissl mehr Chipsatz-Lanes, die CPU Sache bleibt genau so, der Vorteil ist eigenltich nur dass es hier "Dual GPU Boards" gibt, wo du die CPU Lanes auf 2 Slots verteilen kannst.
Elektrisch würde ein B550 reichen, aber so Boards wurden nie gebaut imho (wie das B850 AI-Top).
 
Für VM1 empfehle ich eine extra USB-Karte (10-20 Euro) zu kaufen, damit du an dieser Maus und Tastatur betreiben kannst.

Edit: Und für Desktopvirtualisierung würde ich nicht auf Proxmox setzen, sondern KVM/Qemu aus der Paketverwaltung clean installieren. Wenn deine Linux Distri ein Major Update macht, ist das dann ganz einfach. Wenn man dann Proxmox hat, ist das wieder blöd/Aufwand.
Das ist ein sehr interessanter Ansatz den du da rein bringst. Ich weiß nur nicht, ob ich dich richtig verstehe ....!

  1. Installation von Linux Mint/Ubuntu
  2. Installation von KVM/Qemu Package unter Mint/Ubuntu
  3. Einrichtung der Windows VM im Virtual Maschine Manager unter Mint/Ubuntu
    - GPU-Passthrough einrichten (erster PCIe Slot)
Für die Mint/Ubuntu VM bin ich jetzt von einer iGPU in der Ryzen CPU ausgegangen.
Aber zwei Fragen bleiben.
Kann ich in KVM/Qemu eine GPU genauso einfach durchreichen wie unter Proxmox?
Wie bekomme ich dann Maus und Tastatur an die VM?
In Proxmox kann man verschiedenen VMs einfach USB-Geräte oder feste USB-Ports zuweisen.
 
Probiers halt.

Imho ist das "unter der Haube" das Gleiche, unter Win hab ich bisher nur VMware Player gehabt, mitm Linux Desktop bin ich noch nicht so weit...
Imho willst du du das Paket "virt-manager" und "virt-viewer" davon dürfte dann die GUI sein.

Ich bin aber echt niemand, den du sowas fragen solltest... :fresse: :rolleyes:


Mach halt mal, wenn du grad ein Wegwerflinux rumfliegen hast irgendwo...
Beitrag automatisch zusammengeführt:

1768166660653.png
Kann aber nur nen Container und keine VM machen, wsl. ist nested virtual. nicht aktiviert... auf jeden Fall sieht das alles realtiv übersichtlich aus.

Versuchs halt.
 
Zuletzt bearbeitet:
1768169584300.png


Ich hatte das NAS jetzt unten und offen weil ich ein anderes Problem habe/hatte.

Hab noch einen JMB585 rein gesteckt der rum lag, den siehst du nun auf 00:03:00.0
Der 4:00.0, der Marvell, müsste der 4-Fach sein.


Sieht mir fast aus, als hätten diese Chipsatz-Lanes doch eigene IMMOU Gruppen, selbst wenn sie gesplittet werden...


Wenn dir für den HBA also PCIe 3.0x1 und für die 2. Grafikkarte PCIe 3.0x2 reichen, könntest du es tatsächlich mit dem Riptide probieren... bin mir nicht 100% sicher, ob ich Unsinn schreibe, aber es sieht mir etwas danach aus.
 
Sieht mir fast aus, als hätten diese Chipsatz-Lanes doch eigene IMMOU Gruppen, selbst wenn sie gesplittet werden...


Wenn dir für den HBA also PCIe 3.0x1 und für die 2. Grafikkarte PCIe 3.0x2 reichen, könntest du es tatsächlich mit dem Riptide probieren... bin mir nicht 100% sicher, ob ich Unsinn schreibe, aber es sieht mir etwas danach aus.
Danke dir.
Darf ich will jetzt nichts falsches sagen, aber was du hier hast sind ja "nur" die Adressen der Geräte.
Daraus kann ich nicht sehen, ob dahinter die selben oder verschiedene IOMMU Gruppen stehen.

Hast du ggf. auf dem Host mal einen ACS Patch gemacht?
 
Nen was?
Deckt sich das nicht in einer gewissen Art und Weise mit den Adressen?
1768171956807.png
Also, dass der erste Block X (XX:yy:zz) dann auch ne eigene Gruppe ist?

Oder meinst du sowas?
1768172353669.png
Kann aber so nicht sein, war nie ein Problem eins dieser Geräte (also spziell die Nummern 6-9) druchzureichen, ob das nun SSD, HBA oder sonst was war...
 
Nen was?
Deckt sich das nicht in einer gewissen Art und Weise mit den Adressen?
Soweit ich weiß und ich bin mir fast sicher. Muss andere Adresse nicht andere IOMMU Gruppe heißen.

Wenn du mir ggf. hier beide Listen von oben vollständig posten könntest, dann würde ich mir das gerne morgen mal in Ruhe ansehen. ;)
 
Was ist für dich "vollständig"?

Sag mir den Befehl (muss halt bei TrueNAS Scale auch verfügbar sein, der Umfang ist nicht ganz so frei wie Proxmox), dann bekommst es, zur Not per PN.

Soweit ich weiß und ich bin mir fast sicher. Muss andere Adresse nicht andere IOMMU Gruppe heißen.
Ja, sehr wahrscheinlich, dass das so ist.
Allerdings hat das bisher eigentlich immer geklappt, das so zu betrachten.

Aber wie gesagt, bin auch nur Hobbytyp.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh