Seite 51 von 51 ErsteErste ... 41 47 48 49 50 51
Ergebnis 1.251 bis 1.273 von 1273
  1. #1251
    Bootsmann
    Registriert seit
    30.03.2005
    Beiträge
    556


    Standard

    Die Karte befindet sich in der gleichen Iommu-Gruppe wie ein anderes Gerät. Man kann nur beide gleichzeitig oder keine von beiden durchreichen.
    ggf lässt sich das mit einer boot-Option von Proxmox beheben: pcie_acs_override=downstream
    hilft aber leider nicht, wenn die CPU es nicht zulässt. schau mal im HomeServer-Vorstellungsthread zwei/drei Seiten zurück.
    Spoiler: Anzeigen

  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #1252
    Obergefreiter
    Registriert seit
    22.02.2015
    Ort
    München
    Beiträge
    116


    • Systeminfo
      • Motherboard:
      • MSI Z87-GD65
      • CPU:
      • [email protected]
      • Kühlung:
      • Custom WaKü
      • Gehäuse:
      • Aerocool XPredator Evil Black
      • RAM:
      • 2x8GB Vengeance LP 2000MHz
      • Grafik:
      • GTX 770 Inno 3D [email protected]ü
      • Storage:
      • Samsung 840 Evo 250GB
      • Sound:
      • G930
      • Netzteil:
      • BeQuiet E9 580Watt
      • Betriebssystem:
      • Arch Linux

    Standard

    Danke für die Antworten. Habs jetzt mit nem LXC Container gemacht. Da hats funktioniert... Nachdem ich nen neuen "privileged" Container erstellt hab zumindest
    Mit pcie_acs_override=downstream hat die Karte zumindest eine eigene Iommu Gruppe bekommen. Allerdings kam dann die Fehlermeldung "Device is ineligible for IOMMU domain attach due to platform RMRR requirement".
    Und da haben alle Methoden die ich in den weiten des Netzes gefunden hab nicht geholfen.


    Hab jetzt ein anderes Problem... ein seltsames.

    Wenn ich von dem Vm Host Versuche einen NFS Share auf der Storage VM zu mounten funktioniert das problemlos. Nicht so wenn ich das aus dem LXC Container versuche.

    Storage VM
    Code:
    /etc/exports
    
    /daten/tv 10.10.0.0/24(rw,no_subtree_check)
    Host
    Code:
    mount 10.10.0.8:/daten/tv /mnt -vvv
    
    mount.nfs: timeout set for Tue May 28 20:35:47 2019
    mount.nfs: trying text-based options 'vers=4.2,addr=10.10.0.8,clientaddr=10.10.0.7'
    LXC Container
    Code:
    mount 10.10.0.8:/daten/tv /mnt -vvv                                                             :(
    
    mount.nfs: timeout set for Tue May 28 20:39:10 2019
    mount.nfs: trying text-based options 'vers=4.2,addr=10.10.0.8,clientaddr=10.10.0.200'
    mount.nfs: mount(2): Permission denied
    mount.nfs: access denied by server while mounting 10.10.0.8:/daten/tv

    Weiß jemand wo das Problem liegt?
    Geändert von pfistphi (28.05.19 um 20:50 Uhr)

  4. #1253

  5. #1254
    Matrose
    Registriert seit
    28.05.2019
    Beiträge
    26


    Standard

    Hallo,
    ich habe mal eine generelle Frage zu Proxmox.
    Auf diversen Seiten und auch im Proxmox Forum habe ich oft gelesen, dass es Quatsch ist das Proxmox OS auf eine SSD oder gar RAID-1 zu stecken.
    Hier im Server Vorstellungsthread lese ich aber ziemlich oft dass das Proxmox OS auf einem SSD RAID-1 installiert wird.

    Warum ist das sinnvoll, bzw. eben nicht sinnvoll/notwendig?

    (Oder verwechsle ich das gerade mit FreeNAS...)

  6. #1255
    Oberstabsgefreiter
    Registriert seit
    21.12.2015
    Beiträge
    480


    Standard

    Ich hätte derartiges im Proxmox Forum bisher noch nicht gelesen?

    Sinnvoll ist es durchaus wenn du deinen Host gegen den Ausfall der Bootplatte absichern willst/musst.

  7. #1256
    Bootsmann Avatar von martingo
    Registriert seit
    17.01.2017
    Beiträge
    744


    Standard

    Ich denke, das verwechselst Du. Die Installationsplatte wird standardmäßig ja auch für die VMs und Container usw. hergenommen. Insofern machen sowohl Ausfallsicherheit als auch vernünftige Performance Sinn.

  8. #1257
    Obergefreiter
    Registriert seit
    22.02.2015
    Ort
    München
    Beiträge
    116


    • Systeminfo
      • Motherboard:
      • MSI Z87-GD65
      • CPU:
      • [email protected]
      • Kühlung:
      • Custom WaKü
      • Gehäuse:
      • Aerocool XPredator Evil Black
      • RAM:
      • 2x8GB Vengeance LP 2000MHz
      • Grafik:
      • GTX 770 Inno 3D [email protected]ü
      • Storage:
      • Samsung 840 Evo 250GB
      • Sound:
      • G930
      • Netzteil:
      • BeQuiet E9 580Watt
      • Betriebssystem:
      • Arch Linux

    Standard


    Das funktioniert leider nicht mehr unter PVE 5 aufwärts. Hab den NFS Share jetzt über die Proxmox WEBUI eingebunden und dann einen Mountpoint auf dem Share erstellt auf welchen ich dann die vorhandenen Daten per scp kopiert habe. ...Unsauber aber funktioniert.

  9. #1258
    Hauptgefreiter
    Registriert seit
    14.08.2012
    Beiträge
    211


    • Systeminfo
      • Betriebssystem:
      • Win 10 Pro
      • Handy:
      • Samsung Galaxy S3

    Standard

    Guten Morgen zusammen,

    ich versuche seit, mit Unterbrechung, seit ein paar Tage ein nfs mount aus einem LXC Container heraus.
    Dabei habe ich mich meinen alten Notizen bedient, wo es mal funktioniert haben muss. Mit hilfe eines Kumpels habe ich mich an seinen Notizen versucht.
    Beides ist bisher kläglich gescheitert.

    Bis jetzt konnte ich mich von der mount Fehlermeldung "operation not permitted" zu "access denied" und einem entsprechenden Log Eintrag im PVE durchkämpfen.
    Die Meldung sieht so aus
    Code:
    apparmor="DENIED" operation="mount" info="failed flags match" error=-13 profile="lxc-117_</var/lib/lxc>" name="/mnt/backup/" pid=19181 comm="mount.nfs" fstype="nfs" srcname="192.168.2.2:/volume1/burp" flags="rw, nosuid, nodev, noexec"
    Folgendes habe ich noch im Netz gefunden
    https://www.svennd.be/mount-nfs-lxc-proxmox/
    Was mich hoffend stimmte als ich zumindest Fehlermeldungen im PVE log erzeugen konnte. Somit musste der mount Befehl zumindest aus dem Container heraus kommen.

    Jedoch verweist meine Fehlermeldung nicht auf die passende Config File im Apparmor.
    Etliche Tutorials,Forenbeiträge drehen sich immer wieder um die gleichen File mit den gleichen Einträgen, wie z.b. den oben verlinkten.
    Bei mir hat das bisher nichts gebracht.

    Was mache ich falsch?
    Bin gerade noch über diesen Beitrag gestolpert
    https://forum.proxmox.com/threads/mo...-update.47815/
    Das beschreibt mein Problem wohl ziemlich treffend und muss es gleich testen.
    Ist das der richtige Weg oder ein möglicher? So wie ich das verstehe würde ich dann nur in den Container in den ich ein nfs mount benötige, diesen auch freigaben.

    Folgendes habe ich gemacht:
    In die lxc-default-cgns habe ich eingetragen:
    Code:
      mount fstype=rpc_pipefs,
      mount fstype=nfs,
      mount fstype=nfs4,
    In die Container Config:
    Code:
    lxc.apparmor.profile: lxc-container-default-cgns
    Im Container habe ich der fstab folgenden Eintrag gegeben:
    Code:
    192.168.2.2:/volume1/burp /mnt/backup nfs rw,user,noauto 0 0
    Beim Ausführen von mount -a kommt keine Fehlermeldung aber das Verzeichnis ist nicht gemounted.
    Folgendes erhalte ich mit
    Code:
    [email protected]:/mnt# mount -v /mnt/backup/
    mount.nfs: timeout set for Sun Jun  2 10:10:41 2019
    mount.nfs: trying text-based options 'vers=4.2,addr=192.168.2.2,clientaddr=192.168.2.95'
    mount.nfs: mount(2): Protocol not supported
    mount.nfs: trying text-based options 'vers=4.1,addr=192.168.2.2,clientaddr=192.168.2.95'
    mount.nfs: mount(2): Protocol not supported
    mount.nfs: trying text-based options 'vers=4.0,addr=192.168.2.2,clientaddr=192.168.2.95'
    mount.nfs: mount(2): Operation not permitted
    mount.nfs: trying text-based options 'addr=192.168.2.2'
    mount.nfs: prog 100003, trying vers=3, prot=6
    mount.nfs: trying 192.168.2.2 prog 100003 vers 3 prot TCP port 2049
    mount.nfs: prog 100005, trying vers=3, prot=17
    mount.nfs: trying 192.168.2.2 prog 100005 vers 3 prot UDP port 892
    mount.nfs: mount(2): Operation not permitted
    mount.nfs: Operation not permitted
    Im PVE message Log kommt nur folgende Fehlermeldung
    Code:
    apparmor="DENIED" operation="mount" info="failed flags match" error=-13 profile="lxc-container-default-cgns" name="/" pid=3452 comm="(resolved)" flags="rw, rslave"
    Zusatzinfos:
    Code:
    [email protected]:/etc/apparmor.d/lxc# pveversion -v
    proxmox-ve: 5.4-1 (running kernel: 4.15.18-15-pve)
    pve-manager: 5.4-6 (running version: 5.4-6/aa7856c5)
    pve-kernel-4.15: 5.4-3
    pve-kernel-4.15.18-15-pve: 4.15.18-40
    pve-kernel-4.15.18-14-pve: 4.15.18-39
    pve-kernel-4.15.18-13-pve: 4.15.18-37
    pve-kernel-4.15.18-12-pve: 4.15.18-36
    pve-kernel-4.15.18-11-pve: 4.15.18-34
    pve-kernel-4.15.18-10-pve: 4.15.18-32
    pve-kernel-4.15.18-9-pve: 4.15.18-30
    corosync: 2.4.4-pve1
    criu: 2.11.1-1~bpo90
    glusterfs-client: 3.8.8-1
    ksm-control-daemon: 1.2-2
    libjs-extjs: 6.0.1-2
    libpve-access-control: 5.1-10
    libpve-apiclient-perl: 2.0-5
    libpve-common-perl: 5.0-52
    libpve-guest-common-perl: 2.0-20
    libpve-http-server-perl: 2.0-13
    libpve-storage-perl: 5.0-43
    libqb0: 1.0.3-1~bpo9
    lvm2: 2.02.168-pve6
    lxc-pve: 3.1.0-3
    lxcfs: 3.0.3-pve1
    novnc-pve: 1.0.0-3
    proxmox-widget-toolkit: 1.0-28
    pve-cluster: 5.0-37
    pve-container: 2.0-39
    pve-docs: 5.4-2
    pve-edk2-firmware: 1.20190312-1
    pve-firewall: 3.0-22
    pve-firmware: 2.0-6
    pve-ha-manager: 2.0-9
    pve-i18n: 1.1-4
    pve-libspice-server1: 0.14.1-2
    pve-qemu-kvm: 3.0.1-2
    pve-xtermjs: 3.12.0-1
    qemu-server: 5.0-52
    smartmontools: 6.5+svn4324-1
    spiceterm: 3.0-5
    vncterm: 1.5-3
    zfsutils-linux: 0.7.13-pve1~bpo2
    NFS Ziel ist eine virtuelles XPenology, ich gehe im Moment davon aus, dass die nfs Freigabe funktioniert, da ich bereits einen NFS Share in einer VM habe.
    Die Einstellungen für die NFS Freigabe habe ich 1 zu 1 übernommen.
    Geändert von bacon (02.06.19 um 10:12 Uhr)
    Manche Männer bemühen sich lebenslang, das Wesen einer Frau zu verstehen.
    Andere befassen sich mit weniger schwierigen Dingen z. B. der Relativitätstheorie.
    Albert Einstein


  10. #1259
    Hauptgefreiter
    Registriert seit
    29.03.2017
    Beiträge
    133


    Standard

    Also bei mir geht das ohne Probleme, automount über fstab geht aber nicht, nur über systemd o.ä.

    In der Proxmox GUI: Container > Options > Features : nfs

    So läuft das bei mir ohne große veränkungen.

  11. #1260
    Hauptgefreiter
    Registriert seit
    14.08.2012
    Beiträge
    211


    • Systeminfo
      • Betriebssystem:
      • Win 10 Pro
      • Handy:
      • Samsung Galaxy S3

    Standard

    Da führt mich im Moment mal dazu, dass ich jetzt nicht mehr als root in den Container rein komme.
    Per ssh und entsprechendem Benutzer komme ich aktuell drauf, ein su bzw. sudo -i endet dann irgendwas mit sudo und owner id

    Ist schon komisch, dass es bei zig Leuten funktioniert nur bei mir ist es wieder was anderes.
    Manche Männer bemühen sich lebenslang, das Wesen einer Frau zu verstehen.
    Andere befassen sich mit weniger schwierigen Dingen z. B. der Relativitätstheorie.
    Albert Einstein


  12. #1261
    Hauptgefreiter
    Registriert seit
    29.03.2017
    Beiträge
    133


    Standard

    Okay,...sehr komisch. vll hilft es manchmal auch einfach den Container komplett neu aufzusetzen. Und irgendwas im Container ist verkonfiguriert.

  13. #1262
    Kapitänleutnant
    Registriert seit
    17.03.2007
    Beiträge
    1.895


    Standard

    Liegt es vielleicht daran, dass der CT unpreviligiert ist?
    Spoiler: Anzeigen

  14. #1263
    Hauptgefreiter
    Registriert seit
    14.08.2012
    Beiträge
    211


    • Systeminfo
      • Betriebssystem:
      • Win 10 Pro
      • Handy:
      • Samsung Galaxy S3

    Standard

    Das war, bis zu dem Zeitpunkt als mir die Option der Aktivierung des nfs Features mitgeteilt wurde.
    Seit dem komme ich auch nicht mehr per root, in einer ssh session per sudo/su, rein.
    Ein Consolen-Login scheitert, da ich ziemlich am Anfang das root Passwort ersetzt habe.
    Manche Männer bemühen sich lebenslang, das Wesen einer Frau zu verstehen.
    Andere befassen sich mit weniger schwierigen Dingen z. B. der Relativitätstheorie.
    Albert Einstein


  15. #1264
    Bootsmann Avatar von martingo
    Registriert seit
    17.01.2017
    Beiträge
    744


    Standard

    Vom Host aus kommst Du mit "pct enter 123" in den Container 123 (ohne Passwortabfrage).

  16. #1265
    b99
    b99 ist offline
    Stabsgefreiter Avatar von b99
    Registriert seit
    11.04.2012
    Beiträge
    313


    • Systeminfo
      • Motherboard:
      • ASUS Z170-K
      • CPU:
      • i7-6700K
      • Kühlung:
      • Corsair H100
      • Gehäuse:
      • Thermaltake Core X9
      • RAM:
      • 32 GB 2400 MHz
      • Grafik:
      • EVGA GTX 970 FTW
      • Storage:
      • Samsung evo840 1TB + 3x4TB + 1x8TB
      • Monitor:
      • Dell U2713HM
      • Betriebssystem:
      • Win7 + Win10
      • Notebook:
      • Lenovo Thinkpad SL500

    Standard

    Sagt mal, kann man in einem LXC auch Hardware direkt weiterleiten? Also ein USB-Dongel für RTL-SDR wäre mir da wichtig

  17. #1266
    Hauptgefreiter Avatar von hoppel118
    Registriert seit
    07.04.2012
    Beiträge
    223


    Standard Proxmox Stammtisch

    Zitat Zitat von b99 Beitrag anzeigen
    Sagt mal, kann man in einem LXC auch Hardware direkt weiterleiten? Also ein USB-Dongel für RTL-SDR wäre mir da wichtig
    Brauchst du nicht. Bei LXC siehst du die Hardware des Hosts. Kann sein, dass du dem Container privilegierte Rechte geben musst.

    Schau dir das Mal an:

    [Howto] Proxmox 4.4 und LXC - TV-Karte (hier Digital Devices Cine S2 v6.5) im Container verfügbar machen - Server - VDR Portal

    Das müsste so auch mit USB funktionieren.

    Gruß Hoppel

  18. #1267
    LTdW 30k Master Avatar von P0stbote
    Registriert seit
    13.05.2010
    Ort
    Bremen
    Beiträge
    1.282


    • Systeminfo
      • Motherboard:
      • ASUS Prime X370-Pro
      • CPU:
      • AMD Ryzen 7 1700X
      • Kühlung:
      • Noctua NH-U12S
      • Gehäuse:
      • Nanoxia Deep Silence 3
      • RAM:
      • G.Skill RipJaws V 32GB 3200Mhz
      • Grafik:
      • KFA² GeForce GTX 1080 EXOC
      • Storage:
      • Samsung SSD 960 EVO 500GB, Samsung EcoGreen F4 2TB
      • Monitor:
      • Dell U2515H, LG W2242T-PF
      • Netzwerk:
      • Mikrotik CSS326-24G-2S+RM
      • Sound:
      • Asus Xonar D2X + Beyerdynamic DT-990 Pro
      • Netzteil:
      • be quiet! Straight Power 600W
      • Betriebssystem:
      • Windows 10 Pro x64
      • Notebook:
      • Thinkpad T480 (i7-8550U, 16GB RAM, 1TB SSD, FHD IPS)
      • Photoequipment:
      • Panasonic DMC-FS16
      • Handy:
      • Sony Xperia Z3

    Standard

    Zitat Zitat von b99 Beitrag anzeigen
    Sagt mal, kann man in einem LXC auch Hardware direkt weiterleiten? Also ein USB-Dongel für RTL-SDR wäre mir da wichtig

    Ja, das geht. Ich reiche meine Technisat Skystar 2 HD USB an einen Container durch. Funktioniert im Grunde genommen wie für PCI Geräte, was ja bereits im Link von hoppel118 beschrieben wurde.
    Folgendes habe ich der Konfiguration des Containers hinzugefügt:

    Code:
    lxc.cgroup.devices.allow: c 212:* rwm
    lxc.mount.entry: /dev/bus/usb/001/007 dev/bus/usb/001/007 none bind,optional,create=file
    lxc.mount.entry: /dev/dvb dev/dvb none bind,optional,create=dir
    Ausgabe lsusb auf dem Hostgerät

    Code:
    [email protected]:~# lsusb
    Bus 002 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
    Bus 001 Device 004: ID 0557:2419 ATEN International Co., Ltd
    Bus 001 Device 003: ID 0557:7000 ATEN International Co., Ltd Hub
    Bus 001 Device 007: ID 14f7:0500 TechniSat Digital GmbH DVB-PC TV Star HD
    Bus 001 Device 008: ID 051d:0003 American Power Conversion UPS
    Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
    Server 1: Intel Xeon E3-1230 v6, 16 GB DDR4 ECC , Supermicro X11SSM-F, 2x Samsung SSD 860 Pro 512GB + 6x10TB WD RED @ Dell H310 (IT-Mode), Fujitsu D2755-A11 10 GBit, Seasonic SS-400L2U 400W, Fantec SRC-2080X07 (19", 2HE)
    Server 2: Dell R610, 2x Intel Xeon E5530, 48 GB RAM, 5x 146GB SAS, 1x 512GB SSD @ Dell H310 (IT-Mode), Mellanox ConnectX-2, Proxmox 5.0
    Server 3: Fujitsu RX300 S7, 2x Intel Xeon E5-2640, 128 GB RAM, 2x 300GB SAS @ Fujitsu D2607 (IT-Mode), Fujitsu D2755-A11 10 GBit, Proxmox 5.0

    www.biocrafting.net

  19. #1268
    b99
    b99 ist offline
    Stabsgefreiter Avatar von b99
    Registriert seit
    11.04.2012
    Beiträge
    313


    • Systeminfo
      • Motherboard:
      • ASUS Z170-K
      • CPU:
      • i7-6700K
      • Kühlung:
      • Corsair H100
      • Gehäuse:
      • Thermaltake Core X9
      • RAM:
      • 32 GB 2400 MHz
      • Grafik:
      • EVGA GTX 970 FTW
      • Storage:
      • Samsung evo840 1TB + 3x4TB + 1x8TB
      • Monitor:
      • Dell U2713HM
      • Betriebssystem:
      • Win7 + Win10
      • Notebook:
      • Lenovo Thinkpad SL500

    Standard

    oh danke.. so ein LXC spart mir doch einige Ressourcen ein. kann ja nur besser werden

  20. #1269
    Gefreiter
    Registriert seit
    18.09.2008
    Beiträge
    45


    Standard

    moin,

    ich habe einen hp gen 8 mit einem hp 410 raid-kontroller und möchte proxxmox installieren.
    meine idee ist auf einer ssd / hdd proxxmox und die VM's zu installieren und später dann die RAID-Laufwerke einsetzen und als RAID 5 laufen zu lassen.
    kann ich das RAID später einbinden oder muss alles bei der Installation da sein ?

  21. #1270
    Oberstabsgefreiter
    Registriert seit
    21.12.2015
    Beiträge
    480


    Standard

    geht später ohne Probleme.

  22. #1271
    Gefreiter
    Registriert seit
    18.09.2008
    Beiträge
    45


    Standard

    Welche ssd sind aus Erfahrung gut ? Würde sandisk Ultra 2 als raid 1 für die vm‘s machen und proxmox auch auf eine eigene ssd . Brauche ich die ISOs der vm nur zum installieren oder immer wenn ich die vm’s starte ? Wo sollte ich diese lagern ?


    Gesendet von iPhone mit Tapatalk

  23. #1272
    Oberstabsgefreiter
    Registriert seit
    21.12.2015
    Beiträge
    480


    Standard

    Die ISOs brauchst du nur zum installieren, du kannst diese einfach am Webinterface hochladen => am einfachsten direkt am Host.

    SSD => private Nutzung oder Firma? Platzbedarf?

  24. #1273
    Gefreiter
    Registriert seit
    18.09.2008
    Beiträge
    45


    Standard

    Die Nutzung ist privat aber es soll ein localhost für meine Webseiten haben bevor sie hochgeladen werden . Owncloud für meine privaten Daten und efhm für mein smarthome meine ccu2 (homematic) ist sehr lahm. Und eben was man alles braucht VPN,Firewall


    Gesendet von iPhone mit Tapatalk

Seite 51 von 51 ErsteErste ... 41 47 48 49 50 51

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •