[Sammelthread] ZFS Stammtisch

Und ist das nun gut oder schlecht? Nappit hat es anscheinend automatisch mit GPT so gemacht.

WObei ich im moment bei der ERstellung von Usern verzweifele

Solaris nutzt GPT und Platten beliebiger Gtöße.
Dennoch gab/gibt es das Problem, dass unter BSD (FreeNas &Co) erstellte Pools nur dann in Solaris importiert werden können, wenn Geom benutzt wird. Solaris GPT Partitionen machen meines Wissens nirgendwo Probleme.

Ansonsten muss das unter Solarish (Solaris bzw OMniOS/OI) keinen interessieren. ZFS macht das schon richtig.

Wo ist das Problem mit user?
Menü user >> + add local user

Anschliessend eventuell noch bei SMB shares ACL setzen.

ps
Ich bin übrigens heilfroh, dass ich meine Windows 2003/2008 Server mit Solarish (aktuell OmniOS) ablösen konnte.
Es funzt einfach mit viel weniger Aufwand ohne wöchentliche Security Updates mit reboots.
Ohne etwas Background Wissen geht aber beides nicht
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Solaris nutzt GPT und Platten beliebiger Gtöße.
Dennoch gab/gibt es das Problem, dass unter BSD (FreeNas &Co) erstellte Pools nur dann in Solaris importiert werden können, wenn Geom benutzt wird. Solaris GPT Partitionen machen meines Wissens nirgendwo Probleme.

Ansonsten muss das unter Solarish (Solaris bzw OMniOS/OI) keinen interessieren. ZFS macht das schon richtig.

Wo ist das Problem mit user?
Menü user >> + add local user

Anschliessend eventuell noch bei SMB shares ACL setzen.

ps
Ich bin übrigens heilfroh, dass ich meine Windows 2003/2008 Server mit Solarish (aktuell OmniOS) ablösen konnte.
Es funzt einfach mit viel weniger Aufwand ohne wöchentliche Security Updates mit reboots.
Ohne etwas Background Wissen geht aber beides nicht

Problem ist dass die User unter "Local User with SMB password" nicht auftauchen nach Erstellung. Unter User >> All accounts aber schon.
 
Problem ist dass die User unter "Local User with SMB password" nicht auftauchen nach Erstellung. Unter User >> All accounts aber schon.

napp-it blendet per default nur die Benutzer ein, die neben dem Unix Passwort auch ein SMB Passwort gesetzt haben.
( wird nach Einrichten des CIFS Servers durch napp-it durch ein passwd user oder Anlegen eines Users über napp-it automatisch gesetzt)
 
hilft mir jetzt nicht weiter. Was hab ich falsch gemacht? Was muss ich überhaupt machen als nächstes?

)
Userlogin
:
Create a new user with
menu Users ++ add local user
(Tip: use the same name and pw like on Windows).
Create a SMB share and set ACL
to allow access for this user (napp-it ACL extension -> ACL on folders)
Connect the share from Windows: \\servername or \\ip
If you have used the same name + pw like on Windows, you can login without reentering name + pw
- otherwise enter username and pw

Genau da dran hab ich mich erhalten doch es gibt meine erstellen User gar nicht und was mit "set ACL" gemeint ist versteh ich auch nicht.
 
Zuletzt bearbeitet:
hilft mir jetzt nicht weiter. Was hab ich falsch gemacht? Was muss ich überhaupt machen als nächstes?


Genau da dran hab ich mich erhalten doch es gibt meine erstellen User gar nicht und was mit "set ACL" gemeint ist versteh ich auch nicht.

Eigentlich ist es trivial:

- Menü User >> ++add user (Name und zweimal Passwort eingeben)
- ACL (Zugriffsrechte) muss man nur setzen, wenn man den Zugriff benutzerabhängig einschränken will.
(geht per Windows als root oder per napp-it ZFS Dateisystems >> Folder ACL)

Es gibt eigentlich nur eine Ursache, dass neue Benutzer nur bei all Accounts und nicht normal
im Menü User angezeigt werden: Es ist kein SMB Passwort gesetzt (in Datei /var/smb/smbpasswd).
Dies passiert bei einem passwd user. (Napp-it macht das beim Anlegen eines Users automatisch)

Nur die Benutzer, die in dieser Datei angelegt sind, werden von napp-it gezeigt.
Dadurch werden Systemaccounts unterdrückt.

Sowas passiert nur, wenn der Solaris CIFS Server nicht sauber konfiguriert ist:
Die Konfiguration des CIFS Servers geschieht automatisch bei der Installation von napp-it per wget -
gefolgt von einem Reboot!

Falls der Reboot gefehlt hat, zur Not nochmal die napp-it Grundinstallation mit wget laufen lassen und rebooten.
 
Muss jedes mal lächeln wenn gea meint es wäre alles total einfach/trivial/<noch ein Synonym> :d So selbsterklärend ist es eben doch nicht für alle^^
 
*grins* Das stimmt für mich als Systemadmin ist Linux/Unix usw immer noch ein Buch mit 7 Siegel :)
 
Muss jedes mal lächeln wenn gea meint es wäre alles total einfach/trivial/<noch ein Synonym> :d So selbsterklärend ist es eben doch nicht für alle^^

Auf den entsprechenden Menüpunkt zu klicken ist so trivial wie auf einen Lichtschalter zu drücken um das Licht anzumachen.

Weniger trivial ist zu ergründen, woran es liegen könnte, wenn es nicht geht.
Da gebe ich dann gern etwas Hintergrundwissen dazu. Es ist ja nicht jeder ein Unix/Solaris Experte.
(Wobei das dazu nötige Expertenwissen bei anderen Serversystemen sicher ähnlich ist)
 
Das ist richtig, aber wenn man eine GUI hat kommt man auch ohne vorheriges Wissen oft schnell zum Ziel. Bei einer reinen Konsole ist man in der Regel aufgeschmissen, hier ist tatsächlich Expertenwissen gefragt. Es großer Vorteil von Webinterfaces und Windows Servern. Da kommt man auch ohne Ahnung von irgendwas zu haben meistens zum Ziel.
 
Hey Leute,

ich bin ganz neu im Bereich ZFS, will mich da aber etwas genauer einarbeiten. Habe dabei ein paar Fragen, die vielleicht sogar absolutes Nogo sin. Wenn es wirklich so ist, bitte nicht gleich steinigen :-)
Also, aktuell betreibe ich einen Windows Server 2012 mit Hyper-V als Home-Server, (Intel Xeon 1230V2, mit 32 GB Ram, 1SSD für VM's, 2*3TB Festplatte).
Ich habe eine VM, die DC, DNS und WSUS zur Verfügung stellt. Auf diese VM habe ich auch die Festplatten durchgereicht, um die Freigaben zu regeln. War bis jetzt rellativ ausreichen.
Da ich aufgrund meines Hobbys (Filme drehen und bearbeiten und Fotos) viel mehr Speicherplatt brauche, würde ich gerne mein System erweitern. Da mitlerweile ja die Linux-Integration in hyper-v immer besser wird, dachte ich mir, ich könnte in einer VM ein ZFS aufsetzen und auf die VM's 5*3TB Platten durchreichen.

Was haltet Ihr von dieser Idee? Ist es überhaupt möglich/sinvoll ein ZFS in ein RAID zu stecken, oder sollte ich lieber ein zweites, kleines System aufbauen, dass nur das ZFS regelt?
 
Hey Leute,

ich bin ganz neu im Bereich ZFS, will mich da aber etwas genauer einarbeiten. Habe dabei ein paar Fragen, die vielleicht sogar absolutes Nogo sin. Wenn es wirklich so ist, bitte nicht gleich steinigen :-)
Also, aktuell betreibe ich einen Windows Server 2012 mit Hyper-V als Home-Server, (Intel Xeon 1230V2, mit 32 GB Ram, 1SSD für VM's, 2*3TB Festplatte).
Ich habe eine VM, die DC, DNS und WSUS zur Verfügung stellt. Auf diese VM habe ich auch die Festplatten durchgereicht, um die Freigaben zu regeln. War bis jetzt rellativ ausreichen.
Da ich aufgrund meines Hobbys (Filme drehen und bearbeiten und Fotos) viel mehr Speicherplatt brauche, würde ich gerne mein System erweitern. Da mitlerweile ja die Linux-Integration in hyper-v immer besser wird, dachte ich mir, ich könnte in einer VM ein ZFS aufsetzen und auf die VM's 5*3TB Platten durchreichen.

Was haltet Ihr von dieser Idee? Ist es überhaupt möglich/sinvoll ein ZFS in ein RAID zu stecken, oder sollte ich lieber ein zweites, kleines System aufbauen, dass nur das ZFS regelt?

Bis auf die Tatsache, dass es vielleicht funktioniert, kann ich der Idee eines virtuellen SAN unter Hyper-V wenig abgewinnen.
Die Uptime wird eher schlecht sein wegen der dauernden Windows security updates, Hyper-V ist irgendwie zu fett und im Crashfall ist es einfach viel unhandlicher als z.B. ESXi. Zudem wüsste ich nicht, dass es optimierte Treiber für Unix oder Linux gibt oder pass-through der Storage Controller.

Ich würde also entweder ein NAS/SAN separat aufbauen oder wenn es ein All-In-One (Virtualisierungsserver mit integriertem NAS/SAN) sein solle, eher auf ESXi setzen. Dafür gibt es eine getestete Lösung, die sehr oft im Einsatz ist und stabil läuft. ESXi unterstützt auch alles was wichtig ist mit passenden optimierten Netzwerk und Video-Treibern (Apple OSX, Linux, Windows, Solaris) sowohl in 32Bit wie in 64 Bit. Pass-through ist hier wirklich echtes Pass-through der gesamten Storage Hardware (Controller + Disks) oder anderer PCI Karten. Das ist nochmal effektiver als nur Disk-Pass-through (über den Hyper-V Storage Treiber).

Hyper-V ist für sowas absolut exotisch. ESXi ist da Stand der Dinge und der übliche Unterbau für beliebige Gäste. (ESXi ist kostenlos bis 32 GB RAM)

ich habe dazu auch ein mini Howto
http://www.napp-it.org/doc/downloads/all-in-one.pdf
 
Vielleicht komische Frage, aber wenn ich mir z.B. ein X10SL7-F Board (Sockel 1150) kaufe um den separaten SAS Controller zu sparen - warum bauen die dort keine normalen SFF8087 Ports drauf sodass man Mini-SAS Kabel nutzen kann?

So müsste ich mir jetzt 8 Stck. hiervon kaufen http://www.delock.de/produkte/G_82634/merkmale.html


edit/ Falls sich jemand anders für das Board interessiert, hier gibt es ESXi vSphere Treiber für den i210 NIC https://my.vmware.com/web/vmware/details?downloadGroup=DT-ESXI5X-INTEL-IGB-4017&productId=285
 
Zuletzt bearbeitet:
@dapc,

Da wir uns auf der Arbeit intensiv mit VMware vSphere und Microsoft Windows 2012 Hyper-V befassen kann ich Dir sagen, dass unter Hyper-V 2012 (2K8 und 2K8R2 ebenfalls) kein VT-d unterstützt wird. Dies wurde mir auf einem Microsoft Techday von Michael Korb bestätigt. Ich hatte mir nämlich ebefalls in dieser Richtung Gedanken gemacht. Es wird auch von Microsoft in Hyper-V niemals unterstützt werden, da dieses Feature Ihrer Philosopie wiedersprechen würde.
Demnach wird es Dir nicht möglich sein die Daten-HDD's exclusiv an die "Storage-VM" weiter zu reichen wie Du es benötigst.

Das Linux immer besser in Hyper-V unterstützt wird und es auch Integrationstools gibt das ist richtig. In den offiziellen Linux Kernel ab V3.2.xxx wurden ja Hyper-V komponenten aufgenommen und sind je nach Distribution auch per default mitkompiliert.

Das ändert aber nichts an der Tatsache dass VT-d nicht funktioniert.
Du müsstest also entweder, wie gea bereits vorgeschlagen hat, ESXi nehmen oder Du baust Dir eine separate "ZFS Storage Kiste" mit beispielsweise OmniOS + Napp-it (auf USB-Stick) zusammen.

Ein Linux zusammen mit ZFSonLinux http://zfsonlinux.org/ ist ebenfalls eine Möglichkeit. Wenn es keinen driftigen Grund gegen OmniOS gibt (eine Anwendung die es nur für Linux gibt, vorhandenes Wissen in Linux und keine Zeit / Lust sich in ein Solaris basierendes OS einzuarbeiten), dann ist es meiner Meinung nach der Linux-ZFSonLinux Variante vorzuziehen.

Gruß
mlampe
 
Zuletzt bearbeitet:
Vielleicht komische Frage, aber wenn ich mir z.B. ein X10SL7-F Board (Sockel 1150) kaufe um den separaten SAS Controller zu sparen - warum bauen die dort keine normalen SFF8087 Ports drauf sodass man Mini-SAS Kabel nutzen kann?

So müsste ich mir jetzt 8 Stck. hiervon kaufen Delock Kabel SAS 29pin + Molex > 1x SATA (SFF 8482 > 1x SATA) 50 cm


edit/ Falls sich jemand anders für das Board interessiert, hier gibt es ESXi vSphere Treiber für den i210 NIC https://my.vmware.com/web/vmware/details?downloadGroup=DT-ESXI5X-INTEL-IGB-4017&productId=285

Ich fände einen miniSAS Anschluß auch besser. Falls man aber eine miniSAS Backplane hat - und das ist ja der Normalfall, braucht man ein Reverse SAS Kabel, z.B: 3ware CBL-SFF8087OCR-06M um diese mit den Sata Ports zu verbinden.

SuperMicro geht zudem wohl zu recht davon aus, dass dieses Board praktisch immer mit Sata Platten benutzt wird. Da machen Sata Anschlüsse durchaus Sinn.
 
Zuletzt bearbeitet:
Falls man aber eine miniSAS Backplane hat - und das ist ja der Normalfall, braucht man ein Reverse SAS Kabel, z.B: 3ware CBL-SFF8087OCR-06M um diese mit den Sata Ports zu verbinden.

Das ist vermutlich noch praktikabler als 8 einzelne SATA-SAS Kabel mit separatem 4-pin Molex Anschluss... Ist bei normalen ATX Gehäusen aber leider nicht gangbar.
 
Hey,

also, ich denke, ich werde jetzt zumindest zum Versuch das ganze auf einer anderen Maschine laufen lassen. Könnt ihr mir sagen, was ich so an Systemleistung für ein ZFS brauche. Habe einen Asrock e350 mit 4GB RAM. Reicht das?
 
4GB reichen aus, der AMD E350 kann auch 64bit, von daher passt das. ECC-Ram wäre von Vorteil, aber das gilt nicht speziell für ZFS sondern für jedes System beim dem dir die Datenintegrität wichtig ist. Wir hatten das Thema in ähnlicher Form auch schon vor 3 Wochen, lies mal ab Post #3744.
 
Zuletzt bearbeitet:
Wenn Du OmniOS + napp-it (auf einen USB-Stick installt) nimmst, dann bleiben von den 4GB noch genug für zfs übrig.

USB-Stick deshalb, damit Du alle SATA-Ports des MB für HDD's frei hast.

Auf der Seite von napp-it gibt es hier beispielsweise eine Hilfestellung zu OmniOS, wie man dort das Netzwerk einrichtet und dann auch napp-it installiert.

EDIT:
Noch ein Hinweis: Bei der Konfiguration des Pools / ZFS Datasets solltest Du von Deduplication Abstand nehmen. Dafür hättest Du dann meines Erachtens nach zu wenig CPU-Leistung und auch zu wenig RAM.
Die Kompression LZ4 hingegen kannst Du ruhig verwenden. Die bringt je nach dem Vorteile und belastet das System nicht nennenswert (Soweit ich das richtig im Kopf habe). Dies ist, glaube ich, auch per default aktiviert.

Viel Erfolg!

Gruß
mlampe
 
Zuletzt bearbeitet:
Hey,

also, ich denke, ich werde jetzt zumindest zum Versuch das ganze auf einer anderen Maschine laufen lassen. Könnt ihr mir sagen, was ich so an Systemleistung für ein ZFS brauche. Habe einen Asrock e350 mit 4GB RAM. Reicht das?

4GB reichen aus, der AMD E350 kann auch 64bit, von daher passt das. ECC-Ram wäre von Vorteil, aber das gilt nicht speziell für ZFS sondern für jedes System beim dem dir die Datenintegrität wichtig ist. Wir hatten das Thema in ähnlicher Form auch schon vor 3 Wochen, lies mal ab Post #3744.

Das ASRock unterstützt keinen ECC Speicher aber es sollte sich mit Linux dennoch aktivieren lassen.
Siehe: The Low Down on High Tech: Enabling ECC memory in Linux without BIOS support

Bei einem MSI MoBo habe ich das probiert und es funktionierte genau so.
 
Zuletzt bearbeitet:
Die Frage bei solchen Späßen ist ja immer: Wie prüft mans nach? Also wenn man am RAM-Takt dreht, kann mans nachbenchen, wenn man Kerne aktiviert sieht mans direkt, und wenn abgeschaltene Funktionen reaktiviert ist auch eine Beschleunigung entsprechender Programme feststellbar. Aber wie testet man, ob ECC tatsächlich aktiv ist?
 
Die Frage bei solchen Späßen ist ja immer: Wie prüft mans nach? Also wenn man am RAM-Takt dreht, kann mans nachbenchen, wenn man Kerne aktiviert sieht mans direkt, und wenn abgeschaltene Funktionen reaktiviert ist auch eine Beschleunigung entsprechender Programme feststellbar. Aber wie testet man, ob ECC tatsächlich aktiv ist?

Indem man keine Spielzeug-Hardware nimmt sondern was richtiges. Dieses Rumgefummel und Rumgefrickel ist lustig, wenn man 16 ist, aber wenn es ernsthafter sein soll, dann kann man ruhig auch mal richtig investieren.
 
Dem kann ich für produktiv und insbesondere kommerziell eingesetzte Systeme ja nur zustimmen, aber das war nicht ganz die Frage ;)
 
Ich kann mich dem ebenfalls nur anschließen.

Um die Frage zu beantworten...
Mit dem Tool "Memtest 86+" kann man ja bekanntlich den RAM auf Fehler überprüfen.
Wenn das gestartet ist, dann läßt sich über "c" die Konfiguration ändern. Darin kann man dann auch ECC aktivieren.
Wenn es vom RAM, CPU, Chipsatz nicht unterstützt wird, dann ändert sich die Einstellung nicht, obwohl man "on" ausgewähl hat.
Anders herum läuft der gestartete "Memtest" weiter, dann allerdings mit "ECC = on".

Gruß
mlampe
 
Memtest86+ ist nur eingeschränkt nützlich was ECC betrifft. Ich hatte schon einige MoBos die ECC unterstützen und Memtest86+ hat es bei vielen nicht erkannt. Es blieb bei "ECC = off".

Beim Thema ECC muss man beachten ECC ist nicht glech ECC. Es gibt verschiedene Möglichkeiten es zu implementieren und Schnittstellen zu integrieren, welche dann den Status melden oder auch nicht.
Afaik gibts nach der Methode keine Möglichkeit ECC zu testen aber ich lasse mich gern eines Besseren belehren.

Grüße
 
Zuletzt bearbeitet:
Ich hab mal eine Frage:

Angenommen ich habe einen Pool mit 2 vdev's von denen jedes aus 3 Platten als Raidz1 besteht. Der Pool sei zu 40 % mit Daten belegt. Kann ich nun ein vdev aus dem Pool ausgliedern?
Die Daten werden doch über die vdevs gleichmäßig verteilt, oder?
Schiebt ZFS die Daten dann erst mal alle auf den 2ten vdev und der erste kann gelöscht werden?
Oder unterliege ich einem Denkfehler und einem Pool kann man ein vdev nicht mehr entziehen?
 
Das geht noch nicht. Einmal hinzugefügt, kriegst du ein vdev nicht mehr raus, selbst wenn da noch keine Daten draufliegen.
 
Eigentlich ist es trivial:

- Menü User >> ++add user (Name und zweimal Passwort eingeben)
- ACL (Zugriffsrechte) muss man nur setzen, wenn man den Zugriff benutzerabhängig einschränken will.
(geht per Windows als root oder per napp-it ZFS Dateisystems >> Folder ACL)

Es gibt eigentlich nur eine Ursache, dass neue Benutzer nur bei all Accounts und nicht normal
im Menü User angezeigt werden: Es ist kein SMB Passwort gesetzt (in Datei /var/smb/smbpasswd).
Dies passiert bei einem passwd user. (Napp-it macht das beim Anlegen eines Users automatisch)

Nur die Benutzer, die in dieser Datei angelegt sind, werden von napp-it gezeigt.
Dadurch werden Systemaccounts unterdrückt.

Sowas passiert nur, wenn der Solaris CIFS Server nicht sauber konfiguriert ist:
Die Konfiguration des CIFS Servers geschieht automatisch bei der Installation von napp-it per wget -
gefolgt von einem Reboot!

Falls der Reboot gefehlt hat, zur Not nochmal die napp-it Grundinstallation mit wget laufen lassen und rebooten.


Hab nochmal wget drüber laufen gelassen, nun tauchen die Nutzer auf. Cool thx.

SMB Freigaben IN anderen Freigaben gehen aber nicht oder? Beispielsweise wenn ich den Ordner "Videos" freigebe und "Videos/Movies" und "Videos/TV_Shows"

Meine ich hatte mal irgendwie was gelesen dass es mit verschachtelten Freigaben ein Problem gibt.

Muss ich irgendwas beachten wenn ich NFS Freigaben vom selben Ordner machen will?

Wie läuft das bei einem Import von einem Pool. Es heißt ja NFS und SMB sind ZFS Eigenschaften. Aber wenn ich einen Pool importiere kennt das andere System ja die Benutzer noch gar nicht, wenn ich vorher keinen angelegt habe? Was muss ich dann machen wenn ich mit meinem Pool umziehe auf ein "frisches" System?

Und was ist der Unterschied zwischen ACL on Folders und ACL on SMB Shares. Bzw. wieso soll ich ACL on Folders benutzen und nicht on SMB Shares.
 
Zuletzt bearbeitet:
Memtest86+ ist nur eingeschränkt nützlich was ECC betrifft. Ich hatte schon einige MoBos die ECC unterstützen und Memtest86+ hat es bei vielen nicht erkannt. Es blieb bei "ECC = off".

Beim Thema ECC muss man beachten ECC ist nicht glech ECC. Es gibt verschiedene Möglichkeiten es zu implementieren und Schnittstellen zu integrieren, welche dann den Status melden oder auch nicht.
Afaik gibts nach der Methode keine Möglichkeit ECC zu testen aber ich lasse mich gern eines Besseren belehren.

Post #11 in Windows Server 2012 Standard / WHEA-Logger Warnung 23 / ECC-RAM Problem ?
Die Anzeige ECC ist Off sagt nichts aus und ist nicht für die Funktionalität des Tests erforderlich.
pugetsystems.com - How to Check ECC RAM Functionality
If Memtest detects that ECC is working, it will simply show "On" in the ECC column. If it shows "off", this does not mean that ECC is not working, but rather that Memtest does not detect ECC for your chipset and you need to try one of the other methods to determine if ECC is working properly.
Egal ob dort On oder Off steht. Auch mit ECC Off werden dort Speicherfehler erkannt. Ich hab es einfach schon sehr oft gesehen.
Drück mal während des Memtest c, dann kommst du in den Configuration-Teil und kannst da auch noch mit ein paar Optionen hantieren.


Neue Versionen gibt es nun auf
PassMark MemTest86 - Memory Diagnostic Tool
In Feb 2013, PassMark Software took over the maintenance of the project from Chris. We have recently added an option to purchase a pre-made USB flash drive and also created a support forum where users can discuss issues. The MemTest86 code remains open source.
Das ist eine gute Sache, ich hoffe nun kommen Chipsatz-Updates schneller da nun eine Firma dahinter steht. Dann wird auch eher "ECC on" erkannt als jetzt. ;)

OT: So, und nun Dexter S08E06 vom RaidZ3 gucken. :fresse:
Leider nur in 720p HDTV Murks statt 1080i-MPEG2 weil Time Warner Sho und CBS aus ihrem Paket genommen hat. :mad:
Showtime : Notices
Blackout: Time Warner Cable wirft CBS-Stationen raus
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh