AMDs Sockel-AM5 soll DDR5, aber kein PCIe 5.0 mitbringen

Da sind wir wieder bei der Idee des X300 "Chipsatz". Letztendlich ist das Teil nicht auf normalen Consumerboards gelandet, sondern nur z.B. im Asrock Deskmini. Aber ja, mit 2x NVMe SSD und 16 Lanes für die Gpu lässt sich schon ein schönes chipsatzloses System basteln. Mir würde das bereits reichen, wenn noch 2x SATA, USB und Wifi verfügbar ist.
WiFi ist da halt schon das erste Problem... Weil hat der Prozessor native WLAN Support? Das müsste er sich dann ja wieder mit ner PCIe Lane einkaufen. Der nächste will halt wieder noch mehr USB Ports, vllt USB2.0 Ports für irgendwas usw. So kommt halt eins zum nächsten... Die X300er find ich aber btw. auch ziemlich cool als kleine Büro PCs. Im Retailbereich scheitert sowas meist an der Ausstattung. Weil für viele ist mehr einfach mehr - egal ob sie das brauchen. Im OEM wird meist eher bedarfs/anforderungsgerecht gekauft. Privat müssen die Boards halt 6-8x SATA Ports mitbringen und so und so viele USB Ports usw. usf. Das definiert dann "gute" Boards. Kostet natürlich... Logisch.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber ja, mit 2x NVMe SSD und 16 Lanes für die Gpu lässt sich schon ein schönes chipsatzloses System basteln. Mir würde das bereits reichen, wenn noch 2x SATA, USB und Wifi verfügbar ist.
Die Minidesk haben ja gar keinen PCIe Slot und für SATA muss man bei AM4 eben zwei PCIe Lanes opfern, dann hat man nur noch 2 statt 4 der PCIe Lanes die normalerweise an den M.2 Slot gehen. Für WLAN braucht man aber wie für LAN eine PCIe Lane, damit bist Du die 4 Lanes dann los und hättest da auch gleich einen Chipsatz anbinden können. Gefühlt würde ich sagen, AMD hat den X300 nur gebracht um die Lanes für die Anbindung des Chipsatz mitzählen zu können, während sie bei Intel nicht mitgezählt werden und so sieht es eben so aus als hätten AM4 CPUs mehr PCIe Lanes, dabei hat eine Rocket Lake CPUs nach der Zählweise sogar 28 PCIe Lanes, neben den 16 für die Graka und den 4 für den M.2 Slot, nämlich auch noch 8 für die DMI Anbindung, auch wenn diese nur bei den besseren 500er Chipsätzen verwendet werden.
 
Allerdings nutzt Rocketlake für diese 8 Lanes nur die halbe Bandbreite, sprich man hat zwar mehr Lanes, aber nicht mehr Durchsatz zwischen Cpu und Chipsatz.
 
@Holzmann Steht doch auch schon in der News. ;)
 
  • Haha
Reaktionen: hRy
Mh, 170W ... Finde ich nicht so pralle.
Die 105 TDP Schiene hätte mir besser gefallen.
AMD ist doch nicht im Zugzwang die TDP erhöhen zu müssen. Bisher war gerade das doch ein großer Vorteil ggü Intel.
Stopp. AM5 wird ein 120W TDP Sockel, der auch 170W kann.
AM4 ist ein 105W TDP Sockel, der auch 145W kann.
Wer weiß schon was kommt? Vielleicht auch leistungsstarke APUs, mit ordentlicher GPU Leistung. Dank DDR5 sollte da mehr drin sein. Zudem gehe ich davon aus, dass wir AM5 auch noch 2024 mit Zen 5 sehen werden. Nur weil der Sockel eine höhere Leistungsaufnahme bieten kann, bedeutet das nicht automatisch einen höheren Energiebedarf. Es bedeutet aber, dass ein 32 Core mit Zen 5 möglich wäre. Oder auch eine APU mit Leistungsstarker GPU.
 
Denke auch das AMD hier einfach Vorkehrungen trifft, damit man hinterher die Option hat eine höhere TDP zu fahren. Ob man das dann auch tut ist die andere Frage. Immerhin geht man nicht bis 300W, wie Intel... :d
 
Naja, da muss man aber schon differenzieren. Bei Intel gibt es eine Peakleistung und ne Dauerleistung. 125W TDP ist gleichsam auch die Dauerleistung. Sie lassen halt 250W oder gar noch mehr für nen Peak zu. Mittlerweile 56sec. Bei AMD gibt es keine Peakangaben. Da ist die zugelassene Leistung auch die Dauerleistung. 142W bei AM4 = Dauerhaft dran und auch drin.

Gibt ja bis jetzt keine genauen Infos, insofern kann man für AM5 nur spekulieren. Aber da das Verhältnis nach von "TDP" und der max. Angabe gleich ist, liegt die Vermutung nahe, man gibt dann einfach 65/95/105/125W CPUs raus, die wieder ihren Faktor 1,4 übertreten dürfen - dauerhaft. Und das natürlich wahrscheinlich auch tun würden, zumindest mal bei den 12-16C Modellen. Weil 12-16C auf AM4 ist schon arg eingefangen um in 142W zu passen. Bei ~170-180W erreiche ich um die 10% mehr an MT Leistung. Klar, deutlich ineffizienter als 142W, aber der Kompromiss obenraus muss halt irgendwo gefunden werden, damit man dann nicht nur im 3 Komma GHz Bereich agiert. Das macht sich für Clock Kritische Sachen wie bspw. Gaming mit bspw. nem Rendertask im Hintergrund so gar nicht gut, weil einfach übel Leistung verloren geht. Aber eigentlich solche MT Dauerbelastung will man ja mit so nem breiten Prozessor auch irgendwo abdecken? Wenn da 12 von 16C eh nur idlen, zahlste halt Kerne fürs nichts tun.
 
Da sind wir wieder bei der Idee des X300 "Chipsatz". Letztendlich ist das Teil nicht auf normalen Consumerboards gelandet, sondern nur z.B. im Asrock Deskmini.
Nicht so ganz, alle Anschlüsse des X300 laufen direkt zur CPU. Ich bin mir aktuell gar nicht sicher, ob das X300 überhaupt einen Chipsatz besitzt.
 
Da sind wir wieder bei der Idee des X300 "Chipsatz". Letztendlich ist das Teil nicht auf normalen Consumerboards gelandet, sondern nur z.B. im Asrock Deskmini. Aber ja, mit 2x NVMe SSD und 16 Lanes für die Gpu lässt sich schon ein schönes chipsatzloses System basteln. Mir würde das bereits reichen, wenn noch 2x SATA, USB und Wifi verfügbar ist.
Jepp, der A300/X300 ist ne nette Idee, aber verrichtet leider nur im Asrock Deskmini seinen Dienst.

Persönlich fand ich die Idee mit dem X300 schon zu X370 Zeiten sehr gut, allerdings wollte und will das leider kein Hersteller anbieten!

Bei 28 Lanes zukünftig direkt von der CPU wäre es imho noch attraktiver, allerdings bedient man damit halt vermeintlich eine Nische:

16 Lanes für die Grafikkarte
8 Lanes für zwei NVMe
4 Lanes für Ethernet, Wifi und ggf. SATA

Das würde wahrscheinlich für 98% der Anwendungsfälle reichen, aber trotzdem bietet das dann kein Mainboard-Hersteller an.
Es wird ein Chipsatz dazwischen geschalten, um eine 3. NVMe zu realisieren, 8x SATA anzubieten (das wahrscheinlich kein Schwein mehr nutzt?!), einfach um im Vergleich mit der Konkurrenz nicht weniger Anschlüsse anzubieten.

Boards ohne Chipsatz werden wohl leider in der Nische Einstiegsboard oder Mini-PCs (Deskmini u.ä.) stecken bleiben.
 
der A300/X300 ist ne nette Idee
Wieso? Man bekommt am Ende auch nicht mehr Dinge angeschlossen, denn man braucht auch Lanes für z.B. das LAN, oder nutzt jemand den internen NIC, sofern es überhaupt einen gibt? Bei AM3 gab es einen, aber kein Boardhersteller hat den je genutzt, angeblich waren die PHY viel teurer als ein kompletter 3rd Party NIC mit PHY. Für WLAN bräuchte man auch eine PCIe Lane und wenn man die beiden SATA Ports des SoC nutzen will, verliert man auch zwei PCIe Lanes von der CPU, also kann man am Ende doch nie alle 24 PCIe Lanes der CPU frei nutzen, also 16 für die Graka und je 4 für die Anbindung von 2 PCIe SSDs mit je 4 Lanes. Auch die alten 300er und 400er Chipsätze habe zwei PCIe 3.0 Lanes (im Tausch für zwei SATA Ports) und damit hat man dann insgesamt mehr PCIe Lanes und SATA Ports als mit dem A300/X300 bzw. eben ohne externen Chipsatz im klassischen Sinne.
Es wird ein Chipsatz dazwischen geschalten, um eine 3. NVMe zu realisieren,
Wo ist das Problem damit? Bei einigen Boards ist die Latenz an den Lanes des Chipsatz sogar deutlich geringer als die an den Lanes der CPU, vielleicht weil das kein Error Reporting funktioniert oder vielleicht wegen Energiesparfunktionen, aber so ist es eben.

ASRock_X570_Taichi_Razer_Edition_CDM_CPU2.png


ASRock_X570_Taichi_Razer_Edition_CDM_X5702.png
 
Das würde wahrscheinlich für 98% der Anwendungsfälle reichen, aber trotzdem bietet das dann kein Mainboard-Hersteller an.
Es wird ein Chipsatz dazwischen geschalten, um eine 3. NVMe zu realisieren, 8x SATA anzubieten (das wahrscheinlich kein Schwein mehr nutzt?!), einfach um im Vergleich mit der Konkurrenz nicht weniger Anschlüsse anzubieten.

Boards ohne Chipsatz werden wohl leider in der Nische Einstiegsboard oder Mini-PCs (Deskmini u.ä.) stecken bleiben.
Naja, das ist zu kurz gedacht. Denn nebst PCIe Slots für Grafikkarten gibt es halt auch auf der Seite noch "mehr", die es anzubinden gilt. Klar, den 16er Slot kannst du Splitten in 8x/8x. Oder 8x/4x/4x. Aber das macht die Sache ungemein komplex und vor allem irgendwie auch wieder unflexibel. Den Hub über ne "dicke" Anbindung in den Chipsatz zu legen und dort den ganzen IO Kram anzubinden ist eigentlich ne ideale Lösung - weil du in jede Richtung voll Flexibel bist. Der einzige Fall, wo du überhaupt mit den bisherigen x4 Lanes per PCIe 4.0 in Sachen Chipsatzanbindung in ein Bandbreitenlimit läufst, ist zudem auch ein Storage Array über zwei dieser "M.2 am Chipsatz" Slots. Das dürfte noch viel weniger anzutrefen sein im Schnitt da draußen. Zumal der Spaß ja dann auch irgendwo her kommen muss bzw. irgendwo hin muss. Also vor dem Chipsatz brauchts auch nochmal 2x M.2 mit Speed. Wir reden da also über 4x total bevor das zu nem Problem wird?
Nicht so ganz, alle Anschlüsse des X300 laufen direkt zur CPU. Ich bin mir aktuell gar nicht sicher, ob das X300 überhaupt einen Chipsatz besitzt.
Genau genommen nicht. Aber das dürfte eher ein Wording Thema sein. Denn einen "Chipsatz" schimpft man heute einfach gefühlt alles, egal welche Bedeutung dem nun genau zu kommt. So wie man ihn früher verstanden hat, gibts bspw. heute nicht mehr extern, aber existent ist der Teil ja trotzdem. Der steckt nämlich seit geraumer Zeit in der CPU. Bei AMDs MCM Konstrukt sogar sehr schön als einzelner Chip. Lynnfield bei Intel damals hatte sowas ähnliches mit Chipsatz unter dem Deckel als MCM. Was man seit dem aber "Chipsatz" nennt ist eher ein PCH, früher Southbridge genannt. Der war aber auch früher theoretisch gar nicht zwingend notwendig. Ich müsste lügen, es gab wenn mich nicht alles täuscht auch Single Chip "Chipsätze", also ne Kombi aus North- und Southbridge.

Lange Rede, kurzer Sinn - die Frage ist eher, was meint "Chipsatz" überhaupt? :fresse:
Auf X300 hast du keinen PCH. Auf den größeren hingegen schon.
 
BGA geschichte...AMD nicht euer ernst? LGA ist der letzte Schrott.

Schade ich halt beim nächsten wechsel wieder nen Shop...fällt ja Dank Corona nicht mehr ins Gewicht, durch was sie pleite gehen.
 
Gut zusammengefasst. Der normale Nutzer profitiert im Moment kaum von PCIe 4.0, sprich 5.0 wäre derzeit nur ein Argument fürs Marketing. Ich kann daher voll und ganz verstehen, wenn AMD bei 4.0 bleibt bzw. verstehe nicht warum Intel mit LGA1700 auf PCIe 5.0 wechselt.

Selbe Marketingwirkung wie bei der PCIe 4.0 Einführung von AMD. Hat zum Launch auch einen Lupenreinen Marketingcharakter gehabt.

Wie lange gibt es denn schon PCIe 4.0 und seit wann gibt es auch wirklich einen nutzbaren Mehrwehrt? Bei GPUs ist der noch nicht angekommen und bei SSD's kommt man selbst mit einem PCIe3.0 M.2 im Raid Verbund teilweise relativ nahe an Geschwindigkeiten derzeitig erhältlicher PCIe4.0 SSDs...
 
Mh, 170W ... Finde ich nicht so pralle.
Die 105 TDP Schiene hätte mir besser gefallen.
AMD ist doch nicht im Zugzwang die TDP erhöhen zu müssen. Bisher war gerade das doch ein großer Vorteil ggü Intel.
Wird wohl darauf hinauslaufen, dass die nächste cpu generation etwas auf sich warten lässt, und man eben etwas luft nach oben haben will. Vor allem wenn es einen refresh mit mehr kernen gibt. Intel hatte da ja mal mit dem 1156er sockel probleme, wenn ich nicht irre.
 
Zuletzt bearbeitet:
Die höhere TDP-Schiene wird für entweder mehr Kerne oder eine dickere iGPU notwendig werden, um Intels Xe-Grafik in die Schranken zu weisen.

Wenn die Xe-Grafik, die mit normalem RAM auf Vega-Niveau liegt, im normalen Desktop kommt, und das Potential hat Intels 10nm-Prozess locker, muss sich AMD was einfallen lassen.

Spätestens dann wird es Zeit, dass Vega rausfliegt und Navi reinkommt. Die Ausbaustufe muss dann natürlich auch entsprechend Potential haben, damit Intel nicht einfach mit Xe2 wieder mitziehen kann.
 
Bitte lies den CB-Test. Ich zitiere:

  • Einen Leistungsverlust gibt es aber immer noch. Mehr Bandbreite über den PCIe-Slot beziehungsweise PCIe 4.0 allgemein hilft zwar bei Speichermangel, kann einen größeren Speicher mit noch deutlich höherer Bandbreite aber nicht ersetzen.
Das bedeutet, dass die Lanes HELFEN, das Problem aber nicht beheben.

Deswegen schrieb ich, dass sich PCIe4.0 bei Karten mit kleinem VRAM lohnt, weil man so den VRAM-Mangel etwas ausgleichen kann. Volle 16 Lanes würden das Problem aber nicht weiter lindern oder gar beheben. 16 volle Lanes wären dann nur ein Tropfen auf den heißen Stein.

Schau dir einfach eine GTX970 bei 8 Lanes und 16 Lanes an. Du hast IMMER die berühmten Mikro-Ruckler. Die Lanes lösen das Problem nicht.
Das habe ich mit meiner Aussage auch nicht gemeint, Deine ursprüngliche Aussage, dass auch die RX5500 4GB nicht von PCIe4.0 profitieren würde, stimmt trotzdem nicht und Du schreibst auch selbst Gegenteiliges.

Je stärker es an VRAM mangelt desto mehr kann der Zugriff auf den RAM über PCIe helfen und je höher die Bandbreite dieser Anbindung ist, desto mehr hilft es bzw. je niedriger die Ausgangsbandbreite ist, desto mehr hilft die Verdopplung durch PCIe4.0.

Eine RX 5500 4GB profitiert mehr von PCIe4.0x8 statt 3.0x8 als eine RX 5600XT 6GB es tun würde, mit PCIe4.0x16 würden wir aber trotzdem bei beiden noch einen Zuwachs sehen, auch hier bei der RX 5500 stärker, weil der Bedarf einfach größer ist.

Das in beiden Fällen das Problem nicht gelöst, sondern nur gemindert werden kann, ist selbstredend, auslagern über PCIe wird nie echten VRAM ersetzen können, weil der selbst auf günstigen Karten zigfach schneller ist. Ich bin aber trotzdem erstaunt, wie viel es bei der RX 5500 hilft, weil ich immer davon ausgegangen bin, dass PCIe so langsam im Vergleich zum VRAM ist, dass es trotzdem nichts bewirkt. Offenbar spürt man bei der RX 5500 aber mit PCIe4.0 deutlich weniger als mit PCIe3.0, dass es an VRAM fehlt und würde es mit x16 noch weniger spüren.
Interessant finde ich das auch für Karten noch unterhalb der RX 6700XT und RTX 3060 kommenden Karten, weil es da durchaus realistisch ist, dass die mit nur 6GB kommen und bald zu wenig VRAM haben, aber auf einem modernen Board sitzen.

Trotzdem hätte ich deshalb schon länger nichts mehr unter 8GB akzeptiert und würde beim nächsten Mal eher 16GB+ wollen.
 
Ah ok, da bin ich irgendwie mit Dir und Paddy durcheinandergekommen. Ich muss ihm aber insofern recht geben, dass der Effekt von PCIe4.0 bei der RX 5500 nur deshalb so krass ist, weil sie nur 8 Lanes hat. Bei 16 Lanes wäre die Bandbreite weniger ein Flaschhals und bei real noch größerem Bandbreitenzuwachs der Effekt kleiner.

Wir haben nur "leider" aktuell keine Karte mit PCIe4.0x16 und nur 4GB um das zu belegen, bei 6GB, also bei der RX5600XT ist der VRAM ja noch nicht so knapp, dass der Effekt so stark wäre. Man müsste es mit 4GB bei PCIe2.0x8 und 3.0x8 vergleichen.
 
Ah ok, da bin ich irgendwie mit Dir und Paddy durcheinandergekommen. Ich muss ihm aber insofern recht geben, dass der Effekt von PCIe4.0 bei der RX 5500 nur deshalb so krass ist, weil sie nur 8 Lanes hat. Bei 16 Lanes wäre die Bandbreite weniger ein Flaschhals und bei real noch größerem Bandbreitenzuwachs der Effekt kleiner.
Die 8 Lanes sind aber nicht das Problem. Das Symptom wird durch PCIe4.0 verringert, weswegen ich schrieb, dass es nur (etwas) mehr FPS bringt.

Das Problem ist und bleibt der VRAM.
 
Ja klar, aber einzig und allein für dieses Problem ist die PCIe-Bandbreite wirklich interessant, für die generelle Kommunikation zwischen CPU und GPU scheint der Bandbreitenbedarf so gering zu sein, dass man selbst mit PCIe3.0x8 sogut wie keine Nachteile hat, wahrscheinlich auch nicht bei PCIe3.0x4 bzw. 2.0x8.

Ich wundere mich sowieso immer, wie wichtig manchen PCIe ist. Das Problem VRAM-Knappheit sollte man eigentlich um jeden Preis vermeiden, noch so schnelles PCIe kann da nicht gänzlich Abhilfe schaffen. Wenn man aber genug VRAM hat, ist die Anbindung der GPU ziemlich egal, Multi-GPU gibt es ja auch nicht mehr. Auch für SSD ist das nur in Benchmarks relevant, die Allermeisten merken keinen Unterschied zwischen PCIe3.0x4 und 4.0x4 und wahrscheinlich nichtmal zu SATA.

Das ist also eigentlich nur auf lange Sicht relevant. Wenn ich jetzt keinen Haswell mit PCIe3.0 2x8 hätte, könnte ich nicht die RTX 2070 und ein NVMe-SSD adäquat anbinden und würde bei PCIe2.0 wohl eher einen Unterschied merken, wenn wir noch bei PCIe1.0 wären hätten wir da auch einen Flaschenhals. Aber für PCIe4.0 fehlen auf lange Sicht noch die adäquaten Einsatzgebiete, zumindest bei Privatnutzern. Klar, 25GbE+ und NVMe mit mehr als 7,5GB/s wird irgendwo schon seinen Nutzen finden.
 
News-Update: Bilder vom möglichen AM5-Heatspreader sind aufgetaucht :wink:
 
und kein Schwanz braucht in Wirklichkeit
PCIe SSD mit 5000MB/s+ (schreiben / lesen).

Doch brauche ich, sehe ich jeden Tag an meiner PS5 die oft Spiel schneller lädt als auf dem PC. Bin selbst nach 6 Monaten immer noch oft sprachlos wenn ein Witcher 3 10x schneller lädt als auf meiner SSD im PC die ebenfalls 3000 Lesen hat.
 
Doch brauche ich, sehe ich jeden Tag an meiner PS5 die oft Spiel schneller lädt als auf dem PC. Bin selbst nach 6 Monaten immer noch oft sprachlos wenn ein Witcher 3 10x schneller lädt als auf meiner SSD im PC die ebenfalls 3000 Lesen hat.
Die Platte der PS5 soll zwar rund 5500 können, aber das ist knapp das Doppelte, nicht 10fache, also passt das auch nicht so recht zusammen...
Denke das Game ist einfach sehr für die Platform optimiert. Wenn man nur eine Ziel-Hardwarekonfiguration hat, ist vieles möglich.
 
Doch brauche ich, sehe ich jeden Tag an meiner PS5 die oft Spiel schneller lädt als auf dem PC. Bin selbst nach 6 Monaten immer noch oft sprachlos wenn ein Witcher 3 10x schneller lädt als auf meiner SSD im PC die ebenfalls 3000 Lesen hat.
Würde ich eher auf Windows schieben.
 
Würde ich eher auf Windows schieben.
Neja, Windows mit genug RAM wird relativ stark von der deutlich hören Bandbreite und der drastisch niedrigeren Latenz profitieren, weil das Caching da Punkte bringt - Zugriffe aufs Storage gehen dabei auch quasi gegen Null. Skalieren im Sinne von Verkürzung der Ladezeiten im Verhältnis zum Anstieg der Bandbreite gibt das halt trotzdem nicht zwingend. Der Vergleich zu Konsolen hinkt meiner Ansicht nach aber auch sehr deutlich. Denn auf dem PC ist das zweistufig. Die Daten von der Disk werden ja nicht direkt in den VRAM geschrieben, sondern überwiegend wird der Spaß dabei noch aufbereitet. Teils sogar mehrfach. Insofern muss man die Rechenzeit auch klar noch mit berücksichtigen... Alle Bandbreite nutzt ja nix, wenn dann der Prozessor limitiert, der den Spaß ins Richtige Format umwandelt. Damit der das aber machen kann - braucht er auch erstmal die Daten schnell in seinem Cache (letztendlich auch der RAM).
Ob das auf der Konsole in der Form so gehandhabt wird, müsste man auch erstmal schauen. Der Bedarf das groß variabel zu gestalten ist da ja deutlich geringer, weil das Target quasi fix ist.
 
es kommen laufend neue PCI-E 4.0 SSD, die werden dann irgendwann gegeneinander getestet, vorallem mit neuen AAA Games.
 
Zuletzt bearbeitet:
Gut zusammengefasst. Der normale Nutzer profitiert im Moment kaum von PCIe 4.0, sprich 5.0 wäre derzeit nur ein Argument fürs Marketing. Ich kann daher voll und ganz verstehen, wenn AMD bei 4.0 bleibt bzw. verstehe nicht warum Intel mit LGA1700 auf PCIe 5.0 wechselt.

Und ich frage mich ob der kommende X570S direkt die Basis für einen überarbeiteten I/O-Die von Zen3+/4 darstellt, um DDR5 Support auf Sockel AM5 zu bringen :d

PCI5.0 wäre wirklich Marketing only. Genau darum wird es Intel auch machen.
PCI4.0 hat AMD durchaus einen Vorteil gegeben und den will Intel nun auch haben. Wenn auch nur auf den Marketing Slides.

IRGENDWAS braucht Intel, damit sie nicht in allen Metriken unterlegen sind.
 
  • Danke
Reaktionen: Tzk
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh