AMD stellt Ryzen-7000-Serie mit Zen-4-Chiplet in 5 nm und IOD mit RDNA-2-Grafik vor

Tja diese hohen Leistungssteigerungen pro Generation sahen toll aus, aber das war natürlich nur deshalb möglich, weil man aus einem großen IPC Rückstand heraus neu angegriffen hat. Es müsste klar sein, dass es mit solchen Sprüngen nicht immer so weitergehen kann. Irgendwann kickt halt das Ertragsgesetz.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich dachte 3d V-cache wird jetzt bei allen neuen AMD CPUs integriert, macht ja auch eigentlich Sinn oder nicht? Scheint ja bei Zen 3 zu klappen, warum also nicht bei Zen4? Vielleicht wegen der RDNA2 iGPU oder vielleicht klappt 3d V-cache nur bei einem CCD!?
Nein, es soll gerüchteweise später auch Modelle oder wenigstens ein Modell mit dem 3D V-Cache geben, aber da dieser Cache auf dem CPU Chiplet sitzt, dürfte er gar nichts mit der iGPU zu tun haben und wie man an den EPYC Modellen sieht, scheint es ja kein Problem zu sein mehrere CPU Chiplets mit dem 3D V-Cache in einer CPU zu haben.
Die Frage ist auch: kann der 7000er ECC-Ram? Ich meine "richtiges" ECC-Ram, nicht "on die ECC". Kann er flexibles PCIe-Bifurcation des x16 Slots?
Gute Frage, aber da der I/O Die nun offenbar nichts mehr mit dem in den EYPC zu tun hat, die werden sicher keine iGPU bekommen und werden auch für Zen4 offenbar noch in 12nm bei GF gefertigt, könnte es sein das diese Features fehlen. Aber vielleicht kommen ja auch noch RYZEN 7000 Pro Modelle mit offizieller ECC RAM Unterstützung als Ergänzung der TR Pro im Workstationsegment.

Das große Problem sehe ich eher, dass da AM5 kein DDR4 unterstützt und das könnte AMD das Genick brechen, weil die Beschaffung von DDR5 derzeit noch zu hoch sind
Noch, aber noch sind die ja auch nicht auf dem Markt und bis dahin dürfte der Aufpreis für DDR5 RAM eher noch fallen als größer werden und dann dürfte AMD vermutlich sowieso erstmal nur die Topmodelle auf den Markt bringen, also die weniger preissensiblen Kunden zuerst bedienen und die anderen erst später, wenn der Aufpreis für DDR5 RAM dann noch kleiner ausfallen dürfte.

Die +15% sind also bereits Boost und IPC in einem...
Ja und da von 5,5GHz die Rede ist, während der 5950X offiziell maximal 4,9GHz hat, gehen über 10% alleine auf das Konto des Taktes und damit ist die IPC Steigerung, also um wie viel schneller die Architektur bei gleichem Takt ist, dann recht bescheiden. Zumindest bei CB23, aber den Benchmark hat AMD ja selbst ausgewählt und für 2 Jahr Entwicklungsarbeit.
Auf der Computex-Keynote bestätigte AMD-CEO Dr. Lisa Su, dass AMD seine AM4-Plattform auch in den kommenden Jahren unterstützen wird.
Das macht ja auch Sinn, weil AM5 eben DDR5 benötigt und solange dies pro GB spürbar mehr als DDR4 kostet, werden sie AM4 für das untere bis mittlere Marktsegment brauchen, da hier die Kosten ein große Rolle spielen.
Allerdings frage ich mich was AMD davon hat Grafiklösungen abseits der G Linie zu integrieren.
Also ich finde es gut und es ist vor allem im Office- und Multimedia Bereich sehr sinnvoll, da die Leistung hierfür reichen sollte. Dazu kommt, dass die iGPU im I/O Die für AMD praktisch kostenlos sein dürfte, da sie den I/O Die nun ja in 6nm fertigen lassen, der aber eine bestimmte Größe braucht um alle Kontakte unterzubringen, zumal wenn sie keinen (teuren) Halbleiterimposer verwenden. Auf diese Fläche können sie also auch gleich eine kleine GPU packen. Obendrein haben sie damit den Vorteil statisch einen deutlich höheren Anteil am GPU Markt zu bekommen, da ja nun jede AM5 CPUs da mit reingezählt werden kann.

Zu den 170 W die AMD im Zusammenhang mit Ryzen 7000 und AM5 nennt: Das ist das Package Power Target (PPT). Die TDP liegt typischerweise 35 % darunter, hier also bei 125 W.
Wobei Target ja Ziel bedeutet und wenn die Ziel Leistungsaufnahme 170W ist, wieso sollte es dann reihen nur 125W (oder sowas) an TDP anzugeben? Außer wenn wie TDP wie bei Intel der PL1 entspricht und damit der dauerhaft erlaubten, durchschnittlichen Leistungsaufnahme und die PPT dann wie die PL2 eben nur solange erlaubt ist, wie der Durchschnitt eben die PL1 nicht übersteigt.
 
Es bleibt spannend. Dinge wie cache, schnellerer RAM, Direct Storage kommen ja dazu. Dieses zusätzlichen Features, die mit der CPU mitgeliefert kommen (AI&ML), können evtl. Workloads effektiver verteilen. Vielleicht ist AMD diesmal nur noch nicht konkreter, da zum Zeitpunkt der Ankündigung vieles noch im Rückstand liegt. Der tatsächliche Release entscheidet bei mir ob wieder AM Plattform oder wieder Intel.
 
Wurde gesagt auf welchem Niveau sich die RDNA2 iGPU einpendeln wird?
 
31 Minuten Computex und sicherlich wieder nur im Nebensatz erwähnt hehe.
Sehr hoch wird das Niveau sein, etwa doppelte Leistung von den auf Vega basierten chips.
Also nachwievor für Minimalanforderung ausgelegt 😜
 
Wurde gesagt auf welchem Niveau sich die RDNA2 iGPU einpendeln wird?
Gehe mal davon aus, dass es kein Ersatz für eine Graka sein wird, außer ein billige Einsteigskarte mit alter Technologie. Dies liegt schon an der RAM Anbindung, die jede iGPU massiv einschränkt und so viel Leistungsaufnahme wird man ihr auch kaum gönnen, damit sie den Kernen nicht zu viel Leistung wegnimmt. Die iGPUs sind genug für Windows und Multimedia, aber kaum für ernsthaftes Gaming und dies braucht sie auch ja auch gar nicht.
 
31 Minuten Computex und sicherlich wieder nur im Nebensatz erwähnt hehe.

Also nachwievor für Minimalanforderung ausgelegt 😜
Abwarten, was die an Neben-Leistung erbringen können. Ich hoffe doch nebenbei, das sie zumindest mehr als nur Bild Ausgabe könnten.

Direct Storage mit IGPU?
Hat die IGPU eine shared infinity cache mit CPU?

Einige Fragen stehen durchaus noch offen.
 
Gehe mal davon aus, dass es kein Ersatz für eine Graka sein wird, außer ein billige Einsteigskarte mit alter Technologie. Dies liegt schon an der RAM Anbindung, die jede iGPU massiv einschränkt und so viel Leistungsaufnahme wird man ihr auch kaum gönnen, damit sie den Kernen nicht zu viel Leistung wegnimmt. Die iGPUs sind genug für Windows und Multimedia, aber kaum für ernsthaftes Gaming und dies braucht sie auch ja auch gar nicht.
Also ich persönlich sehe sie bei ungefähr eineinhalbfache Geschwindigkeit wie eine Vega oder etwa halb so schnell wie eine 6400
 
Abwarten, was die an Neben-Leistung erbringen können. Ich hoffe doch nebenbei, das sie zumindest mehr als nur Bild Ausgabe könnten.

Direct Storage mit IGPU?
Hat die IGPU eine shared infinity cache mit CPU?

Einige Fragen stehen durchaus noch offen.
Das sowieso, wenn man sas mit den Intellösungen der und den 5700G vergleicht, dann sollte 1080p klar sein, aber auch Leistung für 1440p und Multimonitoring mehr als ausreichen.

Ist aktuell der grösste Anreiz, da eine 5700G halt keine Alternative darstellt.
 
Also ich persönlich sehe sie bei ungefähr eineinhalbfache Geschwindigkeit wie eine Vega oder etwa halb so schnell wie eine 6400
Vega ist die Bezeichnung einer GPU Architektur und es gibt viele Modelle auf Basis dieser Architektur, von den APUs bis hin zu der Radeon RX Vega 64. Aber die Leistung der iGPU ist ja eigentlich egal, für Windows und Multimedia wird es reichen, für ernsthaftes Gaming aber sicher nicht, da alleine die Limitierung bzgl. der RAM Bandbreite und Leistungsaufnahme die iGPUs im Vergleich zu einer besseren Graka immer massiv einschränken, dazu kommt der Platz unter dem HS, wobei dies mit modernen Packagingtechnologien ggf. zu entschärfen wäre.

So eine iGPU ersetzt eben nur eine Einstiegsgraka für 50 oder 70€, die Erwartung sie könne eine 500€ oder 700€ Graka ersetzen, kann nur enttäuscht werden.
 
So eine iGPU ersetzt eben nur eine Einstiegsgraka für 50 oder 70€, die Erwartung sie könne eine 500€ oder 700€ Graka ersetzen, kann nur enttäuscht werden.
Dafür sind die ja auch ursprünglich gedacht, anders als das wofür AMD mit den 5000G geworben hatte um den Leuten ohne Ahnung weiß zu machen das damit auch gespielt werden kann.

Viele Spiele auf 1080p und low bis mid Details laufen ohne Probleme.

Würde dann quasi meine Ersatzkarte aka Sapphire 380X Nitro+ ersetzen.

Zumal die CPU im Gegensatz zur Ersatzkarte auch noch an einem bzw. mehreren MoRa im Loop sitzt. 3x 1440p im Office und Youtube, dezente Spiele kleine Spiele und 3D Anwendungen schafft die Karte, bei der iGPU würde 2x 1440p als maximum für Office, Youtube und paar Arcadespiele vollkommen genügen, ist ja eh immer dabei.

Alles was die 5700G übertrifft ist somit schon ein Segen.
 
Also erwartet ihr das diese gpu ne Vega 8 Leistung hat bzw auf deren Level. Naja also die gpu wird ja gewiss ne Gtx 750 ti schon schlagen. Mehr braucht ja der PC nicht zu leisten. Und selbst mit der gpu kann ich tiny Tinas wonderlands in Mittel bis niedrigen setting auf 720p zocken. Denke mal schon das man mit dieser onbaord gpu das Spiel zumindest starten können wird. Notfalls wird halt dann nur in 800x600 Auflösung gezockt. Dann packt es die onbaord gpu bestimmt auch.
Sonst naja wäre ich bestimmt enttäuscht wenn sie nicht mal ne Gtx 750 ti schlagen kann weil dann wäre sie ja um einiges schlechter als ne Gtx 540 und damit schlechter als ne Gtx 8800 bzw Gt 9600 mit 512 MB RAM und so.

Wir werden ja sehen wie schwach die onbaord gpu wirklich ist und ob halbwegs aktuelle games in 800x600 starten können. Wie ihr seht meine Erwartungen sind sehr niedrig angesetzt. Und bald werde ich da keine seperate gpu mehr brauchen um. Zu zocken. Spiele wie counter strike source oder c&c die Stunde null oder borderland 1 wird die onbaord gpu schon packen. Ich hoffe die gpu packt auch borderlands 2 flüssig in 1080p.
 
Also die Radeon 680 im 6800u ist auf Augenhöhe der MX450.
Damit kann man jetzt nicht unbedingt cyberpunk zocken, aber für Spiele mittleren Alters, aktuelle eSports Titel und gut gealterte Evergreens in 1080p reicht das locker.

Damit steht der Chip halt in Konkurrenz zur 1030/1050ti/6400. Irgendwo in dem Bereich.
Finde ich für eine IGP schon grundsolide.
Der riesige Pluspunkt ist ein anderer: RDNA2 kann HDMI 2.1 und damit 4k/120 für Office und Multimedia. Das könnte der Gamechanger werden, wenn es die IGP auch kann. Und dann 1080 per integer scaling? Das heißt Rockerleague Turnier in der Mittagspause auf dem 4k Monitor im Büro. Klingt nicht so schlecht, oder?

Wer hingegen von einer IGP im Bereich einer 3070 träumt hat einfach keine Ahnung.
Sorry Believers.
 
Zuletzt bearbeitet:
Ich warte dann einfach mal ab obs auch CPUs ohne Grafik aufgefropft gibt.
Bin großer Fan von dedizierter Hardware.
 
Ich warte dann einfach mal ab obs auch CPUs ohne Grafik aufgefropft gibt.
Bin großer Fan von dedizierter Hardware.
Ich hoffe auch, dass es Ryzen ohne iGPU geben wird.
Warum soll ich für was bezahlen, was ich nicht brauche :fresse:
 
Ich warte dann einfach mal ab obs auch CPUs ohne Grafik aufgefropft gibt.
Bin großer Fan von dedizierter Hardware.
Man kann ja auch eine Graka einbauen, wenn die CPU eine iGPU hat, man muss es dann nur eben nicht. Keine Ahnung ob es Modelle ohne iGPU geben wird, vielleicht als Resteverwaltung, wenn es viele I/O Dies mit defekter iGPU gibt.
Warum soll ich für was bezahlen, was ich nicht brauche :fresse:
Wobei die Frage ist, wie viel billiger die dann sein würden, denn es wird mit Sicherheit keine zwei Versionen des I/O Dies ohne iGPU geben, da AMD wie gesagt die Diefläche für die ganzen I/O Verbindungen brauchen dürfte.
 
Vielen ist es egal, oder sie kaufen es als Plus.

Es muss nicht immer alles ineinander gemerged werden finde ich.
Die Fehleranfälligkeit steigt. Fällt gar was aus, ist direkt alles im Sack.

Dann den teildeaktivieren Ausschuss als Lösung zu verkaufen bringts auch nicht.
 
Intel baut bisher Monolithen Chips.
Wenn die IGP im Chip einen Treffer hat, wird der Chip eine F CPU und die IGP deaktiviert.

Was AMD mit IO dies mit Treffer in der IGP macht oder ob es einen weiteren IO die ohne IGP geben wird werden sie selbst wissen...

Bzw es wird sich zeigen.
Dann den teildeaktivieren Ausschuss als Lösung zu verkaufen bringts auch nicht.
Ich denke du hast einfach keinen Plan von Reinst-Raum- und Chip Produktion.

In der Konsequenz würde deine Position bedeuten, dass mehr Chips designt werden müssen für die Varianten was die Kosten erhöht, gleichzeitig würde die yield/ Ausbeute sinken, was die Kosten erhöht.

Und das weil Chip Monolithen in deinem Kopf fehleranfällig sind... :confused:

Ich müsste nachschauen seit wann Intel IGPs in CPUen und northbridges verbaut hat, aber es sind sicher über 20 Jahre. Wieviele Intel Chips kennst du, die in der northbridge, oder im CPU Chip verreckt sind?

TLDR ich halte deine Position zu CPU und IGP für komplett absurd.
 
Zuletzt bearbeitet:
Anstatt der GPU hätte man besser den L3 Cache vergrößert ! (Ohne 3D zu nutzen) Das hätte die CPU schneller gemacht und die Kosten blieben niedrig...
 
Also die Radeon 680 im 6800u ist auf Augenhöhe der MX450.
Damit kann man jetzt nicht unbedingt cyberpunk zocken, aber für Spiele mittleren Alters, aktuelle eSports Titel und gut gealterte Evergreens in 1080p reicht das locker.

Damit steht der Chip halt in Konkurrenz zur 1030/1050ti/6400. Irgendwo in dem Bereich.
Finde ich für eine IGP schon grundsolide.
Der riesige Pluspunkt ist ein anderer: RDNA2 kann HDMI 2.1 und damit 4k/120 für Office und Multimedia. Das könnte der Gamechanger werden, wenn es die IGP auch kann. Und dann 1080 per integer scaling? Das heißt Rockerleague Turnier in der Mittagspause auf dem 4k Monitor im Büro. Klingt nicht so schlecht, oder?

Wer hingegen von einer IGP im Bereich einer 3070 träumt hat einfach keine Ahnung.
Sorry Believers.
Ja, ich bin aber überzeugt das wir mit den Desktopvarianten und FSR2.0 1440P locker ~30 - 60 FPS "in Konsolenqualität" Richtung 6500XT als Leistungsklasse erreichen werden
.
Alles steht und fällt mit der gesamten Konstruktion und Features wie Direct Storage und Cache größte / Infinity Cach reinspielen werden.
Notebooks/Notebook Chips sind da noch um einiges limitierter.
DDR5 erreicht ja jetzt ordentliche Datenraten die für IGPUs besonders wichtig sind, einzig die Latenzen sind zum teil noch ein Klotz am Bein.

Ich bin mir fast sicher das wir mindestens 24 Kerner oder sogar 32 Kerner sehen werden, mit der PCIE5 und DDR5 Anbindung, definitive Einsatzmöglichkeit als Prosumer Workstation.
Vielen ist es egal, oder sie kaufen es als Plus.

Es muss nicht immer alles ineinander gemerged werden finde ich.
Die Fehleranfälligkeit steigt. Fällt gar was aus, ist direkt alles im Sack.

Dann den teildeaktivieren Ausschuss als Lösung zu verkaufen bringts auch nicht.
Ganz im Gegenteil, Statistik sagt je mehr Einzelteile du hast in einem Konstrukt desto höher die Wahrscheinlichkeit das ein Teil ausfällt.
Die Kosten steigen ja deswegen nicht unbedingt.
Anstatt der GPU hätte man besser den L3 Cache vergrößert ! (Ohne 3D zu nutzen) Das hätte die CPU schneller gemacht und die Kosten blieben niedrig...
Man weiß noch nicht genau ob der L3 Cache nicht schon größer ist, aber geshared wird und von der IGPU als "Infinity Cache" mit genutzt wird.
 
@2k5lexi
es muss ja nicht jeder meine Position teilen.

Wenn du sie absurd findest, ok.
 
Man weiß noch nicht genau ob der L3 Cache nicht schon größer ist, aber geshared wird und von der IGPU als "Infinity Cache" mit genutzt wird.
Der L3 Cache ist genau so groß wie bei Ryzen 5000 und wird nicht als Cache für die GPU genutzt. Dafür ist er viel zu klein mit seinen 32MB.

edit: Ich liege eh falsch, der L3 Cache ist ja in der CPU. Im IO Chiplet ist gar kein Cache. Ob die GPU nun im IO Chip Cache hat und dieser von der CPU benutzt werden kann, halte ich für sehr unwahrscheinlich.
 
Zuletzt bearbeitet:
Anstatt der GPU hätte man besser den L3 Cache vergrößert ! (Ohne 3D zu nutzen) Das hätte die CPU schneller gemacht und die Kosten blieben niedrig...
Dann bist du wieder bei yield.
Cache braucht im Vergleich zu Rechenwerken viel Platz. Cache im Monolith ist teuer weil diespace und yield.
Plus die IGP sind im io chiplet, nicht im ccx.

Was du forderst bedeutet Io chiplet kleiner und ccx massiv größer machen. Ich denke dass macht wenig Sinn.
 
Der L3 Cache ist genau so groß wie bei Ryzen 5000 und wird nicht als Cache für die GPU genutzt. Dafür ist er viel zu klein mit seinen 32MB.

edit: Ich liege eh falsch, der L3 Cache ist ja in der CPU. Im IO Chiplet ist gar kein Cache. Ob die GPU nun im IO Chip Cache hat und dieser von der CPU benutzt werden kann, halte ich für sehr unwahrscheinlich.

L1- und L2-Cache werden bei den CUs der iGPU im IOD sein, als Grafikspeicher wird der DDR5 verwendet.
 
Die Fehleranfälligkeit steigt. Fällt gar was aus, ist direkt alles im Sack.
Wieso sollte alles hin sein, wenn die iGPU eine Ausfall hat? Dann deaktiviert man sie im BIOS und baut eine Graka ein oder nimmt die Garantie in Anspruch. Außerdem halt ich es für wenig wahrscheinlich das ausgerechnet der Teil der CPU ausfällt und wenn, dann wäre es wirklich das geringste Problem von allen Komponenten die ausfallen könnten, denn wenn der RAM Controller oder der PCIe Host Controller im I/O Die ausfallen würden, wäre die CPU komplett unbrauchbar.

Dann den teildeaktivieren Ausschuss als Lösung zu verkaufen bringts auch nicht.
Was meinst du dann was für Chiplet z.B. in einem 5900X oder 5600X stecken? Wahrscheinlich solche bei denen ein oder zwei CPU Kerne defekt sind! Hast du eine SSD? Dann steckt da vermutlich kein einziges NAND Die drin, bei dem nicht schon ab Werk wenigstens ein NAND Block einen Defekt aufweist! Es ist normal das Chips Fehler haben und die werden extra so designt, dass man in vielen Fällen fehlerhaften Bereiche deaktivieren und den Chip trotzdem noch nutzen kann, da es sonst ungleich teurer wäre, wenn man überall nur 100%ig fehlerfreie Dies einsetzen würde und bei HDDs ist es übrigens nicht anderes, auch da hat fast jeder Platte mehr oder weniger viele Fehler auf der Oberfläche, bei meiner allerersten HDD war da noch eine Liste auf dem Label und man musste die beim Low-Level Format (das konnte man damals noch wirklich machen) eingeben. Seit Jahrzehnten ist das aber transparent und es gibt nur noch ein Low-Level Format im Werk, aber die Oberflächenfehler sind immer noch normal, man erfährt nur nichts mehr davon und Ausschuss ist es deswegen noch lange nicht.
 
@Holt das ist mir durchaus alles bewusst.

Ich empfand es immer als Pluspunkt das ich die Wahl hatte CPUs so zu kaufen das es entweder integriert war oder halt nicht.
Da es nach Wegfall dieser Option aussieht, finde ich es schade und habe es hier angebracht.

Mag sein das ich da rustikal ticke. Das soll nun aber auch nicht den Thread hier weiter füllen. Ich verstehe die anderen Ansichten ja auch.
 
Ich empfand es immer als Pluspunkt das ich die Wahl hatte CPUs so zu kaufen das es entweder integriert war oder halt nicht.
Ne Wahl hattest du doch nie!?
Es gibt doch gar keine Modelle am Markt, wo du als Nutzer die Wahl hast!? Oder was meinst du jetzt mit Wahl genau!? Sowohl Intel als auch AMD haben doch nur eine einzige Grundproduktion welche entscheidet, in welchem CPU Design eine GPU integriert ist und wo nicht. Da wo man eine vorsieht, gibts dann potentiell noch ein Option diese zwar zu fertigen aber nicht aktiv zu schalten. Bei Intel zumindest häufig, bei AMD eher weniger. Und da wo keine vorgesehen ist, wirst du auch mit Betteln keine bekommen...

Ne Wahl sieht für mich anders als. Das wäre in etwa so ich geh in den Konfigurator und wähle die CPU Architektur, Zen2, Zen3, Zen4, Alderlake, ... kombiniere das mit einer Anzahl von Kernen (ggf. P-/E-Cores) und schalte dann ne GPU dazu, idealerweise mit variabler Größe. Am Besten konfiguriert man noch das Speicherinterface in der Breite und die IO Fähigkeiten des Chips, also 24 PCIe Lanes, 48 PCIe Lanes, 64 PCIe Lanes und noch besser, ob das Gen3, Gen4 oder Gen5 sein soll.

Wenn man es genau nimmt, bei AMD wäre sowas sogar theoretisch vorstellbar. Denn man bräuchte dafür nur ein paar mehr "IO" Dies ins Angebot rein nehmen und müsste vllt noch ne weitere Plattform etablieren, die zwischen der Workstation in Big Threadripper Kiste und der sehr schmalen AM4/AM5 Plattform agiert um den IO Bedarf gerecht(er) zu werden. In wie weit das aber wirklich Punkte bringt, ist ne ganz andere Baustelle. Da der Desktop Markt nach dem Corona Boost wieder wie davor auch am Anteile abgeben ist, stellt sich da eher die Frage, wer soll sowas kaufen!? Die paar Hanseln, die noch an den riesigen Trümmern fest halten kann man mit viel weniger Aufwand und mehr Kompromissen bedienen. Und der Rest kauft eh Mobile... Ein Design, was also ne GPU mitbringt ist da nicht nur sinnig, sondern regelrecht notwendig. Vor allem, wenn man es mit Fähigkeiten ausstattet, das nahtlos mit einer dGPU paaren zu können und den User ohne Aufwände die GPUs dann hin und her switchen lassen kann, wo es immer notwendig ist...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh