Alder Lake-S: 8+8 Kerne bei Intel so schnell wie 16x Zen 3

Aha ich dachte IPC sei unabhängig vom Takt,also indirekt dann doch abhängig davon. Naja so ist das halt. Als Beispiel 30 % mehr IPC aber durch geringeren Takt 10 % weniger,dann sind das doch noch immer 20 % am ende was mehr Leistung dabei rumkommen würde. Ich sehe da keine bedenken. Und der Takt wird schon nicht auf Ewig runter gehen. Bezweifle das wir da unter 3 ghz am Ende landen werden. Soviel ist auch in Zukunft schon mal sicher. Sonst hätten ja die GPU ´s das selbe Problem mit den Zahlreichen Transistoren usw. Sehe da also keine Probleme. Und naja heißt halt in Zukunft das der Funktionsumfang halt auch langfristig darunter leiden wird weil sonst der Stromverbrauch und die Temperaturen zu stark zu nehmen würden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Knackpunkt dabei ist - in allen Fällen muss du für maximale Peak Performance die anderen nicht benötigten Kerne bestenfalls in Ruhe lassen. Denn lastest du diese aus, wird das Powercap recht schnell anfangen zu greifen und dir die Peak Performance zusammen brechen...

Das Resultat war so gemeint, aber den Weg dahin hatte ich anders gemeint. Meinte das der Kompromiss sein kann das die großen Cores durch die technische Eingliederung der kleinen (fiktiv) mal nur noch 12mm² statt 15mm²/Core haben, irgendeine Bandbreite beschnitten werden muss damit die anderen Cores mit angebunden werden können (Beispiel Lanes Teilung PCI-E mit 2 GPUs/USB3 etc.). Durch weniger Fläche= höherer Wärmestau=niedrigerer Takt. Durch Bandbreiten splitting= langsamerer Cache oder Austausch zwischen den Cores/Ringbus usw.

Unterm Strich bleibt die Frage (es wird keiner von uns beantworten können) ob Adler Lake ohne die little Cores bei gleichem Strombedarf in Spielen nicht mehr Performance hätte wie mit den little Cores....

Ich glaube nicht daran das Intel, respektive die Reviews im Herbst sagt/sagen "hey, wir haben vor 6 Monaten Rocket Lake bis auf das letzte ausgequetscht und sind jetzt soweit in 10nm einen 3 Generationen Sprung bei der IPC zu machen und das bei der Hälfte des Verbrauchs und" Es wird eine Sache des Kompromisses sein. Wir dürfen nicht vergessen das ADL immer noch eine Intel Entwicklung unter der Führung und den Ingenieuren ist die Intel jetzt auf die Straße setzt oder durch altes erfolgreiches Personal was aktiv zurück gewonnen wurde ersetzt. Wenn die mit ADL so zufrieden sind, dann wäre die Personaldiskussion überflüssig und die würden nicht ihre Leute durch andere, die sich vor Jahren das letzte Mal im Konzern bewährt haben, ersetzen. Das ist ein Zeichen das denen der Arsch auf Grundeis geht und sonst keine Zukunft sehen, wahrscheinlich nicht mal in der ADL Architektur. Natürlich reine Spekulation
Beitrag automatisch zusammengeführt:

Sonst hätten ja die GPU ´s das selbe Problem mit den Zahlreichen Transistoren usw.

Je kleiner die GPU, desto höher der Takt. Siehe RX6900 ca. 2000Mhz Game Clock vs. 6700XT mit ca. 2500Mhz. Die Transistoren sind auch einer der Gründe warum GPU Preise (UVP) so explodiert sind. Weiter müssen die immer krasser gekühlt werden, guck dir mal eine GeForce GTX8800 an und jetzt eine RTX3070. Ist bei CPUs ebenso, früher hast da auf den Athlon 2xxx+ einen 20€ Kühler drauf gemacht und konntest noch OC betreiben, heute brauchst einen Kühler für 60€
 
Zuletzt bearbeitet:
Dein Athlon XP 2xxx+ hatte aber auch nur einen 100mm² großen Die und maximal 70W Abwärme. Ein aktueller Intel kommt auf fast das Dreifache und verbläst auch das Dreifache an Leistung. Natürlich muss da dein Kühler fetter sein. Ein Zen3 Chiplet ist so groß wie der gesamte Athlon XP...
 
Ja deswegen , meine ich ja. Die Performance Sprünge sind von der verfügbaren Fertigungstechnik limitiert. Da kann ich auch 8+20 Kerne haben... Ab einem gewissen Punkt begrenzt die Physik.
 
Ja gut das wird so sein. Das heißt je mehr Transistoren eine CPU hat,desto heißer und Stromfressender wird diese sein. Kein Wunder das da nur noch shrinken hilft und sonst nix mehr. Bin gespannt wie es weiter geht. Denn irgendwann wird das mindeste ne Wasserkühlung sein und Luftkühlung wird sogar dann bei der niedrigsten CPU nicht mehr gehen. ABer bis dahin vergehen gewiss noch einige Jahre bis es so kritisch werden würde.
 
Zumindest produzieren Transistoren bei der Schaltung Wärme.

Gibt auch bekanntlich gute Luftkühlung die viele WaKü in den Schatten stellen.

Immerhin schrumpft zeitgleich die Fertigung und somit die Wärme... Vermute mal eine aktuelle CPU in 40 oder 60nm wäre wahrscheinlich gar nicht mehr zu kühlen... Aber um da so tief im Thema zu sein bin ich beruflich zu lange raus um mich damit auseinander zu setzen
 
Es ist doch eher so, dass die Wärme immer größer wird und auf einer immer kleineren Fläche abtransportiert werden muss.
 
Hmm warten oder jetz was kaufen -.- voll nervig ^^ Kann mich einfach nicht entscheiden ....
 
Behalt dein gebrauchtes Zeug.
 
Hmm warten oder jetz was kaufen -.- voll nervig ^^ Kann mich einfach nicht entscheiden ....
Jetzt ist eh egal, warten!

ADL wird mindestens auf RKL Niveau sein, die Taktraten sind nahezu identisch. RKL Boards sind noch schweine Teuer, die CPUs auch noch zu teuer dafür das ADL bald kommt. Was du kaufst ist egal, ob ADL oder RKL , nur ADL wird wohl nicht deutlich teurer sein als RKL jetzt ist. RKL wird aber deutlich günstiger bis ADL kommt.

Und ganz wichtig: Die neuen großen ADL Boards werden wohl nur DDR5 unterstützen. Das ist der Punkt warum ich mich dagegen entschieden habe,DDR5 sind bei 32GB sicher nochmals 300€, wenn nicht sogar mehr
 
Für 32 GB DDR5-4800 sind Preise von 399$ angekündigt, und die höher getakteten Module werden sicher nicht günstiger werden.

Wer sich also zum Warten entscheidet wird vermutlich etwas länger warten. :oops:
 
Wer jetzt allerdings ein DDR4 System kauft der hat auch mindestens 2,3, ich eher 5 Jahre Ruhe und bis dahin....

RAM Preise sind eh extrem hoch, also kannst da auf dem Dezember Niveau dann 329$ rechnen. In drei Jahren dann vielleicht 200?

Deswegen habe ich mich für RKL entschieden, 400€ ist eine CPU für 32GB RAM🤔🤔🤔
 
Ich stecke ja auch in der Zwickmühle, die mutmaßlich 20% höhere IPC die Alderlake angeblich bietet würde ich gerne mitnehmen.

Und gute ordentlich Taktbare 32GB Kits mit Samsung B-Die DR kosten ja auch wenigstens um die 300€.

Allerdings gibt hier der Gebrauchtmarkt teils 20%-25% geringere Preise her, dabei kann man also etwas sparen.

Und Z690 Boards mit DDR5/PCIe 5 Support werden mit an Sicherheit grenzender Wahrscheinlichkeit auch teurer als die Z590 Counterparts.

Die Frage ist nur um wie viel teurer.
 
Zuletzt bearbeitet:
Ich finde 300€ für ein sehr gutes Mittelklasse Z590 schon exorbitant teuer.

In welcher Auflösung spielst du? In 4k brauchst du die IPC nicht, es sei denn du steckst im selben Loch wie ich. So nutze ich nur Flugsimulatoren und die brauchen CPU Power, je mehr, desto besser, dann bleibt am Schluss die Frage was man sich das kosten lassen will.

Wenn man bis ADL wartet seh ich zwei Rechnungen. Die RAM Frage Mal außen vor gelassen.

Rocketlake
I7 1700k 300€
Board, je nach Typ 170/230€

470/520€

ADL
I7 12700K ca. 430€ ?
Board 220/330€ ?

650/760€

Kann man sich fragen ob man ein sehr gutes Z590 Board, oder ein kleineres solides Z690 Board will/braucht. Dann sind es nur 130€ Unterschied... Die Preise sind nur Vermutungen, aber bei Marktbeobachtungen hatte ich das letzte Jahr immer eine goldene Hand
 
Wenn ich mal wieder anfange zu spielen wird das Battlefield 6 sein, das Spiel wird Maps mit bis zu 128 Spielern haben, un die Physik läuft auch auf CPU.

Also CPU Power wird da schon gefragt sein für ein Gameplay ohne Lags.

Mittelklasse geht für mich bei Z590 Boards so bei 190€-220€ los.

Wen du etwas Geld sparen willst beim Kauf könnte sich ein Blick ins Alternate Outlet lohnen.

Es gibt auch brauchbare 32GB DDR4-3600 Kits für ~210 z.B. mit Hynix CJR.

DDR5 wird schon teurer, und die Latenzen bei den günstigen DDR5 Kits locken mich auch nicht so. :hust:
 
Danke erstmal für eure Aufmerksamkeit :)

Meine CPU , Mainboard , RAM und Gehäuse gehen an frauchen :) Somit brauch ich die Sachen neu ... Ich Zocke Hauptsächlich Rainbow Six Siege in FHD 240 Hz , Zocke aber auch Sachen wie Cyberpunk und andere Triple AAA Titel auf meinem C1 65 Zoll.

Wenn ich das richtig sehe ist es eigentlich egal ob ich mir z.b. einen 10850K hole oder einen 11700k ? Oder Übersehe ich was ? PCIE 4.0 SSD brauch ich nicht , wird nur gezockt an dem PC . Bei AMD keine ahnung , ist bestimmt 15 Jahre her das ich da mal was hatte ^^

Nervig einfach nervig ^^
 
Zuletzt bearbeitet:
Mittelklasse geht für mich bei Z590 Boards so bei 190€-220€ los.
Aber nicht mehr bei ADL Release. Da wirst bei 170€ für ein MEG Z590-A oder Asus Prime sein. Asus ROG/MSI MPG gaming Carbonbei 230.

Ich habe im April 260 für mein MPG Carbon bezahlt, jetzt mit Cashback kostet es auch so in der Gegend.... Die werden zu ADL Release fallen
Beitrag automatisch zusammengeführt:

Wenn ich das richtig sehe ist es eigentlich egal ob ich mir z.b. einen 10850K hole oder einen 11700k ? Oder Übersehe ich was ? PCIE 4.0 SSD brauch ich nicht , wird nur gezockt an dem PC . Bei AMD keine ahnung , ist bestimmt 15 Jahre her das ich da mal was hatte ^^
Kommt auf den Preis an, da sollten mindestens 60€ zwischen liegen,sonst lohnt der 10er nicht mehr, es sei denn du willst 10 Kerne....

AMD X5800 liegt ungefähr beim Preis des 11700K, die Boards sind günstiger und die CPU auf selben Niveau,teils schneller, eigentlich die P/L bessere Wahl
 
Zeitlich begrenzte Cashback Aktionen die mitunter mit WKZs von Intel finanziert werden würde ich jetzt nicht unbedingt als Referenz für Preise ansehen.

Und ein MSI Z590-A ist keine Z590 Mitelklasse sondern ein Z590 Einstiegsboard bzw. Z590 Holzklasse. :oops:
 
Zuletzt bearbeitet:
Gut dann schau ich mir mal den 11700K und 5800x genauer an, ein Kumpel empfielt mir zum 11700K das Gigabyte Z590 Aorus Master ... Habt ihr eine Meinung zu dem Mainboard ?? Würde zu meiner Grafikkarte passen ^^ Das soll zwar kein Kriterium sein aber schlimm wäre es auch nicht ;) .

Ab welchem Preisbereich machen denn Z590 Bretter Sinn eurer Meinung nach ??
 
Zeitlich begrenzte Cashback Aktionen die mitunter mit WKZs von Intel finanziert werden würde ich jetzt nicht unbedingt als Referenz für Preise ansehen.

Und ein MSI Z590-A ist keine Z590 Mitelklasse sondern ein Z590 Einstiegsboard bzw. Z590 Holzklasse. :oops:
Naja, ein Tomahawk liegt auch aktuell schon bei 220€ Rum... Wie gesagt waren die MPG Boards auch schon ohne Cashback bei 260... Bis zu den 690er tut sich da noch was.
 
Oder fällt dir irgend eine technisch umsetzbare andere Lösung ein außer die Leistungsaufnahme immer weiter explodieren zu lassen?
Die Cores massiv verbreitern und vertiefen, die IPC dadurch um 50% steigern und Takt um ⅓ absenken.
Durch die dadurch mögliche Spannungsabsenkung - die geht quadratisch in die Rechnung ein - wird die Vergrößerung der Kerne überkompensiert.
Kann doch nicht so schwer sein... ;)
 
Kann doch nicht so schwer sein... ;)
Funktioniert nur halt so nicht. "Cores massiv verbreitern und vertiefen" - das letzte mal was ansatzweise so einer Aussage nahe kommt war Ivy zu Haswell bei Intel. 3x ALUs zu 4x ALUs. Meinst du das hat irgendwo auch nur ansatzweise was von 33% mehr Performance gebracht in der Realität?? Neee... Der IPC Vorteil bei derartigem Mittelaufwand war ein Witz.

Mal davon ab - in all der Zeit, wie man jetzt schon, sagen wir ab x86 Start, da dran rum doktert, die pro Thread Performance zu steigern ist IPC der ehrlich gesagt sogar kleinere Faktor. Mit all den Kopfständen und Optimierungen, die da bis dato eingeflossen sind. Pipelining, OoO Execution, mehr/breitere Ausführungseinheiten größere Caches, speziellere Einheiten, die komplexere Befehle in weniger Takten durchführen usw. usf.
IPC ist nicht unbedingt das, was hier Welten Potential hat. ;) Zudem ist IPC gegen Takt auch nur ne Milchmädchen Rechnung. Was bringt dir bitte 1/3tel weniger Takt bei 50% mehr IPC - das ist Plus Minus identische Leistung...? Ob all der Aufwand lohnt, das Zeug so klein zu bekommen, dass da überhaupt erstmal 50% mehr pro Takt Performance rum kommen, ist auch nicht gesagt. Man muss also eher gucken was konkret sinnvoller ist - wenn du halt 50% IPC drauf bekommst - warum sollte man dann nicht wieder den Takt maximieren um noch mehr einfache Leistung zu erhalten? Das löst das Problem nicht...
 
Ja ich dachte ipc sei unabhängig vom takt. Also gibt es also doch ne art abhängigkeit. Naja ist halt so das ipc uns in zukunft dennoch die gröste hoffnung sein wird, weil sich nicht mehr so viel tuen wird. Aber wenn nun ein programm nicht mehr befehle geben kann und somit auch nicht mehr im fliesband abgearbeitet werden kann dann gibt es einen rückstau und die erhoffte mehrleietung bliebe dann aus. Ich frage mich ob ne ipc steiferung bei ner anwendung nicht auch mal nen limit ist. Weil es gibt keine anwendung die unendlich durch alleine nur durch ipc gesteigert werden kann und das auch immer mehr. Sonst würdem wir soviel ipc steigerungen sehen wie 1000 % oder 100 %. Da dies aber nicht so ist, wird es da auch ne grenze geben. Und gewiss ist es auch sehr aufwendig für den hersteller. Und auch kostenintensiv. Und 50 % wäre auch schon für den hersteller sehr teuer. Nix ist umsonst. Und es gibt auch bei ner Software nen limit das es auch da nicht mehr gesteigert werden kann. Sonst könnte man ja unendlich die ipc steigern. Also von daher wird früher oder später mal jede Anwendung nicht mehr so hoch gehen. Ich weis aber das ipc kern unabhängig ist. Wenn die steigerung von z. B 16 auf 32 kerne nur 10 % mehr leistung bietet dann kann man das mit ipc wunderbar ausgleichen. Vielleicht erreicht man so dann einen gleichstand von 16 auf 32 kernen. So das dann 32 kerner ganz überflüssig werden wer weis. Wenn man nun tausende sachen offen hat, dann hat man wieder nen nutzten von mehr kernen. Ipc wird dann nicht mehr so viel nutzen. Als beispiel mehre umwandlungs programme, zocken nebenbei bildbearbeiten, aufnehmen usw. Das dann am besten alles gleichzeitig. Ab da wird ipc dann nicht mehr so viel bringen weil sich dann das ganze auf alle anwendung verteilt. Nicht überall bringt ipc vorteile. Naja das was ich geschildert hatte stellt ja ein sonderfall dar. Und sobald dann z. B cache limitiert dann bringt selbst ipc steigerung nix mehr. Weil die mehr leistung durch zu wenig cache aufgefressen wird. Also nicht nur der takt kann den vorteil auffressen sondern auch andere faktoren.
Bin gespannt ob man wirklich nsch jedem shrink und optimierung ipc steigern kann und wenn ja um wieviel. Wenn man nun unrealistische und überzogene forderung hat, dann könnte man entäuscht werden. Wie nach jedem shrink und Optimierung mindestens 30 % und mehr ipc. Denke mal da kann weder intel noch amd damit dienen. Aber schön wäre es so viel wirklich mit jeder neuen generation zu erleben. Freilich wird dann auch sowas wie die menge des caches angehoben werden müssen. Aber ob nun l1 und l2 cache immer mit angehoben werden ist ne andere frage. Ich bin auf den cache limitierung gestosen. Ich ärgere mich das ich die ipc steigerung nicht nutzen kann und kann somit nie die cpu vollständig auslasten.
Mamchmal ist das ein weiterer limit. So ist das halt wenn man 3 intensive programme gleichzeitig am laufen hat.
Da denkt man cpu sei flexible und dann wird man entäuscht wenn dieser es doch nicht so ganz ist. Muss nun hoffen das sowas vielleicht in zukunft möglich ist. Ich werde aber dann nicht noch extremere anforderungen haben wie 5 und mehr intensive programme gleichzeitig nutzen zu wollen. Da würde ich dann der cpu zu viel abverlangen. Ich hatte es mal übertrieben gehabt wie 10 in der warteschlange gleichzeitig umzuwandeln. Das ergebnis war dann spiel abgestürzt und fehlerhaft umgewandelte aufnahmen. Ich dachte halt viel hilft viel. Je mehr desto besser. Seid dem das erlebt habe bin ich wenigstens auf den boden der tatsache zurück gekehrt. Ne cpu ist also keine wunder maschine die alles machen kann.
Ne grenze wird es somit immer geben egal was man macht. Dennoch wird es spannend werden wie es weiter geht. Vielleicht geht sowas extremes doch eines tsges, wer weis.
 
mal was für mein Verständnis....
Es geht doch darum, dass die Kerne, die es gibt, alle Operationen möglichst effizient und effektiv berechnen? D.h. diese sollen so viel berechnen wie es in Zeit x möglich ist und dabei möglichst wenig Energie verbrauchen. Weniger Energie erreiche, wenn es sehr günstige (einfach zu berechnende) Operationen gibt (bspw. gute Programmiersprachen) und die Leiterbahnen (so nenne ich es mal) möglichst wenig Energieverschwendung zulassen.
Also, dass was reingeht (zu berechnende Befehle und Strom) möglichst ideal vorliegen und genutzt werden und das was als Abfall anfällt (Abwärme), möglichst wenig ist und sonst möglichst gut abgeführt werden kann?
Oder übersehe ich da was? Weil irgendwie zeigt die Entwicklung doch nur in die Richtung; ich stecke mehr Strom rein, erlaube zeitgleich mehr Kernen mehr Operationen gleichzeitig und schneller zugleich zu berechnen. Aber irgendwann kann ich halt nicht mehr Strom reinstecken, weil es sonst für den Durchschnittsuser nicht mehr zu kühlen sein wird?
Wie wird man das Problem zum Beispiel in den nächsten 10Jahren umgehen wollen, seitens der Hersteller?
 
Na vielleicht wird es so gelöst das anstatt immer mehr grose kerne immer mehr kleine verwendet werden. Wenn wir bei 8 grosen und 32 kleinen kernen angekommen sind wird es spannend werden. oder man verringert die grosen immer weiter und dann wären es 4 grose und 32 kleine kerne. Damit kann man das hitze und steomverbraten reduzieren. Oder man verwendet immer kleinere chiplet wie amd nur halt extremer also kombination von amds und intels technik. Das dürfte noch interessant werden. Da wird man gut gegen den immer mehr steigendes stromverbrauch und abwäme ankommen können. Ich sehe also sonst keine option mehr. Die zeiten von immer mehr montolischen cpus sind langsam aber sicher vorbei. Weil dass kaum noch einer kühlen kann und auch die stromrechnung immer weiter ins unermessliche steigern wird. Solche sachen das die umgesetzt werden begrüse ich sehr. Man kann es auch super extrem machen wie 32 kleine kerne ohne die grosen. Sowas würde ich mir durchaus holen, alleine deshalb dank weniger abwärme und stromverbrauch. Klar halt dann ohne avx, ohne ht aber dafür bekommt man ja Leistung satt. Also etwas positives. Da kann man dann auch mal auf gewisse sachen schon gerne berzichten.
 
Oder übersehe ich da was? Weil irgendwie zeigt die Entwicklung doch nur in die Richtung; ich stecke mehr Strom rein, erlaube zeitgleich mehr Kernen mehr Operationen gleichzeitig und schneller zugleich zu berechnen. Aber irgendwann kann ich halt nicht mehr Strom reinstecken, weil es sonst für den Durchschnittsuser nicht mehr zu kühlen sein wird?
Wie wird man das Problem zum Beispiel in den nächsten 10Jahren umgehen wollen, seitens der Hersteller?
Dagegen steuert man ja indem man mit Powercaps arbeitet. Um so breiter die CPUs werden, desto weniger relevant ist die Leistung pro Thread. So nem riesen Prozessor beim Numbercrushing ist das total egal ob er seine Leistung jetzt doppeltem Takt bei halber Core Anzahl oder halbem Takt bei doppelter Core Anzahl erreicht. Am Ende ist das zumindest in gewissem Rahmen +- identische Performance.

Nur wir hier im Mainstream haben das Problem, dass viele der Alltagsaufgaben nicht durch Parallelität mehr Leistung erzeugen, sondern die absolute Geschwindigkeit einzelner Tasks den Speed bestimmt. Der Spagat, immer mehr Bumms in Cores zu ballern ist gerade im Mainstream absolut notwendig. Die Parallelität geht dann über die Breite. Und damit da obenraus nicht ausufert und den von dir beschriebenen Fall annimmt, wird oben das Powerlimit hart gesetzt.
So ein 16C Ryzen verliert sehr viel theoretische Leistung mit 142W. Es kommen nur noch ~4GHz an. Könnten aber auch 5GHz sein. Kann man nur halt nicht kühlen. Mit noch mehr Breite wird das auch noch schlimmer - irgendwann kannst du dann auf diese Leistung verzichten, kostet Waferfläche, kannste eh nicht nutzen, also muss was anderes her -> das wäre der Big/Little Ansatz.

Was die Programmierung angeht, auch damit hast du vollkommen recht. Da liegt extrem viel Potential. Nur auch hat das wieder nen gewaltigen Pferdefuß - schau dir die Kritik an, wenn da mal ein Game in 2020 oder 2021 SSE4 Support weggekürzt bekommt und mindestens SSE4.2 oder so verlangt. -> da gehen halt viele auf die Barrikaden. Eine der größten Vorteile warum x86 so weit verbreitet ist, ist die Kompatibilität auf ewig und fünf Tage. Nur ist das auch eine riesiger Entwicklungsbremse um neue Befehlserweiterungen einzubringen. Die Entwickler drehen halt im Zweifel dann mehrere Runden und man muss die Software auch so ausrichten, dass die langsamere/ineffizientere Geschichte nicht bedeutet, dass es nicht mehr nutzbar ist. Bei Games bspw. -> KI und Physik, die 32C+ spielend auslastet? Oder massiven Gerbauch von AVX2/512 und Co. macht? Kein Ding - blöd nur, dass sowas Keiner hat. Also dümpeln die CPUs mit quasi keiner Last rum, weil da draußen auch Leute mit 2C oder 4C unterwegs sind. Und das sind sogar die meisten (weil Notebooks).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh