RDNA 3 und Chiplet-Design: AMD stellt die Radeon-RX-7000-Karten vor

iLLuminatusANG

Legende
Mitglied seit
05.01.2008
Beiträge
5.655
Ort
Heilbronn
Eine Karte kostet halt dennoch knapp 700€
Das lag doch in seinem Budget von unter 1000€ ?
Billiger wird eine Karte neuerer Generation mit mehr Leistung nicht. Da muss man halt mal realistisch bleiben. Oder Terminus das sogar afdeppen verstehen " gamer uffwache!"

Und die Karte tuts noch bis Mitte nächstes Jahr die neuen Karten zu normalen Preisen verfügbar sind.
Wer hier 4K full power erwartet, bewegt sich nicht mehr als, Zitat"durchschnitts-Gamer". Das war ja worauf es sich bezogen hat, was durch dein Zitat nicht mehr genannt wurde.

Von daher passt das.

@Melony
gibt es etwas Besseres, zu dem Preis, wenn man als Durchschnittsgamer jetzt aufrüsten möchte?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
3.958
Wieder mit saftigen Aufpreisen. Ob sich das in der Performance wiederspiegeln wird? Man sieht es ja bei den XTXH. Selbst 50 % Mehrleistung wären kein schlechter Deal wenn man mehr als 60 FPS in 4K mit brauchbaren (sinnvollen) Settings möchte.
 

Quantum Luke

Enthusiast
Mitglied seit
14.02.2011
Beiträge
830
Ort
Deutschland

Mouma

Experte
Mitglied seit
02.08.2016
Beiträge
180
Der Durchschnittsgamer hat eine 5 Jahre alte 1080p Karte.
Geld-zum-Fenster-Hinausschmeißer kaufen sich eine 700€ Karte.
Es ist ein Hobby. Es gibt Leute, die investieren tausende von Euronen in ihren Garten. Da sagt auch keiner was.
 

chup5

Enthusiast
Mitglied seit
11.07.2009
Beiträge
44
Der Durchschnittsgamer kauft sich jetzt eine 6900XT und ist sehr gut bedient.
Der durchschnittsgamer gibt maximal 300 Euro für ne graka aus. Und da tun sich Eltern für ihre Kinder schon schwer. Wer soll denn mal eben 300 Euro locker machen? Games kaufen ist es ja nicht - die Hardware dafür
Ist es. Und dann brauchste noch den Monitor dafür. Früher hatte ich auch immer den krassen shit. Jetzt isses n dummes ips
Ohne Extras mit ner vega56. Reicht. Klar für high-fps-lowping iss das nix. Aber das ist such nicht casual.

Ich verstehe hier beide Seiten nicht - hahaha amd hat verkackt oder yesss amd rockt voll hart. Wir reden über 1000 Euro. Ich bin zu geizig für ne 6800. schwieriges Thema.

Liebe fanboys beider Lager: macht mal halblang
 

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
3.958
Der Durchschnittsgamer hat eine 5 Jahre alte 1080p Karte.
Geld-zum-Fenster-Hinausschmeißer kaufen sich eine 700€ Karte.
Nicht zwangsweise. Es ist ein Spiel der Reinvestition und natürlich eine Frage der Ansprüche. 1080p60 "reicht" zum Erleben. Dazu kommt noch wie viel Zeit man für Videospiele investiert. Bis 1000 € kann man respektive der "Nutzungsgebühr" bei Wiederverkauf noch rechtfertigen. Darüber wird es unnormal, was sich auch im Wertverfall wiederspiegelt.
 

Fagus

Enthusiast
Mitglied seit
31.10.2011
Beiträge
547
Und nein es war nicht immer so. die 970 und 980 wurden zeitleich vorgestellt. die 1070 und 1080 usw.
Bei der 900er Generation gab es nur die 980 und 970 (keine 990). Später folgte, wie heutzutage immer noch üblich, die 980Ti (und schließlich die Titan). Bei der 10er Generation dasselbe. Und so ähnlich ist es jetzt auch: 4090 und 4080 sowie 6900XTX und 6900XT. Man hört jetzt halt mit ..9.., anstatt mit ..8.. auf. Aber stimmt natürlich, die Preise sind kein Vergleich mehr zu früher. :shake:
Geld-zum-Fenster-Hinausschmeißer kaufen sich eine 700€ Karte.
"Enthusiasten" :cry:
 

n3cron

Experte
Mitglied seit
13.05.2020
Beiträge
2.918
Ort
Großhabersdorf
@Melony
gibt es etwas Besseres, zu dem Preis, wenn man als Durchschnittsgamer jetzt aufrüsten möchte?
Kommt auf die Bedürfnisse drauf an.
Wenn es einfach für FULL HD alles auf Ultra/High seien sollte reicht hier sowas schon gut aus: https://geizhals.de/asrock-radeon-r...0-ga2rzz-00uanf-a2619292.html?hloc=at&hloc=de

Ab WQHD darf es schon 6700/6800 mit oder ohne XT sein, alternative eine Nvidia 3060TI/3070. Alles was drüber ist wäre nicht unbedingt "durchschnitt" Gamer.
Edit: Wer schon last Gen hat, brauch nicht aufrüsten und auch wer mit einer 2070/2060+ ausgestattet ist oder eine 5700/5700XT hat, müsste nicht aufrüsten.

Achja auch interessant für die Statisten:
1667637134738.png
Quelle: https://www.videocardbenchmark.net/gpu.php?gpu=Radeon+RX+6600&id=4465
 

DTX xxx

Enthusiast
Mitglied seit
03.05.2013
Beiträge
2.530
ComputerBase die Vorort waren haben schon zum Eventartikel geschrieben, dass AMD bestätigt hat, dass man keine Konkurrenz zur 4090 bieten kann.

Ich möchte mal eine andere Sichtweise einbringen.
Intel setzt AMD mit Kampfpreise unter Druck im CPU Bereich. Und AMD setzt mit Kampfpreise Nvidia unter Druck.
Die 7900XTX wird schneller sein als 4080 und dazu günstiger. Gleichzeitig kann ich mir gut vorstellen, dass noch etwas am Takt geschraubt wird. Und wenn man dadurch vielleicht 30% an die 4090 kommen kann, ist der Markt für eine ~1300€ Karte größer, als für 1569€ und 1949€.

Zudem möchte ich mal die enttäuschten und schimpfenden Freunde der Hardware mal fragen, ob diese möglicherweise andere Ideen hätten, müssten sie dieses Geschäft leiten?
Mit der Tatsache, dass man nicht mit der 4090 konkurrieren will, wäre es doch ziemlich dümmlich, solche Vergleichsbenches zwischen 4090 und 7900XTX zu präsentieren. Oder anders geschrieben. Wer dies von AMD machen würde, dem würde ich dann gleich mal vor die Tür setzen. Praktisch Nvidia eine Bühne geben auf der Vorstellung seiner eigenen Produkte, mit denen man nicht mit einer 4090 konkurrieren kann, ist wie schon geschrieben richtig dumm. Und da es keine 4080 gibt, kann man eben keine Vergleiche machen.

Übrigens: Für mich ist dieser Markt eh nur ein Zeichen, dass wir mit dieser Menschheit in die Klimakatastrophe rasen werden.
Schon in 10 Jahren werden Massen an Menschen flüchten müssen vor der Erderwärmung. Und wir hören nicht damit auf, noch mehr elektrische Geräte in den Markt zu pressen mit noch mehr Leistungsaufnahme.
 

n3cron

Experte
Mitglied seit
13.05.2020
Beiträge
2.918
Ort
Großhabersdorf

Nozomu

Legende
Mitglied seit
11.03.2011
Beiträge
11.807
GPU Markt bleibt für mich wohl wieder tot...zum kotzen :stupid:
 

n3cron

Experte
Mitglied seit
13.05.2020
Beiträge
2.918
Ort
Großhabersdorf
ComputerBase die Vorort waren haben schon zum Eventartikel geschrieben, dass AMD bestätigt hat, dass man keine Konkurrenz zur 4090 bieten kann.
Wieso den auch ? 450W wäre wahnsinnig. Hat auch keiner so geglaubt als die Memes mit den Radiatoren von Klimaanlagen durchs Netz gegeistert sind. AMD zeigt auch dadurch das sie so etwas nie auf dem Schirm hatten vom Verbauch.

Ich bin aber der Überzeugung das AMD bei gleichem Powerbudget auch hätte was ähnliches designen können. Allerdings erkennen die aber die Zeichen der Zeit und legen mehr wert auf mehr Bang pro Watt.
 

Chris1975

Profi
Mitglied seit
25.03.2020
Beiträge
569
Ich denke das die AMD ein gewisses OC Potential haben werden und diese ~300W nur Marketing sind.Die CPU`s kann man als Beispiel nennen da hat man auch aufgedreht. Nur beim Powerlimit der 4090 haben die nicht mit diesem Aufschrei gerechnet und Marketing technisch reagiert und eine Bremse eingebaut.Ich sehe da keine großartigen Unterschiede denn wenn man die AMD füttert wird die wie eine 4090 ihren Stromhunger zeigen und auch die Leistung.
 

EmerpuS

Enthusiast
Mitglied seit
07.01.2012
Beiträge
2.067
Der Durchschnittsgamer hat eine 5 Jahre alte 1080p Karte.
Geld-zum-Fenster-Hinausschmeißer kaufen sich eine 700€ Karte.
Nutze zurzeit noch eine 1080 unter QHD und möchte dieses jahr aufrüsten. Bin gespannt, aktuell blicke ich auf die 7900XTX um damit wieder einige Jahre rueh zu haben. :)
 

n3cron

Experte
Mitglied seit
13.05.2020
Beiträge
2.918
Ort
Großhabersdorf
Ich denke das die AMD ein gewisses OC Potential haben werden und diese ~300W nur Marketing sind.Die CPU`s kann man als Beispiel nennen da hat man auch aufgedreht. Nur beim Powerlimit der 4090 haben die nicht mit diesem Aufschrei gerechnet und Marketing technisch reagiert und eine Bremse eingebaut.Ich sehe da keine großartigen Unterschiede denn wenn man die AMD füttert wird die wie eine 4090 ihren Stromhunger zeigen und auch die Leistung.
Möglich das im OC und im entsprechenden Powertarget bei Costum Modellen mehr geht. Bisher ging AMD bei den Referenz Modellen immer einen eher neutralen weg. Sie versuchen nicht ihre Partner vom Markt zu drücken, was bei Nvidia gefühlt mit dem EVGA "Skandal" scheinbar auch so geschieht. Auch scheint das Flaggschiff Design schon immer auf Maxime getrimmt in jeglicher Hinsicht (technisch und ökonomisch)
 

goosemanT

Profi
Mitglied seit
30.11.2019
Beiträge
3
Ich denke und nehme an das AMD bewusst die Preise aufruft und nicht mehr. 1000 $ ist halt eine Magische Grenze da viele Nutzer nicht bereit sind mehr zu bezahlen. Über 90 % kaufen eh Einstieg bis Mittelklasse bei PC Hardware. Geld( Umsatz) kommt durch die Masse rein und nicht durch wenig Leuchttürme. Geld ist bei den Käufern nicht unendlich da und soll noch bezahlbar bleiben. Das Nivida alles nimmt von den Enthusiasten ist nichts neues und das wird immer so bleiben.
 

Induktor

Experte
Mitglied seit
03.11.2019
Beiträge
2.142
Ort
Münster/ Osnabrück
Interessantes Video mit Frank über RDNA3. Er sagt dort auch, dass die 7900XTX ein Konkurrent zur 4080 sein soll. Die 4090 hat man nie angepeilt.


Bin mal gespannt wie die unabhängigen Zahlen am 13. Dez ausfallen und auch wie die 4080 im Allgemeinen abschneidet. Vermute stark, dass der Abstand zur 4090 beträchtlich sein wird.
 

Induktor

Experte
Mitglied seit
03.11.2019
Beiträge
2.142
Ort
Münster/ Osnabrück
Schau mal eine Seite vorher... ;)
🤦‍♂️ Ahh... Mist, sorry hab's übersehen. Danke für den Hinweis. Ja, man muss echt aufpassen, da die Diskussion über Radeon 7000 in zwei verschiedenen Threads parallel stattfindet.
 

senbei

Enthusiast
Mitglied seit
23.05.2011
Beiträge
664
Ich bin aber der Überzeugung das AMD bei gleichem Powerbudget auch hätte was ähnliches designen können. Allerdings erkennen die aber die Zeichen der Zeit und legen mehr wert auf mehr Bang pro Watt.
LOL Die Karte war für über 3GHz geplant und gebaut und hat nen Bug der den Takt offensichtlich beschränkt. Jetzt haben die den Takt über die TDP gelockt und alle freuen sich. Wartet mal ab bis ihr die Customs seht mit 2x8Pin und einem harten Treiberlock von 366W^^. Da ist ein Respin nötig und sonst nix. Mit den geplanten 20-25% mehr Takt wäre hier mit 3x8Pin und 500W+ der Angriff auf die 4090 gekommen egal wie sehr die Ökos rumheulen.
 

freshgordon

Profi
Mitglied seit
02.12.2021
Beiträge
311
Ich denke und nehme an das AMD bewusst die Preise aufruft und nicht mehr. 1000 $ ist halt eine Magische Grenze da viele Nutzer nicht bereit sind mehr zu bezahlen. Über 90 % kaufen eh Einstieg bis Mittelklasse bei PC Hardware. Geld( Umsatz) kommt durch die Masse rein und nicht durch wenig Leuchttürme. Geld ist bei den Käufern nicht unendlich da und soll noch bezahlbar bleiben. Das Nivida alles nimmt von den Enthusiasten ist nichts neues und das wird immer so bleiben.
Das kommt aber auch aus der Glaskugel...
Man sollte den Enterprise Bereich nicht unterschätzen. Da kann man das Geld für die 4090 auch bezahlen. Gedanken um eine Handvoll Enthusiasten werden die sich kaum machen. Der durchschnittliche User greift logisch zur Mittelklasse, aber Nvidia betont ja immer wieder ihre Enterprise Lösungen und genau den Bereich kann man seitens AMD so nicht glaubwürdig angreifen.
 

n3cron

Experte
Mitglied seit
13.05.2020
Beiträge
2.918
Ort
Großhabersdorf
LOL Die Karte war für über 3GHz geplant und gebaut und hat nen Bug der den Takt offensichtlich beschränkt. Jetzt haben die den Takt über die TDP gelockt und alle freuen sich. Wartet mal ab bis ihr die Customs seht mit 2x8Pin und einem harten Treiberlock von 366W^^. Da ist ein Respin nötig und sonst nix. Mit den geplanten 20-25% mehr Takt wäre hier mit 3x8Pin und 500W+ der Angriff auf die 4090 gekommen egal wie sehr die Ökos rumheulen.
Okay und wo steht das? Offiziell von AMD bestätigt?
 

*$Ben$*

Enthusiast
Mitglied seit
12.04.2005
Beiträge
1.899
Ort
Amberg
Ich bin mit der 4090 mehr als zufrieden. Betreibe sie meist mit 65-70% PT und das reicht dicke für alles was so am Markt ist. Verbraucht mit deutlich mehr FPS gleich oder weniger in den gleichen Szenarien als meine RTX3080 die ich vorher hatte. Da oft die Karte in 4K mit 118FPS Cap nicht 100% ausgelastet ist. Dagegen war die 3080 immer auf 100% und hat trotz UV dann mehr verbraucht.

Im durchschnitt in 4K verbraucht die 4090 bei mir aktuell so 270-290W. Das finde ich mehr als in Ordnung für die Leistung die sie abgibt. Dazu ist sie meistens 50-55°C warm. Wenn ich sie lautlos will hat sie 65°C.

Trotzdem finde ich die AMD Karte von der Leistung und der Leistungsaufnahme echt super. Der Preis ist auch Mega. Das sind wenn sie 1300 Euro kosten soll dann doch 620 Euro unter meiner RTX4090.
Da ich aber mit den Treibern und den Konzept von Nvidia sehr zufrieden bin werde ich auch weiterhin hier bleiben.

Angefangen mit TNT2 M64, TNT2 Pro, Geforce 256, Geforce 3, Geforce 4TI 4200, Geforce 4 TI 4600, ATI Radeon 9700 Pro, Geforce 7600 GT, GTX1080, Geforce RTX2070 Super, Geforce RTX3060 TI, Geforce RTX3080 und jetzt Geforce RTX4090.


Wenn die RTX Performance und das AMD Upscaling demnächst mit Nvidia mithalten kann werde ich wohl doch einmal wechseln um zu testen wie diese Karten performen. Der Preis macht es dann doch sehr interessant.
 

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
3.958
Bei der 900er Generation gab es nur die 980 und 970 (keine 990). Später folgte, wie heutzutage immer noch üblich, die 980Ti (und schließlich die Titan). Bei der 10er Generation dasselbe. Und so ähnlich ist es jetzt auch: 4090 und 4080 sowie 6900XTX und 6900XT. Man hört jetzt halt mit ..9.., anstatt mit ..8.. auf. Aber stimmt natürlich, die Preise sind kein Vergleich mehr zu früher. :shake:

"Enthusiasten" :cry:
Die X90 war früher eine Dual-GPU. Jetzt ist es praktisch die Titan, die es ja so nicht mehr gibt. Damit könnte ich sogar leben, wenn die anderen Karten nicht so abartig überteuert wären. 4080 für 1600+, die spinnen doch... Sowas kostete früher um die 600. Die teuersten Ti immer noch unter 1 K.

Früher hatte man kaum eine Wahl als NVIDIA nehmen, es war einfach preiswerter und die Leistung da, siehe Fury vs 980 Ti, Vega vs 1080 Ti. Die AMD-Karten waren nicht wirklich schlecht, aber anfangs viel zu teuer und boten weniger Leistung / VRAM und brauchten mehr Strom. Jetzt ist NVIDIA einfach nur maßlos überteuert und zumindest bei Ampere war die Effizienz sogar schlechter als bei AMD. Wobei das wohl auch am 8nm Prozess lag. Ich denke aber dass sie nun gleichauf sind, RDNA ist nicht wie GCN damals. Der einzige Punkt wo sie hinterher liegen ist Raytracing. Aber ob das die 800-1000 € mehr wert ist?

Man kann sich nur wünschen dass AMD RDNA3 nach unten hin preislich fair skaliert.
 

DTX xxx

Enthusiast
Mitglied seit
03.05.2013
Beiträge
2.530
Mit diesem Satz, welchen du zitiert hast, habe ich nur klargestellt, dass alle die gerne Vergleiche gesehen hätten, zwischen einer 7900XTX und einer 4090 durch AMD, eine völlig falsche Vorstellungen haben, wie man solch ein Geschäft führt. Zudem habe ich auch gefragt, wie man denn selber, als enttäuschter und schimpfender Forenschreiberling (jetzt muss ich zusätzlich noch dazu schreiben, dass ich natürlich auch nur ein Forenschreiberling bin, denn sonst gibt es ja Moderationen, die gleich emotional überlasten und mir mit Sperren drohen) solch ein Geschäft führen würde und welche Ideen sie denn hätten.


Anderes Thema:
Das Geschimpfe über up to von AMD. Es ist doch verständlich das AMD so handelt. Denn wenn man sich rückblickend anschaut, wie Trittfahrer für ihren eigenen Geldbeutel ein großes Buhei um den Boosttakt des 3600 gemacht haben, und dann diese Ergebnisfolien Intel als Werbematerial für ihre eigenen Produkte nutze, dieses up to eine logische Konsequenz ist.
Zudem aus Ermangelung eines Konkurrenzproduktes, und den natürlich auch schwankenden Szenen durch unterschiedliche Testanstalten, es genau die richtige Wortwahl ist, up to zu schreiben.

Genauso wie jetzt ein großes Buhei um die Ryzen 7000 Mütze gemacht wird, für den eigenen Geldbeutel, obwohl AMD offiziell sagt, dass 95°C absolut nicht nur kein Problem sind, sondern dies so gewünscht ist.
Aber weiterhin über die 101°C bei Raptor stillschweigend herrscht und dort offensichtlich man nicht für den eigenen Geldbeutel große Töne posaunen möchte.

AMD ist sowohl im CPU Sektor, als auch im GPU Sektor deutlich unterhalb der Konkurrenz. Und trotzdem gibt es genügend Stimmen die heute schon meinen, dass wir aufpassen müssen, dass nicht schon morgen AMD in eine Position kommt, in der AMD die CPU Entwicklung bremsen könnte.

Das muss man praktisch als Firma alles auf dem Schirm haben, wenn Gerichtsurteile gefällt werden, die nicht über die technische Gegebenheiten gefällt werden, sondern man gefühlt Bulldozer als 4 Kerne CPU beschreiben möchte und dann Strafzahlungen leisten muss.
 
Zuletzt bearbeitet:

senbei

Enthusiast
Mitglied seit
23.05.2011
Beiträge
664
Okay und wo steht das? Offiziell von AMD bestätigt?
"Bestätigt" von TSMC in den Angaben für N5: entweder +15% Takt oder -30% Verbrauch und das bei 1,8facher Transistordichte.

N31 liefert bei netter Betrachtung +0% Takt +18,3% Verbrauch und über 1,8 facher Transistordichte(Cachegedöns halt),
bei weniger netter Betrachtung gibt es einen Taktrückschritt um ~10% und einen erhöhten Verbrauch um 19%.
Das passt halt nur für die Transistordichte mit den N5 Kennzahlen zusammen und sonst nicht so ganz....

Wenn man das jetzt umrechnet kommt man für N31 bei 2,8 bis 3,4GHz raus mit 355W!
Offiziell wird AMD sowas nie bestätigen, aber Bulldozer ist auch heute noch ein TOP-Prozessor laut AMD......
 

n3cron

Experte
Mitglied seit
13.05.2020
Beiträge
2.918
Ort
Großhabersdorf
"Bestätigt" von TSMC in den Angaben für N5: entweder +15% Takt oder -30% Verbrauch und das bei 1,8facher Transistordichte.

N31 liefert bei netter Betrachtung +0% Takt +18,3% Verbrauch und über 1,8 facher Transistordichte(Cachegedöns halt),
bei weniger netter Betrachtung gibt es einen Taktrückschritt um ~10% und einen erhöhten Verbrauch um 19%.
Das passt halt nur für die Transistordichte mit den N5 Kennzahlen zusammen und sonst nicht so ganz....

Wenn man das jetzt umrechnet kommt man für N31 bei 2,8 bis 3,4GHz raus mit 355W!
Offiziell wird AMD sowas nie bestätigen, aber Bulldozer ist auch heute noch ein TOP-Prozessor laut AMD......

Wenn das alles so stimmt wie macht es dann Nvidia die auch bei TSMC produzieren?
Beitrag automatisch zusammengeführt:

Mit diesem Satz, welchen du zitiert hast, habe ich nur klargestellt, dass alle die gerne Vergleiche gesehen hätten, zwischen einer 7900XTX und einer 4090 durch AMD, eine völlig falsche Vorstellungen haben, wie man solch ein Geschäft führt. Zudem habe ich auch gefragt, wie man denn selber, als enttäuschter und schimpfender Forenschreiberling (jetzt muss ich zusätzlich noch dazu schreiben, dass ich natürlich auch nur ein Forenschreiberling bin, denn sonst gibt es ja Moderationen, die gleich emotional überlasten und mir mit Sperren drohen) solch ein Geschäft führen würde und welche Ideen sie denn hätten.
Ja hast du schon recht, ist ja nichts falsches daran erstmal seine Stärken hervorzuheben.
Macht man auch in einem Date oder Vorstellungsgespräch.
 
Zuletzt bearbeitet:

senbei

Enthusiast
Mitglied seit
23.05.2011
Beiträge
664
Wenn das alles so stimmt wie macht es dann Nvidia die auch bei TSMC produzieren?
Mit besserem Design in N4? Der Fehler liegt bei AMD, nicht bei TSMC. Der gleiche Prozess läuft ja für die 7K CPUs mit 5,7+GHz, am Prozess liegt es zu 100% nicht....
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Oben Unten