[Kaufberatung] Kampf der Lautlosen Killer - ECS 8800GT (passiv) VS. Sapphire Radeon HD 3870 (passiv)

pixelfreak

Enthusiast
Thread Starter
Mitglied seit
08.04.2007
Beiträge
1.170
Hallo zusammen,

ich stehe momentan vor dieser Kaufentscheidung.

http://geizhals.at/deutschland/a291787.html
oder
http://geizhals.at/deutschland/a314545.html

Preislich tun sich beide nicht viel. Deutlich stromsparender soll definitiv die Radeon sein. Die Nvidia soll dementsprechend auch viel wärmer werden.
Weiterhin liest man über die Nvidia oftmals von Spulensumm-Geräuschen im 3D Modus.

Es geht um passive! Karten in dem Preissegment, also bitte keine abweichenden Karten empfehlen !! Auch bitte keine ATI vs. NVIDIA Diskussion anfangen!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du willst zwischen ATI und Nvidia abwägen, und dafür Argumente sammeln, aber keine pro oder kontra ATI und Nvidia lesen? Hast Du Dir das auch gut überlegt, oder möchtest Du die Frage nicht doch lieber noch mal umformulieren?

Nagut. Zumindest kann ich dazu sagen, daß der Link zur Ultimate eine Bestellnummer aufweist, die Full Retail bedeutet, was ja bei der Beurteilung des Preises nicht unerheblich ist. Da ist Software bei: HL2 (Gutschein), 3dMark06, PowerDVD7, DVDsuite.

Da die Ultimate einen Kühler mit ähnlich großer Abstrahlfläche hat wie meine Silent, trau ich der Karte zu, unter Last einigermaßen kühl zu bleiben. Besser wäre, dazu äussert sich jemand, der so ein Ding hat.
 
Die 8800GT für diesen Preis ist doch quasi ein Pflichtkauf! Warum da noch lang überlegen? Ist klar die schnellere Karte. ;)
Die Nvidia mit diesem S1 Kühler + Lüftern ist sehr leise und äußerst kühl, da wird die 3870er auf jeden Fall wärmer mit dem kleinen Kühler.
 
Zuletzt bearbeitet:
ich würde sagen das sich beide karten kaum was schenken, die GT wird hier und da minimal schneller sein und frisst mehr strom
die ATI zieht weniger strom und is vllt 5% langsamer als die NV.. was schon fast unter die messgenauigkeit fällt

werf ne münze ^^
 
Bitte zukünftig nüchtern posten. Der Mann will Geld ausgeben, und nicht Aprilscherze lesen.
War doch kein Aprilscherz, die Karte ist Preis/Leistungsmäßig top. Wenn der Mann aber Geld ausgeben will, sollte er natürlich die teurere Karte nehmen ;) ansonsten reine Geschmackssache ob nun Nvidia oder ATI, die nehmen sich ned viel.
 
also ich bin damals HD3870 auf 8800gt gewechselt und es war weitaus mehr als 5% ^^ eher so 20-25%
 
lieber mehr frames als hohe auflösungen

das ist unzockbar
cry1920j52.gif
 
Zuletzt bearbeitet:
kommt immer auf die settings/auflösung an ;) in 1280/1440 ist die gt sicherlich ein deut schneller, in höheren auflösungen holt die hd3870er auf.

siehe hier->http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6389298&postcount=1



@pixelfreak wie groß ist den dein monitor ?

Es ist doch völlig egal ob die Karte bei höheren Auflösung mehr einbricht als eine andere SO LANGE IMMER NOCH MEHR LEISTUNG DA IST.

Übrigens legen die NV Karten sogar zu:

Eine 8800GT ist bei 1280x1024 15% schneller als eine 3870, bei 2560x1600 sind es aber 19% mehr!

Bei der Spiele Einstellung, die wohl am meisten bei diesen Grafikkarten verwendet wird, nämlich 1280x1024 4xAA/16xAF ist die 8800GT satte 35% schneller als die 3870. Von dem her sollte die Frage recht klar sein...

http://www.computerbase.de/artikel/...gx2/21/#abschnitt_performancerating_qualitaet
 
Zuletzt bearbeitet:
Kommt immer drauf an. Wer seine Kiste 24/7 durchlaufen lässt, beurteilt Powerplay anders als jemand, der die Kiste nur zum Spielen anschmeisst.

24/7 bedeutet bei 200 Watt rund fünf Kilowattstunden am Tag, 150 Kilowattstunden im Monat, 1800 im Jahr. Was kostet die Kilowattstunde noch gleich? Die Einsparung mit meiner 3870 holt mir also jährlich eine neue GraKa* ins Haus.

Meine ganze Kiste läuft kühler, und damit leiser, insgesamt habe ich in Sachen NT mehr Spielraum, und die kühlere Karte hat eine längere Lebensdauer vor sich, oder anders gerechnet, eine niedrigere Ausfallwahrscheinlichkeit. GDDR4 ist höher übertaktbar. Meine Karte läuft mit mehr als 80GB/s, und Speichertakt skaliert bei den RV670 enorm. Was dazu von Forenwichteln verbreitet wird, ist schlichtweg falsch. Ein MHz Speichertakt entspricht 0,1 % Gesamtleistung. Messbar, nachweisbar, sichtbar, und selbstredend in jedem Game wirksam.

Zieht man den Wert der Software ab, kosten beide das gleiche. Zieht man den schielenden Blick ab, sind beide gleich schnell. Mir persönlich gefällt der Aufbau mit dem S1 und den Lüftern weniger als der Passivkühler der Ultimate. Man müßte mal gucken, wie sich das platzmäßig unterscheidet.

An Stelle des OP würde ich darauf warten, daß jemand die Temps unter Last nennt. Wenn er 24/7 fahren will, ist die Sapphire erste Wahl, wenn er eher nur zum Spielen einschaltet, sollte er die kühlere Karte nehmen.

Dass eine GTX schneller ist, bestreite ich nicht, aber für eine GT stelle ich das ganz klar in Abrede. Da unterscheidet sich der Tenor aller Beiträge in den Spiele-Foren vom Tenor in den GraKa-Foren, und das finde ich verdächtig. Zumal NV schon öfter dadurch unangenehm auffiel, per Werbung in überschätzten Spielen den Hals aufzureissen, und am Ende nur laue Luft zu liefern, wenn die diskutierten Titel erstens grafisch nicht sind, was sie vorgeben, und zwotens auf ATI-Karten besser laufen. TR6 war doch auch so ein Fall. Und viel besser als die TR6-Grafik ist Crysis nun mal nicht. Ohne Spielerfigur im Bild und mit durchschnittlich weit weniger Polygonen als z. B.Oblivion im Blickfeld taugt es nicht als Referenz.

Titel wie DiRT rennen auf beiden Karten sehr ähnlich, haben aber auf der ATI das bessere Bild. Deswegen würde ich nach Geschmack, Bauform und Temps kaufen, aber nur, wenn der Spareffekt gering wäre.

EDIT: Ich möchte übigens mal wissen, wer so verrückt ist, 4xAA & 16xAF zu fahren? Wozu? 8xAF sieht in manchen Games klasse aus, bringt in anderen aber nix, weil in denen AF überhaupt nix bringt, 16xAF macht null Sinn.

Fährt hier jemand sein Auto mit 80 im zwoten Gang? Wenn die Bildqualität nix ist, hilft es nicht, und wenn sie gut ist, wählt man doch wohl die Einstellung, bei der sich der maximale Zugewinn zeigt, ohne sinnlos Leistung zu kosten, und das ist meistens 2xAA & 4xAF oder 4xAA & 8xAF, aber nie im Leben 4xAA & 16xAF.

Und vergesst mal ganz schnell die Testfälscher-Reviews. Deren Werte konnte ich nie nachvollziehen. Wenn von schierer Leistung die Rede sein soll, die steht in meiner Signatur: 80GB/s bei unter 40 Grad und unter 0,1 sone unter Last. D. h. Crysis bei 1280*1024, alles auf high, 4xAA, butterweich und flüssig bei 35 Grad GPU, ohne jeden Ruckler, ohne jeden Hänger, mit Serienkühler).

* PS OK, etwas übertrieben, weil ich habe nicht gerechnet, sondern nur den Gesamtverbrauch betrachtet, und für alle Sparmassnahmen ein Fünftel veranschlagt. Aber immerhin: 'ne SparGraKa amortisiert sich nach drei Jahren, und ich bin so ein Irrer, daß ich mir gerade so 'ne Karte zum Zocken in meinen Server gesteckt hab, auf dem ich weder für Crysis, noch zum Benchen, den Apache oder WinMx stoppe. Keine Ahnung, ob andere ihre Kisten je abschalten. Mach ich höchstens zum Umrüsten.
 
Zuletzt bearbeitet:
Naja du rechnest ein wenig falsch...
Du musst eher so rechnen 24/7:
Idle +20Watt...Ersparnis
Last -5Watt..Ersparnis
22h Idle
2h Last im Durchschnitt...
Macht 160KW im Jahr durch Idle weniger
-4KW durch die Last...
156KW also Ersparnis...
Davon kann man leider keine neue gute Grafikkarte kaufen. Je mehr gespielt wird, desto weniger Ersparnis.
Und das nur für jmd, der so Irre ist, nen 24/7 Rechner mit einer der beiden Karten auszustatten.
Wenn ich dagegen nen System mit BE+Onboard Graka im 24/7 Vergleich hinstelle, hat sich selbiges ganz sicher nach einem Jahr amortisiert.
 
@pixelfreak wie groß ist den dein monitor ?

Ich habe zwei 24" Dell also je 1920 x 1200. Mir ist klar das ich damit neuere Games nicht mit maximum an Details spielen kann, aber das ist auch nicht unbedingt notwendig. Neuere Games reichen notfalls auch in Low und im schlimmsten Fall muss ich eben was mit der Auflösung runtergehen (wenn auch ungerne). Spiele wie HL2, CSS ect sollten aber schon in guter Grafikpracht in der Auflösung spielbar sein.

Also seid ihr der Meinung, dass wegen der hohen Auflösung die Radeon 3870 der bessere Kauf wäre ?
 
Zuletzt bearbeitet:
Also seid ihr der Meinung, dass wegen der hohen Auflösung die Radeon 3870 der bessere Kauf wäre ?

Jep :)

08lzi3205.jpg




Es ist doch völlig egal ob die Karte bei höheren Auflösung mehr einbricht als eine andere SO LANGE IMMER NOCH MEHR LEISTUNG DA IST.

Übrigens legen die NV Karten sogar zu:

Eine 8800GT ist bei 1280x1024 15% schneller als eine 3870, bei 2560x1600 sind es aber 19% mehr!

Bei der Spiele Einstellung, die wohl am meisten bei diesen Grafikkarten verwendet wird, nämlich 1280x1024 4xAA/16xAF ist die 8800GT satte 35% schneller als die 3870. Von dem her sollte die Frage recht klar sein...

http://www.computerbase.de/artikel/...gx2/21/#abschnitt_performancerating_qualitaet


Tjo mit einer etwas anderen Spielauswahl (3 Games mehr) sieht es anders aus ;)

Da ist eine 8800GT bei 1280x1024 11% schneller als eine 3870, bei 2560x1600 sind es nur noch 9% mehr.

Bei 1280x1024 4xAA/16xAF ist die 8800GT um 19% und in 1600x1200 4xAA/16xAF sinds nur noch 8%

http://www.computerbase.de/artikel/...670/28/#abschnitt_performancerating_qualitaet
 
Kinders, hört doch jetzt endlich mal auf, diesen Computerbase-Quark breitzutreten. Das war eine Powercolor GDDR3, und die ist erstens langsamer als jede andere 3870, zwotens seit drei Monaten nicht mehr im Handel, drittens keine sehr verbreitete Karte.

Wenn überhaupt, zieht man typische Karten heran, wie sie auch den Löwenanteil der Verkäufe ausmachen, und das sind doch wohl eher die PcPartner-Brands wie Sapphire und Zotac.

Eine Zotac GT ist nun mal etwas langsamer als die ausgewählten Edeltakter in den meisten Tests, und eine Sapphire ist schneller als die ausgewählten Niedrigtakter, und diese edelarbeitslosen Hardwareproleten bei CB oder THG, oder sonstwo sind doch erwiesenermaßen zu inkompetent, Timings im BIOS einer Karte auszulesen, oder auch nur die Beschriftung auf den RAMs zu finden, und verarschen somit ihr Publikum mit falschen und nichtssagenden Daten ohne Ende.

Abgesehen davon ist dieser "Test" im November gelaufen, bekanntlich mit einem BIOS (067), das bestenfalls eine Alpha gewesen ist, und mit einem Treiber (7.x), den sich doch niemand freiwillig antut. Rechnet man diese Faktoren raus, sind die Karten doch millimetergenau auf Augenhöhe zueinander.

PS CB ist doch sowieso diskreditiert, weil die eine Atomic mit PLL-Divider-Bug auf 864 MHz übertaktet haben wollen, was bekanntlich nicht möglich ist.
 
Zuletzt bearbeitet:
Hm irgendwie passt der Chart nicht zu deinen Aussagen.

Doch passt ;)


Die bei Graka nehmen sich in der Auflösung (1920x1200) nichts, ich hab es selbst getestet und mit 2xAA/8xAF kann man selbst in Full HD noch gut zocken (außer CRYSIS).

Es gibt einzelfälle wo die eine Graka mal etwas schneller ist als die andere, die HD3870 bei R6V und die 8800GT bei GRAW2.


@Sophosaurus

Wat willst du jetzt? Die PCS hat DDR4 und ich habe die OC Version nicht zu vergleich heran gezogen.


Ich bin raus hier...........:p
 
Die PCS ist aber nicht im Test gewesen.

Das CB-Team hat eine Sapphire zerlegt, um Fotos des Boards zu schiessen, und den Aufdruck der RAM-Chips gezielt unkenntlich gemacht, um sich vor Rechtsfolgen zu schützen. Damals war bereits bekannt, daß die ersten Lieferungen der Powercolor nur mit GDDR3 bestückt sind.

Auf den Fotos ist die Sapphire-Board-Revision zu erkennen. Powercolor-Boards sind anders bedruckt, und damit von Sappire-Boards zu unterscheiden.

Der Karton unten im Bild trägt den Aufdruck GDDR4, gehört aber nicht zu der zerlegten Karte.

Worauf läuft es hinaus: Testergebnisse, die auf 10% Unterschied hinauslaufen, sind wertlos, wenn dabei Modell- und Versionsunterschiede, die ähnlich große Abweichungen mit sich bringen, in's Spiel kommen, und seitens der Testredaktion durch Manipulation überspielt werden.

Man hat eine Powercolor genommen, weil sie (erwartbar) etwas schwächer rennt, hat die Aussagen zum Referenzdesign durch Fotos einer Sapphire abgestützt, den Kern des Betrugs durch Unkenntlichmachung des RAMs auf den Fotos umgangen, und verschanzt sich seitdem hinter erfundenen Daten. Weder Geräuschpegel, noch Temperaturdaten stimmen, und einige der Frameraten sind auch utopisch.

GDDR3 kann nicht auf den Takt von GDDR4 angehoben werden. 3870 skalieren (eins zu eins) auf Speichertakt. Emulieren (wie die CB-Fälscher es getan haben wollen) kann man GDDR4-OC-Werte auf einer GDDR3-Karte ebensowenig, wie man eine Atomic mit WerksBIOS auf 864 MHz takten kann.

Da sollte einfach das gewünschte Ergebnis (GT 10% über 3870) hergestellt werden, und man hat es hergestellt. Das sollte niemanden verwundern, denn ATI und Nvidia sind in der Realität längst schon ein einziges Monopolunternehmen (PcPartner) und da sie den gesamten Grafikkartenmarkt allein beherrschen, beherrschen sie auch den zugehörigen Werbemarkt. Deswegen spuren alle Redaktionen, und verbreiten brav, was PcPartner wünscht. Schliesslich sollen ATI- und Nvidiakarten ein strukturiertes Spektrum mit genau skalierten Abstufungen bilden.

EDIT: Ich finde wirklich, Erfahrungsberichte zur Temperatur wären in diesem Thread eine echte Bereicherung. Dass eine 3870 mit S1 unter Last um 40 Grad läuft, liest man öfter. Ist das bei der GT vergleichbar? Und: Ist eine Ultimate nun heisser oder nicht? Hat die denn hier keiner?
 
Zuletzt bearbeitet:
8800GT mit S1 läuft im IDLE bei 30-35°C, unter Last mit 40-45°C.

Sophosaurus, du redest mir zu viel...wäre echt schön, wenn du zu deinem vielem Gerede auch Beweise in Form von Benchmarks liefern könntest.
 
Nicht meine Aufgabe, Laien Ingenieurswissen zu vermitteln.

Was ich hier zum CB-Test geschrieben habe, ist nachprüfbar und damit belegt. Wer keine Lust hat, sich die nötigen Kenntnisse anzueignen, oder wenigstens mal nachzulesen, kann es lassen, und glauben, was er will.

Niemand braucht Benchmarks, um Fotos einer Sapphire von Fotos einer Powercolor zu unterscheiden.
 
Mal ne Frage:

Könnte man die ECS 8800GT mit dem S1 auch passiv laufen lassen?
 
Nicht meine Aufgabe, Laien Ingenieurswissen zu vermitteln.

Was ich hier zum CB-Test geschrieben habe, ist nachprüfbar und damit belegt. Wer keine Lust hat, sich die nötigen Kenntnisse anzueignen, oder wenigstens mal nachzulesen, kann es lassen, und glauben, was er will.

Niemand braucht Benchmarks, um Fotos einer Sapphire von Fotos einer Powercolor zu unterscheiden.

Jetzt nicht ausweichen, du hast schließlich nicht nur behauptet, dass CB falsch getestet hat, sondern auch, dass 8800GT und HD3870 die gleiche Leistung besitzen - das musst du letztlich auch begründen können, ansonsten bist du nicht besser, wie deiner Meinung nach CB.
Ich glaub dir das auch gern, nur braucht es dafür Benchmarks, die unterstreichen, dass z.Bsp. GDDR4 Speicher mit seiner u.A. 80GB/s Bandbreite in Spielen einen spürbaren Vorteil gegenüber GDDR3 besitzt oder eben, dass HD3870 und 8800GT leistungstechnisch gleichwertig sind.
 
Du drehst die Beweislast um, und versteifst Dich auf Belegarten, die ich für ungeeignet halte.

Dafür, daß Framerates vom Speichertakt determiniert sind, solange die GPU nicht limitiert, braucht doch keiner Belege, weil das eine mathematische Gesetzmäßigkeit ist, an der kein Weg vobei führt.

Dass eine RV670 bei bis zu 1400 MHz Speichertakt (evtl. auch höher) garantiert nicht limitiert, kann jeder nachvollziehen, der sich traut, den Regler so hoch zu reissen.

Das korreliert auch mit den Ergebnissen im ORB.

Tests mit ausgewählten Spielständen haben wenig Aussagewert. Wer Spiele seriös benchen wollte, müßte sie durchspielen, Maus und Tastatur aufzeichen, den gesamten Lauf mit verschiedenen Karten wiederholen, anschliessend alle Frametimes mathematisch auswerten, weil verschiedene Architekturen prinzipbedingte Schwächen in unterschiedlichen Spielphasen zeigen.

Mit anderen Worten: Je nachdem, welche Karte der Test bevorzugen soll, wählt man den passenden Spielstand aus, der das dann auch belegen wird. Bei +/- 5%, und darüber reden wir ja hier, ist das kein großes Problem, wenn man spezifische Schwächen der Karten kennt.

Beispiel Crysis: Im Dschungel rennt eine 3870 so butterweich, daß die GT kaum Land sieht, weil letztere eher unregelmäßige Frametimes hinlegt, wärend die 3870 tickt wie ein Uhrwerk. Im Eislevel ist es umgekehrt.

Da muß man erst mal hinterkommen, und damit sind die meisten Benches hinfällig. Da nutzen auch alle Pauschalaussagen nix, die sich an magischen FPS-Mauern klammern wollen. Unregelmäßige Frametimes sind nun mal subjektiv immer die Hölle, egal wie hoch die FPS sind.

Diejenigen, die einer GT einen signifikanten Vorsprung bescheinigen wollen, müssen das jedenfalls besser belegen. Dafür taugt der CB-Test zumindest nicht. Und nur darum geht es mir.

CB selbst gab an, daß deren Powercolor 10% hinter der GT lag, und jeder weiß, daß die ersten Powercolor mit GDDR3 bestückt waren. Folglich belegt der CB-Test, wenn überhaupt etwas, dann, daß eine GDDR4-Karte mit der GT etwa gleichauf liegt. Den Speichertaktunterschied setze ich als bekannt voraus.

Meine persönlichen Benches helfen niemandem, weil mein Intel-Board (D940, DDR400) total untypisch ist, und ganz klar limitiert. Die ORB-Daten akzeptiert wieder keiner, weil alle "synthetisch" schreien, dabei sind die immer noch zuverlässiger als ausgewählte Spielstände. Und meine Güte: Wir reden hier über rund 10%, und damit über Testtoleranzen bei völlig unerheblichen Daten, weil rohe FPS an sich nix sagen. Man denke an die Mikroruckler-Diskussion.

Ich will niemandem zu einer bestimmten Karte raten. Ich will nur darauf hinweisen, was man in Betracht ziehen kann, wenn man wählt, was mir halt nicht leicht fiel, als ich mich zw. einer Sapphire Silent und einer GTX entschieden habe. Man kann nicht alles haben.
 
Wie siehts bei den beiden Karten mit Spulen Fiepen im 3D Modus aus ? Hab ich bei Grakas schon so oft gehabt und es nervt einfach...
 
@pixelfreak:
Habe bis jetzt eine Elitegroup 8800GT und eine Point of View 8800GT getestet - beide haben kein fiepen gezeigt.

@ sophosaurus
Ist doch völlig logisch, dass die Beweislast nun bei dir liegt, wenn du Behauptungen aufstellst. Das ist von der Thematik völlig losgelöst.
Mir geht es auch nicht um messbare Unterschiede zwischen GDDR3 und GDDR4, sondern darum, was 8800GT und HD3870 im Spielalltag für Leistungen bringen.
Dabei gibt es nunmal die allgemeine Meinung und Aussage: 8800GT ist schneller als HD3870. Wenn du das widelerlegen willst, solltest du dafür auch beweislastiges Material liefern können, ansonsten ist deine ganze Behauptung hinfällig - genauso, wie der Test auf ComputerBase hinfällig sein kann.
Mir stellt sich jetzt auch die Frage, woher du letztlich deine Behauptungen nimmst (HD3870 und 8800GT auf selber Augenhöhe), wenn du selbst sagst, dass dein System für einen angemessenen Vergleich nicht hinreichend Performance zeigt.

Nur um das auch nochmal klarzustellen: Ich will deine Behauptungen nicht von grund auf als falsch auslegen, da ich selbst vor der Entscheidung liege und ich auch mehr mit der ATI sympathisiere. Die 8800GT konnte ich nun in zwei Ausführungen testen und bin mit dem Geschwindigkeitsvorteil zur X1950Pro mehr als zufrieden. Die HD3870 werde ich nicht testen können, weßhalb ich dort auf Benchmarks anderer angewiesen bin, wenn ich nicht die Katze im Sack kaufen möchte. Dort liegt dann auch schon das nächste Problem: unter welchen Bedingungen sollen deine Behauptung denn zutreffen (Auflösung/Qualitätseinstellungen)?
Mir fehlen dort einfach klare Fakten, welchen FPS-Vorteil die Karten untereinander haben, Prozentangaben nützen hier wenig, denn der Unterschied zwischen 1FPS und 5FPS liegt auch bei 400% - klingt super, aber die Realität sieht letztlich anders aus...
 
Irgendwie habt ihr mir die Entscheidung jetzt noch schwerer gemacht. Ich war eigentlich schon kurz vor dem Kauf der 3870 aber jetzt stehe ich genau zwischen beiden... ;(
 
Zuletzt bearbeitet:
Irgendwie habt ihr mir die Entscheidung jetzt noch schwerer gemacht. Ich war eigentlich schon kurz vor dem Kauf der 3870 aber jetzt stehe ich genau zwischen beiden... ;(

Die 3870 wäre meine Wahl. Besser für hohe auflösungen, stromsparender, weniger abwärme. Nur für crysis ist ne nvidia klar besser...aber crysis ist nicht die welt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh