7950gx2 oder X1900XTX??

Status
Für weitere Antworten geschlossen.
Wann wird denn endlich zugemacht, hier werden siet 2 Seiten die gleichen Ohrasen gedrescht und als es still war haben Gewisse ATi ler einfach weider angefangen, obwohlse wissen dasses zwecklos ist. :stupid:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich will auch nochwas dazu sagen, ich habe von x1900xtx auf 7950gx2 gewechselt, und konnte wirklich keine Unterschiede in der BQ festestellen.

Dazu kommt das ich endlich BF2 ohne Schattenbugs, Texturflimmern auf Waffen und mit besseren AA wieder ordentlich spielen kann.

Das AA bei BF2 ist doch ein Witz, bei bestimmten Winkeln sieht es so aus als würde garkein AA mehr funzen, und da habe ich schon audf 4x gestellt

btw ATI sollte das mal mit den Schattenbugs in den Griff bekommen, schließlich gibts das schon seit 1 Jahr bei BF2 und ATI hat immernoch nichts gemacht, und nich nur in BF2 ist das so, auch in diversen anderen SPielen gibts es hässliche Schatten

dazu sei noch gesagt das das gerede mit HDR+AA bei ATI unsinn ist, also alle Spiele die neu rausgekommen sind (Oblivion, Ghost recon) konnten die ATis von Anfang an kein HDR+AA darstellen

und das Pseudo HDR wie bei HL2 sieht genauso aus wie echtes und das können Nvidia auch mit AA darstellen


btw gibt es jetzt die 7950gx2 für 449 eus, und da würde ich auf alle fälle zur GX2 greifen, als eine x1900xtx für dasselbe Geld nur zu bekommen
 
Zuletzt bearbeitet:
Typisches Halbwissen hallor, sehr exemplarisch Deine Aussage.
Schon mal was davon gehört das auch Programmierer bei den Softwareschmieden gibt und nicht immer die beste Arbeit abliefern?
Wenn im Spiel etwas nicht stimmt, kann es wohl nicht an ATI bzw nV liegen.
Im 3Dmark05 gibt es zB bei der Canyon Demo Texturflimmern auf dem Schiff, beim 06 ist es aber komplett verschwunden, seltsam nicht wahr?!
Oder die ewig matschigen Welt/Straßentexturen bei NFS, ah ja klar, ist natürlich ATI schuld :wall:
 
derMeister schrieb:
Typisches Halbwissen hallor, sehr exemplarisch Deine Aussage.
Schon mal was davon gehört das auch Programmierer bei den Softwareschmieden gibt und nicht immer die beste Arbeit abliefern?
Wenn im Spiel etwas nicht stimmt, kann es wohl nicht an ATI bzw nV liegen.
Im 3Dmark05 gibt es zB bei der Canyon Demo Texturflimmern auf dem Schiff, beim 06 ist es aber komplett verschwunden, seltsam nicht wahr?!
Oder die ewig matschigen Welt/Straßentexturen bei NFS, ah ja klar, ist natürlich ATI schuld :wall:
Halbwissen eher bei dir, das Schattenprob bei BF2 und Oblivion leigt an QTI, warum sonst gehts bei NV ? :rolleyes:

Warum solltem an sich nicht die Karte kaufen mit der man keine Probleme hat selbst wenn es so wäre (was es nicht ist) das dei Softwareherstelelr es schuld sind ? NV keine Probs, ATI Probs, was kauft man da wohl ? Im übrigen wird die minimal bessere BQ von ATI durch das schlimme aa und die schatten komplett aufgehoben und ins negative verkehrt.
 
hallor schrieb:
ich will auch nochwas dazu sagen, ich habe von x1900xtx auf 7950gx2 gewechselt, und konnte wirklich keine Unterschiede in der BQ festestellen.

Ich bin von einer 7800GTX auf eine X1900 XT gewechselt und habe einen nicht zu kleinen Unterschied festgestellt.


hallor schrieb:
Dazu kommt das ich endlich BF2 ohne Schattenbugs, Texturflimmern auf Waffen und mit besseren AA wieder ordentlich spielen kann.

Das AA bei BF2 ist doch ein Witz, bei bestimmten Winkeln sieht es so aus als würde garkein AA mehr funzen, und da habe ich schon audf 4x gestellt

btw ATI sollte das mal mit den Schattenbugs in den Griff bekommen, schließlich gibts das schon seit 1 Jahr bei BF2 und ATI hat immernoch nichts gemacht, und nich nur in BF2 ist das so, auch in diversen anderen SPielen gibts es hässliche Schatten

Ich spiele BF2 mit den höchsten AA-Einstellungen und es siehr nicht so aus als würde es nicht funzen. Schattenbugs habe ich auch keine - aktuelle Treiber sind schon was schönes.


hallor schrieb:
dazu sei noch gesagt das das gerede mit HDR+AA bei ATI unsinn ist, also alle Spiele die neu rausgekommen sind (Oblivion, Ghost recon) konnten die ATis von Anfang an kein HDR+AA darstellen

und das Pseudo HDR wie bei HL2 sieht genauso aus wie echtes und das können Nvidia auch mit AA darstellen

Ich kann FaryCry, Oblivion und GRAW mit HDR + AA spielen. Alles andere ist egal und nicht Unsinn. Mit einer 7950GX² geht das nicht. Und "falsches" HDR ist nicht so schön wie "echtes" HDR.


hallor schrieb:
btw gibt es jetzt die 7950gx2 für 449 eus, und da würde ich auf alle fälle zur GX2 greifen, als eine x1900xtx für dasselbe Geld nur zu bekommen

Ein kleiner Anbiter, den es erst kurz gibt, hat eine 7950GX² für ca. 100€ billiger als alle Anderen. Naja, da würde ich nicht kaufen. BTW: Eine X1900 XT kostet nochmal ~100€ weniger.


Insgesamt kann man dir zu deinem ersten Post nur gratulieren :wall:
Wenn du so weiter machst wirst du noch User des Monats.
:kotz:
 
GA-Thrawn schrieb:
Im übrigen wird die minimal bessere BQ von ATI durch das schlimme aa und die schatten komplett aufgehoben und ins negative verkehrt.
Sorry, aber Du redest von halbwissen? Liest Du auch was Du schreibst?
Schon lustig was Leute schreiben, die die Karte noch nie in action gesehen haben.....


w0mbat schrieb:
aktuelle Treiber sind schon was schönes..
So sollte es sein :-)


w0mbat schrieb:
Ich kann FaryCry, Oblivion und GRAW mit HDR + AA spielen. Alles andere ist egal und nicht Unsinn. Mit einer 7950GX² geht das nicht. Und "falsches" HDR ist nicht so schön wie "echtes" HDR.
Ganz meine Meinung...

w0mbat schrieb:
Ein kleiner Anbiter, den es erst kurz gibt, hat eine 7950GX² für ca. 100€ billiger als alle Anderen. Naja, da würde ich nicht kaufen. BTW: Eine X1900 XT kostet nochmal ~100€ weniger.
Soweit ich weiß, war der Preis nur ein Fehler...
 
Zuletzt bearbeitet:
Naja, er denkt wohl nV hätte ein bessers AA :wall:
 
ihr seid es wohl die kein Plan haben, ich hatte bis vor einer woche noch die ATi und ich ´hatte mit 2 ATis in Bf2 Schattenbugs und schlechtes AA

hier mal um euch von den Bugs zu überzeugen

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4334974&styleid=12

klar wer keine Erfahrung mit NV bei BF2 hatte kann natürlich auch nichts feststellen

Als Anhang findet ihr das schöne Schattenproblem mit ATI *lol* und das hat jeder der seine schatten und alle einstellungen auf hoch hat

daneben ist mein Bild mit einer Nvidia, und wer jetzt das nicht sieht hat Tomaten auf den Augen

fakt ist aber das beim release des Spiels kein HDR+AA funktionierte

und es gibt keinen Unterschied zwischen pseudio HDR und echtes HDR, wir reden hier nicht von Bloom


und du willst mir doch nich sagen das oblivion und Ghost recon von anfang an mit AA lief, ein scheiss sag ich nur, mit den chuck patch mag es jetzt bei oblivion funzen, aber das ist nichmal nach 2 treiberversionen im ATI treiber implementiert, so das man wieder den chuck separat installern muss

und bei Ghost Recon hatte ich auch kein AA mit der ATI wie auch andere,ob das jetzt mit den Spel patch gefixt wurde weiss ich nicht, da ich am anfang wo ich es mir gekauft habe, dann verkauft habe weil ich ohne AA nicht spielen wollte

Fakt ist, das beim releases des SPiels kein HDR+AA funzte

und du willst mir doch nich erzählen das du den Unterschied zw. pseudo und echten HDR erkennst, es gibt keinen, beide blenden nervend und unrealistisch! was du meinst ist vielleicht bloom, aber das meinte ich nicht

bei den preis muss ich mich revidieren, war wohl ein Fehler vom Händler, kostet jetzt 549,90 EUR...und man sieht das ihr keine AHnung habt ..overclockers ist ein sehr seriöser bekannter Laden mit besten Bewertungen
 

Anhänge

  • bf23rm.jpg
    bf23rm.jpg
    156,3 KB · Aufrufe: 42
  • screen008.jpg
    screen008.jpg
    104,4 KB · Aufrufe: 39
Zuletzt bearbeitet:
wo er recht hat hat er recht... sag ja mit der BQ ist bei manchen so ne Penible Sache.... und die Leute müssen dann auch noch ein Affentheater machen deswegen wenn einma einer beide Karte gehabt hat und es dann mit Fakten wiederlegt... und nicht gleich anfäng... ATI war wohl besser Ätschie^^
für mich verteitigen hier manche Leute einfach nur ihre Karte und wohlen ihren Kauf rechtfertigen.... anstatt das ganze ma was Sachlicher anzugehen!

Mfg
 
Zuletzt bearbeitet:
7900gx2

Rain schrieb folgendes:

um nochmal ALLES zusammen zu fassen:

7950gx2

+ schnellste 1-Slot-Karte
+ relativ Kühl
+ Weniger Stromverbrauch bei Last als x1900xtx
+ sehr gutes Preis/Leistungs Verhältnis

- Kein HDR+AA
- BQ ist im AF nicht ganz so toll wie bei ATI


x1900xtx

+ Für eine 1 GPU Karte sehr schnell
+ HDR+AA
+ BQ etwas besser
+ guter Preis

- Stromverbrauch
- Recht heiss
- nicht so schnell wie 7950gx2




Meine Frage nun das mit dem HDR und kein AA stimmt das wirklich ? da eine normale 7900GT doch HDR und AA packt?
 
Rauwman schrieb:
wo er recht hat hat er recht... sag ja mit der BQ ist bei manchen so ne Penible Sache....
Wobei das nur Leute sagen können, die wirklich beide Karten hatten....hier im Forum kenne ich schon einige Leute die wirklich beide Karten hatte und sofort den Unterschied erkennen....also "penible Sache" ist da wohl eher untertrieben ;)
Über den Stomverbrauch können die ganzen NVidia Freaks herziehen...da schreibt keiner minimal^^

Wenn man jetzt auch noch die Treiberprobs aufzählen will...dann artet das ganze hier aus....Ich hatte mit der NVidia genau so wenig Probs gehabt wie mit der ATI....wenn man sich etwas auskennt, bekommt man eigendlich alles hin...
Haris83 schrieb:
Meine Frage nun das mit dem HDR und kein AA stimmt das wirklich ? da eine normale 7900GT doch HDR und AA packt?
Nein, auch mit der 7900GT funzt das nicht...
 
Zuletzt bearbeitet:
aber 12bit HDR packt die NV mit AA und das macht was kein U gegenüber dem 16bit.... :)
 
hallor schrieb:
ihr seid es wohl die kein Plan haben, ich hatte bis vor einer woche noch die ATi und ich ´hatte mit 2 ATis in Bf2 Schattenbugs und schlechtes AA

hier mal um euch von den Bugs zu überzeugen

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4334974&styleid=12

klar wer keine Erfahrung mit NV bei BF2 hatte kann natürlich auch nichts feststellen

Als Anhang findet ihr das schöne Schattenproblem mit ATI *lol* und das hat jeder der seine schatten und alle einstellungen auf hoch hat

daneben ist mein Bild mit einer Nvidia, und wer jetzt das nicht sieht hat Tomaten auf den Augen

fakt ist aber das beim release des Spiels kein HDR+AA funktionierte

und es gibt keinen Unterschied zwischen pseudio HDR und echtes HDR, wir reden hier nicht von Bloom


und du willst mir doch nich sagen das oblivion und Ghost recon von anfang an mit AA lief, ein scheiss sag ich nur, mit den chuck patch mag es jetzt bei oblivion funzen, aber das ist nichmal nach 2 treiberversionen im ATI treiber implementiert, so das man wieder den chuck separat installern muss

und bei Ghost Recon hatte ich auch kein AA mit der ATI wie auch andere,ob das jetzt mit den Spel patch gefixt wurde weiss ich nicht, da ich am anfang wo ich es mir gekauft habe, dann verkauft habe weil ich ohne AA nicht spielen wollte

Fakt ist, das beim releases des SPiels kein HDR+AA funzte

und du willst mir doch nich erzählen das du den Unterschied zw. pseudo und echten HDR erkennst, es gibt keinen, beide blenden nervend und unrealistisch! was du meinst ist vielleicht bloom, aber das meinte ich nicht

bei den preis muss ich mich revidieren, war wohl ein Fehler vom Händler, kostet jetzt 549,90 EUR...und man sieht das ihr keine AHnung habt ..overclockers ist ein sehr seriöser bekannter Laden mit besten Bewertungen


:hail:

Du sagst ich hätte keine Ahnung? Bervor du solche Beleidigungen von dir lässt solltest du dir über deine Aussagen sicher sein. Nach dem Motto erst Denken, dann Posten.

Ich binn von einer 7800GTX auf eine X1900 XT umgestiegen und du schreibst:
hallor schrieb:
klar wer keine Erfahrung mit NV bei BF2 hatte kann natürlich auch nichts feststellen
Heißt das jetzt daß du die Postings nicht liest oder daß du versuchst zu provozieren?

Desweiteren sehe auch ich den Unterschied ziwischen den beiden Bildern. Ich kann nur sagen daß dieser Bug bei mir nicht auftrat als ich noch BF2 spielte.
Um auch auf HDR einzugehen: Ok, ich meinte Blomm. Das pseudo HDR in HL² Lostcoast sieht genauso gut aus wie "echtes" HDR. Nur was bringt dir daß wenn alle anderen Spiele "echtes" HDR verwenden? Es geht nicht darum was sein könnte, sondern darum was ist. Und es ist Tatsache daß keine nV GPU in Oblivion, FarCry oder GRAW HDR mit AA darstellen kann. Desweiteren ist es auch unwichtig ob ich bei keinem dieser Spiele am Anfang HDR + AA nutzen kann. Ich habe alle mit HDR + AA gespielt. Du verlierst dich immer in "könnte" und "hätte" aber siehst die Realität nicht.

Die 7950GX² ist einer mega schnelle Karte und mit einem großen TFT auf dem ich kein AA brauche ist sie auch nützlich. Aber auf jedem normalen TFT ist die X1900 XTX im Vorteil.
 
Zuletzt bearbeitet:
lol FarCry ist alt... zock ich lange net mehr. Oblivion ... schön und gut aber nach 60 Spielstunden keine Lust mehr und da hab ichs sogar mit HDR ohne AA ausgehalten (sah ok aus^^)...
COD2 zb hat auch 12bit hdr....
Aber es ist eben so dass viele Spielefirmen bei den heutigen Spielen anpassen... so wie bei Oblivion (wo dann aber irg son mod treiber kam für die ATI'ler :)) an die jeweilgen karten die au dem Markt sind... und ich denke dass auc in Zukunft bis g80 und so da sind sicherlich noch viel 12 Bit Hdr genutz wird... weil das bveide Karten mit AA können.

Mfg
 
Zuletzt bearbeitet:
Hallor ist Accuface aus denn CB Forum.Lest euch da einfach mall seine Beiträge durch dann wisst ihr das er auch nicht viel besser als Bawde ist...
 
GA-Thrawn schrieb:
Aber du bist besser oder wie ?

Also bis jetzt war ich ganz objektiv find ich.Ich hab Nvidia noch nie schlechtgeredet.:oIch wollte damit nur sagen das Hallor schon immer ein flair zu Nvidia Karten hatte,mir ist noch immer schleiherhaft wie er sich überhaupt ne Ati kaufen konnte bei der ganzen NVidia Liebe.
 
Zuletzt bearbeitet:
@Rauwman:
Es ist doch egal ob du Oblivion nach 60 Std. (was übrigens viel ist) langweilig findest. Und es ist auch egal ob FarCry alt ist. Es geht darum daß die 7950GX² bei diesen Spielen - im Gegensatz zu X1900 XTX - kein HDR mit AA darstellen kann. Natürlich kann man Spiele auch ohne AA aushalten. Man kann sie sogar unter 800*600 spielen. Ihr habe so eine Art ein Thema völlig zu umgehen. Hier geht es um zwei sehr teure high-end GPUs, also nicht darum ob man Spiele auch mit niedriger Qualitätsstufe spielen kann. Wenn man sich eine so teure GPU kauft kann man verlangen daß man bei HDR kein Treppen im Bild hat. Sonst würde hier nicht 7950GX² vs. X1900 XTX sondern 7600GT vs. X1800 GTO stehen.

Ich hoffe ja für den G80 daß er HDR + AA kann (nicht nur bei FP12). Wenn er schon nicht DX10 hardwarekompatibel wird sollte er das können.
 
Zuletzt bearbeitet:
ja aber du verstehst net was ich mein... es sind net wirklich DIE Spiele da die 16bit brauchen ..... alle Games die so gezockt werden haben meist 12 Bit...
FarCry : da ist es nichtegal obs url Alt ist... es ist Alt und man zockts net mehr^^ :Fresse:
Weisst bei mir war halt auchder Kaufgrund... ich zock BF2, COD2, HL2, CSS... und da brauch ich das 16bit HDR net... da hab ich 12er, was fast gleich ist. :)


Mfg
 
ich verabschiede mich aus dem thread, es ist echt langweilig immer wieder Nivida vs. ATI lesen zu müssen.

Jeder hat einen anderen geschmack. Wenn man die hauptkriterien lautstärke, leistung, kosten (€), abwärme und bildqualität je nach wichtigkeit auflistet, dann ist bei jedem die reihenfolge anders und deswegen kommt man nie auf eine endgültige lösung von ATI oder Nvidia.
 
Zuletzt bearbeitet:
Rauwman schrieb:
ja aber du verstehst net was ich mein... es sind net wirklich DIE Spiele da die 16bit brauchen ..... alle Games die so gezockt werden haben meist 12 Bit...
FarCry : da ist es nichtegal obs url Alt ist... es ist Alt und man zockts net mehr^^ :Fresse:
Weisst bei mir war halt auchder Kaufgrund... ich zock BF2, COD2, HL2, CSS... und da brauch ich das 16bit HDR net... da hab ich 12er, was fast gleich ist. :)


Mfg


Doch, ich verstehe schon was du meinst. Die GPU ist aber auch nicht für dich.
BF2 hat kein HDR, genausowenig wie CoD2. HL² hat in den neuen Maps ein wenig und CC:S hat wieder kein HDR. Also hast du - außer in HL² - kein FP12.
Alle großen aktullen Spiele wie Oblivion und GRAW haben FP16. Crysis wird auch FP16 haben wie z.B. auch UT2k7.

Für dich wäre eine 7900GTX perfekt, da du kein HDR + AA brauchst und keine großen BQ-Unterschiede siehst. Ich brauche halt eine X1900er, da ich Oblivion, GRAW und FarCry noch zocke und einen Unterschied in der BQ sehe. Gott sein dank gibt es viele verschiedene GPUs :)
 
Zuletzt bearbeitet:
jap und genau aus dem Grundkauf ich die NV... weil sie flotter ist... Wenn Crysis da ist (ende 2006) und UT ´(auch ende 2006) ... ist der g80 schon längst im Rechner.

mfg
 
Rauwman schrieb:
[...]Wenn Crysis da ist (ende 2006) und UT ´(auch ende 2006) ... ist der g80 schon längst im Rechner.

mfg


Und kann vielleicht auch kein HDR + AA :fresse:
 
das glaubst doch wohl selber net... beim g70 wars ein Problem in der Architektur... die haben aber selber ma gesagt dass der g80 das kann ... der hat ja auch wieder ne neue Architektur... und sonst...? der r600 kommt ja auch noch um die zeit von crysis...
Noch dazu werd ich Crysis net mit den "alten" karten von jetzt zocken, sondern mit der neuen Generation.

mfg
 
Zuletzt bearbeitet:
naja die kohle will ich auch haben... nebenbei, kleine anmerkung:

ich versteh nur nicht, warum ihr euch ne highend karte kauft, wenn euch quali egal ist... kauft euch ne lowend-karte aller 6800gt und stellt alles auf minimum, das reicht dann ja.

der einzige von meinen bekannten, der sich quad-sli kaufen will, hätte für den fall der fälle die, um kohle sich direkt einen neuen rechner bei problemen zu kaufen...
 
wie gesagt weil ich die BQ gut finde und nicht son weine bin der seine KArte verteigen muss... die BQ von ATI is nicht viel besser und Punkt.
Und deine Sig sagt alles über dich ^^+

mfg
 
angepisster schrieb:
naja die kohle will ich auch haben... nebenbei, kleine anmerkung:

ich versteh nur nicht, warum ihr euch ne highend karte kauft, wenn euch quali egal ist... kauft euch ne lowend-karte aller 6800gt und stellt alles auf minimum, das reicht dann ja.

der einzige von meinen bekannten, der sich quad-sli kaufen will, hätte für den fall der fälle die, um kohle sich direkt einen neuen rechner bei problemen zu kaufen...
Du postest nur mist, als wär die NV Bildquali so scheisse, sie ist etwas schlechter mehr auch nicht, du drehst alles und bauschst auf und erzählst dann mist, mir ist sicherlich net alles egal, sonst würde ich net bf2 auf 1600x1200 (dank crt, tft engt ein mit der nativen auflösung) mit 4xaa und 16xaf + tsaa spielen, im übrigen ohne atis buggy schaten ,genau wie bei oblivion ,das würde meinem auge (das du ja immer betonst) dann doch den spass vermiesen.

Im übrigen sollte man net übertrieben, ne 6800 gT ist sicherlich alles, aber nicht low end, wir wolln hier ja net den höhenflug kriegen.
 
das AA blafasel sollte man sich echt mal auf der zunge zergehen lassen..

LOL echt. erstens: 2x AA nutzt keine sau mit einer hochpreiskarte. dann kommt das 4x AA, das auf beiden GPUs (ATI und NV) ein komplett identisches samplemuster verwendet - nur dass es spiegelverkehrt ist.

dann bietet ati noch einen sehr effektiven 6xAA modus, wo NV nur einen hybriden zu bieten hat (8xS). wieviele user gibt's hier wohl, die mit 8xS ein aktuelles spiel spielen können ??

dass AA mit HDR nicht funzt (auf NV) ist ein fakt - da kann man 1000mal schreiben, dass man es auch ohne aushält. ich halte oblivion auf NV nicht aus, ohne AA. dazu gibt's in dem spiel zuviel shader-aliasing. tjo, und nv baut zusätzlich noch texturflimmern ein, weil deren 16x AF in den meisten winkeln nur 2x AF anwendet. kleinreden kann man das nicht, weil auch das ein faktum ist.

es gibt bei NV dann noch die möglichkeit inoffizielle AA modi zu verwenden, nur kosten selbige leistung on mass und wirklich kompatibel sind sie auch nicht.

mein erster ATI treiber war der CAT6.5. damit hab' ich nirgends darstellungsfehler. battlefield2 hab' ich auch schon auf nem 6800Ultra und danach auf zwei 6800GTs@SLi gespielt. nie war das bild sauberer als heute auf der XTX (eine ATI karte). warum? weil die auf HQ einfach ein sauber gefiltertes bild liefert. nix mit matschtexturen neben geschärfter, weil das NV AF ZUUUUUU winkelabhängig ist.

BILDQUALITÄT BEDEUTET: EIN WINKELUNABHÄNGIGER ANISOTROPER FILTER SCHÄRFT DIE TEXTUREN

ich hab' ein bissl das gefühl, dass einige gar nicht wissen, wovon geredet wird, wenn das wort bildqualität fällt.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh