Big Navi wird noch größer: AMD Radeon RX 6900 XT im Test

Keine Kritik, nur eine Frage:
Hier und auch bei CB schneiden die AMD-Karten nicht so gut ab, wie bei manchen internationalen Testern (Hardware Unboxed zB). Woran liegt das? Haben die in Australien irgendwas mit ihrem Setup oder den Zahlen gedreht, oder gibt es einfach so starke Mess-Schwankungen? Mit dem Stromnetz sollte es ja nichts zu tun haben, oder? Ich kenne mich nicht so gut aus und bin einfach etwas verwirrt.
Ja, wenn z.B. schon die Einen das AMD-Modell mit OC gegen das nvidia Model ohne OC vergleichen, und die Anderen das nicht overclockte AMD-Modell gegen das OC-nvidia-Modell vergleichen, dann weiß man, dass es sich um "Vergleiche" auf Teleshop-Niveau handelt. 2020 scheint so Etwas aber Niemanden mehr zu stören..
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du darfst nicht erwarten, das jemand der eine neue Funktion in sein Produkt einbaut gleich so gut ist wie einer der schon in zweiter Generation die Funktion verwendet. Ich denke das AMD RT wird über Zeit schon besser. Die kommen nicht nach mit der Treiberoptimierung, ich tippe mal bis zum Frühjahr wird das meiste optimiert worden sein und die Performance wird ansteigen.
Natürlich darf man das - und sollte man auch. Ehrlich, was bringt es immer die Hersteller in Schutz zu nehmen? Da schickt sich nach Jahren mal wieder einer an, der NV kräftig in den Hintern tritt/treten möchte, was generell erstmal alles andere als schlecht ist, aber dann doch bitte nicht direkt wieder in die "reicht ja" Haltung abwandern, wenn es dann am Ende doch nur für Platz 2 reicht und sich der Abstand verkürzt? Was hat man bitte davon sich immer schützend vor den Hersteller zu stellen? Die sollen anständige Produkte liefern - und wenns eben nicht reicht, egal in welchem Anlauf, dann reichts nicht. Da sind warme Worte und Ausreden völlig fehl am Platz. Man möchte schließlich auch das volle Geld.
Gilt btw. für NV aber genau so, deren 3090 vor allem preislich einfach deutlich drüber ist. Und die 10GB auch arsch knapp bemessen sind.
manche erwartungen (kleines wunder?!) sind eben einfach nur eins, unrealistisch.
Nö, seh ich nicht so. Es sind eben gesunde Erwartungen die man haben sollte, wenn der Fortschritt nicht zu einem Stillstand verkommen soll. Schau dir doch mal die Zahlen im Detail an. Wir sprechen hier overall von deutlich unter 50% Fortschritt zur 2080TI in der Rasterleistung. Und ein zwei Hände voll unter RT Workload. Für 999$ - gleiche UVP wie die 2080TI vor 2+ Jahren. Fortschritt? Bisschen, aber viel ist das nicht...

Eine Frage, was hat man davon als Kunde, der hier 999$ und real wohl sogar mehr, weil schlecht verfügbar, hinblättern darf/soll, sich das bisschen an Performance, was man da bekommt im Vergleich zu vorher, schön zu reden mit dem Wink auf unrealistische Erwartungen? Realistisch im Vergleich zum Fortschritt von vor drei vier fünf Generationen wären 60-80% Performance OnTop ohne Mehrverbrauch und in Spezial-Szenarien sogar deutlich mehr. RT bei NV wäre so ein Spezialszenario. Irgendwie werden die Kunden vermehrt in den Foren ihre Erwartungen über Board weil sich weit im Vorfeld schon rausstellt, dass der Hersteller das nicht leisten kann oder will - und dann kloppt man sich die Köppe wegen 30% ein :stupid:
NV probiert mal wieder die pressefreiheit zu untergraben... wie schon damals, wo alle ausser heise den wisch unterschrieben haben und NV in arsch gekrochen sind :stupid:
Bitte was? Weist du überhaupt was Pressefreiheit ist? Junge Junge...

Niemand, nicht mal ansatzweise untergräbt hier irgendwo eine Pressefreiheit - es geht hier einfach nur darum dass vom Hersteller indirekt bezahlte Reviews (bezahlt durch das Beistellen der Hardware) offenbar nicht den Anforderungen des Herstellers entsprechen, wenn nicht auf alle Aspekte eingegangen wird. Oder mit dem falschen Fokus auf Werte eingegangen wird. Der, der die Hardware stellt hat durchaus das "recht" dazu, das so zu fordern. Jedem (ja Pressefreiheit!) steht es frei sich unabhängig der Hersteller zu machen und so zu testen wie er das für richtig hält. Wenn einer Redaktion das nicht schmeckt, was die Hersteller wollen, gehen sie in den Laden, kaufen die Hardware und testen wie sie es für richtig halten. Mit Kontakten in Händlerkreisen ist sowas auch für einen schmalen Taler möglich - bspw. indirekt über Werbung für den Shop, dessen Name für die Beistellung erwähnt wird. Es braucht schlicht nicht den Hersteller dazu... Redaktionen die ihren Teil vom Kuchen gesichert haben, weil ihre Tests überzeugen und weil ihre Werte auch abseits des Release-Reviews lesenswert sind, stört das normal weniger wenn sie nicht ab der ersten Stunde dabei sind.

Btw. ich persönlich halte diese Launch-Review Artikel eh mittlerweile für ein bisschen Käse. Weil die Zeit oftmals nicht reicht um anständig zu testen. Vieles wird zeitlich bedingt schnell schnell gemacht. Manches nachgereicht, aber nicht immer. Das hat immer so den Charm von einem Wettrennen bis zur Deadline. Und wehe da ist mal was schief oder falsch oder nicht fertig, dann wird die Redaktion dafür gehatet bis der Arzt kommt. Normalerweise dürfte sich die Frage gar nicht stellen, was die Leute lesen wollen -> die sollten normal das testen, was sinnvoll zu testen ist um einen Vergleich sinnvoll anstellen zu können.
 
"Ein Teil wird auch auf den PCI-Express-Steckplatz geblasen, was sicherlich nicht ideal ist, da somit das Mainboard weiter aufgeheizt."

Da fehlt ein "wird" am Ende.
 
@fdsonne kürzlich wurde ein YouTuber von Nvidia gebannt weil er kritisiert hat.
 
Der Fairnesshalber muss ich aber auch sagen:
Wenn ich ein Produkt mit Fokus auf X veröffentliche, würde ich auch niemand ein Reviewsample schenken, wenn er Feature X gar nicht beleuchtet, oder nur ganz am Rande erwähnt.

Wenn nu nen Lampenhersteller damit wirbt, dass seine Lampen Glühbirnen haben, die mit 3Watt die Helligkeit von 500Watt Edison erreichen, dann würde ich das auch keinem Reviewer schicken, der sich nur die Optik der Lampe ansieht und irgendwo in nem Nebensatz sagt: "Ja und recht hell ist sie auch!".

NVidia sieht die Zukunft halt komplett im RT (wie quasi jeder, der nicht nur an jetzt und morgen denkt). Natürlich setzen sie da den vollen Fokus und wollen das auch so bewertet sehen.
In 8-10 Jahren, wenn Rasterberechnungen komplett verschwinden (evtl. schon in 6 Jahren!), wird es dann spannend, ob AMD den Zug verpasst hat und NVidia wieder einen enormen Vorsprung haben wird. Eben wegen des frühen und deutlichen Fokus.

Bottomline allerdings:
Wem sie Reviewsamples schicken, ist komplett ihnen überlassen.
Wenn ein Channel offensichtlich gegen die Interessen der Firma handelt, muss der Channel halt die Retailprodukte selber kaufen.
So sehr ich Hardware Unboxed liebe (ist meist das erste Review, dass ich von neuen Produkten schaue!) und sie feiere,... der Ansatz kontra RT stört mich ungemein. Scheiß auf Rasterberechnungen. Wir haben seit Jahren genug GPU Auswahl um jede Auflösung mit jedem Detailgrad am Limit zu spielen. Mich juckt nur noch "das neue Zeug", nicht der Schmu von Gestern.
 
Gebannt!? Wo? Weswegen? Zusammenhang!?
Versteh nicht ganz, worauf du hinaus möchtest...
Beitrag automatisch zusammengeführt:

Nur weil die non-RTX Benchmarks gemacht und die Leistung ohne Raytracing angekreidet haben.
Beitrag automatisch zusammengeführt:

Natürlich darf man das - und sollte man auch. Ehrlich, was bringt es immer die Hersteller in Schutz zu nehmen? Da schickt sich nach Jahren mal wieder einer an, der NV kräftig in den Hintern tritt/treten möchte, was generell erstmal alles andere als schlecht ist, aber dann doch bitte nicht direkt wieder in die "reicht ja" Haltung abwandern, wenn es dann am Ende doch nur für Platz 2 reicht und sich der Abstand verkürzt? Was hat man bitte davon sich immer schützend vor den Hersteller zu stellen? Die sollen anständige Produkte liefern - und wenns eben nicht reicht, egal in welchem Anlauf, dann reichts nicht. Da sind warme Worte und Ausreden völlig fehl am Platz. Man möchte schließlich auch das volle Geld.
Gilt btw. für NV aber genau so, deren 3090 vor allem preislich einfach deutlich drüber ist. Und die 10GB auch arsch knapp bemessen sind.
Mit dem hat Nvidia genau gegenüber seinen Wettbewerber gewonnen, Monopol an einer relativen exklusiven Funktion und die Leute shitstormen gegen AMD weil ja RTX so schwach ist. Man muss halt ehrlich differenzieren, klar RTX ist nice aber ist das so relevant wenn ich ein Game einfach nur auf Ultra ohne RTX zocken möchte? Im Szenario ohne Raytracing ist halt AMD gar nicht so schlecht, teilweise sogar in manchen Titeln flotter. DLSS ist auch sowas, klar wenn der Titel das unterstützt ist das Feature Super, wenn nicht hast du nix davon.

Das ist eben das einzige was ich auch an der RTX 3080 ankreide. Sie ist schnell und hat viele Features. Aber ohne Features kannst du halt nur 60-70% der Karte ausnutzen. Das ist bei AMD ein wenig anders, zumindest erstmal auf dem Papier weil Treiber müssen schließlich auch besser werden.
Beitrag automatisch zusammengeführt:

So wie Intel bei Servern ein schweren Stand in der Industrie hat, weil die sich ein Monopol aufgebaut haben und sich durch die Jahre hinweg, auch durch Manipulationen Vorteile ergaunert haben, ist das im Gaming genauso. 80% Aller Games sind Nvidia Sponsored Titel... da wird Hardware und Entwicklung mit Verträgen reingekauft. Ja nach Verträge die Entwickler bereit waren zu unterschreiben, kommt AMD nicht an die Engines/Spiele bis kurz vor veröffentlichung nicht ran. Während Nvidia schon Jahre vorher alles begleitet und schön schaut das alles für die eigenen Grafikkarten optimiert Programmiert wird.
 
Zuletzt bearbeitet:
Nur weil die non-RTX Benchmarks gemacht und die Leistung ohne Raytracing angekreidet haben.
Da gehören immer zwei dazu ;)
Von extern lässt sich das nicht beurteilen. Der eine sagt das, der andere das. Was da unter der Decke gelaufen ist, ist völlig unbekannt, daraus zu interpretieren, es läge nur daran wie du es beschreibst, ist schlicht nicht wirklich seriös. Btw. ist das auch nicht das erste mal, dass NV Restriktiv in diese Richtung vorgeht. Es gab da seinerzeit zu Fermi Zeiten schon Fälle, wo Redaktionen aufgrund von gewissen Fokuspunkten nicht mehr mit Hardware versorgt wurden vor einem Review. Was war das damals, ich glaube ht4u.net wurde ausgeschlossen wegen Direktkarten Verbrauchsmessung oder sowas in der Art?

Wie aber schon angemerkt, das ist halb so wild - es ist eh gestellte Hardware in der Masse der Fälle. Und als Leser des/eines solchen Tests MUSS!!! man sich diesem Punkt auch ganz klar bewusst sein. Gestellte Hardware bedeutet im Zweifel eben die ganze Zeit schon, dass es Vorgaben, Regeln, Empfehlungen oder was auch immer gibt. Seit sonst wie vielen Jahren gibt es die sogenannten Reviewer Guides, wo eben aufgeführt steht, was wie wann wo zu testen ist. Nicht im Detail, mache nur das und das - sicher nicht, aber es findet dadurch eine gewisse Beeinflussung statt. Keine Ahnung was der Aufschrei an der Stelle jetzt wirklich bringt? Ist meiner Ansicht nach schon immer so. Wem das nicht schmeckt, der sollte lieber selbst testen als sich auf teils nicht nachvollziehbares von Dritten zu verlassen ;)

Ehrlich gesagt, es ist ja nichtmal was gänzlich neues. Wahrscheinlich jeder, der in einem angestellten Verhältnis sein täglich Brot verdienen muss, kennt so eine Situation, wo man eigentlich den Chef kritisieren müsste, aber man immer die Gefahr läuft, dass dieser das nicht gut aufnimmt. Sorry, aber so blauäugig kann man doch nicht sein, zu denken, sowas wäre bei gestellter Hardware, ja teils sogar Schenkung/Überlassung dieser an die Redaktionen bei Produkten für mehrere hundert bis über tausend(e) Euros/Dollars anders!?
 
Nur weil die non-RTX Benchmarks gemacht und die Leistung ohne Raytracing angekreidet haben.

"Nur weil die non RTX Benchmarks gemacht haben" - Schmaren. Das haben alle gemacht.
"Die Leistung ohne RT angekreidet haben" - Wieder Schmaren. Auch das haben X andere genauso gemacht.

Welchen Sinn hat diese freie Erfindung von Dir für diese Diskussion?

Weder behauptet das HardwareUnboxed, noch sagt das NVidia,... Du stellst da einfach mal ne Behauptung auf zum haten.

NVidia sagt, dass sie zu wenig Fokus auf RT legen.
Das bestätigt HWUnboxed und kommunizieren das auch offen so.

NVidia stellt GPUs, damit reviewed wird, was sie reviewed haben wollen. Wenn HWUnboxed das nicht macht, bekommen sie halt die Hardware nicht geschenkt, sondern müssen sie bezahlen.
Das ist die Faktenlage und da ist auch kein Problem dabei.
Viele Channels kaufen IMMER alle Produkte selber, damit sie eben diese Verbindlichkeiten umgehen können.
Wer ein Produkt kostenlos haben will, muss sich halt an Regeln halten. Sehe da die Kontroverse nicht so wirklich, da es ja die Option gibt sich dagegen zu entscheiden und einfach die HW selber zu kaufen.
 
Offensichtlich scheint NVIDIA aber Vorgaben gemacht zu haben wie ein Test ablaufen soll was zumindest fragwürdig erscheint!? :unsure:
 
"Nur weil die non RTX Benchmarks gemacht haben" - Schmaren. Das haben alle gemacht.
"Die Leistung ohne RT angekreidet haben" - Wieder Schmaren. Auch das haben X andere genauso gemacht.

Welchen Sinn hat diese freie Erfindung von Dir für diese Diskussion?

Weder behauptet das HardwareUnboxed, noch sagt das NVidia,... Du stellst da einfach mal ne Behauptung auf zum haten.

NVidia sagt, dass sie zu wenig Fokus auf RT legen.
Das bestätigt HWUnboxed und kommunizieren das auch offen so.

NVidia stellt GPUs, damit reviewed wird, was sie reviewed haben wollen. Wenn HWUnboxed das nicht macht, bekommen sie halt die Hardware nicht geschenkt, sondern müssen sie bezahlen.
Das ist die Faktenlage und da ist auch kein Problem dabei.
Viele Channels kaufen IMMER alle Produkte selber, damit sie eben diese Verbindlichkeiten umgehen können.
Wer ein Produkt kostenlos haben will, muss sich halt an Regeln halten. Sehe da die Kontroverse nicht so wirklich, da es ja die Option gibt sich dagegen zu entscheiden und einfach die HW selber zu kaufen.
"Nvidia sagt, dass sie zu wenig Fokus auf RT legen." Also ist die Aussage ja nicht falsch das sie non RTX Benchmarks gemacht haben und RTX eher gemieden haben.

Das Dilemma ist ja das die Reviewer nicht offen drüber sprechen dürfen, das ist auch Vertraglich festgelegt. Man wird selten - nie hören " Wir testen Control mit den Einstellungen, weil Nvidia das vorgegeben hat.
Das ist schon undurchsichtig, du bist dir nicht sicher ob das review neutral oder gekauft ist. In den USA ist das Rechtssystem leider nochmal anders, ich weiß nicht wie die Regeln für Deutsche Reviewer sind. Aber in Amerika kann das recht streng sein.

Du hast ja recht viele kaufen sich selbst Hardware, nur Refrenzdesigns sind nicht so leicht zu bekommen wenn du nicht Connections hast.
 
Das ist schon undurchsichtig, du bist dir nicht sicher ob das review neutral oder gekauft ist. In den USA ist das Rechtssystem leider nochmal anders, ich weiß nicht wie die Regeln für Deutsche Reviewer sind. Aber in Amerika kann das recht streng sein.
Warum sollte man sich unsicher sein!?? Das ist schlicht nur der Irrglaube, dass ein Review generell komplett und in jeder Hinsicht unabhängig von Einflüssen der Hersteller getätigt wird. Dem ist aber nicht so. Die Hardware ist gestellt - das allein impliziert mindestens mal die Option, dass sie vom Hersteller gesondert gute Samples bekommen - Stichwort Golden Sample. Sowas war seinerzeit sogar mal gang und gebe und wurde dann in den Nachtests teils benannt, weil Retails Samples schlechter abschnitten.

Warum nicht einfach nüchtern sehen und davon ausgehen, dass ein Artikel, der auf vom Hersteller! gestellter Hardware basiert, schlicht immer bedeutet, dass dort der Hersteller im Ergebnis die Finger drin hat? Mindestens mal haben kann? Sei es durch Golden Samples, sei es durch Vorschrift der Testparameter, sei es durch zwingend notwendig/durchzuführende Sachen, seit es durch irgendwelche Wörter, die unbedingt erwähnt werden müssen (man erinnere sich dabei an den Hinweis, die RDNA2 Karten doch als Gamerkarte zu verkaufen) usw.

Ob da wer über was reden kann/darf/tut oder nicht, ist auch wieder nur ne Pauschalbehauptung ohne jegliche Faktenlage. Sorry... Bitte mehr Fakten in Belastbarer Form. Reviews, die sich der Ungunst eines Herstellers unterzogen haben, würden wahrscheinlich exakt so einen Punkt auf öffentlich machen -> siehst du das irgendwo? Steht irgendwo, dass dem so ist? Ich lese primär von ganz regulären NDAs - nicht merh und nicht weniger. Jeder Hersteller möchte, dass die Infos nicht vor Release public werden. Entsprechend gibt es Verschwiegenheitsverpflichtungen.
 
Mir ging es primär darum, das Nvidia ihr Ziel erreicht haben. Sie erschaffen Meinungsbildung und fokussieren auf ihre Produkt "stärken" dadurch schaffen sie es eben die Meinung anderer zu manipulieren in dem Man sagt Produkt von Hersteller X ist scheiße weil RTX nicht nicht mindesten gleichwertig ist. Darauf wollte ich hinaus, das Schicksal wiederholt sich.

Vor 15 Jahren war es die Physics Geschichte die AMD immer nachhing weil die Entwickler immer auf Nvidia Physics entwickelt haben.
Jetzt ist es RTX, die DX12 RTX Geschichte ist noch relativ neu und nicht ganz optimal.

Ich verwende mal ein anderes Beispiel: Jahre lang hat Nvidia Adaptiv Sync boykotiert obwohl das Jahrelang im DP Standard definiert wurde, Treiberseitig wurde das von Nvidia einfach nicht unterstützt oder Treiber die plötzlich nicht mehr funktionieren wenn eine Konkurrenz Grafikkarte installiert wurde (Amd + Nvidia karte für physics). Das Nvidia Partnerprogramm das Community seit dank doch nicht ausgerollt wurde wie sich das Nvidia ausgedacht hatte.

Das sind wohl einige Gründe, warum viele mit AMD nicht so hart ins Gericht gehen.... ich auch nicht obwohl ich aktuell eine neue Nvida Karte habe (ich habe das gekauft was Verfügbar war)
Beitrag automatisch zusammengeführt:

NVidia stellt GPUs, damit reviewed wird, was sie reviewed haben wollen. Wenn HWUnboxed das nicht macht, bekommen sie halt die Hardware nicht geschenkt, sondern müssen sie bezahlen.
Das ist die Faktenlage und da ist auch kein Problem dabei.
Viele Channels kaufen IMMER alle Produkte selber, damit sie eben diese Verbindlichkeiten umgehen können.
Wer ein Produkt kostenlos haben will, muss sich halt an Regeln halten. Sehe da die Kontroverse nicht so wirklich, da es ja die Option gibt sich dagegen zu entscheiden und einfach die HW selber zu kaufen.
Ist ja nicht so das Nvidia das nötig hätte. Die Nvidia Produkte sind ja trotzdem gut. Man hätte da auch einfach nur den UVP für die FEs verlangen können, die Vertragsnehmer verwarnen können und es dabei belassen können.
 
Zuletzt bearbeitet:

Der hats auch gut formuliert.
 
Offensichtlich scheint NVIDIA aber Vorgaben gemacht zu haben wie ein Test ablaufen soll was zumindest fragwürdig erscheint!? :unsure:
Denke eher man hat es für selbstverständlich gehalten dass ein Flagschiff-Feature auch getestet wird und das ist in dem Fall halt nicht geschehen und NV zieht jetzt für die Zukunft Konsequenzen (nicht für die Vergangenheit).
Nenn es "ungeschriebene" Vorgaben.

Mir ging es primär darum, das Nvidia ihr Ziel erreicht haben. Sie erschaffen Meinungsbildung und fokussieren auf ihre Produkt "stärken" dadurch schaffen sie es eben die Meinung anderer zu manipulieren in dem Man sagt Produkt von Hersteller X ist scheiße weil RTX nicht nicht mindesten gleichwertig ist. Darauf wollte ich hinaus, das Schicksal wiederholt sich.

Vor 15 Jahren war es die Physics Geschichte die AMD immer nachhing weil die Entwickler immer auf Nvidia Physics entwickelt haben.
Jetzt ist es RTX, die DX12 RTX Geschichte ist noch relativ neu und nicht ganz optimal.

Ich verwende mal ein anderes Beispiel: Jahre lang hat Nvidia Adaptiv Sync boykotiert obwohl das Jahrelang im DP Standard definiert wurde, Treiberseitig wurde das von Nvidia einfach nicht unterstützt oder Treiber die plötzlich nicht mehr funktionieren wenn eine Konkurrenz Grafikkarte installiert wurde (Amd + Nvidia karte für physics). Das Nvidia Partnerprogramm das Community seit dank doch nicht ausgerollt wurde wie sich das Nvidia ausgedacht hatte.

Das sind wohl einige Gründe, warum viele mit AMD nicht so hart ins Gericht gehen.... ich auch nicht obwohl ich aktuell eine neue Nvida Karte habe (ich habe das gekauft was Verfügbar war)
Beitrag automatisch zusammengeführt:


Ist ja nicht so das Nvidia das nötig hätte. Die Nvidia Produkte sind ja trotzdem gut. Man hätte da auch einfach nur den UVP für die FEs verlangen können, die Vertragsnehmer verwarnen können und es dabei belassen können.
Irgendwie fällt es mir schwer einem Unternehmen anzukreiden dass sie eben als erste mit einer neuen Technologie ankommen und tun was sie können um diese zu bewerben...
Soll eben AMD sich auch etwas revolutionäres einfallen lassen, statt NV nachzueifern. Revolutionär heisst auch nicht automatisch dass es sich durchsetzt. Von PhysX hat NV glaub am Ende nicht wirklich profitiert.
Mit SAM hat AMD tatsächlich als erste etwas neuartiges rausgebracht. Schade dass es im Schnitt nur 4% Leistung und nicht direkt Bildverbesserung bringt... Vieleicht können sie in der nächsten Gen aber mehr rausholen, so wie DLSS auch jetzt erst wirklich gut ist. Wer weiss.
 
Zuletzt bearbeitet:
Offensichtlich scheint NVIDIA aber Vorgaben gemacht zu haben wie ein Test ablaufen soll was zumindest fragwürdig erscheint!? :unsure:
Keine Vorgaben.
Sie haben NACHTRÄGLICH gesagt: "In der Zukunft gibt es halt nix mehr gratis".
Da ist nix fragwürdig.
 
Offensichtlich scheint NVIDIA aber Vorgaben gemacht zu haben wie ein Test ablaufen soll was zumindest fragwürdig erscheint!? :unsure:

Einen sog. Reviewer´s Guide gibt es bei Team Rot und Gruen. Klingt komisch, ist aber so. Warum erscheint Dir das mal wieder nur selektiv fragwuerdig?

Und Ja, das ist eine rhetorische Frage.
 
In den Reviewers Guides steht aber normal nix verbindliches drin.
Da stehen die Stärken, die Dinger die bevorzugt gezeigt werden sollen,... vor allem halt auch Sachen, die sonst niemandem auffallen würden, wenn sie nicht in dem Heft stehen würden.

Und ja, alle Hersteller machen das. Natürlich. Jeder von uns würde das genauso machen, wenn wir Produkte verschenken würden zum Review.

Hier geht es aber eigentlich um was ganz anderes:
Ein Hersteller war nicht happy mit der Zeitaufteilung eines Reviewers. Vermutlich sogar nur deswegen, weil HardwareUnboxed fast 10 Minuten nur darüber gelabert hat wie doof RT ist und dass sie es absichtlich nicht groß behandeln wollen.
Hätten sie den Teil nicht gebracht, wäre wohl nicht mal was passiert. Haben sie sich selber eingebrockt in meinen Augen. Sie haben ja sogar mich abgeschreckt mit dem Scheiß. Und sie waren davor wirklich meine Nr 1 Quelle für Reviews. Für GPU Reviews gehe ich jetzt halt woanders suchen.
 
Das Thema kann hier weiter behandelt werden:
 
NV probiert mal wieder die pressefreiheit zu untergraben... wie schon damals, wo alle ausser heise den wisch unterschrieben haben und NV in arsch gekrochen sind :stupid:
Du hast noch nie in deinem Leben ein NDA unterschrieben geschweige denn damit zu tun gehabt oder?
NDAs sind ganz normal in solchen Bereichen, wo vertrauliche Informationen vorab an Dritte weitergegeben werden. Dies ist eine reine Absicherung, dass die Informationen nicht fröhlich weitergereicht werden. Enden dann auch i.d.R mit der Veröffentlichung des Produktes oder an einem festgelegten Datum, da die Informationen damit ihre Vertraulichkeit verlieren.
Heise hat die ganze Geschichte damals ziemlich hoch gekocht, da die eine persönliche Fehde mit Nvidia haben.

Ich verwende mal ein anderes Beispiel: Jahre lang hat Nvidia Adaptiv Sync boykotiert obwohl das Jahrelang im DP Standard definiert wurde, Treiberseitig wurde das von Nvidia einfach nicht unterstützt
Informiere dich doch wenigstens ein wenig, bevor du so einen Schwachsinn herausposaunst. Adaptive Sync ist nichts weiter als ein Übertragungsprotokoll, um eine Synchronisierung der Hertzzahl des Monitors mit der Zahl der gelieferten FPS von der GPU zu ermöglichen. Dies erfordert aber noch eine zusätzliche Implementierung und anschließender Wartung sowie Validierung einer entsprechenden Funktionalität, welche dann dieses Protokoll anspricht. Dies muss auf Seiten des Treibers und in der Hardware des Monitors geschehen. Um Kosten zu sparen, haben da viele Monitorhersteller oft geschlampt, wodurch es zu Flickern mit Freesync gekommen ist, welche das Spielerlebnis trüben. Daher hat Nvidia mit G-Sync auch gewisse Vorgaben gemacht, welche ein Monitor erfüllen muss, damit dieser das Modul und die entsprechende Zertifizierung erhält.

Mittlerweile hat sich Nvidia da ein bisschen geöffnet und G-Sync-compatible ins Leben gerufen. Eine Zertifizierung, welche auch nicht jeder Monitor mit einer grottigen Implementierung von Adaptive Sync erhält.

Also nichts vonwegen Nvidia unterstützt dies einfach nicht, da steckt ein wenig mehr hinter.. :rolleyes2:
 
Danke ich bin gut informiert, Nvidia hat das Treiberseitig einfach geblockt. Für Notebooks wurde das schon verwendet, da es dort kein G-Sync gab.

Prinzipiell erfüllt jeder Monitor der FreeSync kann auch Adaptive Sync. Nvidia wollte das aber nicht, die Leute sollten schön ihren teueren G-Sync Standard kaufen. Der Gleiche Monitor hatte teilweise das doppelte gekostet.

Man wurde genötigt Proprietäre Techniken zu nutzen.
Nach deinen Aussagen zufolge hat ja Nvidia alles richtig gemacht, die Leute überzeugt das technisch eine Hürde ist etwas zu verwenden das im Anschlussprotokoll schon standardmäßig enthalten ist und offener Standard ist.

Es geht nicht darum das man spezielle Zertifizierung brauch, schließlich hätte das Nvidia freischalten können, mit dem Disclaimer das keine Gewährleistung gewehrt das es eben so funktioniert wie das der User erwartet.
Wie gesagt sie haben das all die Jahre bei Notebooks genutzt weil es dort kein G-Sync gegeben hat. Das ist einfach nur eine billige ausrede.

Mittlerweile wurde Freesync auch auf G-Sync Monitore aufgeschaltet.
Nvidia hat sich auf druck ihrer Kunde wohl dazu entschieden das Treiberseitig zu implementieren und nicht weil es technisch auf einmal möglich ist.

Ich verwenden einen nicht Zertifizierten Monitor und es funktioniert super.

Das wird jetzt aber eh OT.
 
Danke ich bin gut informiert, Nvidia hat das Treiberseitig einfach geblockt. Für Notebooks wurde das schon verwendet, da es dort kein G-Sync gab.
Nein, leider bist du nicht gut informiert. Denn Adaptive Sync ist optionaler Bestandteil einer DP 1.2a Spezifikation. Das wurde irgendwo Mitte 2014 oder sowas im Dreh beschlossen. Davor war es optionaler Bestandteil der eDP Spezifikation (seit 2008). Deswegen auch der Part mit Notebooks. eDP wird aber im Desktop Umfeld nicht verwendet. Warum weißt du auf diese Thematik nicht hin und vermischst alles in einen Topf? So sieht es natürlich so aus, als wäre es Willkühr seitens NV - real praktisch ist es einfach so, dass ein optionales Feature definitiv keinem Zwang unterliegt. Das heist, nicht mal das Logo für DP1.2a Support auf der GPU oder dem Monitor implizieren, dass es gehen MUSS.

Es geht nicht darum das man spezielle Zertifizierung brauch, schließlich hätte das Nvidia freischalten können, mit dem Disclaimer das keine Gewährleistung gewehrt das es eben so funktioniert wie das der User erwartet.
Wie gesagt sie haben das all die Jahre bei Notebooks genutzt weil es dort kein G-Sync gegeben hat. Das ist einfach nur eine billige ausrede.
So funktioniert das aber in der Wirtschaft nicht. Etwas anzubieten, was im Zweifel nicht funktioniert, weil es nicht aufeinander abgestimmt ist, kannst du dir hier in Deutschland vllt erlauben - andernorts gibt das eher negative Folgen. Vor allem sollte man sich davon lösen, dass der private Hansel an der Stelle wirklich relevant ist. Im Businessumfeld schaut das eben anders aus - wenn da vertraglich steht, wir wollen das und das wird auch so festgelegt, dann hat das zu funktionieren. Im Zweifel gibt es einen Rechtsstreit. Kein Hersteller der Welt WILL das, also wird man lieber auf sowas verzichten zugunsten einer Thematik, die 100% sicher funktioniert. Ist doof für den Kunden, stimmt, aber es geht nicht um den Kunden, es geht um Wirtschaftlichkeit und Risikoabschätzung. Es würde btw. gut tun, wenn man sich in Unterhaltungen mal bisschen näher mit dem Busines-Usecase beschäftigt. Denn das macht Unterhaltungen ungemein einfacher. Die wollen nicht den Gamer ärgern - die wollen einfach das Risiko nicht haben dass das nicht so tut wie gedacht. Mit allen Folgen. Auch auf AMD ist/war FreeSync nicht problemfrei - und vor allem, es ist gemessen am Massenmarkt da draußen auch eine Randgruppe. Was die Risikoabschätzung mit allen Folgen nochmal eindeutiger in eine Richtung zeigen lässt ;)

Btw. erst Pascal supportet wenn ich das richtig sehe DP1.4 und damit mehr als DP1.2 -> Maxwell GM200 kann nur DP1.2 (nicht aber 1.2a). Wir sprechen hier also von der Zeit ab Mitte 2016.
 
Danke ich bin gut informiert, Nvidia hat das Treiberseitig einfach geblockt. Für Notebooks wurde das schon verwendet, da es dort kein G-Sync gab.
Nein, denn sonst würdest du Displayport und eDP nicht gleichsetzen..

Nvidia wollte das aber nicht, die Leute sollten schön ihren teueren G-Sync Standard kaufen.
Steht doch auch in dem Artikel und habe ich zuvor geschrieben, warum Nvidia dies nicht wollte. Die wollen ein gutes Spielerlebnis gewährleisten. Daher gibt es auch strenge Vorgaben, welche Monitore erfüllen müssen, um die Zertifizierung G-Sync oder G-Sync-compatible zu erhalten.

Der Gleiche Monitor hatte teilweise das doppelte gekostet.
Warum muss man eigentlich immer so einen Schwachsinn behaupten, der nicht stimmt?

Man wurde genötigt Proprietäre Techniken zu nutzen.
"genötigt" :rolleyes:

Nach deinen Aussagen zufolge hat ja Nvidia alles richtig gemacht, die Leute überzeugt das technisch eine Hürde ist etwas zu verwenden das im Anschlussprotokoll schon standardmäßig enthalten ist und offener Standard ist.
Es ist nur ein Übertragungsprotokoll, ergo eine Schnittstelle. Die Funktionalität und Gewährleistung dieser muss drumherum erbracht werden. Das läuft nicht einfach so out-of-the-box.

Wo genau bewerte ich da denn etwas oder bin der Meinung Nvidia würde alles richtig machen?
Nirgendwo. Ich korrigiere nur deine Falschaussagen..

Das wird jetzt aber eh OT.
Ist es schon die ganze Zeit oder was genau haben HUB und Nvidias Streitereien mit Big Navi zu tun?
 
Ja das ist schon klar das erstmal der Monitor das können muss aber die sind doch gekennzeichnet... der Rest liegt in Nvidias hand und sie hätten diese Monitore schon seit 2016 unterstützen können.
Das sind billige ausreden die Funktion aus eDP wurde in DP 1.2a integriert, wenn die Monitore das unterstützen und Nvidia hat bei Notebooks das schon genutzt.

Was muss man da bitte technisch kostenintensiv implementieren wenn man das schon im Treiber drin hat? => hört sich nach einer billigen Ausrede an die Leute auf G-Sync zu polen.

Das Thema ist auch schon Schnee von Gestern. Mir ging es nur darum das Nvidia immer nur Techniken einbringt auch wenn es offene Standards sind, wenn sie dem Unternehmen wirtschaftlich nützen/nicht schaden und das unabhängig vom Aufwand.

So wurden die Gamer damals gespalten zwischen AMD / Nvidia und der kauf der Grafikarte auch den Monitor bestimmt. => Ich weiß das G-Sync die "besser" Technologie ist, zumindest laut Datenblättern und irgendwelchen Testest. Gemerkt habe ich noch keine Unterschiede zwischen FreeSync und G-Sync...

Der Unterschied bestand einfach nur als Nachteil für den Kunden, wenn dieser auf die technisch besseren Geforce Karten wechseln wollte, musst er auch den Kauf eines neuen Monitors in kauf nehmen. Obwohl technisch wenn Monitor und die Grafikkarte DP 1.2a oder höher unterstützt haben es kein Hindernis wäre das nutzbar zu machen.
Beitrag automatisch zusammengeführt:

Steht doch auch in dem Artikel und habe ich zuvor geschrieben, warum Nvidia dies nicht wollte. Die wollen ein gutes Spielerlebnis gewährleisten. Daher gibt es auch strenge Vorgaben, welche Monitore erfüllen müssen, um die Zertifizierung G-Sync oder G-Sync-compatible zu erhalten.
Nochmal, wenn ich einen FreeSync monitor habe oder einen Adaptive Sync Monitor habe möchte ich nicht unbedingt G-Sync haben. Das ist dem Kunden durchaus bewusst das Adaptive Sync nicht gleich G-Sync ist.
 
Ja das ist schon klar das erstmal der Monitor das können muss aber die sind doch gekennzeichnet... der Rest liegt in Nvidias hand und sie hätten diese Monitore schon seit 2016 unterstützen können.
Das sind billige ausreden die Funktion aus eDP wurde in DP 1.2a integriert, wenn die Monitore das unterstützen und Nvidia hat bei Notebooks das schon genutzt.
Du verstehst das Problem scheinbar nicht. Geh in den Geizhals und schau dir die Monitore doch bitte selbst an. DP1.2a und ab 2016 im Filter, Adaptive Sync als Feature. Was fällt dir auf!?
Das sind 12, in Buchstaben, Zwölf!. Ggü. 1000+ Monitoren mit DP1.2 Support ohne a.
Sorry, aber über was für Kleinigkeiten man sich aufregen kann, ist mir absolut rätselhaft... Was bringt es bitte?

Zumal du dir eben selbst widersprichst - auf den Standard zu pochen und dann nicht den Standard nutzen zu wollen ist halt Käse. Die Masse der FreeSync Monitore seinerzeit basiert nicht auf dem DP1.2a Standard. Weil man FreeSync über etwas nutzt, was offiziell nicht im Standard zu finden ist. Auch geht FreeSync über HDMI bei AMD, was erst - wie heißt das gleich? VRR? Seit HDMI 2 irgendwas offiziell drin ist. Der Vergleich hinkt...
 
Ja aber erkläre mir, wieso das jetzt plötzlich geht und 2019 auch die 1xxx Serie nachträglich G-Sync-Kompatibilität bekommt und bei Markteinführung kein Adaptiv-Sync unterstützt hat.
Denn jetzt geht es ja auch mit nicht Zertifizierten Monitoren:
1607873932436.png

Es funktioniert doch, nur ist es halt nicht von Nvidia validiert und das hätte man auch 2016 so schon machen können.
Als Kunde wird man darauf hingewiesen und gut ist.

Es ist völlig berechtigt das Nvidia sagt: Grundsätzlich erhalten nur von uns validierte Monitore die "G-Sync kompatibel" Zertifizierung.
Mir geht es nur darum das Nvidia erstmal aus ganz egoistischen Gründen darauf verzichtet hat um sich nicht ihr eigenes Ökosystem mit Grafikkarten + Monitor zu schädigen.
Da gab es damals für die 1xxx Generation auch keine technischen Hürden, man wollte nur nicht.

Ich finde es auch schön das Nvidia mal ausnahmsweise https://www.nvidia.com/en-us/geforce/news/rtx-30-series-hdmi-2-1/
etwas früher einen Standard eingebaut hat.
 
Die 1000er Karten sind doch DP1.4, das heißt sie können generell Adaptive Sync. Als optionales Feature wie gesagt gibt es dazu aber keinen Zwang.
Dass man das aus NV Sicht hätte besser machen können, und vor allem auch früher, steht außer Frage. Darum gehts aber auch gar nicht. Es geht um die immer falschen Behauptungen zu dem Thema. Es bringt nix sich auf den Standard zu berufen (und das hast du oben x-fach getan) und dann mit Hardware zu argumentieren, die den Standard gar nicht supportet... Zumal sich der Markt auch gewandelt hat. Es geht heute ja nicht mehr um G-Sync mit Modul vs. FreeSync/Adaptive Sync. Der neue heiße Scheiß ist jetzt G-Sync Ultimate. Mit ebenso wieder einem Modul vs. FreeSync2 oder wie AMD das jetzt gerade schimpft. Beides Proprietär und ohne Standard.
Auch könnte ein Grund schlicht wirtschaftlich bedingt sein. G-Sync wurde vor FreeSync released. Es gab einfach keine freie Option. Das muss sich natürlich auf Dauer erstmal rechnen. Vllt gab es auch Vertragsbestimmungen ggü. Monitorherstellern usw. usf. Schwer von außen zu beziffern, was die genauen Details waren. Am Ende aber auch egal. Seit 2 Jahren grob gibt es G-Sync Compatibel. Heutzutage läuft das sogar recht gut. In den Anfängen lieft da viel mistig bis gar nicht. Inkl. Unverständnis in den Foren, warum und wieso. -> vielleicht wollten sie das einfach nicht haben damals?
 
Finde die Debatte auch immer etwas ermüdent.

Sowohl AMD, als auch NVidia haben sich nicht an den Standard gehalten.
AMD hat es aus Marketing Sicht natürlich gewinnbringender formuliert, so dass die Leute alle dachten, dass FreeSync der offene Standard wäre,... was aber halt einfach falsch ist.
NVidia hat immer das Premiumsegment angesprochen und mit dem Sync auch ANDERE Parameter vorgegeben. Man konnte also gute und schlechte FreeSync Monitore kaufen, aber NUR gute G-Sync Monitore, weil Monitore mit schlechten Werten gar kein G-Sync verbauen durften.

Streng genommen haben die zwei Hersteller da total andere Kundengruppen angesprochen.
AMD wollte die "geiz ist geil", bzw. "maximum Leistung / Preis" ansprechen, während NVidia auf "maximale Qualität" geschossen hat.

Dass AMD sich mit FreeSync nicht an den eigentlichen Standard gehalten hat, war spätestens dann klar, als "G-Sync Compatible" kam, was 1:1 den Standard abgebildet hat. Da gab es dann auf einmal eine MENGE Monitore, die zwar FreeSync supported haben, aber eben nicht G-Sync, obwohl das G-Sync 1:1 der Standard war, bzw. genau weil es den Standard benutzt hat.

Und heute?
Heute liest man trotzdem in den Foren, dass FreeSync ja immer offen und Standard wäre und G-Sync böse und proprietär. Entgegen aller Fakten und Erfahrungen.
 
triffts ganz gut "den shitstorm aufrecht erhalten"
Kommentar: Shitstorm ist gut, Lehren daraus ziehen ist besser - ComputerBase
Beitrag automatisch zusammengeführt:

Finde die Debatte auch immer etwas ermüdent.

Sowohl AMD, als auch NVidia haben sich nicht an den Standard gehalten.
AMD hat es aus Marketing Sicht natürlich gewinnbringender formuliert, so dass die Leute alle dachten, dass FreeSync der offene Standard wäre,... was aber halt einfach falsch ist.
NVidia hat immer das Premiumsegment angesprochen und mit dem Sync auch ANDERE Parameter vorgegeben. Man konnte also gute und schlechte FreeSync Monitore kaufen, aber NUR gute G-Sync Monitore, weil Monitore mit schlechten Werten gar kein G-Sync verbauen durften.

Streng genommen haben die zwei Hersteller da total andere Kundengruppen angesprochen.
AMD wollte die "geiz ist geil", bzw. "maximum Leistung / Preis" ansprechen, während NVidia auf "maximale Qualität" geschossen hat.

Dass AMD sich mit FreeSync nicht an den eigentlichen Standard gehalten hat, war spätestens dann klar, als "G-Sync Compatible" kam, was 1:1 den Standard abgebildet hat. Da gab es dann auf einmal eine MENGE Monitore, die zwar FreeSync supported haben, aber eben nicht G-Sync, obwohl das G-Sync 1:1 der Standard war, bzw. genau weil es den Standard benutzt hat.

Und heute?
Heute liest man trotzdem in den Foren, dass FreeSync ja immer offen und Standard wäre und G-Sync böse und proprietär. Entgegen aller Fakten und Erfahrungen.

nur das freesync ne weiterentwicklung von adaptivesync ist...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh