Über Vram (Grafikspeicher)

Wie kann man es nicht verstehen...

Es macht aus einem 4K Bild ein 1080p Bild das jedoch 4x schärfer ist bzw detailreicher und weniger "ecken/treppen/aliasing" hat.

Egal ob er 1243K oder 4K oder 1440p RUNTER AUF 1080p rechnet, die Grafikkarte sendet ein 1080p Signal.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Exakt das ist der Fall... Und Tahiti sowie auch Hawaii können aufgrund Restriktionen in der Hardware eben nicht mehr, Tonga und Fiji können das hingegen, wie auch Kepler und Maxwell based Karten bei NV. Wie man das mit dem HDMI Port vermischen kann, ist mir schleierhaft.
 
Nochmal, da hat NICHTS!!!! mit dem HDMI Port zu tun.
Bei deinem TV kommt schlicht nur FHD an, scheiß egal, welche Auflösung du da via VSR zur Berechnung ranziehst. Der TV sieht nichts anderes als FHD@60Hz, oder eben, was auch immer du da eingedreht hast als "Basis". Würde Tahiti auch 2x2 im VSR können, könntest du auch im 3840x2160 spielen und dein TV hätte über den SELBEN HDMI 1.x Port immernoch nur einen FHD Input.
Ganz ehrlich, ich habe die Spezifikationen nicht festgelegt, kannst dich gerne an die ISO wenden! ;)

Übrigens steht auf der Verpackung max Resolution 7000x7000 pro GPU, aber das ist ja nur Marketing! :p
 
Nein, du solltest viel eher verstehen, das eine via VSR erzeugte Auflösung nicht am Ausgang der Grafikkarte ankommt. Da kommt in deinem Fall FHD aka 1920x1080@60Hz raus, was voll und ganz dem entspricht, was spezifikationskonform ist. Das Tahiti nicht mehr als das bisschen VSR Auflösung kann, ist ein Problem der Hardwarescaler auf den Karten. Die können es einfach nicht... weder mit HDMI noch mit DVI oder DP. Ergo VSR auf Tahiti und Hawaii nur in kleinen Faktoren nutzbar.

Aber wenn du gern was anderes glauben willst, dann tue es einfach. Ist doch nicht mein Problem, wenn du es nicht verstehen willst. :wall: Ich sag nur ECC mit non ECC Speichern. War auch ne schwere Geburt, bis du es verstanden hast.

PS: was da auf der Packung steht, ist ebenso nebensächlich, es geht bei VSR nicht um die Höhe der Auflösung, die am Ausgang raus kommt, sondern was die Scaler in der Lage sind in Hardware umzurechnen. Sorry, aber du hast offenbar Null Plan, von dem, was du hier von dir gibst...
 
Zuletzt bearbeitet:
Meine Fresse wie kann man sowas nicht verstehen...
Kannst auch deinen Monitor mit Licht anschließen, es geht hier um das "RUNTER RECHNEN" das geschieht auf dem KABEL !

Grafikkarte= Mensch
Kabel = Stange
Auflösung = Gewicht

Egal welche STANGE du nimmst du kannst keine 180KG drücken! Egal welchen Kabel du benutzt die Grafikkarte kann es einfach nicht von 8147x5214 auf 1920x1020 rechnen. Egal welcher KABEL egal welche STANGE du drückst keine 180KG und die Grafikkarte drückt keine 5000x5000 Auflösung. Wenn du das nicht verstehst dann mach bitte ein neuen Thread auf.
 
Nein, du solltest viel eher verstehen, das eine via VSR erzeugte Auflösung nicht am Ausgang der Grafikkarte ankommt. Da kommt in deinem Fall FHD aka 1920x1080@60Hz raus, was voll und ganz dem entspricht, was spezifikationskonform ist. Das Tahiti nicht mehr als das bisschen VSR Auflösung kann, ist ein Problem der Hardwarescaler auf den Karten. Die können es einfach nicht... weder mit HDMI noch mit DVI oder DP. Ergo VSR auf Tahiti und Hawaii nur in kleinen Faktoren nutzbar.

Aber wenn du gern was anderes glauben willst, dann tue es einfach. Ist doch nicht mein Problem, wenn du es nicht verstehen willst. :wall: Ich sag nur ECC mit non ECC Speichern. War auch ne schwere Geburt, bis du es verstanden hast.

PS: was da auf der Packung steht, ist ebenso nebensächlich, es geht bei VSR nicht um die Höhe der Auflösung, die am Ausgang raus kommt, sondern was die Scaler in der Lage sind in Hardware umzurechnen. Sorry, aber du hast offenbar Null Plan, von dem, was du hier von dir gibst...
Ich versteh es nicht, kannst du nicht lesen?
Virtual Super Resolution

Wenn die GPU via EDID einen HDMI 1.2 Eingang gemeldet bekommt, ist die 1800p Auflösung nicht verfügbar!
Weil alles darüber via Monitor Pixelübertaktung läuft, daher auch das Flimmern bei bestimmten Kombinationen aus Kabel und Monitor! ;)
 
In dem Video 2:06, kann ich da für mein Eizo FS2735 dann zb 160hz einstellen? Kann ich da was kaputt machen oder so? Das der Monitor abfackelt oder das Panel abraucht ?

:shot: mein Fehler, irgendwer hat mich emotional abgelenkt wie eine Flare vom Jagt Bomber, €-fighter sei dank...

Nein, das Flimmern verrät dir, dass die Pixel dem Takt nicht standhalten.
Kaputt geht nix, sieht aber scheiße aus. ;)
 
Ich versteh es nicht, kannst du nicht lesen?
Virtual Super Resolution

Wenn die GPU via EDID einen HDMI 1.2 Eingang gemeldet bekommt, ist die 1800p Auflösung nicht verfügbar!
Weil alles darüber via Monitor Pixelübertaktung läuft, daher auch das Flimmern bei bestimmten Kombinationen aus Kabel und Monitor! ;)

Wo steht das jetzt in deinem Link??
Da steht:
"VSR ermöglicht, dass Games zunächst mit höheren Auflösungen gerendert werden (bis zu 4K; siehe nachstehende Tabelle „Virtual Super Resolution-Unterstützung“) und anschließend wieder auf eine niedrigere, native Bildschirmauflösung heruntergerechnet werden."

Weder der TV noch der HDMI Port der Grafikkarte bekommen überhaupt mit, dass da eine höhere Auflösung gerendert wurde. Wie oben erwähnt, schmeiß Tahiti weg und hol dir Tonga oder Fiji und nutze UHD mit nem FHD TV via VSR. Nach deiner Theorie dürfte das nicht gehen, es geht aber nun mal. Warum sollte es eine Rolle spielen, was der Monitor oder der HDMI Port kann? Wenn FHD@60Hz native geht, kannst du auch Downsampln. Die Höhe der Auflösung, die nutzbar ist, nach Aussage AMDs hängt von den Fähigkeiten der Hardware ab. Eine Shaderbased VSR Version sollte angeblich folgen, kam aber nie. Wurde aber auch "nur" für alle 200er Karten ab der 260er Reihe angekündigt.
 
:shot: mein Fehler, irgendwer hat mich emotional abgelenkt wie eine Flare vom Jagt Bomber, €-fighter sei dank...

Nein, das Flimmern verrät dir, dass die Pixel dem Takt nicht standhalten.
Kaputt geht nix, sieht aber scheiße aus. ;)

Also der Monitor ist noch nicht angekommen, der kommt erst Samstag.
Ich wollte einfach nur wissen, wie sieht sowas denn aus ? Dieses Flimmern? Ist wie "Refresh?" oder so ein komisches ding was ich grad aufm Handy hab das wie "Paparazzi flashes" aussieht ?

Dieser Thread mutiert zu einem Tutorial für diesen Lömmel der das nicht checkt... Gott und Mods seid gnädig bitte.. 1 Gesagt ok, 3 mal gesagt ok.. aber 10 mal sollten schon reichen bei fkin 72 Posts... da sollte selbst ein Neandertaler verstehen worum es geht.
 
Zuletzt bearbeitet:
Wo steht das jetzt in deinem Link??
Da steht:
"VSR ermöglicht, dass Games zunächst mit höheren Auflösungen gerendert werden (bis zu 4K; siehe nachstehende Tabelle „Virtual Super Resolution-Unterstützung“) und anschließend wieder auf eine niedrigere, native Bildschirmauflösung heruntergerechnet werden."

Weder der TV noch der HDMI Port der Grafikkarte bekommen überhaupt mit, dass da eine höhere Auflösung gerendert wurde. Wie oben erwähnt, schmeiß Tahiti weg und hol dir Tonga oder Fiji und nutze UHD mit nem FHD TV via VSR. Nach deiner Theorie dürfte das nicht gehen, es geht aber nun mal. Warum sollte es eine Rolle spielen, was der Monitor oder der HDMI Port kann? Wenn FHD@60Hz native geht, kannst du auch Downsampln. Die Höhe der Auflösung, die nutzbar ist, nach Aussage AMDs hängt von den Fähigkeiten der Hardware ab. Eine Shaderbased VSR Version sollte angeblich folgen, kam aber nie. Wurde aber auch "nur" für alle 200er Karten ab der 260er Reihe angekündigt.
Tabelle = Links - Monitor, rechts - AUFLÖSUNG die gerendert wird von der GPU oder die GPU? :love:
 
??
Ja und? Wo steht da was von deiner behaupteten HDMI Abhängigkeit?
Und was willst du uns mit dem letzten Teil im Satz sowie dem Smiley sagen??
 
Zuletzt bearbeitet:
Habe ich getan, deine Behauptung wird dort trotzdem nicht bestätigt... ich verstehe dein Problem ehrlich gesagt nicht? Worauf willst du bitte hinaus?
 
Habe ich getan, deine Behauptung wird dort trotzdem nicht bestätigt... ich verstehe dein Problem ehrlich gesagt nicht? Worauf willst du bitte hinaus?
Worauf willst du hinaus?
Warum must du immer so Quer schlagen?
Wir Männer kämpfen eh mit der Schwerkraft... DingDong :fresse2:
 
leider musste ich heute mein Windows 10 aus dem Grafikspeicher meiner Titan X deinstallieren, weil Tomb Raider das erste Game ist, welches permanent 7 GB an VRAM belegt. :-D
 
Ich melde den Typen einfach der geht mir so auf die Eier.
 
Also der Monitor ist noch nicht angekommen, der kommt erst Samstag.
Ich wollte einfach nur wissen, wie sieht sowas denn aus ? Dieses Flimmern? Ist wie "Refresh?" oder so ein komisches ding was ich grad aufm Handy hab das wie "Paparazzi flashes" aussieht ?
Da wird mal eine Reihe aus Pixeln plötzlich(blitzartig) weiß, mitten im Bild. Häufig an der gleichen Stelle, weil die dort wohl empfindlich sind, oder an den Rändern übersteuert es die Pixel ganz gerne und wenn man es heftig weit treibt, ist nichts mehr entzifferbar, alles bunt und flimmert wild. Wenn man nur kleinere Pixelreihen hat, die Flimmern, ist man auf einem guten weg. Da braucht man nur noch durch Feintuning die richtige Refreshfrequenz ausloten. Wobei man immer durch 2 teilbare Werte nehmen sollte, damit man seine FPS darauf limitieren kann. 160FPS wird sowieso kaum eine Karte bei ansehnlichen Einstellungen packen, geschweige denn dass es realistisch ist, dass der Monitor noch deutlich weiter geht als er schon getaktet ist.
Denn selbst, wenn man im Treiber die Limits rausgepatcht hat, könnte es sein, dass der Monitor per Software so viele Hertz nicht erlaubt und einfach eine Meldung anzeigt, dass er das Bild jetzt nicht mehr anzeigen möchte.
 
Noch einmal zurück zum Thema

ich wollte mal erst Fragen ob HBM mit 4GB eigentlich Sinn macht?
...
Bei Spielen die in 1080p und 1440p gespielt werden macht HBM kein wirklichen Sinn meiner Meinung da die GDDR5 Speicher es ohne Probleme packen.

Der größte Vorteil von HBM dürfte aktuell darin bestehen, dass er für gleiche Leistung nicht so hoch getaktet werden muss wie GDDR5, entsprechend weniger Strom braucht und so weniger Wärme produziert. So darf die GPU mehr Wärme produzieren oder der Kühler etwas kleiner ausfallen.

Die höhere Leistung zwischen GPU und RAM dürfte sich mit aktuellen GPUs wenn überhaupt nur in wenigen FPS niederschlagen (z.B. bei AA), im Moment liegt der Flaschenhals eher woanders. Aber in Zukunft wird mit mehr Leistung bei der GPU auch mehr Leistung zum Speicher erforderlich sein.

Bei den kommenden AMD GPUs würde ich einen Mix aus GDDR5 am unteren Leistungsende und HBM in der Oberklasse (evtl. obere Mittelklasse je nach Verfügbarkeit) erwarten. Polaris soll beides können.
 
Der größte Vorteil von HBM dürfte aktuell darin bestehen, dass er für gleiche Leistung nicht so hoch getaktet werden muss wie GDDR5, entsprechend weniger Strom braucht und so weniger Wärme produziert. So darf die GPU mehr Wärme produzieren oder der Kühler etwas kleiner ausfallen.

Bedenke allerdings auch, dass die schweine hohe Bandbreite natürlich auch benötigt werden muss... Die damaligen Folien sprachen von ~35GB/sec, was HBM in der ersten Version wie mit den Fiji GPUs genutzt, pro Watt schaufeln könnte. Da wir die Bandbreite wissen, die hinten rauskommt, wissen wir auch den Verbrauch, was dort allein durch das Speicherinterface/die Anbindung anliegt.
-> was man bei diesen Überlegungen aber idR immer unter den Tisch kehrt, wenn die GPU mit viel viel weniger Bandbreite auskommt, wie HBM mit vier Stacks bei 500MHz liefert, dann kann das SI wie auch die Taktraten bei GDDR5 Speichern auch deutlich geringer ausfallen. Auf der Folie wurden damals ~10,6GB/sec genannt, die man pro Watt mit GDDR5 erreicht.
Nimmt man nun diese Werte, so ergibt sich bspw. bei ~225GB/sec und GDDR5 ein "Bedarf" nach ~21W. Und die 512GB/sec der HBM Speicher kommen auf ~15W. -> klar, das ist relativ gesehen über 1/3tel mehr Verbrauch bei nur halber Bandbreite. Auf der anderen Seite sind es absolute 7W und damit sowas von wenig, dass man mit anderen Faktoren weit höhere Schwankungen erreichen würde (bspw. super Kühlung vs. nur gerade so ausreichende Kühlung -> schwankt teils um weit mehr wie 10W zwischen "kalt" und "heiß")


HBM selbst ist für die Zukunft wohl definitiv ein guter Weg. Im ersten Step mit dem 4GB Limit aber unsinn aus meiner Sicht. 8GB hätten der Fiji GPU gut gestanden. Es müssen ja nicht gleich 16GB und mehr sein. Aber 8GB wäre sinnvoll.
Die wirklichen Vorteile von HBM werden sich erst mit der nächsten Generation einstellen -> doppelte Bandbreite, up to 8x so viel Speicherplatz wie bei "v1" und immernoch geringer Verbrauch sowie Flächenbedarf. Wenn es dann GPUs gibt, die von 1GB/sec Speicherbandbreite Nutzen ziehen können, dann ist es wiederum durchaus angebracht, HBM zu verwenden. Selbst mit GDDR5X dürfte es nicht so schnell möglich sein, die Bandbreiten entsprechend ähnlich hoch zu schrauben. Und obenraus säuft der GDDR5 Speicher wieder wie ein "Loch" -> auch sollte 512Bit damit Pflicht werden.
Interessant wird bestenfalls, wenn eine GPU mit um die 350-600GB/sec auskommt. Dann reicht dem Teil auch ein 256-384Bit SI mit entsprechendem Takt. Das halbiert bis 2/3telt den Verbrauch in etwa -> reicht dann zwar wieder nicht um auf HBM Niveau zu landen, dürfte aber bei weitem billiger sein im Einkauf. -> bleibt am Ende also wieder Preis und der Flächenbedarf als Kriterium über.
 
Im ersten Step mit dem 4GB Limit aber unsinn aus meiner Sicht. 8GB hätten der Fiji GPU gut gestanden. Es müssen ja nicht gleich 16GB und mehr sein.

Ich hätte sogar bei der Fury X und 980Ti je 16GiB gern gesehen(bei der 980 entsprechend 8GiB). Das hätte insofern Sinn gemacht, dass Quad- GPU- Lösungen schon seit Anbeginn der aktuellen Generation wegen des VRAM ziemlich nutzlos waren und selbst bei einer Karte kann ich ja 8GiB schon mit den Einstellungsmöglichkeiten ohne Mods in einigen Games problemlos auslasten. Meiner Ansicht nach sind die Top- Karten unterhalb der Titan leider ziemlich beschnitten und die 8GiB meiner 290X waren der ausschlaggebendste Grund, dass ich mich als DualGPU- Setup dafür entschieden habe. Schließlich war mir auch bekannt, dass es lange dauern würde, bis sich am GPU- Markt leistungsmäßig etwas tut. Auch weiterhin ist für mich persönlich der VRAM ein sehr wichtiger Faktor, sogar bis zum gewissen Grad wichtiger als die GPU- Leistung, weil ich, was Nachhaltigkeit angeht und auch was die Frametimes betrifft, mit einem großen VRAM die besten Erfahrungen gemacht habe.
 
Nur wer will das wieder bezahlen?
Sli Systeme sind viel zu selten als das sich ein eigenes Layout lohnt. Und ehrlicher weise gibt es mit der Titan und dessen 12GB sogar eine aktuelle Lösung welche "nur" ne Stange mehr Geld kostet.
Gddr5 dürfte 10-15€ Kosten je GB also kein unerheblicher Faktor.
P/L sind Sli Systeme eh nicht gut also warum einen auf Geizhals machen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh