Kann man aus den folgenden CPUs Rückschlüsse auf die höheren CPUs machen?

Was ein Sattelit, und was mit Jüngern.Sowas wird nie passieren,aber tolle Story das du da so alles geschrieben hast.Dennoch fern von der Reatlität.Und dass andere,ein Sattelit ist teuer zu kaufen,sofern man es ja kaufen könnte.Aber nun gut,mein Qnas also Netzlaufwerk reicht mir vollkommen zum achivieren aus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du nimmst (Free)TV am PC auf?

Abgesehen davon, dass man HD+ bzw. CI+ am PC gar nicht (mehr g'scheit) aufnehmen kann, vergleichst du hier Äpfel mit Birnen.

Du betreibst einen Aufriss für welches Ergebnis?

Pro7 strahl im FreeTV nur SD-Signale aus. Sprich PAL. Nix 720p, 1080p oder 4K. Das könnte man sogar als DivX "on-the-fly" speichern und hätte keinen Unterschied zu H264/H265.

Man kann aus TV-Schei*e kein H265-Gold machen.
 
ich habe das nicht behauptet mit dem h265,das haben andere hier verlautbart.Ich setzte freiwillig weiterhin auf H264.Das kann man wunderbar überall wiedergeben.H265 wäre zu dem auch noch langsamer.Und die paar einsparungen sind kaum der rede wert.Zudem gewinnt man bei h265 keine Bildqulität dazu sondern nur das man es noch weiter verkleinern kann.

Und ich bezweifle das in Zukunft im Free TV außerhalb von ARD,zdf und dem dritten also BR,hier sich was ändern wird.Erwarten tue ich nix,also wird es auch weiterhin bei 576i bleiben. Achja divx ist keine so tolle idee,seid dem sich was geändert hat,seid dem funktioniert divx nicht mehr wirklich.Zudem ist dieser codec ja viel schlechter in der Bildqulität als h264 codec.
Also sowas muss ich mir ja echt nicht mehr antuen.Außerdem lastet divx so schlecht die Kerne aus,das man da noch mehr instanzen öffnen müsste um da was zu merken.ALso nicht praxixtauglich.Aber echt nette idee,wird nur halt leider nicht klappen.
 
Das ist mir alles klar.

Nur reitest du hier über mehrere Beiträge auf der "Qualität" herum.

Und dann geht es dir um "Qualität" von PAL-Sendungen.

Sorry, aber bei einer PAL-Auflösung über die Qualität von CPU- und GPU-Encoding zu lamentieren ist vollkommen sinnfrei. Bei der "Fülle" an Pixeln erkennt man wie viele Encoderfehler? Da reicht selbst eine HD2000 vom i3-2100, um eine gute Encoderqualität zu erhalten.

Wo nicht viele Pixel herkommen, gibt es auch nicht viele Pixel zu droppen. Und vom Speed her machen den iGPUs von Intel so schnell keine anderen GPUs etwas vor. Nur die Qualität leidet mit steigender Auflösung sichtbar.
 
Nun ich habe ja markiert gehabt,wo es unterschiede von GPU und CPU gibt.Da sieht man doch leichte detail verluste.Muss man halt nur genauer hinschauen.ALso ich sehe es.Klar bei einem normalen sitzabstand wie 60 oder gar mehr cm sieht man das zwar nciht mehr,aber wenn man sehr nah am Bildschirm hockt,kann man das allerdings sehr gut erkennen ,das die details etwas weniger dargestellt werden.
 
Du nimmst (Free)TV am PC auf?

Genaugenommen nimmt er mit seiner Sat Digibox Free TV supi dupi .TS Files auf, und wandelt dann die Dateien nachträglich zweimal gleichzeitig in ein wohl besseres komprimiertes Format um, während er zockt. Aber das Flagschiff der E5v4 Xeon hat dabei ja schlecht abgeschnitten. :)
 
Ja Mei, ohne qualitätsverluste kann man halt nicht umwandeln. Lässt sich also nie ganz vermeiden.
 
Wodurch wir zu dem Schluss kommen: mittlerweile sind sich CPU- und GPU-Encoding bis 6MBit/s (als Minimum) ebenbürtig.

Und dadurch habe ich beim GPU-Encoding die gleiche Qualität in deutlich kürzerer Zeit.

Wenn ich weniger als 6MBit/s haben möchte, wäre die CPU vorzuziehen.
 
Ich weiß warum es bei weniger als 6 MBit die CPU überlegen ist, weil bei der gpu mehr Bitrate erforderlich ist und auch das umgewandelte auch größer wird. Also für welche die eine gewisse ausgangsqualität haben wollen und die Bitrate nicht zu groß, für den ist ja die CPU wichtiger. Man darf nicht vergessen das das Ausgangs Situation so ist, das bei cpu 1400 Bitrate ist und bei gpu ist es 3600 Bitrate. Da wundert es mich ja nicht das die gpu ebenwürdig ist. Doch wenn ich nun auch bei der gpu 1400 erwarten würde, dann sähe es für die gpu schlecht aus,denn dann verliert sich ja gegen die CPU.
 
Es wäre schön, wenn du ein wenig auf deine Rechtschreibung achten würdest. Es ist sehr schwer aus deinen Beiträgen den tatsächlich sinnhaften Inhalt herauszulesen.

Und bei der GPU ist nicht mehr Bitrate erforderlich, sondern die Encoder-Engine stößt ab einer gewissen Bandbreite an ihre Grenzen. Immer stärkere Kompressionen führen zu größeren Qualitätsverlusten, die von der Encoder-Engine immer schlechter kompensiert werden können. Das Auftreten von Fraktalen wird dann wahrscheinlicher.

Die Frage ist nur, was man in 1080p bei unter 6MBit/s noch an Qualität überhaupt erwarten will. Die ersten BluRays hatten Datenraten von 36MBit/s. Wo soll die "Qualität" denn hin, wenn man die gleichen Bildinformationen in weniger als 6MBit/s unterbringen will?

Das ist ja ungefähr so, als würde man mit seinem Golf GTI von einer 3spurigen Autobahn auf einen Feldweg abfahren und dort mit 200km/h weiterfahren. Das Ergebnis sieht dann ähnlich aus.
 
Nun ich habe ja markiert gehabt,wo es unterschiede von GPU und CPU gibt.Da sieht man doch leichte detail verluste.Muss man halt nur genauer hinschauen.ALso ich sehe es.Klar bei einem normalen sitzabstand wie 60 oder gar mehr cm sieht man das zwar nciht mehr,aber wenn man sehr nah am Bildschirm hockt,kann man das allerdings sehr gut erkennen ,das die details etwas weniger dargestellt werden.
In deinen Bilder hat dein Pikachu nen Augenring beim CPU codieren, also sry aber du solltest mal genau hinschauen.
Es ist doch sinnfrei darüber weiter zu philosophieren.
 
Zuletzt bearbeitet:
Ich habe mir das hier heute mal alles durchgelesen und wusste zuvor gar nicht das man das auch alles mit der GPU machen kann, ich habe zur zeit einen 8700K und hatte schon an einem 3900X gedacht, jetzt hatte ich es mit meiner alten GTX1060 mal ausprobiert und war von der Geschwindigkeit doch sehr beeindruckt, glaube beim 8700K hatte ich über eine Stunde gebraucht und bei der GTX1060 waren es glaube 20min und wenn ich jetzt die Qualität vergleiche, könnte ich sogar sagen, dass die GPU besser aussieht.

Würde da eine RTX die Qualität noch steigern?
 
Ich habe mir das hier heute mal alles durchgelesen und wusste zuvor gar nicht das man das auch alles mit der GPU machen kann, ich habe zur zeit einen 8700K und hatte schon an einem 3900X gedacht, jetzt hatte ich es mit meiner alten GTX1060 mal ausprobiert und war von der Geschwindigkeit doch sehr beeindruckt, glaube beim 8700K hatte ich über eine Stunde gebraucht und bei der GTX1060 waren es glaube 20min und wenn ich jetzt die Qualität vergleiche, könnte ich sogar sagen, dass die GPU besser aussieht.

Würde da eine RTX die Qualität noch steigern?
Was hast du denn so gemacht,welche Auflösung hatte denn deine Quelldatei gehabt?
Naja es kommt ja auf den decoder drauf an,der ist bei der gtx 1660 ja genauso wie bei den RTX Grafikkarten.Und die gtx 1660 ist bei den decodern die beste und Preiswerteste.Denke mal recht viel mehr kann man da nicht mehr rausholen.Werde es noch mal ausprobieren,diesmal aber wirklich die selbe Frame sei es B,I oder P - Frame.Kann ich dank Videoredo leicht machen weil es mir da genau sowas anzeigt und auch bei welcher Sekunde.Noch genauer und direkter kann man wahrlich nicht mehr vergleichen.
 
Quelle war eine BluRay, Einstellungen hatte ich wie auf den Bildern zu sehen und bin immer noch mehr als beeindruckt.
Die Frage ist ob es sich von der Qualität lohnen würde auf die GTX 1660 zu wechseln.
 

Anhänge

  • Nvidia NVENC.jpg
    Nvidia NVENC.jpg
    35 KB · Aufrufe: 127
  • 8700K.jpg
    8700K.jpg
    23,8 KB · Aufrufe: 134
Quelle war eine BluRay, Einstellungen hatte ich wie auf den Bildern zu sehen und bin immer noch mehr als beeindruckt.
Die Frage ist ob es sich von der Qualität lohnen würde auf die GTX 1660 zu wechseln.
Ähm das ist doch kein Fairer vergleich h265 vs h264. Wenn schon dann h264 vs H264. Nur halt zwichen GPU und CPU.
Wenn man schon ein Vergleich macht dann richtig.Und da braucht die GPU dann ganz sicher noch weniger als 20 Minuten.Nun bisher habe ich ja festgestellt das zwischen GPU und CPU ja doch noch unterschiede sind und es nicht 1 zu 1 das selbe ergebnis ist.
Ich habe mir halt erhofft die selben Ergebnisse zu erreichen,die teilweise nur vergleichbaren settings lassen dies allerdigns leider nicht zu.Ich konnte also einstellen was ich wollte,ich bemerkte einen Unterschied von GPU und CPU.
Wenn es also das selbe ergebnis damit erzielbar wäre,dann würde ich zugerne auf GPU umschwenken und dann nicht erst morgen sondern,gleich Gestern.
 
Nö ich will ja keinen direkten Vergleich aufstellen, war ja nur für mich, hatte halt bei der CPU den h264 genommen, mit dem h265 hätte das ja bei der CPU glaube noch länger gedauert und bei der GPU hatte ich mir nichts erhofft, hatte nur mal zum testen den h265 eingestellt, wie gesagt bin beeindruckt.
 
Na meinte ich ja nicht das du bei CPU h265 einstellst sondern bei der GPU H264 einstellst.Dann wäre die GPU ja echt noch schneller gewesen und da wäre halt der direktvergleich dann nicht nur fair sondern besser Vergleichbar-Denn bei anderen sachen Vergleicht man doch auch nicht unterschiedliche Sachen.Ist ja wie wenn man Fahrrad mit Auto Vergleichen würde.Was ja nicht richtig wäre,findest du denn nicht auch so?
 
Ich hatte dir doch geschrieben das ich keinen Vergleich aufstellen will, sondern nur für mich herausgefunden habe das die GPU für mich die bessere Qualität in wesentlich kürzere Zeit bringt, was ich dann für Einstellungen für CPU oder GPU einstelle, ist für mich nicht relevant.

Mir ist es auch egal, ob dann am Ende 2GB oder 3GB oder 5GB von einer BluRay herauskommen, Hauptsache keine 35GB und es geht schnell und die Qualität ist gut,

Meine Frage war einfach, ob eine Karte mit Turing-Encoder nochmal einen wesentlichen Qualitätsunterschied bringen würde, mehr nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh