Aktuelles

Kann man aus den folgenden CPUs Rückschlüsse auf die höheren CPUs machen?

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.590
Was ein Sattelit, und was mit Jüngern.Sowas wird nie passieren,aber tolle Story das du da so alles geschrieben hast.Dennoch fern von der Reatlität.Und dass andere,ein Sattelit ist teuer zu kaufen,sofern man es ja kaufen könnte.Aber nun gut,mein Qnas also Netzlaufwerk reicht mir vollkommen zum achivieren aus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

fortunes

Urgestein
Mitglied seit
13.06.2003
Beiträge
11.519
Ort
RheinMain
Du nimmst (Free)TV am PC auf?

Abgesehen davon, dass man HD+ bzw. CI+ am PC gar nicht (mehr g'scheit) aufnehmen kann, vergleichst du hier Äpfel mit Birnen.

Du betreibst einen Aufriss für welches Ergebnis?

Pro7 strahl im FreeTV nur SD-Signale aus. Sprich PAL. Nix 720p, 1080p oder 4K. Das könnte man sogar als DivX "on-the-fly" speichern und hätte keinen Unterschied zu H264/H265.

Man kann aus TV-Schei*e kein H265-Gold machen.
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.590
ich habe das nicht behauptet mit dem h265,das haben andere hier verlautbart.Ich setzte freiwillig weiterhin auf H264.Das kann man wunderbar überall wiedergeben.H265 wäre zu dem auch noch langsamer.Und die paar einsparungen sind kaum der rede wert.Zudem gewinnt man bei h265 keine Bildqulität dazu sondern nur das man es noch weiter verkleinern kann.

Und ich bezweifle das in Zukunft im Free TV außerhalb von ARD,zdf und dem dritten also BR,hier sich was ändern wird.Erwarten tue ich nix,also wird es auch weiterhin bei 576i bleiben. Achja divx ist keine so tolle idee,seid dem sich was geändert hat,seid dem funktioniert divx nicht mehr wirklich.Zudem ist dieser codec ja viel schlechter in der Bildqulität als h264 codec.
Also sowas muss ich mir ja echt nicht mehr antuen.Außerdem lastet divx so schlecht die Kerne aus,das man da noch mehr instanzen öffnen müsste um da was zu merken.ALso nicht praxixtauglich.Aber echt nette idee,wird nur halt leider nicht klappen.
 

fortunes

Urgestein
Mitglied seit
13.06.2003
Beiträge
11.519
Ort
RheinMain
Das ist mir alles klar.

Nur reitest du hier über mehrere Beiträge auf der "Qualität" herum.

Und dann geht es dir um "Qualität" von PAL-Sendungen.

Sorry, aber bei einer PAL-Auflösung über die Qualität von CPU- und GPU-Encoding zu lamentieren ist vollkommen sinnfrei. Bei der "Fülle" an Pixeln erkennt man wie viele Encoderfehler? Da reicht selbst eine HD2000 vom i3-2100, um eine gute Encoderqualität zu erhalten.

Wo nicht viele Pixel herkommen, gibt es auch nicht viele Pixel zu droppen. Und vom Speed her machen den iGPUs von Intel so schnell keine anderen GPUs etwas vor. Nur die Qualität leidet mit steigender Auflösung sichtbar.
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.590
Nun ich habe ja markiert gehabt,wo es unterschiede von GPU und CPU gibt.Da sieht man doch leichte detail verluste.Muss man halt nur genauer hinschauen.ALso ich sehe es.Klar bei einem normalen sitzabstand wie 60 oder gar mehr cm sieht man das zwar nciht mehr,aber wenn man sehr nah am Bildschirm hockt,kann man das allerdings sehr gut erkennen ,das die details etwas weniger dargestellt werden.
 

AliManali

cpt sunday flyer
Mitglied seit
07.03.2012
Beiträge
2.779
Du nimmst (Free)TV am PC auf?

Genaugenommen nimmt er mit seiner Sat Digibox Free TV supi dupi .TS Files auf, und wandelt dann die Dateien nachträglich zweimal gleichzeitig in ein wohl besseres komprimiertes Format um, während er zockt. Aber das Flagschiff der E5v4 Xeon hat dabei ja schlecht abgeschnitten. :)
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.590
Ja Mei, ohne qualitätsverluste kann man halt nicht umwandeln. Lässt sich also nie ganz vermeiden.
 

fortunes

Urgestein
Mitglied seit
13.06.2003
Beiträge
11.519
Ort
RheinMain
Wodurch wir zu dem Schluss kommen: mittlerweile sind sich CPU- und GPU-Encoding bis 6MBit/s (als Minimum) ebenbürtig.

Und dadurch habe ich beim GPU-Encoding die gleiche Qualität in deutlich kürzerer Zeit.

Wenn ich weniger als 6MBit/s haben möchte, wäre die CPU vorzuziehen.
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.590
Ich weiß warum es bei weniger als 6 MBit die CPU überlegen ist, weil bei der gpu mehr Bitrate erforderlich ist und auch das umgewandelte auch größer wird. Also für welche die eine gewisse ausgangsqualität haben wollen und die Bitrate nicht zu groß, für den ist ja die CPU wichtiger. Man darf nicht vergessen das das Ausgangs Situation so ist, das bei cpu 1400 Bitrate ist und bei gpu ist es 3600 Bitrate. Da wundert es mich ja nicht das die gpu ebenwürdig ist. Doch wenn ich nun auch bei der gpu 1400 erwarten würde, dann sähe es für die gpu schlecht aus,denn dann verliert sich ja gegen die CPU.
 

fortunes

Urgestein
Mitglied seit
13.06.2003
Beiträge
11.519
Ort
RheinMain
Es wäre schön, wenn du ein wenig auf deine Rechtschreibung achten würdest. Es ist sehr schwer aus deinen Beiträgen den tatsächlich sinnhaften Inhalt herauszulesen.

Und bei der GPU ist nicht mehr Bitrate erforderlich, sondern die Encoder-Engine stößt ab einer gewissen Bandbreite an ihre Grenzen. Immer stärkere Kompressionen führen zu größeren Qualitätsverlusten, die von der Encoder-Engine immer schlechter kompensiert werden können. Das Auftreten von Fraktalen wird dann wahrscheinlicher.

Die Frage ist nur, was man in 1080p bei unter 6MBit/s noch an Qualität überhaupt erwarten will. Die ersten BluRays hatten Datenraten von 36MBit/s. Wo soll die "Qualität" denn hin, wenn man die gleichen Bildinformationen in weniger als 6MBit/s unterbringen will?

Das ist ja ungefähr so, als würde man mit seinem Golf GTI von einer 3spurigen Autobahn auf einen Feldweg abfahren und dort mit 200km/h weiterfahren. Das Ergebnis sieht dann ähnlich aus.
 

Phoenix2000

Legende
Mitglied seit
07.01.2006
Beiträge
6.288
Nun ich habe ja markiert gehabt,wo es unterschiede von GPU und CPU gibt.Da sieht man doch leichte detail verluste.Muss man halt nur genauer hinschauen.ALso ich sehe es.Klar bei einem normalen sitzabstand wie 60 oder gar mehr cm sieht man das zwar nciht mehr,aber wenn man sehr nah am Bildschirm hockt,kann man das allerdings sehr gut erkennen ,das die details etwas weniger dargestellt werden.
In deinen Bilder hat dein Pikachu nen Augenring beim CPU codieren, also sry aber du solltest mal genau hinschauen.
Es ist doch sinnfrei darüber weiter zu philosophieren.
 
Zuletzt bearbeitet:

Dark_angel

Enthusiast
Mitglied seit
10.01.2007
Beiträge
6.834
Ort
Hessen
Ich habe mir das hier heute mal alles durchgelesen und wusste zuvor gar nicht das man das auch alles mit der GPU machen kann, ich habe zur zeit einen 8700K und hatte schon an einem 3900X gedacht, jetzt hatte ich es mit meiner alten GTX1060 mal ausprobiert und war von der Geschwindigkeit doch sehr beeindruckt, glaube beim 8700K hatte ich über eine Stunde gebraucht und bei der GTX1060 waren es glaube 20min und wenn ich jetzt die Qualität vergleiche, könnte ich sogar sagen, dass die GPU besser aussieht.

Würde da eine RTX die Qualität noch steigern?
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.590
Ich habe mir das hier heute mal alles durchgelesen und wusste zuvor gar nicht das man das auch alles mit der GPU machen kann, ich habe zur zeit einen 8700K und hatte schon an einem 3900X gedacht, jetzt hatte ich es mit meiner alten GTX1060 mal ausprobiert und war von der Geschwindigkeit doch sehr beeindruckt, glaube beim 8700K hatte ich über eine Stunde gebraucht und bei der GTX1060 waren es glaube 20min und wenn ich jetzt die Qualität vergleiche, könnte ich sogar sagen, dass die GPU besser aussieht.

Würde da eine RTX die Qualität noch steigern?
Was hast du denn so gemacht,welche Auflösung hatte denn deine Quelldatei gehabt?
Naja es kommt ja auf den decoder drauf an,der ist bei der gtx 1660 ja genauso wie bei den RTX Grafikkarten.Und die gtx 1660 ist bei den decodern die beste und Preiswerteste.Denke mal recht viel mehr kann man da nicht mehr rausholen.Werde es noch mal ausprobieren,diesmal aber wirklich die selbe Frame sei es B,I oder P - Frame.Kann ich dank Videoredo leicht machen weil es mir da genau sowas anzeigt und auch bei welcher Sekunde.Noch genauer und direkter kann man wahrlich nicht mehr vergleichen.
 

Dark_angel

Enthusiast
Mitglied seit
10.01.2007
Beiträge
6.834
Ort
Hessen
Quelle war eine BluRay, Einstellungen hatte ich wie auf den Bildern zu sehen und bin immer noch mehr als beeindruckt.
Die Frage ist ob es sich von der Qualität lohnen würde auf die GTX 1660 zu wechseln.
 

Anhänge

  • Nvidia NVENC.jpg
    Nvidia NVENC.jpg
    35 KB · Aufrufe: 23
  • 8700K.jpg
    8700K.jpg
    23,8 KB · Aufrufe: 23

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.590
Quelle war eine BluRay, Einstellungen hatte ich wie auf den Bildern zu sehen und bin immer noch mehr als beeindruckt.
Die Frage ist ob es sich von der Qualität lohnen würde auf die GTX 1660 zu wechseln.
Ähm das ist doch kein Fairer vergleich h265 vs h264. Wenn schon dann h264 vs H264. Nur halt zwichen GPU und CPU.
Wenn man schon ein Vergleich macht dann richtig.Und da braucht die GPU dann ganz sicher noch weniger als 20 Minuten.Nun bisher habe ich ja festgestellt das zwischen GPU und CPU ja doch noch unterschiede sind und es nicht 1 zu 1 das selbe ergebnis ist.
Ich habe mir halt erhofft die selben Ergebnisse zu erreichen,die teilweise nur vergleichbaren settings lassen dies allerdigns leider nicht zu.Ich konnte also einstellen was ich wollte,ich bemerkte einen Unterschied von GPU und CPU.
Wenn es also das selbe ergebnis damit erzielbar wäre,dann würde ich zugerne auf GPU umschwenken und dann nicht erst morgen sondern,gleich Gestern.
 

Dark_angel

Enthusiast
Mitglied seit
10.01.2007
Beiträge
6.834
Ort
Hessen
Nö ich will ja keinen direkten Vergleich aufstellen, war ja nur für mich, hatte halt bei der CPU den h264 genommen, mit dem h265 hätte das ja bei der CPU glaube noch länger gedauert und bei der GPU hatte ich mir nichts erhofft, hatte nur mal zum testen den h265 eingestellt, wie gesagt bin beeindruckt.
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.590
Na meinte ich ja nicht das du bei CPU h265 einstellst sondern bei der GPU H264 einstellst.Dann wäre die GPU ja echt noch schneller gewesen und da wäre halt der direktvergleich dann nicht nur fair sondern besser Vergleichbar-Denn bei anderen sachen Vergleicht man doch auch nicht unterschiedliche Sachen.Ist ja wie wenn man Fahrrad mit Auto Vergleichen würde.Was ja nicht richtig wäre,findest du denn nicht auch so?
 

Dark_angel

Enthusiast
Mitglied seit
10.01.2007
Beiträge
6.834
Ort
Hessen
Ich hatte dir doch geschrieben das ich keinen Vergleich aufstellen will, sondern nur für mich herausgefunden habe das die GPU für mich die bessere Qualität in wesentlich kürzere Zeit bringt, was ich dann für Einstellungen für CPU oder GPU einstelle, ist für mich nicht relevant.

Mir ist es auch egal, ob dann am Ende 2GB oder 3GB oder 5GB von einer BluRay herauskommen, Hauptsache keine 35GB und es geht schnell und die Qualität ist gut,

Meine Frage war einfach, ob eine Karte mit Turing-Encoder nochmal einen wesentlichen Qualitätsunterschied bringen würde, mehr nicht.
 
Oben Unten