Kann man aus den folgenden CPUs Rückschlüsse auf die höheren CPUs machen?

wenn die leistung allerdings reicht,dann hält die hardware ohne oc,20 Jahre,wenn es gut geht.Nun das werde ich ja schon noch sehen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wenn die leistung allerdings reicht,dann hält die hardware ohne oc,20 Jahre,wenn es gut geht.Nun das werde ich ja schon noch sehen.

Nur senden in 20 Jahren die Privaten auf dem Free TV nicht mehr mit 720p. Aber ist immer noch besser als das 1080i Zeugs so, glaub mir.

Hast Du eigentlich eine TV Karte? SAT oder DVB-C? Ich persönlich würd ja in mpeg live aufnehmen. 2x während Du zockst. Während sich Deine krasse super duper HEDT Plattform langweilt. Und was hast Du denn so an Storage, um die ganzen Free TV umgewandelten Aufnahmen zu speichern? Per TS File, richtig?
per DVBviewer?


süschtrölölöli, muha, ha, omg, aua, aua
 
Nei
Nur senden in 20 Jahren die Privaten auf dem Free TV nicht mehr mit 720p. Aber ist immer noch besser als das 1080i Zeugs so, glaub mir.

Hast Du eigentlich eine TV Karte? SAT oder DVB-C? Ich persönlich würd ja in mpeg live aufnehmen. 2x während Du zockst. Während sich Deine krasse super duper HEDT Plattform langweilt. Und was hast Du denn so an Storage, um die ganzen Free TV umgewandelten Aufnahmen zu speichern? Per TS File, richtig?
per DVBviewer?


süschtrölölöli, muha, ha, omg, aua, aua

Nun ich beantworte mal deine Fragen.Nein ich habe keine einzige Tv Karte drinnen.Ich wollte ursprünglich mal eine holen.Allerding sah ich das ich da null Vorteile davon hätte.Denn Mpeg 2 TS Format wird es so oder so am ende sein.Ob ich es per Festpallten Recorder ala Humax Icor HD+ Aufneheme die Free TV Sender die an Sattelit hängt und DVB-S oder auf dem Pc per DVB-S mit TV Karte aufnehme,macht keinen Unterschied.

Und es sind keine 720p,sondern nur 576p. Bei den ARD,ZDF und das dritte wird es wohl langfristig auf 1080i gewechselt werden.720p sind es ja im moment.Ob sich das in den nächsten 20 Jahren so ändern wird,ist eine andere Frage.Hängt zudem auch an den ganzen Bürgern nämlich ab.Wenn sie in den nächsten 20 Jahren noch immer so drauf sitzen wie jetzt,dann wird das ja so bleiben.
Und das mit dem Thema Festplatten,mach dir da keine sorgen drum,ich habe mehr als genug Speicherplatz.Habe ein Netzlaufwerk.Es heißt Qnas also so heißt halt der Hersteller.Damit kann ich dann auf jeden Pc drauf zugreifen mit einem 1 gbit anbindung.Ich könnte wenn ich wollte theretisch mit allen Pcs gleichzeitig umwandeln,wenn ich denn wollte.
Und wenn ich ehrlich bin,die meiste Zeit langweilt sich ja eh meine CPU.2 Stunden nur maximal pro Samstag und sonnstag umwandeln.Die restliche Zeit wird er zum einfachen zocken verwendet.Ich kann nicht schnell genug nachschub liefern.Liegt zum einen daran das ich nicht weis wann er fertig ist,zum anderen weil ich keinen zweiten Bildschirm habe,sondern nur einen.Ich bräachte so ein ganz kleinen winzling als 2 Bildschirm.Macht allerdings echt kaum sinn,weil ich nicht genug Platz für einen weiteren Bildschirm hätte.Es passt noch nicht mal ein 22 " Bildschirm noch drann oder einenen 19 ".
Nun weist du wo da das Problem dran liegt.
Ich nehme also überwiegend nur Anime Serien auf,die so 20 Minuten oder gar 22 Minuten lang sind.Manchmal auch Zeichentrick Serien.Ganz selten Filme oder Sendungen.DIe Filme sind gemischt,Manche in 720p dank den drei Sendern und manchmal auch die 576p Filme und Sendungen sind ja eh in 576p.

Da wird sich auch langfristig bei mir nix ändern.Vielleicht noch höchstens Alarm für Cobra 11 Blurays die ich dann kaufen werde,dann auf Pc RIppe,sowie dann auch Umwandle.
Mehr wird es nicht sein.Ansonsten zocke ich nur noch.Das allerdings auch nur am Wochende,weil ich nicht mehr alleine zocken will.Es macht mir einfach keinen spaß mehr.Darum nur noch im Koopmodus,das heißt nur noch alte Games,die höchstens 4 Kerne brauchen,mehr allerdings nicht.
 
Ok. Ich habe 2 Arbeitsplätze mit je drei Screens. Je Sitz zwei nebeneinander und nen kleinen Full HD oben dupliziert.

Hab die oberen Displays ursprünglich mal wegen DVB-C und Netflix dazu gestellt. Läuft aber sozusagen nie. Immerhin kann ich jetzt vom Maindesktop mal am zweiten Arbeitsplatz was einblenden. TV gibts nur zum einschlafen, da sind die Hitler Dokus von ZDFinfo recht gut.

Aber wenn ich Dich wär, würd ich mal eine Mehrkanal TV Karte einbauen. Ich hab ja null Plan von DVB-S, Nagra Hacks sind damit aber wohl nicht möglich, da N3. Wir haben hier N2 immernoch auf Kabel, supi. Mit DVBviewer, kommt gut. Wenn ichs brauchen würde.

Aber insgesamt ist Live TV immer noch besser wie das Streaminggedöns ala Netflix. Vom Kontent her. Das mit den privaten Sender ist ja Deine Sache. Ich werd immer ganz nervös, wenn das mal irgendwo läuft und ich das aushalten muss.
 
Nun ich will doch gewiss kein Bezahlfernsehen haben.Da wo dann trotz dem Zahlen auch noch immer werbung läuft und dann kann man es leider nicht schneiden bei den privaten Sendern,weil die da so Schikanen eingebaut haben.Da brauchen sich die Privaten echt nicht wundern warum kaum einer sich das antut.Solange es also kein 720p oder sowas als Free TV bei den Pirvaten Sendern gibt,wird sich bei mir auch nix ändern.Ja ich habe damit keine Probleme.Dennoch nervt mich diese 50 Halbbilder.Wäre das nicht und diese doofen schwarzen Rändern bei den Sendern,dann wäre ich gewiss schon längst viel weiter als jetzt.Denn das sind wirklich schikanen.Nun weist du auch warum es kaum gute Optionen gibt.Da spielt es ja auch keine rolle wo ich es Aufnehme.Es liegt halt an den Sendern.Da kann keine einzige Software oder Hardware als Privat Person was dafür.Darum sehe ich schon,es wird lange dauern bis es die Chefs der Sender verstanden haben.Ursprünglich wollten die privaten Sender ab 2023 es abschalten.Aber weil die Menschen nicht bereit sind sich solche Schikanen anzutuen,haben die Sender zurück gerudert und nun keine Frist zum ende gesetzt.
Darum ist halt die Frage,ob es denn wirklich in 20 Jahren da eine veränderung geben wird.Denn wenn die dann nur noch bezahltes Fernsehen machen,dann schaut es sich kaum noch einer an und die Einnahmen durch die Werbeunternehmen bricht so stark ein,das am ende keiner mehr den sendern Geld dafür gibt.Dann wäre Fernsehen tot.Also das bezweifle ich das sie das denn wirklich machen.Denn am ende schaden sie sich nur ,als das es was nützt.
Im Zweifel wird es also auch in 20 Jahren noch immer 576p Austrahlung geben.Oder siehst du das etwa anders?
 
So der unterschied zwischen gpu hardware encoding und cpu encodin ist simple
CBR vs crf
CBR braucht nur die bitrate hoch genug sein da sieht zwischen cpu und gpu kein unterschied
Der wichtige vergleich ist aber das original vs encoded

ich empfehle immer x264 vfw mit keep input color
bzw man findet heraus welcher Farbraum das video hat üblich sind 35-235 nur die profile in vegs pro sind kryptisch,.
Wenn schlecht läuft ist das video zu hell lässt sich leicht korrigieren. einfache Lösung man reduziert die Helligkeit um die 7% problem solved. Was aber auch am decoder liegt.
Davon ab wenn ich 25mbit bei 1080p einstelle bei gpu encoding sieht das genauso aus wie auf cpu mit 12mbit

Da stellt sich nur die frage was schneller ist.

nun das upgrade zu zen2 macht Sinn
Sofern man mehr macht als nur kurze videos zu rendern.
 
Also ich habe es bei den Standbilder verglichen. Kann da auch genre das Bild hier posten. Also ist halt die selbe Quelle wie ich hier gesehen habe. Ein paar Stellen sind zwar besser aber auch welche stelle schlechter als bei der CPU. Kann das auch gerne markieren was ich damit meine.
Und wenn du in dem Video weiterläufst, siehst du, dass der Schriftzug bei der CPU verwaschen aussieht, bei der GPU aber deutlich erkennbar ist.

Bei dem Beispielvideo darfst du nämlich nicht vergessen, dass es nochmal durch Youtube komprimiert wurde. Man muss sich also einzig und allein auf die Aussagen des Videoerstellers verlassen.

Und dieser sowie andere, unabhängige Tests belegen, dass der Turing-NVENC mittlerweile der CPU ebenbürtig ist.


Insbesondere bei den niedrigen Bitraten (6MBit/s), die für Twitch & Co. relevant sind, konnte nVidia gehörig aufholen.

Du siehst also, dass deine Qualitätsunterschiede auf der einen Seite subjektiv sind und auf der anderen Seite mit besserer Hardware deutlich verbessert werden können.

Die kleinste Karte mit Turing-Encoder ist die GTX1650 "Super". Und das für 160€.
Beitrag automatisch zusammengeführt:

Und hier noch ein Video, das den direkten Vergleich zu CPU und Pascal-Encoder abzeichnet.

 
Zuletzt bearbeitet:
Ok ich merke schon da hat dich wirklich einiges getan. Das mit dem farbraum Sache muss ich mir echt noch anschauen. Muss mich wohl echt mehr mit gpu Umwandlung beschäftigen. Denn das ist in der Tat schneller. Und es ist die Art auch mit crf vergleichbar. Es ist somit gleichwertig. Und man kann wohl nie alles gleich hinbekommen,weil sich die frames ja ständig in Bewegung sind. Somit wenn ich wieder Standbilder machen würde, es ja dann wieder etwas anders aussehen würden. So genau kann man es also doch nicht immer alles miteinander vergleichen.
 
So der unterschied zwischen gpu hardware encoding und cpu encodin ist simple
CBR vs crf
CBR braucht nur die bitrate hoch genug sein da sieht zwischen cpu und gpu kein unterschied
Der wichtige vergleich ist aber das original vs encoded

ich empfehle immer x264 vfw mit keep input color
bzw man findet heraus welcher Farbraum das video hat üblich sind 35-235 nur die profile in vegs pro sind kryptisch,.
Wenn schlecht läuft ist das video zu hell lässt sich leicht korrigieren. einfache Lösung man reduziert die Helligkeit um die 7% problem solved. Was aber auch am decoder liegt.
Davon ab wenn ich 25mbit bei 1080p einstelle bei gpu encoding sieht das genauso aus wie auf cpu mit 12mbit

Da stellt sich nur die frage was schneller ist.

nun das upgrade zu zen2 macht Sinn
Sofern man mehr macht als nur kurze videos zu rendern.


Asl odu meinst etwa die software 264 vfw oder? DIe wird ja von mehreren Seiten aus nicht mehr empfholen weil es ja nur ne zwischenlösung schon früher gewesen war und somit nur eingeschränkt nutzbar.Oder gibt es ne settings in 264 bei jeden Prigramm mit dem vfw und was ist dieses keep input Color.Das scheint ja auch nicht bei jeder software einstellbar zu sein,weil ich finde sie ja leider nicht?
So ist das ganze wo du so geschrieben hast denn zu finden?
 
zuerst muss das Programm also dein editing Programm externe encoder zulassen
bestätigt dafür sind
vegas pro ab version 10
theoretisch adobe premiere ältere Versionen
und danach wirds dünn weil sich alle auf eigene software Lösungen und dem standard cbr geeinigt haben
Das hat folgen da man quasi raten muss welche bitrate den gut ist ohne sichtbare Qualitätsverluste
grob kann man von den hardware encoder ausgehen (handycams oder dvb cts) also
720p = 9mbit in 4;2;0
1080p=18mbit
1440p=35mbit
2160p=50mbit

4:2:2 braucht zusätzlich nochmal 25% mehr bitrate bsp 720p=12mbit
4:4:4 ebenfalls von 422 nochmal 25% bsp 720p = 18mbit

Nochn Anmerkung DVD sowie Bluray sind in 4:2:0 8bit
4:2:2 wird nur von camcorder und uhd bluray genutzt
4:4:4 nur von Photographen Kameras
Für ingame scenes oder andere eigen aufgenommenen material ist 4:2:2 gut Ansonsten strikt immer 4:2:0 da es TV standard ist.
Was verwendest du
Zum schnitt

xmedia recode hat die option crf unter bitrate versteckt standard bei h264 ist 20 stelle es auf 23
profil mp4,video, codec x264, bitratemodus crf

Das reencoden für hevc ist das Programm gut geeignet
Für bearbeiten zuschneiden eher nicht.
 
Äm warum sollte ich es denn so viel schlechter machen . Ich verwende ja crf 18. 23 wäre ja noch schlechter. Mir war ja schon 20 zu schlecht gewesen .

Als Schnitt software verwende ich videoredo . Es wandelt DAs adts Oder wie es genau heist in reines Ts automatisch um ohne es umzuwandeln. Dann verschiebe ich es aufs netzlaufwerk und wartet sarauf von PC umgewandelt zu werden . Geschnitten wird es MIT meinen laptop. Braucht kaum leistung DAs Schnitt programm. Nun weist du wie ich es so Mache.
 
Und wenn du in dem Video weiterläufst, siehst du, dass der Schriftzug bei der CPU verwaschen aussieht, bei der GPU aber deutlich erkennbar ist.

Bei dem Beispielvideo darfst du nämlich nicht vergessen, dass es nochmal durch Youtube komprimiert wurde. Man muss sich also einzig und allein auf die Aussagen des Videoerstellers verlassen.

Und dieser sowie andere, unabhängige Tests belegen, dass der Turing-NVENC mittlerweile der CPU ebenbürtig ist.


Insbesondere bei den niedrigen Bitraten (6MBit/s), die für Twitch & Co. relevant sind, konnte nVidia gehörig aufholen.

Du siehst also, dass deine Qualitätsunterschiede auf der einen Seite subjektiv sind und auf der anderen Seite mit besserer Hardware deutlich verbessert werden können.

Die kleinste Karte mit Turing-Encoder ist die GTX1650 "Super". Und das für 160€.
Beitrag automatisch zusammengeführt:

Und hier noch ein Video, das den direkten Vergleich zu CPU und Pascal-Encoder abzeichnet.



Ja das mag es schon sein,allerdings verschluckt es ein paar deteils.Ich habe mal das eingeramt was ich meine.Das ist bei der CPU gut sichtbar was ich meine und genau an dieser Stelle ist es bei dem GPU BIld weniger im detail.
 

Anhänge

  • CPU Qulität-die veränderung.png
    CPU Qulität-die veränderung.png
    262,8 KB · Aufrufe: 53
Die kleinste Karte mit Turing-Encoder ist die GTX1650 "Super". Und das für 160€.

Hat nicht erst ab der GTX 1660 der den neuen Encoder. Dachte die GTX1650 basiert noch auf Pascal/Volta von Videe Encoder her.
 
Also der TUring ENcoder hat nur die gtx 1660 und nicht die GTX 1650.Tut allerdings nichts zur sache.Denn es wird ja nur die Geschwindigkeit beschleunigt nicht allerdings die Bildqulität.Und da ja ein Paar details verschwinden wie man es ja so gut sieht ,ist das schon mehr als ärgerlich.Ich mag halt die details die noch da sind halt erhalten lassen.Da die Bildqulität und auch die geschwindigkeit eben nur auf H264 Fast gegenüber CPU umwandlung ist,ist das halt noch immer nicht gut genug.Wenn die GPU mal die Qulität von h264 Medium nivio von der CPU erreicht hat,dann wäre das äußerst interessant.Aber wird ja nie passieren weil die GPU ja leider nicht in der Lage sein wird und das ja nie.Da können 10 oder mehr Generationen vergehen,das werde ich niemals mehr erleben.Das erwarte ich allerdings von der GPU ebenfalls.Man sieht es ja auf dem Bild wenn man ein gegenvergleich macht,das bei der GPU ein paar details verschwinden.Genau das möchte ich verhindern und genau darum setzte ich auch niemals auf GPU.
 
Ihr seid beide falsch.

Der Turing-Encoder ist bereits bei der GTX1650 "Super" verbaut.

Die GTX1650 ohne "Super" basiert auf dem TU117, die GTX1650 mit "Super" basiert auf dem TU116 - dem gleichen Chip, der auch auf der GTX1660(Ti)(Super) seinen Dienst versieht.

Daher hat auch die GTX1650 "Super" den neuen Turing-Encoder - und braucht einen 6Pin-Stromanschluss, weil nur der TU117 auf 75W max. ausgelegt ist.
 
OK ich weiß nicht ob man das ernst nehmen kann. Aber bei Turing umwandeln soll auf Qualität von cpu umwandeln medium Qualität sein.
Bei den Bildern entstanden durch einer gtx 860m entstanden. Ich weiß halt nicht welche videokoder dieser Chip hat. Ich las auch das dann die Einstellungen dann eingeschränkt sind wenn ne ältere gpu eingesetzt wird. Anscheind erkennt die Software was die gpu alles kann. Also entscheidet auch die gpu wie die Bildqualität am Ende sein wird. Also müsste ja die gtx 1060 ja me viel bessere Bildqualität als nen gtx 860m schaffen. Wäre wohl ein test wert.
 
Es steigert halt nicht nur die Geschwindigkeit sondern auch die Qualität. Von Pascal auf Turing wurde die Qualität nochmal gesteigert. Deswegen wollte ich auch früher min ne GTX 1660 in mein Qnap einbauen für Video Bearbeitung und Encoding.
 
Da du doch eh keine Graka kaufen willst ist das für dich doch egal.Rendere mit der CPU und gut ist du bist doch mit zufrieden.
Ich nehme die Graka wenn was ansteht und die Qualität ist Top.
 
Zuletzt bearbeitet:
OK ich weiß nicht ob man das ernst nehmen kann. Aber bei Turing umwandeln soll auf Qualität von cpu umwandeln medium Qualität sein.
Bei den Bildern entstanden durch einer gtx 860m entstanden. Ich weiß halt nicht welche videokoder dieser Chip hat. Ich las auch das dann die Einstellungen dann eingeschränkt sind wenn ne ältere gpu eingesetzt wird. Anscheind erkennt die Software was die gpu alles kann. Also entscheidet auch die gpu wie die Bildqualität am Ende sein wird. Also müsste ja die gtx 1060 ja me viel bessere Bildqualität als nen gtx 860m schaffen. Wäre wohl ein test wert.
Wenn es so einfach wäre, hätten wir bestimmt nicht so viel Chaos beim Vergleichen wie bisher.
Die VPU ist nach der GPU dran, bedeutet wir wissen nicht mal ob der Codec in der VPU (wenig GPU Last) oder im eingentlichen GPU (hohe GPU Last) statt findet.
Wenn ich 2-Pass die Filme kleiner machen, sehen z.B. Blue-Ray mit über 50MBit/s mit 5MBit/s besser aus als 720P mit 15MBit/s.
Also wenn das Quell Video weniger Details hat, umso weniger kleiner bekommt man es und um so bescheidener sieht das Ausgabe Video aus.

Ich habe damals mit DVDFab Umgewandelt, dort wurden auch zwei GPUs unterstützt, trotzdem sah 2-Pass CPU besser aus und konnte die Ausgabe verkleiner.
 
Kannst ja auch 3 oder 4-Pass machen :P
 
Ähm 3 und 4 Pass,kenne ich ja noch garnicht.Hat sich also doch was geändert gehabt.Ich mache 1Pass Crf umwalndung.Habe nur 576i,720p und 1080i sachen zum Umwandeln.Am meisten sind es ja 576i Aufnahmen. Mein Ziel ist es das es dann am ende so aussieht. CPU 1pass Medium = GPU 1pass Medium Qualität.Wenn das gegegen ist und die QUailtität dann wirklich gleich,dann gebe ich der GPU dem Vorzug.Wenn aber wie bei den zwei Bildern zu sehen ist,aber kleine Detaile verloren gehen bei GPU ist somit GPU nicht GPU = CPU Qualität.Nur darum wandelte ich auch nach dem ich das mal getestet hatte auch weiterhin mit CPU um.
Es gibt so viele in Bereit GPU umwandlung und es ist auch unübersichtlich.Denn ich will ja das gegenpool von CRF haben um die selbse Qualität zu haben,aber ich weis halt einfach nicht wie ich das mache.Ich will allerdings nicht doppelt so groß Umgewandelte Aufnahmen haben um die Qualität von CPU zu haben,das ist auch freilich klar oder?
 
Da werden dann Video und Audio ge-scannt um die Variable Bit-Rate fest zu legen.
Time-Stamps kann man das Nennen, wo am meisten Bandbreite benötigt wird, ist sie Verfügbar.

Hier mal die UnReal Engine 4 im Jahre 2015: https://filehorst.de/d/dBuzczuG
MKV Container Format.
 
Wenn man Zeit hat, sind x-pass natürlich immer vorzuziehen. Aber dann ist der PC halt eben einen kompletten Tag beschäftigt, nur um das Video in einer superben Quali bereitzustellen, die man nur auf Standbildern erkennen kann.

Die Quali der neusten GPUs ist mittlerweile derart top geworden, dass man einen Film schneller als Liveview encodet und trotzdem mehr als zufrieden ist. Die Frage ist halt immer, was man will und tatsächlich braucht.
 
Nun ist ja alles schön und gut was du da so schreibst. Die Standbilder sollen ja nur den unterscheid aufzeigenich gehe mal davon aus das du den unterschied auch gesehen hast, den ich markiert hatte. Wenn nicht dann wärst du ja blind.

Und nartürlich habe ich das nicht nur für die Standbilder gemacht. Es geht mir um die visuelle Qualität das man bei gpu leider drauf verzichten muss, weil manches die gpu ja immer noch nicht kann.
Was ich drauf hinaus will ist, die gpu ist echt schnell und so, aber wenn es gewisse kleine deteils einfach so verschluckt bzw verschwinden,dann ist es ja was anderes.

Besonders merkt man das bei Videos die flimmern, damit scheint die gpu ja eben so seine Probleme zu haben. Denn sonst würden die Details ja bleiben. Bei Spielen mit kantenglättung schafft es die gpu jedoch sehr wohl die Details zu erhalten ohne irgendein Verlust zu erleiden. Darum erwarte ich ja das selbe auch in meinem Fall. Allerdings ist das doch nicht ganz so einfach.

Ne andere Möglichkeit, das ich hier die Quell Datei poste, dann kannst du selbst testen und dann die erkenntnis ob details verloren gehen bei gpu oder nicht. Und auch das ganze Ergebnis und was du dann für erkenntnisse draus gezogen hast. Was sagst du denn dazu
@fortunes
 
Also nochmal für dich:

Wenn du den TU116-Encoder gg. einen CPU-Encoder stellst, wirst du bei Bitraten jenseits von 6MBit/s keine Unterschiede mehr feststellen können.

Natürlich findest du bei der Standbildsuche Einzelbilder, wo die CPU-Bilder besser aussehen. Aber wie du anhand des o.g. Videos sehen kannst, musst du den Spieß auch rumdrehen - du wirst auch Einzelbilder finden, in denen die CPU schlechter als die GPU aussieht.

Unter'm Strich kommt man mittlerweile zu dem Ergebnis, dass CPU und GPU bei der Qualität des Encodings auf Augenhöhe sind. Einzig bei Bitraten 6MBIt/s und darunter, wie sie beim Streaming gerne verwendet werden, kann die CPU noch immer teils deutlich besser abschneiden. Aber das erfordert dann halt CPU-Power.
 
Ja genau, ich befinde mich ja unter 6mbit. Also von daher und auch das es sich bei mir in naher Zukunft sich das auch nicht mehr ändern wird. Und selbst wenn 4k oder noch höher mit was weiß ich wieviele datenratrn, selbst dann bleibe ich wohl auch dann auf dieses Niveau sitzen. Nachdem ich ja schon seid 2010 bzw 2011 schon auf diese Auflösung und der datenrate bin, ist es ne lange Zeit. In der Zeit hat sich ja auch sehe vieles verändert, dennoch ist bei mir alles so geblieben wie es damals gewesen war. Bald schon werde ich die letzten riesen CPUs getestet bekommen, dann wäre mein ziel in dem Bereich wo ich es testen lassen wollte, endlich erreicht. Dann wird es hier auch die endgültigen erkenntnisse als Kommentar von mir geben. Aber das dauert ja noch bis die sich melden zum Testen.
 
Warum bleibst du bei 1080p-Inhalten bei 6MBit/s?

Oder gar 4K?

Der CPU-Encoder kann auch nicht zaubern. Auch in HEVC/H265 sind physikalische Grenzen. Wie soll denn bei einem 4K-Film da noch Qualität übrig bleiben?

Du redest von schlechter Qualität bei GPUs und hängst dich an 6MBit/s, das eigentlich nur für online-Streaming gedacht ist, auf?
 
Nun das erkläre ich dir. Die TV aufnahmen bei Filmen sowie Sendungen mögen zwar länger sein, haben allerdings die selbe Bitrate. Das heißt dann, die Qualität bleibt dann ja niedrig. Somit werde ich beim TV Fernsehen, sofern ich kein hd+ kaufe niemals weiter nach vorne kommen können.
 
Warum bleibst du bei 1080p-Inhalten bei 6MBit/s?

Er nimmt (himmelherrgott) 720p vom FreeTV auf und rendert das anschliessend. Warum? Tja, damit RTL und Pro7 besser aussehen als wenn er das direkt im richtigem Format aufzeichnen würde. Weisst Du, "Alarm für Cobra" und so. Ist ja nicht so, dass der Rotz 100x wiederholt würde. Der E5-2699v4 taugte anscheinend nicht dazu, den Schrott nochmals zu rippen. Weil wenn er zwei TS Files gleichzeitig rippt, das macht er dauernd, dann laggt das Game bizli (für Einige wahrnehmbar), welches er nebenbei zockt. Kann man verstehen, muss man aber nicht. Er will bald nen Satteliten ins All schiessen, wo er seine schöngerippten TV Sendungen dann ausstrahlen kann. In 20 Jahren, wenn die Technik bei seinen Jüngern soweit ist.

trölölöli
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh