Aktuelles

Kann man aus den folgenden CPUs Rückschlüsse auf die höheren CPUs machen?

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
Hi an alle, ich habe nun schon etliche CPUs getestet. Es geht um H264 umwandeln. Ich lasse immer 2 gleichzeitig umwandeln. Ich kann gerne ne liste machen. Werden zwar dann ne viele zahlen sein, aber vielleicht könnt ihr ja dann rückachlüsse dann auf die 32 kernigen threadrippers ziehen.
All diese Werte sind nicht Na cpu Nummern sondern nach Zeit geordnet in Minuten . Wo ich mir auch sicher bin.

AMD treadripper 1950x ohne Übertaktung 3:30 & 3:30
Intel xenon e5 2699v4 mit ht 2,8 ghz 3:15 & 3:16
Intel i7 6950x auf 4 ghz
3:00 & 3:00
Intel xenon e5 2699v4 ohne ht, bei 22 kernen nur
2:40 & 2:40
AMD ryzen 2920x @ 4,1 ghz
2:34 & 2:34
Intel core i9 7920x im durschnitt 4,4 ghz also aus alles Kernen gezogen
2:30 & 2:30
AMD threadripper 2970 mit ht Standard takt 2:30 & 2:25
AMD 2950x @ 4 ghz
2:20 & 2:21
AMD 3900x @ 3,8 ghz
2:07 & 2:02

Intel core i9 7960x @ 4,6 ghz
2:00 & 1:58
AMD threadripper 2970wx ohne smt & ohne oc
1:58 & 1:57
AMD treadripper 2990wx @ 3,9 ghz mit smt
1:57 & 1:52
Intel core i9 9980xe mit standard 3,8 ghz
1:55 & 1:57

Ryzen 9 5900x @ 4,1 ghz 1:53 & 1:50

Intel core i9 9980xe @ 4,1 GHz
1:49 & 1:50
Intel Core i9 9980xe @ 4,5 ghz
1:42 & 1:43

Amd 3950x mit 4,1 GHz
1:42 & 1:42

Amd Ryzen 9 5950x @ 4 bzw 4,1 ghz 1:28 & 1:27
AMD Threadripper 3960x @ 4,1 ghz mit SMT
1:35 & 1:33
AMD Threadripper 3960x @ 4,1 ghz ohne SMT
1:34 & 1:23
AMD treadripper 2990wx @ 3,9 GHz ohne smt
1:28 & 1:28
Threadripper 3970x @ 3,7 ghz - 4 GHz schwankend mit ht 1:26 & 1:26
Threadripper 3970x @ 3,7 GHz - 4 GHz schwankend ohne smt 1:25 & 1:23
Ein weiterer Test mit einem 3970x bei 4 ghz mit 8 Ram Modulen,optimalen Timings und so,aber ohne SMT brachte es auf 1:17 & 1:17.In dem Fall ist halt dann einfach dann schluss.


Alles mit xmedia recode zwei Aufnahmen von mir. Alle avx sind abgeschaltet bei allen. Und weil keiner, noch nicht mal Intel bei der Konstellation der Software, sowie Anforderung war auch bmi2 sowie auch fma3 abgeschaltet. Priorität:höher als normal, zumindest stand alles mindestens auf normal. Quelldaeien sind 720x576 MPEG 2 ts Aufnahmen mit 50 halbbilder. Was auch keine Auswirkung auf leistung hatte war der RAM takt. Alle liefen mit ssd und bis auf meiner CPU den i9 9980xe alle auf Windows 10,bei mir auf Windows 7. Im Grunde müsste man weil Windows 7 schneller ist nochmal bei allen rund 5-6 Sekunden runder rechnen. Allerdings könnte das ja das Ergebnis verfälschen.

Nun kommt die Frage, kann der amd threadripper nach diesen Ergebnissen also der amd threadripper 3970x ohne smt schneller als der 3950x sein und der 2990wx schneller als der 2950x sein oder wird dieser minimal langsamer sein. Ich hoffe ich kann mit euren Meinung Rechnen.
Achja ihr frägt euch gewiss, was das Ziel von mir ist. Das kann ich euch sagen. Aus Neugier will ich wissen was das schnellste für solche Anwendung ist. Es sei noch ein Hinweis das ich den amd 3950x und den i9 9980xe 4 echte Kerne bei beiden in der Taskleiste noch zum testen abgeschaltet habe und somit nur noch 50 % der 4 Kerne belastet wurden. Geschwindigkeit einbusen gab es ja garnicht. Die 4 Kerne sind symbolisch für die alten games die nur 4 Kerne maximal auslasten. Damit sind 4 Kerne ohne ht oder smt gemeint. Mehr Lasten die nicht aus und habe auch keine neuen Spiele.
Das ist alles was ich an den cpu das fodernste ist. Nutze keine anderen Anwendungen und auch keine neuen Spiele weil ich keine habe. Also fördernder werden die CPUs nicht mehr. Mehr geht somit nicht.
Bin gespannt was eure Antworten so sind.


Hier ist somit das Update von Zen 3 CPUS.Interessant das ein 12 Kerner besser ist als ein 18 Kerner von intel.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
Freilich geht das auf der gpu auch auch schneller. Aber erstens mal so ne Minute ist nicht viel schneller und zweitens die Bildqualität ist schlechter. Also soviel bringt das ja dann doch leider nix. Schade das du keine Antwort auf meine Frage gegegeben hast. Man wird also doch keine Rückschlüsse geben können. Achja und zwei Aufnahmen gleichzeitig auf ner gpu habe ich ja noch nie ausprobiert. Ob das dann noch schneller ist, ist halt ne andere frage dann.
 

Holzmann

Enthusiast, The Saint
Mitglied seit
02.05.2017
Beiträge
23.352
Ort
50.969
Es wird sich doch ihr wohl jmd. Finden der @Latiose mal mit seinem tr3 System testen lässt, oder nicht?
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
Ja ist halt schwierig. Es gab auch welche die solch ein System zum Kauf suchen wollten. Keiner hat sich drauf gemeldet. Also wird es auch nur zum Testen lassen wohl auch sehr schwierig werden zu finden.
 

fortunes

Urgestein
Mitglied seit
13.06.2003
Beiträge
11.509
Ort
RheinMain
Erstens: in einer Excel-Tabelle wäre das übersichtlicher.

Zweitens: Welchen Qualitätsunterschied kannst du mit bloßem Auge bei GPU-Encoding erkennen? Wenn es da Unterschiede gäbe, wären die VFX-Studios nicht mit RTX-GPUs ausgestattet.
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
Ja gut, gebe zu ne excel Tabelle wäre echt wohl besser gewesen.

Nun ich merke es darum schlechter weil es bei gpu nicht mehr so ne tiefe gibt. Es wirkt halt alles nicht mehr so scharf. Bäume usw einfacher gehalten bei der Optik und es gehen Details verloren. Klar sind das keine so scharfen Aufnahmen, sie aber dann noch hässlicher werden zu lassen, finde ich echt nicht gut. Ich habe es ja bei h264 getestet und finde da halt Unterschiede zwischen CPU und gpu. Achja ich kann bei den Einstellungen leider noch immer nicht so einstellen wie ich es bei der CPU gewöhnt bin. Ich kriege es einfach nicht so hin. Ich kann nur durschnitt Bitrate und so einstellen und keine crf und das ganze so wie ich mir das halt vorstelle. Diese Software ist in der Hinsicht unflexibel. So hart es klingt, aber halt leider nicht für mich praxistauglich. Und wenn ich auf preset baseline stehe, dann kann ich das ja auch bei der CPU so einstellen. Zwischen baseline und preset medium gibt es halt noch ein ganz schönen unterschied. Auch in so Foren würde gpu Umwandlung getestet und man erkannte da noch immer ganz schöne Unterschiede. Mir sagte jedenfalls die Optik bei den selben Bild zenen überhaupt nicht zu. Wer es also so wie ich das ganze archivieren will, geht Qualität vor schnellerigkeit. Ich gehe mal davon aus das der amd threadripper 3970x auch keine 1 minute schaffen wird. Der 3950x schaffte beim testen 320 fps. Laut den Werten und dem dazurechnen bei den smt abschalten gesteigerten mehrleistung, wird der and threadripper 3970x wohl bei 340 fps in ner Zeit von 1:10 bei allen beiden umgewandelten erreichen. Mehr wird also dieser 32 Kerner wohl auch nicht mehr schaffen. Da ist halt dann einfach dann Schluss.
 

fortunes

Urgestein
Mitglied seit
13.06.2003
Beiträge
11.509
Ort
RheinMain
Du kannst nicht einfach pauschal sagen, dass die CPU eine bessere Qualität abliefert.


Es gibt sogar Situationen, in denen die CPU eine schlechtere Qualität abliefert.

Es gibt aktuell keinen qualitativ besseren Hardware-Encoder als den der RTX-Karten. Die kleinste Karte mit diesem HW-Encoder ist die "GTX 1650 Super". Abgesehen vom Speed der Codierung haben die CPUs mittlerweile auch in der Qualität das Nachsehen. Letztlich hängt die CPU-Qualität aber auch massiv von dem verwendeten Encoder der Software ab. Auch da gibt es sehr gute Weiterentwicklungen.

Welche Software verwendest du denn, dass du der Meinung bist, die CPU sei optisch besser?
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
Xmeida recode mit H264. Andere Codecs kommen für mich nicht in Frage. Also egal ob h265 oder vp9 noch sonst was. Ist für mich keine Option. In dem von dir genannten Beispiel stimmt das zwar, aber bei meinen einstatzbereich bzw Konstellation halt eben leider nicht. Habe sogar Bilder davon gemacht und Unterschiede feststellen können. Achja und ich verwende noch gtx 1060,das heißt bei mir kommt das neue nicht zum Einsatz. Die wo das kritisierten sagten auch das es zwar besser geworden ist, allerdings noch immer teilweise nicht ganz optimal sei. Aber gut, das ist halt ein anderes Thema.
 

Phoenix2000

Legende
Mitglied seit
07.01.2006
Beiträge
6.262
Wenn du das öfters nutzt würde ich über ne neuere Graka nachdenken.
Ich hab mal 7GB 1,5h Full HD Film auf x264 unter 2GB Recodiert.

Mit AVX und FMA3 mit 9900k 5,24Ghz konstant, brauch er 14:56min bei AVG 196FPS.

Mit einer! RTX2080 brauch ich 3:06 min bei AVG 940FPS!!!

Ich hab die Videos mal gegenseitig verglichen, das CPU Video ist 1,35GB groß, das über Graka 1,41GB.Die Qualität ist fast gleich, die Cuda Version ist auf jeden Fall etwas besser, aber da muss man schon sehr genau vergleichen, besonders stark war es allerdings bei großen 3D Schriftzug zu sehen Aufgrund der geringen Bitrate.

Ich sehe da echt Null Vorteile die CPU zu nutzen.Würde das Programm 2Grakas unterstützen wären das wahrscheinlich unter 2min gewesen bei 1800FPS anstatt 15min mit CPU.
Du brauchst schon den 64Kerner um mit einer 2080 mitzuhalten.
 
Zuletzt bearbeitet:

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
Also ich habe es bei den Standbilder verglichen. Kann da auch genre das Bild hier posten. Also ist halt die selbe Quelle wie ich hier gesehen habe. Ein paar Stellen sind zwar besser aber auch welche stelle schlechter als bei der CPU. Kann das auch gerne markieren was ich damit meine.
 

Anhänge

  • Screenshot_20200224_121743.jpg
    Screenshot_20200224_121743.jpg
    193,8 KB · Aufrufe: 66

Phoenix2000

Legende
Mitglied seit
07.01.2006
Beiträge
6.262
Das was ich kodiert habe kann ich nicht posten wegen Urheberrecht, klingt lächerlich ist es auch, aber ich würde schon wegen nen TombRaider Video Ingame Sound angemahnt ohne Witz^^.
Das ist der erste Test im Benchmark die Musik die da gespielt wird, das war der Grund.

Ich müsste sozusagen selber irgendwas Filmen und dann den exakten Frame vergleichen, das sprengt mir aber etwas den Rahmen, bestell dir einfach eine RTX zum testen und gucks dir selber an.

Im Verhältnis zur CPU P/L ist ne RTX lächerlich billig, bei gleicher bzw. besserer Qualität.
Es ist ja auch nicht ohne Grund das die wirklich für sämtliche Sachen genutzt werden, besonders bei der professionellen Video Bearbeitung/Berechnung.
 
Zuletzt bearbeitet:

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
Naja also ich hatte ja nie vor einen amd threadripper zu kaufen sondern rein aus Neugier. Ich weiß inzwischen wie schnell der amd threadripper 2990wx ist und viel ist das ja nicht. Werde also die Liste etwas erweitern. Am besten auch mit smt, damit man sieht wie die Leistung mit sowie ohne smt sein wird. Kann auch gerne noch den xeon e5 2699v4 mit ht dazu tuen. Aber man merkt dann das die Leistung schlechter ist.
Nun warum ich sagte es lohnt sich die rtx nicht zu holen, na zocken und umwandeln ist eine schlechte Idee, dann ist der Vorteil wieder dahin. Da kann das spiel noch so alt sein, die leistung wird dennoch fallen. Bei der CPU kann ich das ja wenigstens besser händeln. Mit etwa Glück testet eine Person die sich ja bei mir gemeldet hat ja noch den amd threadripper 3970x für mich. Dann habe ich nicht nur den amd threadripper 2990wx zum hinzufügen sondern die neuere Version auch noch davon. Wenn die ergänzt wird, werdet ihr sehen was ich meine. Und stelle das Ergebnis vom i9 9980xe auch bei 4,1 GHz hier dazu.
 

Phoenix2000

Legende
Mitglied seit
07.01.2006
Beiträge
6.262
Du kannst doch die Cuda GPU´s zuteilen, ich kann ganz normal mit den gleichen FPS Zocken und die andere Graka rendert oder recodiert mit XMedia Recoder.
Der Vorteil ist es ist wesentlich mehr Autark, du hast wesentlich mehr Leistung, ne flotte CPU sollte man trotzdem haben zum bereitstellen der Daten etc..

Aber da gibt´s keine Ruckler oder sonstwas und das ist verdammt gut, du kannst einerseits mit HighFPS zocken und nebenbei rendern oder
codieren mit der 2. Graka wie nen "64 Kerner"das juckt dich garnicht.
Vorteil ist du brauchst auch keinen neuen Rechner.
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
@Phoenix2000 was meinst du denn mit autark? Hast du dich etwa verschrieben bzw vertippt.

Nun ich hoffe du hast die Liste nun gesehen. Habe ich inzwischen aktualisiert. Nun wie du weißt sind die rtx Grafikkarten ganz schön teuer. Da kann ich ja fast mir noch ne weitere CPU davon kaufen. Nun ich werde da garnix mehr investieren. Werde wohl den amd 2920x auch nicht mehr testen. Denn der wird wohl kaum noch bessere Ergebnisse liefern als die größeren Brüder und zum anderen fehlt ja noch der amd threadripper 3960x. Allerdings wird auch der ja nicht mehr schaffen als der 3970x. Nun merkt man ja die Grenzen dieser Software und die sind ja wohl mehr als eindeutig, kann man also echt so sagen,nicht war?
Zudem wandle ich eh nur am wochende um. Und da auch nicht Stunden lang. Also je mehr Geld ich da nun noch rein stecke, das wird sich ja echt nicht mehr lohnen. Selbst ne zweite gpu nicht.
Denn dann wird ein 550 Watt Netzteil nämlich zu knapp werden und auch nicht mehr so effizient. Es gibt also wie du siehst mehr als genug Argumente, es einfach so wie es ist zu lassen als was dran zu ändern.
 

Phoenix2000

Legende
Mitglied seit
07.01.2006
Beiträge
6.262
Ich meinte mit autark nur das sie eigenständig vor sich hin daddelt, ohne das gesamte System stark zu beeinflussen.
Wer wirklich grade für solche Arbeiten viel Leistung brauchst, bekommt da für 600,- so in etwa die Leistung einer 4000,- CPU, ist ja trotzdem nicht verkehrt sich so nen 32Kerner reinzusetzen, falls man was ohne Cuda Unterstützung hat und auch generell wer viele gleichzeitige Workload´s hat.

Mit z.B. 4 Graka nimmst halt 1-2 zum Rendern/Raytracen oder Video Berechnen , mit der anderen "recodierst" du schonmal fertige File´s und weil das alles ja dauert zockst du mit der übrig gebliebenen Graka solange noch ne Runde. :d
Die Graka´s sind auch ziemlich effizient, für den Preis von 64Kerner kriegst du locker 4x2080 und den 3960x.
 
Zuletzt bearbeitet:

Phantomias88

Urgestein
Mitglied seit
19.04.2008
Beiträge
8.260
Ort
StuggiTown
Also ich schwöre immer noch auf 2-Pass Encoding, das ist auf jedenfall für Filme mit Hoher Bitrate 25MBit/s + am effektivsten was Platzgröße angeht und die Qualität gleich bleibt.
6MBit/s ist eher für Streaming von Spiele, also kaum hohes Datenaufkommen. Aber schön das es mit der GPU Fortschritte gibt! :)

An sich wäre mal wichtig zu wissen welche Encoder überhaupt mehr als 24C/48T nutzen können, sonst bringt einem ein 64 Kern nichts wenn nur 24 Kerne im Taskmanager genutzt werden.
Da wird sonst der 64 Kern immer das Nachsehen haben, wichtig ist auch ein Windows Pro Version, die Home kann nur 64 logische Kerne ansprechen.
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
Nun ich habe ja Windows 7 Pro und die mit AMD systemen und auch die anderen haben mit Windows 10 Pro dazu verwendet.
Nun ich habe eine Tabelle mit den ganzen gänigigen codecs.Sorgar 4k@ 60 Bilder/s mkv das zuvor 4k 30 bilder Pro sekunde und 120 mbit/s als datenrate Videos haben laut der Tabelle einen 32 Kernigen nur zu knapp 80 % ausgelastet.
Sowas extremes werden ich nie im Fernsehen erleben.Bei den Privaten Sender da kriegt man es ja noch nicht mal als bezahlter Kunde so eine extrem hohe Auflösung serviert.Bei den SD also kostenlosen Privaten sender,da kriege ich noch nicht mal 720p kostenlos serviert.Und Filme,Sendung und ganz besonders Serien in 576p da ist halt nicht mehr so viel rauszureisen.Man sieht es ja in der lieste.Die last und so ist sogar so gering,das es egal ist ob AVX an oder aus ist.Unter diesen bedingungen kann man somit auch und das ist ja wohl jeden klar einen 64 Kerner mit HT 128 wohl gänzlich vergessen.

Und meine TV Aufnahmen haben so im Schnitt 4 Mbit an Datenrate was umgewandelt werden soll.Darum ist ja auch eine 20 Minütige Folge bei mir bei rund 630 Mb.Umgewandelt sind die Aufnahmen dann bei 280 MB. Da ich nun davor sitze am Laptop,kann ich auch gerne die nachteile von Grafikkarten umwandeln zeigen.Gutes beispiel bei dem Bild wird wohl ein Waldbild sein.Da sieht man ja sofort wie gut bzw schlecht Grafikkartenumwandeln sein wird.


Ok ich gebe zu ,der Unterschied ist zwar nicht rießen Groß,allerdings erkenne ich dennoch einen Unterschied zwischen GPU und CPU.Besonders an den Rändern erkennt man bei den Bildern deutlich das die bei der GPU etwas gießelt.Das heißt da verliert es etwa an schärfer.Besonders am Mund von Rocko erkennt man nen leichten Unterschied.Auch wenn früher der Unterschied größer gewesen sein mag,ich erkenne das dennoch.Wer mir nicht glaubt,ich habe nun die Bilder hochgeladen.
Auch weil ich nicht weis ob ich das denn bei der GPU richtig eingestellt habe,weil es ja bei der GPU ja anders ist als bei der CPU.Ich kriege das auch leider nicht so hin wie bei der CPU.Auch dieses CRF wie bei der CPU kriege ich nicht hin.Da kann ich was für Fram I,P oder B einstellen.Ist ja echt irgendwie seltsam das ganze.


Siehe hier ws ich meine:
Bei CPU ;

Allgemein
Vollständiger Name :C:\Users\Latiose88\Videos\188.Der kleine Dieb_20120819_0555_1.mp4
Format :MPEG-4
Format-Profil :Base Media
Codec-ID :isom (isom/iso2/avc1/mp41)
Dateigröße :50,1 MiB
Dauer :4 min 4s
Gesamte Bitrate :1 719 kb/s
Kodierungs-Datum :UTC 2020-02-24 16:32:15
Tagging-Datum :UTC 2020-02-24 16:32:15
Kodierendes Programm :Lavf58.10.100


Video
ID :1
Format :AVC
Format/Info :Advanced Video Codec
Format-Profil :Main@L4
Format-Einstellungen :CABAC / 4 Ref Frames
Format-Einstellungen für CABAC :Ja
Format-Einstellungen für RefFrames :4 frames
Codec-ID :avc1
Codec-ID/Info :Advanced Video Coding
Dauer :4 min 4s
Bitrate :1 522 kb/s
Breite :720 Pixel
Höhe :576 Pixel
Bildseitenverhältnis :4:3
Modus der Bildwiederholungsrate :konstant
Bildwiederholungsrate :25,000 FPS
Standard :PAL
ColorSpace :YUV
ChromaSubsampling/String :4:2:0
BitDepth/String :8 bits
Scantyp :progressiv
Bits/(Pixel*Frame) :0.147
Stream-Größe :44,3 MiB (89%)
verwendete Encoder-Bibliothek :x264 core 155 r2901
Kodierungseinstellungen :cabac=1 / ref=2 / deblock=1:0:0 / analyse=0x1:0x111 / me=umh / subme=7 / psy=1 / psy_rd=0.60:0.00 / mixed_ref=0 / me_range=16 / chroma_me=1 / trellis=1 / 8x8dct=0 / cqm=0 / deadzone=21,11 / fast_pskip=1 / chroma_qp_offset=-2 / threads=12 / lookahead_threads=2 / sliced_threads=0 / nr=0 / decimate=1 / interlaced=0 / bluray_compat=0 / constrained_intra=0 / bframes=2 / b_pyramid=2 / b_adapt=2 / b_bias=0 / direct=3 / weightb=1 / open_gop=0 / weightp=2 / keyint=250 / keyint_min=25 / scenecut=40 / intra_refresh=0 / rc_lookahead=40 / rc=crf / mbtree=1 / crf=18.0 / qcomp=0.60 / qpmin=10 / qpmax=69 / qpstep=4 / vbv_maxrate=2400 / vbv_bufsize=24000 / crf_max=0.0 / nal_hrd=none / filler=0 / ip_ratio=1.40 / aq=2:1.00
Kodierungs-Datum :UTC 2020-02-24 16:32:15
Tagging-Datum :UTC 2020-02-24 16:32:15


Audio
ID :2
Format :AAC
Format/Info :Advanced Audio Codec
Format-Profil :LC
Codec-ID :mp4a-40-2
Dauer :4 min 4s
Bitraten-Modus :konstant
Bitrate :192 kb/s
Kanäle :2 Kanäle
Kanal-Positionen :Front: L R
Samplingrate :48,0 kHz
Bildwiederholungsrate :46,875 FPS (1024 SPF)
Stream-Größe :5,59 MiB (11%)
Sprache :Deutsch
Default :Ja
AlternateGroup/String :1
Kodierungs-Datum :UTC 2020-02-24 16:32:15
Tagging-Datum :UTC 2020-02-24 16:32:15

Und bei GPU sieht das dann so aus:


Allgemein
Vollständiger Name :C:\Users\Latiose88\Videos\188.Der kleine Dieb_20120819_0555_2.mp4
Format :MPEG-4
Format-Profil :Base Media
Codec-ID :isom (isom/iso2/avc1/mp41)
Dateigröße :105 MiB
Dauer :4 min 48s
Modus der Gesamtbitrate :variabel
Gesamte Bitrate :3 049 kb/s
Kodierungs-Datum :UTC 2020-02-24 16:55:29
Tagging-Datum :UTC 2020-02-24 16:55:29
Kodierendes Programm :Lavf58.10.100


Video
ID :1
Format :AVC
Format/Info :Advanced Video Codec
Format-Profil :Main@L3.2
Format-Einstellungen :CABAC / 2 Ref Frames
Format-Einstellungen für CABAC :Ja
Format-Einstellungen für RefFrames :2 frames
Codec-ID :avc1
Codec-ID/Info :Advanced Video Coding
Dauer :4 min 48s
Bitraten-Modus :variabel
Bitrate :2 852 kb/s
maximale Bitrate :128 kb/s
Breite :720 Pixel
Höhe :576 Pixel
Bildseitenverhältnis :4:3
Ursprüngliches Bildseitenverhältnis :4:3
Modus der Bildwiederholungsrate :konstant
Bildwiederholungsrate :25,000 FPS
Standard :PAL
ColorSpace :YUV
ChromaSubsampling/String :4:2:0
BitDepth/String :8 bits
Scantyp :progressiv
Bits/(Pixel*Frame) :0.275
Stream-Größe :98,0 MiB (94%)
Kodierungs-Datum :UTC 2020-02-24 16:55:29
Tagging-Datum :UTC 2020-02-24 16:55:29


Audio
ID :2
Format :AAC
Format/Info :Advanced Audio Codec
Format-Profil :LC
Codec-ID :mp4a-40-2
Dauer :4 min 47s
Bitraten-Modus :konstant
Bitrate :192 kb/s
Kanäle :2 Kanäle
Kanal-Positionen :Front: L R
Samplingrate :48,0 kHz
Bildwiederholungsrate :46,875 FPS (1024 SPF)
Stream-Größe :6,59 MiB (6%)
Sprache :Deutsch
Default :Ja
AlternateGroup/String :1
Kodierungs-Datum :UTC 2020-02-24 16:55:29
Tagging-Datum :UTC 2020-02-24 16:55:29
 

Anhänge

  • CPU Qulität.png
    CPU Qulität.png
    264,4 KB · Aufrufe: 64
  • GPU umwandlung.png
    GPU umwandlung.png
    260,5 KB · Aufrufe: 68
  • GPU Settings Umwandlung Teil 1.png
    GPU Settings Umwandlung Teil 1.png
    24,3 KB · Aufrufe: 64
  • GPU Settings Umwandlung Teil 2.png
    GPU Settings Umwandlung Teil 2.png
    23,8 KB · Aufrufe: 42
Zuletzt bearbeitet:

Phoenix2000

Legende
Mitglied seit
07.01.2006
Beiträge
6.262
Mit ner RTX ist das Top, mit dem XMedia Recode ist CPU sogar irgendwie schlechter.
Auch bei Blender sind die Ergebnisse 1A, vieles war ja vorher auch eher den Workstation GPU´s vorbehalten.

Die Qualität ist Top und die Geschwindigkeit ist beeindruckend, die Qualitätsstufe kann man ja eh selber anpassen, da hast du mit 25MBit/s 2-Pass nen Top Ergebnis.

Interessant wäre es aber trotzdem zu sehen wie sich 12/16/24/32/64 Kerne bei Ryzen 3000ér schlagen, ein wenig wird ja der CoreCount durch den geringeren AllCore Takt verschlungen.
Schwer zu sagen wo da das "gesunde" Mittelfeld ist.

P.S.
Bei deinen Bildern hat bei CPU Pikachu nen fetten Augenring^^ und bei GPU die rechte weiße Pickel^^, ist beides nicht so dolle weiße Pünktchen bei beiden.
Du kannst doch MPEG4 NVENC nutzen mit VbrHQ oder 2-pass.
 
Zuletzt bearbeitet:

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
BIn ich blind oder sehe ich die fetten Augenringe nicht und was meinst du mit rechten weißen Pickel.Das Auge ist doch bei beiden so.
Soweit ich das so gehört habe soll 2-pass fast die selbe bildquliät wie bei CPU erreichen.Achja ich verwende dabei noch garkeine RTX Grafikkarte.Dort ist nur ne gtx 860m im laptop verbaut.Und du findest das ergebnis schon jetzt ganz gut.So direkt mit selben Frame und position,so noch nie direkt verglichen also sprich 1 zu 1.
Sehe ja selbst das es keine rießen Unterschiede sind.Dachte sind rießen Unterschiede.Scheinen es ja nicht zu sein.Und kann wer mit den ganzen GPU einstellungen was anfangen.Denn ich hoffe das diese ganzen 18 er Werte dem eines CRF 18 entspricht.
 

Phoenix2000

Legende
Mitglied seit
07.01.2006
Beiträge
6.262
Ich hab das auf meinen Monitor reingezoomt, das linke Auge bei Pikachu.

Bei den Einstellungen kann ich dir nicht wirklich helfen, es ist schon länger her das ich wirklich mal Video bearbeitet habe, oder wirklich Animationen mit Lightwave gemacht habe.

Beide Ergebnisse sind aber gut.Ich mein mal ne gute Graka haben ja die meisten drin, man kann oft ja auch beides nutzen, der Core Count ist so oder so def. von Vorteil wenn man wirklich viel mit arbeitet.

Die Graka hat aber echt viel Power und wenn ich überlege wie viele Tage ich früher für ein "paar Sekunden" gerendert habe...Da wurde das Bild Zeilenweise aufgebaut.^^
Man sollte nutzen was die Kiste hergibt.
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
Du meinst mit sicherheit die Schiere Anzahl der ganzen Kerne der GPU sind unschlagbar oder meintest du die Kernanzahl der CPU damit?
Nun ich werde dennoch die CPU benutzen,denn sonst langweilt sich die CPU zu Tode.Bei Spielen langweilt sich die CPU ja eh schon zu tode mit den 4 Kerne Spiele.Und sonst mache ich ja auch nix mit den Pcs. Mein Bruder kritisieret sogar das ich so lange zum schneiden brauche,das ich eines im hintergrund umwandeln könnte ,wärend ich eines schneide.Er kritisiert also das was ich so alles mache.Nun ich weis nicht ob das richtig ist,aber ich mache halt einfach so weiter.
 

Phoenix2000

Legende
Mitglied seit
07.01.2006
Beiträge
6.262
CPU Kerne brauchst du ja trotzdem, das kommt immer drauf an was man machen will, nicht für alles kannst du Cuda/Optix nutzen.
Mach es so wie es für dich passt und gut ist, solltest du viel Leistung benötigen und Cuda wird unterstützt, ist es eine günstige Möglichkeit für viel "Multicore" Leistung , so würde ich das sehen.
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
ja gut,das wird zwar nie bei mir vorkommen,aber die option zu haben,reicht ja zumindest schon aus.Wie gesagt ,die 10 Sekunden schneller lohnt sich ja echt nicht.DIe CPU kostet ja alleine mindestens 2000 € und dann noch das Mainboard das mit sicherheit auch sau Teuer ist ,weil ein billiges wird das wohl kaum wegkühlen können und das alles für nur 10 Sekunden schneller ,werde ich echt nicht machen.Würde ich damit ja Geld verdienen,dann müsste ich auch abwägen ob sich denn der aufpreis für nur 10 Sekunden schneller fertig werden wirklich lohnen würde.Denn die 2500 € muss man ja erst mal reinholen.Bezweifle allerdings das das ein Unternehmen so schnell reinholen kann.
Nun auf jedenfall sind wir uns ja alle einig und das ist ja auch gut so.
 

Phoenix2000

Legende
Mitglied seit
07.01.2006
Beiträge
6.262
Das lohnt vorn und hinten nicht zumindestens als Privatperson.Mein 2600k@OC hat 7Jahre gereicht als Plattform und meine Wakü 10Jahre.

Früher hab ich immer alles mitgenommen, aber die Zeiten sind vorbei, ich bin fertig mit meinen neuen Rechner nach 1,5Jahren^^.
Irgendwann hat man genug geschraubt und getuned.IPC bin ich ca. knapp 2 Gen vorraus das reicht ne Weile.
 

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
wie meinst du das denn mit 2 gen voraus bei IPC,das geht doch garnicht oder etwa doch?
 

Phantomias88

Urgestein
Mitglied seit
19.04.2008
Beiträge
8.260
Ort
StuggiTown
Also mit Windows 7 braucht mann kein 3990X, da ist das OS schon etwas eingestaubt.

Für Handbreak in der aktuellen Version geht es auch nicht wirklich, die kleinen 3970X und 3960X sind schneller:



Aber wenn man mit Blender Animations Filme erstellt, lohnt es sich schon eher:



Quelle: https://www.computerbase.de/2020-02/amd-ryzen-threadripper-3990x-test/3/#diagramm-test-pov-ray-multi

Doch es gibt auch Schatten, denn mit 64 Kernen glänzt es nicht überall, die vielen Threads werden mitunter zum Luxusproblem, wie auf der vorangegangenen Seite dargelegt. Nicht jede Software ist schließlich schon bereit, auch mit 128 Threads zu arbeiten. Selbst populäre Benchmarks wie POV-Ray sind es in der regulären Version nicht, dort liefert der 64-Kerner das gleiche Ergebnis wie ein 32-Kerner, weil die Anwendung bei 64 Threads dicht macht. AMD hat deshalb die Software optimiert und diese Version der Presse zur Verfügung gestellt, in der Erwartung, dass die Autoren von POV-Ray den Commit via GitHub auch in eine finale Version einpflegen werden. Parallel dazu hat derselbe Autor auch VeraCrypt für einen Support von CPUs mit 64 Kernen und mehr im Blick.

Zu guter Letzt noch ein guter Leitfaden für das Encoden Allgemein: https://encodingwissen.de/codecs/encodingmethoden/
 

Phoenix2000

Legende
Mitglied seit
07.01.2006
Beiträge
6.262
wie meinst du das denn mit 2 gen voraus bei IPC,das geht doch garnicht oder etwa doch?
Na mein Hauptziel war doch vor allem Gaming Performance, was sich natürlich auch in Anwendungen widerspiegelt.
Durch die ganze OC Geschichte, gut die 540Mhz mehr sind nicht soviel, aber grade durch das extreme RamOC 4x8GB 4400CL17-17 liege ich jenseits von Gut und Böse wenn man die derzeitige Leistung betrachtet, gegenüber einem nonOC System, das sind über 30%-50% mehr Leistung je nach Anwendungsfall.

Sprich diese Leistung wirst du vielleicht in der übernächsten Generation sehen wenn man nicht übertaktet.
Für die nächsten 4-5Jahre reichen 8Kerne HT locker aus für meine Zweckse, ansonsten hab ich auch noch Graka.

Lade dir mal Blender runter und berechne mal den BMW27, den kann man separat Downloaden als Objektfile ich schaff den in 16s^^, das ist schon heftig.
 
Zuletzt bearbeitet:

Latiose

Experte
Thread Starter
Mitglied seit
11.06.2019
Beiträge
1.586
ah ok,aber das kann doch jeder auch erreichen der übertaktet.ALso Ram und CPU übertaktet.ALso luft habe ich ja bei meinem system ja noch. Wäre die ANwendung die ich verwende ,ebenfalls sauber optimiert,würde ich ja auch beim Ram davon Profitieren.Denn mal ehrlich keinen Unterschied zwischen 2133 und 3600.Also wäre dies ja der fall ,dann würde ich noch schneller sein als auf der Lieste und die anderen genauso.
 

Phoenix2000

Legende
Mitglied seit
07.01.2006
Beiträge
6.262
Jeder nun nicht grade du brauchst selektierte HW und musst dich natürlich gut auskennen, aber dann ja klar ist es reproduzierbar.Ich geh davon aus wie weit der Rechner reicht und das verschiebt den Zeitpunkt des "notwendigen" Aufrüstens um einige Jahre nach hinten.Ohne OC hätte mein 2600K never 7 Jahre gereicht, das waren über 50% Mehrleistung durch OC.
 
Oben Unten