HTPC für 4k mit HDR

Kein Grund grantig zu werden....
Ich versuche hier bei nem Problem zu helfen, welches mich selber ja gar nicht betrifft und es hatte ja auch jemand gemeldet, dass 4k60phdr bei ihm lief, siehe Post 52 hier im Fred.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sorry, wenn ich hier alles durcheinander gebracht habe. Ich bin zuletzt zwischen zwei Threads durcheinandergekommen. Zu HDR kann ich nichts sagen, da mir die Hardware dazu fehlt. So da ich dazu also nicht mehr beitragen kann, halte ich mich hier heraus. Sobald ein HDR-Endgerät zur Verfügung steht melde ich mich gerne nochmal.
 
Hier nochmal als Beispiel, Platinen mit Intel-Chipsatz und HDMI2.0-Port via LSPCon:

No HDR Options on Intel Graphics 630

"I have exactly the same problem. In the DxDiag File, it displays that HDR is supported, but it is not showing the whole range of colors."

Der User kann sämtliche "Fehler" ausschließen, da seine PS4 Pro mit dem gleichen HDMI 2.0 Kabel keine Probleme in 4K HDR hat.

Intel hat massive Probleme mit der Darstellung von 4K 60p HDR, wenn man per HDMI2.0 Signale überträgt. Am Displayport soll es wohl nicht so sein. Mit einem DP-HDMI-Adapter aber dennoch, weil die Chips das dann nicht hinbekommen.
 
Greife das mal wieder auf. Habe das gleiche Problem: Board mit DP1.2-Ausgang, CPU mit Intel Graphics UHD630. Adapter von Club3D. Es geht 4K30fps mit 4:4:4 bei 12bpc, 4K60fps mit 4:2:0 aber nur bei 8bpc. Dabei ist die benötigte HDMI-Bandbreite bei beiden Modi gleich, das macht keinen Sinn. Bei einer reinen DP-Verbindung klappt es wohl, aber nicht, wenn ein DP-HDMI Adapter im Spiel ist. Könnte jetzt noch einen Adapter mit Parade PS175-Chip testen, aber würde das was bringen? Ist irgendein Adadpter bekannt, mit dem es funktioniert?
 
Nein. Das klassische Intel-Dilemma.

Am Displayport sind die Intel-iGPUs voll ausgestattet. Sobald ein HDMI-Adapter oder -Anschluss ins Spiel kommt, ists vorbei mit dem 4K-Spaß.
 
Aber Intel gibt doch in seinem White Paper an, dass bei Verwendung der genannten LSPCons auch HDMI problemlos möglich sein soll. Müssten dann nicht zumindest diejenigen Adapter funktionieren, die diese LSPCons verwenden? Es ist halt nunmal so, dass die wenigstens TVs oder Beamer DisplayPort verwenden...
 
Intel selbst gibt ja nur Displayport 1.2 mit max. 4K@60Hz und HDMI1.4 mit 4K@30Hz an. Nirgends steht was von HDR oder dem Farbraum und den garantiert unterstützten Audiocodecs.

UnterStützung für Intel ® HD graphics 630

Ich vermute ganz stark, dass Intel an der Stelle ein Bandbreitenproblem hat, das die Adapter stört.

Auch die aufgelöteten Chips auf Mainboards, die einen HDMI2.0-Port via LSPCon "emulieren", haben die gleichen Probleme.

Die einzigen Intel-Chips mit nativem HDMI2.0, die Celeron und Pentium Silver, unterstützen dafür kein HDR.

Wie du es drehst und wendest, hast du bei Intel nur Probleme. 4K mit allem Schnickschnack läuft bei Intel nur von Displayport zu Displayport.
 
Viele Mainboards werden mit DisplayPort 1.2 und HDR beworben. Bei meinem Board steht in den Spec:

1 x DisplayPort, supporting a maximum resolution of 4096x2304@60 Hz
* Support for DisplayPort 1.2 version, HDCP 2.2, and HDR.

Klar, kann man jetzt anfangen, dass beides nicht im gleichen Satz genannt wird...

Ich habe ein paar Tests gemacht. Es läuft mit dem CAC-1082 4K30p mit 4:4:4 und 12bpc HDR, mit 4K60p mit 4:2:0 aber nur 8bpc SDR. Trotzdem kann ich in Windows HDR aktivieren, was keinen Sinn macht...
Das ist insofern unlogisch, als dass beides die gleiche Bandbreite verwendet. Das von dir angesprochene Bandbreitenproblem kann ich also nicht nachvollziehen.

Und über DP nativ funktioniert es ja. Ich glaube, dass Intel einfach einen Fehler im Treiber haben, der in Verbindung mit HDMI die Farbtiefe falsch setzt.
Bei nVidia kann man die Farbtiefe ja im Treiber einstellen. Das würde wohl auch bei Intel das Problem lösen.
 
In den Bewertungen von Amazon findest du noch ganz andere Modi, die bei anderen funktionieren. Insofern vermute ich ein Bandbreitenproblem, weil der gleiche Adapter an einer anderen Intel-Maschine plötzlich ganz andere Parameter ermöglicht.

Irgendwas stimmt da auf Seiten von Intel nicht - und wenn es nur ein Treiberproblem wäre, hätte man es sicher schon behoben. Letztlich besteht das Problem seit den HD Graphics 530/630.
 
Aber 4K30p 4:4:4 12bpc HDR und 4K60p 4:2:0 12bpc HDR haben doch die gleiche Bandbreite von 13.37 Gbps, im Übrigen ist da noch massiv Lust zu den 17.x Gbps, die DP1.2 und HDMI 2.0 maximal können, warum geht dann das eine und das andere nicht, macht doch keinen Sinn...
 
Frag Intel. ;)

Es ist halt merkwürdig, dass es an DP1.2 bestens funktioniert. Aber sobald diese Adapter ins Spiel kommen, die an AMD- und nVidia-Karten keine Probleme machen, geht bei Intel nichts mehr. Und es gibt bei Intel keine Alternative, weil es an den Intel-CPUs, aus den Silver-CPUs, keine nativen HDMI2.0-Ports gibt. CPU-seitig. D.h. man muss den Umweg über DP1.2 gehen.
 
1)
2200G auf einem AsRock B350-ITX an einem LG 4K schlagmichtot.

Netflix 4K, Astra 4K, Youtube 4K, Testvideos 4K - alles kein Problem - und wo HDR verfügbar, da aktiv.... Aber es läuft problemlos.
Hallo fortunes, ich hoffe Du liest hier noch mit ... Mit meinem Athlon 200GE kann ich YouTube 4k HDR nicht ohne (starkes) ruckeln abspielen:

2020-08-29_4k_HDR_notOK.png
Du hast ca. doppelte CPU / GPU Leistung. Damit kann man evtl. erklären was bei mir klemmt. Was zeigt denn Dein Taskmanager so an?
P.S.: Ich verwende Edge-Chromium und habe 2 * 4 GB DDR4 2666 MHz verbaut. (Der K-Lite Standard Codec-Pack ist auf meinem System installiert).

2) Zu Intel und DP (i3 4130T CPU): Ich habe zwei verschiedene DP zu HDMI Adapter (4k / 60 Hz) probiert. Keiner war in der Lage mehr als 30 Hz bei 4k zu liefern. HDR hab ich nicht versucht. Weiterhin kam aus jedem Adapter immer und egal bei welcher Auflösung der volle RGB Pegel (0 ... 255) raus. Also auch wenn ich im GraKa-Treiber das Gegenteil einstellte. Eine Lösung konnte ich nicht finden und habe dann auf AMD Athlon 200GE umgestellt. Aber siehe 1).
 
Zuletzt bearbeitet:
Sorry, ich habe keine AMD-APUs mehr im Einsatz, weil ich mittlerweile feststellen musste, dass Netflix 4K trotz Anzeige auf dem TV in real nicht vorhanden war. Und ohne Netflix 4K waren die AMD-APUs für mich ein NoGo.


Youtube 4K war hingegen kein Problem. Aber ich habe Firefox und den original Chrome genutzt. Ob da bei einigen Videos HDR aktiv war, weiß ich nicht mehr.
 
Ist ja "riesig", jetzt ist meine HW gerade mal ein Jahr alt und für das wofür sie (auch) gedacht war nicht brauchbar ☹ .
 
Die aktuell günstigste Karte für Netflix 4K HDR wäre wohl eine RX550. Wobei die meisten, die ich kenne, eher zu einer GTX1650 greifen. Wegen der Performance. Wenn der HTPC gleichzeitig noch Mediaserver mit Encoding ist, wäre die GTX1650 "Super" die günstigste, modernste Wahl, weil Turing-Encoder. Der fehlt der günstigen GTX1650.
 
Wobei die meisten, die ich kenne, eher zu einer GTX1650 greifen. Wegen der Performance.

Ich habe einen 3D Beamer, wäre es möglich mit der GTX1650 ein echtes 3D Bild (frame-packing)
auszugeben? Habe bisher hierfür AMD Karten, in Verbindung mit PowerDVD genutzt.
Allerdings möchte ich nun einen neuen HTPC bauen der auch Netflix 4K nativ ausgeben kann,
aber eben auch 3D-Fähig ist.
 
Dann fasse ich mal zusammen was ich nun meine erfahren zu haben:
Wer einen HTPC mit
  1. 4k,
  2. HDR,
  3. HDMI 2.x und
  4. CPU integrierter GPU
möchte kann dies weder mit
  1. Intel Core ix CPUs noch mit
  2. AMD Athlon oder AMD Ryzen CPUs
erreichen. Weil all diese CPU/GPU Kombinationen
  • von 1. nur HDMI 1.4 beherrschen und die
  • von 2. (alle mit Vega GPUs) kein PlayReady DRM unterstützen.
Ich vermute das einige Intel NUCs --mit extra eingebauten DisplayPort zu HDMI 2.x Adapter-Chip-- dann alle 4 Punkte können. Kann das jemand bestätigen?
 
Können sie auch nicht. Bei den Displayport-HDMI2.0-Konverter-Chips gibt es Probleme ohne Ende. Du kannst dir mal die Rezensionen auf Amazon für die Adapter ansehen. Da stecken die gleichen Chips drin, die auf den Platinen aufgelötet sind. Es gibt ja auch Intel-Platinen mit HDMI2.0-Ports für den Desktop. Da kleben die gleichen Chips drauf.

Entweder funktioniert HDR nicht, oder der Farbraum passt nicht, oder es wird kein Dolby Atmos übertragen oder oder oder. Ich vermute ein Bandbreitenproblem in den Chips. Aber bis heute keine Lösung. 4K-TFTs mittels Displayport angeschlossen haben diese Probleme an den Intel-CPUs nicht.

Es gibt aber ein paar Exoten:

In denen steckt quasi Polaris. Testen konnte ich aber noch keinen von denen. Auf dem Papier müssten sie Netflix @ 4K HDR können. Mittlerweile hat AMD aber angekündigt, zumindest für den AMD Radeon Vega M GH keine neuen Treiber mehr bereitzustellen.

Im Ergebnis fährt man am besten, wenn man sich eine LowEnd-CPU (Intel-T-Modell, AMD-GE-Modell) mit einer RX550 oder wenigstens einer GTX1050 (3GB!) in den Rechner steckt. Im mickrigen ITX-Format kann man Gehäuse verwenden, die von der Größe her den aktuellen konsolen sehr nahe kommen - und dann doch mehr Freiheiten bieten.

 
Danke fortunes, diesen NUC und (zum Teil auch) die verlinkten Artikel kenne ich bereits. Negative Erfahrungen mit externen DP zu HDIM Adaptern habe ich ebenfalls. Im NUC-Blog kann man aber lesen, das die internen Chips bei den NUCs (ab der 7ten Generation) ohne Problem funktionieren sollen (Leider ohne das dort Details stehen, was nun alles geht). Da mein HTPC (Link) auch Stromsparend sein soll und wenig Platz hat, kommt eine externe GPU nicht in Frage.
Ich schaue jetzt Netflix direkt über meine TV-App und spare mir einfach den ganzen PC 🤬 bis auf weiteres: Mit den Core i der 11ten Generation (Tiger Lake) gibt es eine neue Chance namens "Xe-GPU".
Ergänzung zum Athlon 200GE / Vega3:
  1. Win10 Netflix-App: Sie stürzt ohne Kommentar beim anspielen des 1sten Trailers ab.
  2. Edge-Chromium: Netflix meldet einen Fehler, es geht auch hier gar nichts. Erst wenn man unter "System" die Option "Hardwarebeschleunigung verwenden (sofern verfügbar)" abschaltet bekommt man SD und Stereo.
 
Zuletzt bearbeitet:
Dann hat Intel endlich die Treiber gefixt bekommen. Bis 2019 hatte man massive Probleme, entweder HDR oder Dolby Atmos aktiviert zu bekommen. Oder der Farbraum hat nicht gepasst.

Beim Kauf würde ich noch abwarten:
Die neuen Intel-Atoms sollen die neue Gen11-Grafik von IceLake bekommen und von der Leistung her auf dem Niveau eines Pentium G6400 (Skylake, 2C/4T) operieren.

Wenn da HDMI2.0 und 4K@HDR bei rumkommt, hol ich mir so einen kleinen NUC. Dann wäre HDMI2.0 nämlich nativ vorhanden. Und die Leistung mit fast 1000 Punkten in Cinebench wäre mehr als ausreichend.
 
Dann hat Intel endlich die Treiber gefixt bekommen.
Dann wohl eher doch nicht: Das was ich gelesen hatte war die Aussage zur 7ten NUC-Generation also weit vor 2019.
10 nm Atom NUCs: Ja, das wäre eine schöne Alternative denn ich brauche nicht viel CPU-Leistung. Zur Zeit schaltet aber Intel HDR bei allen CPUs < Core i3 nicht frei. Wenn sich das ändert, um so besser.

P.S. Ich Denke nicht, das ich um die 6 Monate warte um einen günstigeren Atom-NUC zu bekommen. Falls es die 11te NUC Generation bis November gibt, dann wird die wohl gekauft.
 
Hab jetzt ehrlich gesagt nicht alles gelesen, kann aber mit meinem 4K HDR OLED und Ryzen apu gerne testen was geht
 
Hallo VorauseilenderGehorsam, wenn Du ein Netflix Premium-Abo hast, dann Versuche doch mal ein 4k HDR Bild auf den TV zu bekommen. Nach unserer Meinung / Erkenntnis geht das nicht.
 
💪 Mach ich gern.
Geht aber aus Mangel an Treiber Kompatibilität nicht, zumindest mein Wissensstand.
Rascher Test, sowohl Edge als auch Firefox streiken, kein HDR
Beitrag automatisch zusammengeführt:

Netflix App, ebenfalls kein Umschalten auf HDR. Hab jetzt einiges getestet, no way
 
Zuletzt bearbeitet:
🤷‍♂️ Da ich netflix direkt am TV nutze, für mich zu vernachlässigen
 
Das Thema hat mich mit meinem Gigabyte BRIX 7500U Barebone, schon 2016 beschäftigt. Nach Rücksprache mit Gigabyte und einer neuen HDMI Firmware, hat es genau einmal mit HDR funktioniert.
Das Thema HDR und Barebones hat sich für mich mittlerweile erledigt.
Als Ersatz habe ich nen UHD Player, wenn es mal nötig werden sollte.
 
Ja, hab ich auch (so gemacht). Das ändert aber nichts an: "Ich möchte alles mit einem Gerät machen." Zu FHD / SD Zeiten stand mein HTPC unterm TV und das war es. Keine zig Fernbedienungen, Bedienkonzepte und ... sondern das Windows 7 Media Center (RIP) und gut.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh