> > > > VESA verabschiedet DisplayPort 1.4 für 8Kp60Hz HDR und 4Kp120Hz HDR

VESA verabschiedet DisplayPort 1.4 für 8Kp60Hz HDR und 4Kp120Hz HDR

DruckenE-Mail
Erstellt am: von

displayIm Sommer werden wir vermutlich die ersten Grafikkarten sehen, die einen DisplayPort-Ausgang nach dem Standard 1.3 unterstützen werden. AMD und NVIDIA werden dazu einen entsprechend aktualisierten Display-Controller in der Polaris- und Pascal-Architektur vorsehen. AMD hat dies im Rahmen seiner bisherigen Vorstellung der Polaris-Architektur bereits öffentlich gemacht.

Natürlich aber arbeitet man bei der Video Electronics Standards Association (VESA) bereits an der Standardisierung der Nachfolgerversionen und hat mit Embedded DisplayPort 1.4a und 1.4b bereits erste Vorgaben gemacht. Ziel ist dabei die Unterstützung immer höherer Auflösungen von bis zu 8K bzw. 7.680 x 4.320 Pixel. Doch auch für den Desktop wurden nun die Eckdaten festgezurrt. DisplayPort 1.4 wird der erste Standard dieser Art sein, der die Display Stream Compression (DSC) verwendet wird. In der Version 1.2 von DSC ist eine visuell nicht sichtbare Kompression mit dem Faktor 1:3 möglich.

Grundsätzlich verwendet DisplayPort 1.4 die gleichen technischen Standards, wie DisplayPort 1.3. Dazu gehört die Unterstützung von USB-Typ-C und Thunderbolt als Ebene über der paketbasierten Datenübertragung. Auf vier Lanes mit jeweils 8,1 GBit/s können in einem 4-Lane-Setup bis zu 32,4 GBit/s übertragen werden. Hinzu kommt die Unterstützung für Multi-Stream Transport (MST), so dass gleich mehrere hochauflösende angesteuert werden können. Mit der Unterstützung von 5K x 3K (5.120 x 2.880) Auflösungen in DisplayPort 1.3 setzt der 1.4-Standard dem noch einige Ebenen auf und erreicht Auflösungen und Farbwiedergaben von 8K bei 60 Hz mit HDR und 4K bei 120 Hz mit HDR. Während HDR bereits mit DisplayPort 1.3 unterstützt wird, werden die hohen Auflösungen nur mit DisplayPort 1.4 unterstützt.

Zusätzlich bietet DisplayPort 1.4 noch Forward Error Correction (FEC), welches eine Art Overlay über dem DSC 1.2 ist und die Übertragung des komprimierten Videos überwacht bzw. die Datenintegrität sicherstellt. Über einen Metadaten-Kanal können auch Daten übertragen werden, die z.B. notwendig sind, um ein DisplayPort-Signal zu HDMI 2.0a zu konvertieren. Über diesen Kanal sollen auch zukünftige HDR-Standards übertragen werden können. Auf Seiten des Audio-Signals unterstützte DisplayPort 1.4 32 Audio-Kanäle mit einer Sample-Rate von bis zu 1.536 kHz.

Mit der Spezifizierung von DisplayPort 1.4 sind nun die technischen Rahmenbedingungen abgesteckt. Bis erste Produkte diesen Standard unterstützten werden, wird aber noch einige Zeit vergehen. Vor 2017 werden vermutlich keine Endgeräte mit DisplayPort 1.4 erscheinen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (36)

#27
customavatars/avatar193511_1.gif
Registriert seit: 13.06.2013
Kölle
Banned
Beiträge: 2981
@fullHDade

"Und ich dachte immer Intel und Nvidia sind ganz dicke Kumpels"

Intel ist eine CPU und Nvidia eine GPU :d
#28
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Bootsmann
Beiträge: 682
…aber Intel ist auch eine IPG und AMD ist CPU und GPU
Deshalb sind Intel und AMD erbitterte Erzfeinde und gönnen sich nicht den Dreck unter den Fingernägeln.
Also hält Intel mit Nvidia, die ja nicht im CPU-Becken fischen, Händchen und sie sprechen sich exklusiv über ihre Bits&Bytes und Schaltkreise ab, damit‘s gut abgestimmt läuft, Entwicklungsressourcen schont und man sich als jeweils marktführender Anbieter seines Segmentes präsentieren kann. (Nicht zu vernachlässigen ist übrigens, dass Intel auch ein MB ist.)
Und damit Nvidia den IPG-Keks im Intel-Prozessor schluckt, gibt es ein exklusiv-Handshake, was die Intel IPG wuppen kann, und ab wann die gepimpte Geforce ran darf.
Intel und AMD haben sich über Jahrzehnte bis aufs Blut, bis aufs Messer bekriegt. Sie haben Milliardenverluste in Kauf genommen, zu versuchen den anderen auf Nimmerwiedersehen aus dem Markt zu boxen. (Firmen, dessen Fertigungsflächen, die Größe kleinerer Städte haben.)
Ich hätte nie gedacht, dass Intel jemals bei AMD an der Tür scharren würde, ob sie von denen ein Stück Technik haben dürfen.
Und da Intel schonmal versucht hat auch GPU zu sein, und scheiterte, hat AMD bestimmt immer ein Auge auf Intel, ob die GPU-mäßig gerade was aushecken.
Wenn also künftig Freesync in der Intel-IPG steckt, haut der derzeitige Deal mit Nvidia nicht mehr hin. Und Intel ist reich und mächtig genug, jederzeit wieder das GPU-Feld beackern zu können. Und wenn es auch nur darum geht, seinen Mitstreitern in die Suppe zu spucken.
Und alle wollen sie ein Wörtchen mitreden, in hehren Vorhaben DP-Standard. (Thread-Topic)
#29
Registriert seit: 25.01.2005

Fregattenkapitän
Beiträge: 2897
Zitat
Vergrößert sich der Weg von der aktuellen Norm (BT.709, schwarz) zu dem von Ultra-HD (BT.2020, weiß), werden auch die einzelnen Stufen größer und leichter sichtbar.

Eine Ausgabe mit 8bit pro Farbkanal limitiert letztlich schon in den Unbuntfarben (ist aber selbst in professionellen Bereichen der grafischen Industrie weiterhin üblich - im Videobereich sieht es anders aus). Hier ist das Auge ohnehin maximalempfindlich. Große Farbumfänge vergrößern die Problematik darüber hinaus vergleichsweise wenig.


Zitat
In der Hardware sind die Abstufungen andere als im Quellsignal, sodass für die Umrechnung mehr Tiefe erforderlich ist.

Das ist richtig, wird aber im Prosumer-Segment und aufwärts auch entsprechend berücksichtigt. Der Scaler kann hier immer auf Tabellen mit mindestens 12bit pro Farbkanal zurückgreifen. Das verlustfreie Transformationsergebnis bleibt via Dithering trotz stets deutlich gröber arbeitender Paneltreiber bis zur Anzeige erhalten.

Zitat
Die neue EOTF (Elektrooptische Transferfunktion) zeichnet kritische dunkle Bereiche dazu noch erheblich feiner als das klassische Gamma.

Eine Gamma 2.2 Tonwertkurve ist dort bereits sehr dicht - perzeptive Ansätze, wie die Helligkeitsverteilung in CIELAB, sind in den absoluten Tiefen linear, lösen hier also deutlich gröber (!) auf. Die Ansätze für HDR unterliegen allerdings anderen Bedingungen und Voraussetzungen (dort drängt sich eher ein Vergleich mit der DICOM Tonwertkurve für den Medizinbereich auf), daher ist das nicht direkt vergleichbar.
#30
customavatars/avatar24803_1.gif
Registriert seit: 10.07.2005
Hessen
Oberbootsmann
Beiträge: 1000
Kann mir mal jemand verraten wozu man 8K im normalen Haushalt oder gar auf dem Laptop braucht? Was für eine Diagonale und welchen Sitzabstand zum Monitor bräuchte man, um einen Unterschied zu 4K wahrzunehmen (oder zu 2K, um es auf die Spitze zu treiben)?

Oder ist das Ganze eh nur Marketinggeschwurbel bis die Leute merken, dass drölftausend Pixeln aus 2 Metern Entfernung genauso Aussehen wie 2*drölftausend Pixel?
#31
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Bootsmann
Beiträge: 682
Als ich das erste Mal vor einem FullHD-Monitor saß, dachte ich: ‚Was für ein rattenscharfes Bild, mehr brauche ich nicht (und also auch niemand anderes).‘

Als ich das erste Mal vor einem WQXGA-Monitor saß, dachte ich: ‚Was für ein rattenscharfes Bild, mehr brauche ich nicht (und also auch niemand anderes).‘

Als ich das erste Mal vor einem UHD-Monitor saß, dachte ich: ‚Was für ein rattenscharfes Bild, mehr brauche ich nicht (und also auch niemand anderes).‘

Mal schauen, was ich sage, sollte ich einst vor einem FUHD-Monitor (sog. 8k) sitzen…

@Equinox
Anmerkung: Wenn in Deinem Beispiel FHD (sog. 2k) ‚drölftausend‘ Pixel hat, dann hat UHD (sog 4k) 4x‚drölftausend‘ Pixel und FUHD (sog 8k) 16x‚drölftausend‘ Pixel.

Wenn man nun bereits mit einem Handy 4k-Filme aufnehmen kann und selbst die schnödeste Digitalkamera allemal 4k-Bilder schießt, na dann wird man ja mal von einem Wolken-Kuckucks-Heim-8k-Monitor träumen dürfen…
#32
customavatars/avatar24803_1.gif
Registriert seit: 10.07.2005
Hessen
Oberbootsmann
Beiträge: 1000
Das beantwortet nicht meine Frage - was für einen Sitzabstand und welche Bilddiagonalen braucht man, um den Unterschied wahrnehmen zu können? Das menschliche Auge hat nunmal eine Grenze hinsichtlich des Auflösungsvermögens - die Zone in der wir tatsächlich scharf sehen ist erstaunlich gering. Der Unterschied zwischen SD und HD ist auf bei "normaler" Fernsehdiagonale und Sitzabstand deutlich erkennbar - um einen vergleichbaren Effekt beim Umstieg von HD auf 4K zu erzielen musst du entweder sehr viel näher am Bildschirm sitzen oder eine deutlich größe Bilddiagonale haben.

Deswegen meine Frage - wo wäre bei der Grafik ein hypothetischer 8K-Fernseher einzuordnen? Und glaubt ihr ernsthaft, dass die Dinger im Wohnzimmerbereich allein auf Grund ihrer Auflösung einen Vorteil gegenüber HD oder 4K Fernseher haben?
#33
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Bootsmann
Beiträge: 682
@Equinox
Da rennst Du bei mir ja durchaus offene Türen ein.
Auch ich bin der Meinung, dass -bezogen auf Monitore- so bei 100ppi eine auskömmliche Auflösung erreicht ist, bei der das durchschnittlich sehende Auge keine Pixel mehr wahrnehmen kann.
Beim Fernsehen wird aber berichtet, dass mit sehr-sehr hoch aufgelöstem Bildmaterial eine erstaunliche räumliche Tiefenwirkung erreicht wird, auch wenn das Auge schon lange keine Pixel mehr wahrnehmen kann.
Auch stimme ich zu, dass das Auge nur einen erschreckend kleinen Bereich scharf fokussieren kann, aber man kann auf einem großen Monitor mehr Inhalte arrangieren und durch peripheres Sehen mehrere Anwendungen im Blick haben.

Auch wenn es Viele als unnötig abtun, so könnte ich mir durchaus vorstellen an immer noch größeren Monitoren zu arbeiten (derzeit habe ich den Philips BDM4065UC, ein 40zölliger UHD-Monitor).
Oder aber an Monitoren dieser Größe mit höherer Wiederholungsrate, z.B. 120/144Hz, wegen der Augenfreundlichkeit.
Und da geht DP1.2 die Puste aus.
Also, DP1.3! ist imo. notwendig, um die nunmehr verbreitete UHD-Technik auch für die Themen 10-bit, HDR und 144Hz zugänglich zu machen. (Und dabei liebend gerne auf den ganzen HDMI-Murks verzichten würden.)
Es scheint mir derzeit eher ein Aspekt für künftige Monitorgenerationen zu sein, dass auch 8k mit DP1.3 geht.
(Und dann wohl wieder an 10-bit, HDR und 144Hz scheitert.)

Und um erneut auf den Digitalkamera-Vergleich zu sprechen zu kommen: Da protzen viele Werbeaufkleber mit unnötig hohen MP-Angaben, wissend dass die Qualität der Linsen und des Chips diese fantastischen Angaben gleich wieder zunichte machen.
Eine ähnliche Augenwischerei hat man bei Druckern, auch hier wird gerne mit sog. interpolierten Angaben was Unrealistisches vorgegaukelt.

Also, nur ob‘s reel was bringt, hat noch keine Werbeabteilung davon abgehalten, ihre Produkte mit mehr oder weniger realistischen, aber immer schillernden Zahlenangaben zu vermarkten.
Desweiteren ist es ja nur eine subjektive, meist wenig fundierte Behauptung, dieses oder jenes sei Einem auskömmlich, um diese Haltung auch für alle Anderen als allgemeingültig auszugeben.

Ich hätte gerne per jetzt: 2x 5k-Monitore mit 10-bit und 144Hz, so um die 45-50 Zoll in der Diagonalen.
(Bei Office und Internet sollte die GraKa das durchaus im Schnarch-Modus wuppen können.)
Das ist wirklich nur ein gaaaaaaaanz klein wenig Zukunftsmusik, bedingt aber DP1.3, und ab 2020 hätte ich gerne Si-Fi-fantastische OLEDs.
#34
customavatars/avatar87890_1.gif
Registriert seit: 24.03.2008
Heidelberg
Moderator
A glorious mess!
Beiträge: 4844
Zum Thema Sitzabstand.
Wenn ich ca. 1,5m vor meinem 65" UHD-TV sitze, sehe ich die Pixel sehr gut.
Ab 2m sind diese dann gänzlich verschwunden.
Daher denke ich, dass 8k für TV´s die größer als >70" sind, durchaus Sinn macht.
Zudem werden für z.B. VR immer extrem hochauflösende Displays zwingend benötigt. Wenn auch wesentlich kleiner.
#35
Registriert seit: 15.03.2013

Bootsmann
Beiträge: 740
Was man bei der ganzen Diskussion nicht vergessen sollte ... den Blickwinkel für den UHD-2 ausgelegt ist, die Auflösung ist hier durchaus sinnvoll.

Auf solche Aussagen wie "Pixel sehen" würde ich persönlich ohne genaue Beschreibung nichts geben.
#36
customavatars/avatar212213_1.gif
Registriert seit: 12.11.2014
Dickes B
Bootsmann
Beiträge: 682
Ich verstehe nicht so ganz, warum bei einigen Posts der Fernseher thematisiert wird.
Für mein Verständnis geht’s hier um DP in den Versionen 1.3 und 1.4, also den Übertragungsprotokollen in der Strippe zwischen Computer und Monitor.

Mit ‚Pixel sehen‘ bezieht sich imo. darauf, dass man das feine Gitternetz erkennen kann. Also nimmt man nicht ‚das Pixel‘, sondern vielmehr den dünnen Abfall der Helligkeit zwischen! den Pixeln wahr.
Naja, altersbedingt gelingt mir die Nahakkommodation immer schlechter, sodass ich nur noch sehr angestrengt unter 20cm Abstand die Augen scharf stellen kann.
Meine Optikerin schwört Stein und Bein, dass ich mit der mir verkauften Brille sog. 100% Sehkraft erreiche. Und also bezeichne ich meine Sehkraft mal als üblich/durchschnittlich/normal.
Wer also ‚mehr‘ sieht als ich, dem sage ich: ‚Freut Euch Eures Augenlichtes!
Und meckert nicht an den Pixeln herum.‘
(Und wem 50 Lenze steinalt scheinen, dem sage ich: ‚Na, dann wart’s mal ab.‘)
Noch ein Bonmot: ‚ Das Leben ist scheiße, aber die Auflösung ist geil.‘
Wer also nach scharfer Auflösung strebt, der kann überall hinschauen!!!!
Warum sich also an den paar Bogensekunden Mattscheibe vor der Nase abarbeiten?

Auch sind die technischen Möglichkeiten immer noch mehr Pixel darstellen zu können/wollen, eigentlich kein Thema des Monitors/Displays/Fernsehers.
Eher ist es ein Problem die im Quadrat steigende Datenmenge durch die Leitungen und die Elektronik zu drücken.
Es ist also eher die Frage, ob man die elektronischen Bauteile, einhergehend mit einem höheren Stromverbrauch, so hoch züchten muss um derart hohe Datenmengen verarbeiten zu können, damit die Couchpotatoe nun wirklich nicht mehr seinen A…… erheben muss, um mal zu schauen, wie es denn in ‚echt‘ aussieht.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Acer Predator Z35 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/ACER_Z35/ACER_Z35-TEASER_KLEIN

Der Acer Predator Z35 bietet nicht nur eine große Diagonale von 35 Zoll, sondern auch eine starke Krümmung und G-Sync-Support. Ob das reicht um der einschlägig bekannten Gaming-Konkurrenz das Leben schwer zu machen, klären wir in unserem Test. Acer bietet mit dem Predator X34 ein absolutes... [mehr]

ASUS ROG PG348Q mit 100 Hz und Curved-Screen im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/ASUS_PG348/ASUS_PG348-TEASER

ASUS hat mit dem neuen ROG PG348 ein 34-Zoll-Gaming-Display im Programm, das zumindest auf dem Papier alles richtigmacht. Nicht nur, dass eine geschwungene Oberfläche zum Einsatz kommt, es werden auch G-Sync und maximal 100 Hz sowie zahlreiche weitere Gaming-Features geboten. Ob das neueste... [mehr]

LG 27UD88-W im Test - 4K-Display mit Typ-C-Anschluss und FreeSync

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/LG_27UD88W/LG_27UD88-TEASER

Hohe Auflösungen sind ein klarer und auch sinnvoller Trend bei Displays, sorgen sie doch nicht nur für viel Platz auf dem Desktop, sondern auch für eine scharfe Darstellung. Entsprechend spendiert LG seinem aktuellen 27-Zöller 27UD88-W ein 4K-Panel, hat gleichzeitig aber noch ein anderes... [mehr]

LG 34UC98-W mit Thunderbolt-Hub und starker Krümmung im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/LG_34UC98W/LG_34UC98W_TEASER_KLEIN

Auf der CES werden nicht nur nur neue Fernseher, Notebooks, Autostudien und Kühlschränke vorgestellt, sondern auch neue Displays. Eine der diesjährigen Neuvorstellungen war der LG 34UC98-W, ein 34-Zoll-Monitor, der nicht nur mit einer geschwungenen Oberfläche aufwarten kann, sondern mit einer... [mehr]

Display FAQ - Alles was man zu Monitoren wissen muss

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/DISPLAYFAQ/LG_34UC98_TEASER

In Kooperation mit LG Die Anschaffung eines neuen Monitors will gut durchdacht sein. In unserer in Kooperation mit LG realisierten großen Display-FAQ vermitteln wir ein umfangreiches Wissen zu allen wichtigen Features aktueller Monitore. So geht beim nächsten Monitor-Kauf sicherlich nichts... [mehr]

ASUS MG28UQ im Test - bezahlbares UHD-Display für Gamer

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/ASUS_MG28UQ/ASUS_MG28-TEASER

ASUS hat mit dem MG28UQ einen 28 Zoll großen UHD-Gaming-Monitor im Programm, der eine gestochen scharfe Darstellung mit zahlreichen Gaming-Features, einer schnellen Reaktionszeit und AdaptiveSync kombinieren soll. Ob am Ende tatsächlich ein überzeugender Gaming-Monitor herauskommt, zeigt unser... [mehr]