Följ Black Week på SweClockers

Bildanslutningar del 1 – Pixelklockan

Permalänk
Medlem
Skrivet av Zotamedu:

Som du säger har Maxwell gen 2 stöd för HDMI 2.0, gen 1 hade halvt stöd genom chroma subsampling, oklart om någon faktiskt använde det. Skylake har ju typ stöd med hjälp av brygga. Fast sen har du andra sidan. Det dök upp TV-apparater med stöd för HDMI 2.0 rätt snabbt och även Blu-rayspelare. Så där har du både källor och bildvisare med stöd för HDMI 2.0. Ingen aning om de faktiskt stödjer 600 MHz klocka dock eller om de bara klistrade på loggan då en vanlig blu-rayspelare ändå inte stödjer någon output som inte HDMI 1.4 redan klarar. Om den nu inte råkar ha någon by-pass men det kanske den löser passivt eller nåt.

DP 1.3 genom TB 3 vore en intressant manöver. Skicka en videosignal genom Thunderbolt som är en alternate mode i USB 3.1. Så DP 1.3 > TB 3.0 > USB 3.1. Saknas bara en USB 3.0 genom AUX-kanalen i DP för att förvirringen ska vara total.

297MHz HDMI/TMDS med 4:2:0 blir aldrig 600MHz HDMI 2.0. Det stödet finns däremot även på Kepler. Det som tillkom i 1-gen Maxwell var VP6 och NVENC gen2. VP6 hade bara HEVC/H.265 i hybridvariant, men förbättrat stöd för 4K i H.264.

Det finns inga Ultra-HD blu-rayspelare än och kretsarna som ska driva dessa är inte heller kända eller släppta än.

Du kan nog inte köra Alternate mode samtidigt som TB, kör du TB så tunnlar du grejerna över TB fram till TB-tillbehöret som kan ta ut signalerna igen via deras TB-kontroller. Eller så kör du inte TB och kör DP över alternate mode, precis som du kör exempelvis HDMI1.4 direkt över dual-mode över miniDP när du inte kör TB eller kör ut det via exempelvis en dockningsstation där det gått över Thunderbolt först. Enklast är faktiskt om de har fler än 1 Typ-C-port, precis som många macar har fler än 1 miniDP/TB-port. Problemet där blir väl i fall man vill ha fler kontakter än TB stödjer, då blir ju någon utan TB. Det kan bli riktigt rörigt, men det blir nog inget problem än, TB blir inte inbyggt överallt än. Sen kommer problemet att du har MHL över typ-C på mobila prylar, som alltså kräver andra tillbehör/kablar än de för datorn som kör video över typ-C.

Så vitt jag vet så är det få apparater som faktiskt stödjer 600MHz HDMI på ett fungerande sätt och vet ingen blu-rayspelare som gör det. Det är bara senaste generationen du har en chans att köra 600MHz HDMI och alltså 60Hz på. 2013 års modeller kan du glömma, även om de påstod 2.0. Blu-rayspelare har ju ingen nytta av 600MHz HDMI/TMDS eftersom de kör 4:2:0-material som drar halva bandbredden, och alltså kan köra 60Hz även vid ~300MHz. De tidigare som sade sig ha HDMI2.0 hade det helt enkelt inte. Maskiner som inte stödjer HDCP2.2 kommer inte kunna köra "Ultra HD Blu-ray" (de kunde nog valt något som går att skriva) i princip. Bästa HDMI2.0-källan som finns är nog som sagt Nvidia Shield Android TV med Tegra X1. 2-gen Maxwell duger för warez kodat i H.265/HEVC och för spel. Laxpudding tror jag också har påpekat några gånger att HDMI2.0 inte betyder alla features och det finns många artiklar i den stilen men det är något man också ser genom att titta noga och lyssna på köparna, och det tål väl att upprepas. Det är så det är. Allt med en logga blir inte kompatibelt och användbart. Särskilt inte för oss som vill ha 60Hz 4:4:4/RGB för PC-bruk. Vill man köra AMD måste man dessutom köpa en TV som Panasonics med DP-ingång, problemet med dessa blir väl istället att de kör MST. Aktiva adaptrar verkar äntligen komma i vinter, det kan väl lösa 600MHz-problemet möjligen. Du får ju däremot inte någon HDCP2.2, det är omöjligt om inte grafikkortet redan stödjer det.

Permalänk
Entusiast
Skrivet av Laxpudding:

Fast du svarar väl på din egen fråga där?

Det finns ingen anledning till att i tvinga ut DP 1.3 i hårdvara i grafikkort och skärmar för att fylla det behov som HDMI 2.0 redan fyller. Då kan man ju lika gärna köra HDMI 2.0 från början. DRM-problematiken hör ju också främst hemma i den värld där HDMI 2.0 redan är härskare.

För det enkla koppla-dator-till-skärm-och-köra-Windows-och-spel-behovet räcker ju Displayport 1.2 i dagsläget.

Fast HDMI är stängd standard med tillhörande licenskostnader som dessutom har visat sig inte vara alltför snabba på bollen när det kommer till att uppdatera. De fick ju ut HDMI 2.0 först efter att 4K började rulla ut. Saker som Freesync/G-sync verkar ju vara lite krångligare med HDMI då de lösningar som än så länge presenterats verkar lite på lite speciallösningar. Det är ju något som inte bara gamers kan tycka är intressant. En hardcore filmnörd vore väl överlycklig om de äntligen kunde få perfekt skalning oavsett bildfrekvens.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Bildexpert 📺
Skrivet av Zotamedu:

Fast HDMI är stängd standard med tillhörande licenskostnader som dessutom har visat sig inte vara alltför snabba på bollen[...]

Nu är inte HDMI en stängd standard, snarare tvärtom, för många kockar i soppan vilket är en orsak till förseningar. Det vore förstås trevligt med ett mindre rörigt alternativ till HDMI och kör DP1.3-endast med alla DRM-skydd. Men jag gissar att tillverkarna av kretsuppsättningar behöver lite starkare argument än så innan de startar på allvar och omsätter någon miljard dollar eller så.

Vill man hantera kommande bildkällor likt UHD-Blu-ray vilka kräver HDCP 2.2 kommer du inte undan HDMI 2.0 hur du än vrider och vänder på det. Ironin i det hela är att Dual Mode-läget i DP 1.3 är mandatory. DP 1.3-grafikkort måste kunna köra ut HDMI 2.0 direkt. Så Displayport 1.3 kommer endast att befästa HDMI:s existens.

Permalänk
Medlem

En liten fråga.

Mycket intressant artikel, tackar!

Har en fråga:
Hemma kör jag ett Asus Radeon R9 280X DirectCU II Top HDMI DP 2xDVI 3GB
med 2 skärmar och en TV inkopplad. För att kunna köra alla displayer samtidigt var jag tvungen att koppla en till DVIn, en till HDMIn och en till DPn. Den primära skärmen är kopplad via en passiv adapter HDMI->DP. Den sekundära skärmen är kopplad direkt till DVI, och TVn är kopplad direkt till HDMIn.

Nu till min fråga och roten till min frustration: när alla skärmar är fysiskt inkopplade så kommer den primära signalen från HDMI (dvs till TVn) under boot, och den sekundära till DVIn, för att sedan när windows laddats så övergår den primära signalen till DPn (main-skärmen).
Jag skulle vilja ändra så att signalen också under boot skickas till DPn, vilket den gör om inte TVn är inkopplad till HDMIn. Nån som vet hur jag ska göra?

Har kollat alla inställningar jag kan komma på i windows och i Catalyst, men hittar inget som hjälper. Antar att det är nått i grafikkortets bios som måste ändras?

Visa signatur

Stationära:Chassi:Cooler Master ATCS 840|Moderkort:ASUS P6X58D Premium|CPU:Intel Core i7 920@4.0 GHz|Kylning:Corsair H80+2xNoctua NF-S12B FLX 120mm|Ram:Corsair Dominator DHX+ DDR3 1600MHz 3x2GB+3x4GB@9-9-9-24|SSD: Crucial MX100@512GB|Grafikkort:Asus Radeon R9 280X DCII_TOP/3GB|Nätagg: Corsair HX 850W PSU|Tillbehör: Corsair VengeanceK70MX Brown |Skärm: LG 24"+ViewSonic 19"|Laptop:UX32VD-R4002H|Telefon:SonyZ3c

Permalänk
Bildexpert 📺
Skrivet av traian:

Har kollat alla inställningar jag kan komma på i windows och i Catalyst, men hittar inget som hjälper. Antar att det är nått i grafikkortets bios som måste ändras?

Har inget hum om hur man ordnar prioritetsordningar. Men jag tror du kan få mer svar ifall du postar under skärm-delen eftersom dessa läses av många fler än de här förhållandevis avsomnade artikelkommentarerna.

Mitt förslag är annars att byta plats så att TV: får din passiva DP->HDMI-adapter och din primära skärm kör direkt på HDMI:n.

Men det kan också vara någon form av djupare inställning som rör grafikkorten och då kanske en fråga om prioritetsordning hör hemma under AMD/grafikkorts-delen av forumet

Permalänk
Medlem

@Laxpudding:

Hej, tack för svaret. Förstår inte vad du menar med "skärm-delen", är det nån annan artikel eller på forumet?

Glömde skriva att kabeln från den primära skärmen är HDMI->DVI, och att den passiva adaptern är DVI->DP, vilket gör det lite svårt att testa som du föreslog, måste då köpa en HDMI->DP adapter till TVns HDMI, eller en ny längre HDMI-kabel.

Visa signatur

Stationära:Chassi:Cooler Master ATCS 840|Moderkort:ASUS P6X58D Premium|CPU:Intel Core i7 920@4.0 GHz|Kylning:Corsair H80+2xNoctua NF-S12B FLX 120mm|Ram:Corsair Dominator DHX+ DDR3 1600MHz 3x2GB+3x4GB@9-9-9-24|SSD: Crucial MX100@512GB|Grafikkort:Asus Radeon R9 280X DCII_TOP/3GB|Nätagg: Corsair HX 850W PSU|Tillbehör: Corsair VengeanceK70MX Brown |Skärm: LG 24"+ViewSonic 19"|Laptop:UX32VD-R4002H|Telefon:SonyZ3c

Permalänk
Permalänk
Medlem

Tackar, ska kolla!
@Laxpudding:

Visa signatur

Stationära:Chassi:Cooler Master ATCS 840|Moderkort:ASUS P6X58D Premium|CPU:Intel Core i7 920@4.0 GHz|Kylning:Corsair H80+2xNoctua NF-S12B FLX 120mm|Ram:Corsair Dominator DHX+ DDR3 1600MHz 3x2GB+3x4GB@9-9-9-24|SSD: Crucial MX100@512GB|Grafikkort:Asus Radeon R9 280X DCII_TOP/3GB|Nätagg: Corsair HX 850W PSU|Tillbehör: Corsair VengeanceK70MX Brown |Skärm: LG 24"+ViewSonic 19"|Laptop:UX32VD-R4002H|Telefon:SonyZ3c

Permalänk
Medlem

Högintressant, tydligt, informativt och lättläst. Tack för väldigt bra artikel.

Permalänk
Medlem

Hmm så om jag nu i ett hypotetisk scenario vill försöka köra 4 skärmar på 3840*2160@60Hz så får jag tänka om lite och investera i 2 gfx kort antar jag, såvida jag och ölen inte fattar fel?

Övrigt:
Ser ut som om nästa version av DP kommer att adressera 4K@144Hz, vilket är trevligt.

https://en.wikipedia.org/wiki/DisplayPort#1.4

Permalänk
Medlem
Skrivet av treech:

Hmm så om jag nu i ett hypotetisk scenario vill försöka köra 4 skärmar på 3840*2160@60Hz så får jag tänka om lite och investera i 2 gfx kort antar jag, såvida jag och ölen inte fattar fel?

Övrigt:
Ser ut som om nästa version av DP kommer att adressera 4K@144Hz, vilket är trevligt.

https://en.wikipedia.org/wiki/DisplayPort#1.4

Gäller ju per uttag och sen beror det på vad du ska göra på fyra skärmar.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Inaktiv

Här kommer kanske en dum fråga ifrån en som precis började läsa om pixelklockan, så ni får ursäkta min okunnighet. @laxpudding skriver att en hårdvara, nu tar jag skärm som exempel, kan ha HDMI 2.0 specifikationen men samtidigt också vara utrustad med en lägre pixelklocka i 200-300 spannet istället för 600mhz. Hur ser man i en specifikation vad för pixelklocka som används i hårdvara? Är det vad som benämns som TMDS när man läser en hårdvaras spec?

Permalänk
Bildexpert 📺

@Unknown: Ja, ofta. En del tillverkare skriver ut TMDS-klockan i specen (till exempel 450 MHz) och det meddelas även via EDID vilka pixelklocka som är möjlig. Däremot är det inte givet av detta att alla signaler som ryms inom denna pixelklockan faktiskt fungerar.

Just "HDMI 2.0" är en sådan uppgift som inte säger någonting om vad som är möjligt. Både 4K/60 Hz 4:2:0-subsampling (300 MHz) och 4K/60 4:4:4/RGB (600 MHz) är specificerade i HDMI 2.0. Man har ingen aning om vad "HDMI 2.0" betyder innan man testat eller tillverkaren talat i klartext.

Permalänk
Inaktiv

@Laxpudding Radeon drivrutiner stöder custom resolution sedan åtminstone ett år tillbaka.

Permalänk
Medlem

Dessa artiklar är värda sin vikt i guld! Undrar om de inte kunde få lite uppmärksamhet internationellt om de översattes till engelska?

Permalänk
Medlem

Brukar starkt uppskatta artiklar på sweclockers sen flera år tillbaka men sammanfattningen här var luddig och lyfter mest fram att det finns problem att vara varsam med.

Skickades från m.sweclockers.com

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Medlem

@Laxpudding:
Hur kommer det sig att med blandade signaler, om man lägger hårdvaruaccelererat material på den lägre presterande skärmen ansluten till samma grafikkort så börjar det stuttra och rycka på huvudskärmen?

Säg att man har en DVI-D DL 2560x1600 60Hz sekundär skärm och en DP 2560x1440 144Hz huvudskärm på ett Msi 1080Ti Gaming X. Det är något som konstant dyker upp på reddit bland annat, folk med blandade skärmar vars prestanda ruineras så fort minsta hårdvaruaccelererade pixel dyker upp på den udda skärmen.

Har det något med pixelklockan att göra? (tas ofta upp).

Permalänk
Medlem
Skrivet av str8forthakill:

@Laxpudding:
Hur kommer det sig att med blandade signaler, om man lägger hårdvaruaccelererat material på den lägre presterande skärmen ansluten till samma grafikkort så börjar det stuttra och rycka på huvudskärmen?

Säg att man har en DVI-D DL 2560x1600 60Hz sekundär skärm och en DP 2560x1440 144Hz huvudskärm på ett Msi 1080Ti Gaming X. Det är något som konstant dyker upp på reddit bland annat, folk med blandade skärmar vars prestanda ruineras så fort minsta hårdvaruaccelererade pixel dyker upp på den udda skärmen.

Har det något med pixelklockan att göra? (tas ofta upp).

Både DVI och DP ska klara de upplösningar och inställningar du har. Men Nvidia har totalt uselt stöd för multiskärmar i olika frekvenser/upplösningar. Ibland fungerar det, ibland får du alla möjliga konstiga fel. Allt från konstiga artifakter, till en skärm blinkar (energisparläge) till att båda blir 60Hz, även om den säger annat och en hel lista till med udda saker.

Så dina val är att köpa 2 matchande skärmar, eller hålla på och tweaka drivare och hoppas du får rätta på det. Alt är också AMD, men förstår att det inte är alt i ditt fall pga 1080 Ti. De har dock inte dessa problem, utan har bra multimonitor stöd sedan typ nästan 10 år tillbaka iaf.

Permalänk

Extremt intressant läsning! Undrar dock varför det inte tas upp något om Usb type c i artikeln, då vet att det finns många skärmar idag som har dessa anslutningsmöjligheter. Men kanske jag som är bakom flötet?

Permalänk
Hedersmedlem
Skrivet av anon12433:

@Laxpudding Radeon drivrutiner stöder custom resolution sedan åtminstone ett år tillbaka.

Skrivet av Alex_eken:

Extremt intressant läsning! Undrar dock varför det inte tas upp något om Usb type c i artikeln, då vet att det finns många skärmar idag som har dessa anslutningsmöjligheter. Men kanske jag som är bakom flötet?

Artikeln är ursprungligen från 2015, så det kan finnas viss information som gällde då men inte gör det idag. Har gjort det tydligare på artikelns förstasida också.

Visa signatur

How can we win when fools can be kings?

Permalänk
Bildexpert 📺

Artikeln lyftes lite för snabbt och är nu (delvis) uppdaterad.

@anon12433: AMD införde custom Resolution redan med Crimson, tidigt 2016 (?) men det kan fortfarande vara svårt att få till en egen timing som man vill. Har inte haft möjlighet att fördjupa mig utan endast konstaterat att så är fallet.

@Alex_eken: USB type C är i grunden och botten "endast" multiplexad Displayport med vanligtvis HBR3-hastighet som mest. Lägger det på min to-do-lista för uppdatering av artikeln.

@str8forthakill: Pixelklocka är endast ett annat ord för bandbreddskravet i den timing som används. Det är en måttenhet. Hackiga skärmar beror på andra orsaker.

Permalänk
Rekordmedlem

USB Type-C är en kontakttyp och det säger inte mycket om vad för typ av signaler som finns i kontakten då den kan användas till många typer av signaler så sluta helst att prata om "usb c" och prata i stället om usb 3.1 (nånting) till usb 3.2 (eller Thunderbolt som kan använda samma USB Type-C kontakt) om det är det man avser, kontakten säger inte om det bara handlar om en batteriladdare eller en dator som skulle kunna ansluta ganska avancerade saker via samma kontakt så sluta med att likställa en kontakt med att en apparat har vissa funktioner, det är ungefär lika dumt som att prata hdmiversioner på hdmikablar.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Bildexpert 📺

@mrqaffe: I detta sammanhang och i kontex för artikeln är det däremot ganska "enkelt", det handlar om multiplexad Displayport.

Permalänk
Medlem

@laxpudding Kan ni kolla lite med VESA/Displayport hur det går med 'beyond DP 1.4' på CES? Tror många är nyfikna.

Visa signatur

Dator: Lian Li O11 Dynamic, R9 5900X, MSI X570 ACE, Corsair H150i Pro, G.Skill TridentZ@3733MhzCL16, ASUS RTX 3090 TUF OC, Firecuda 530 2TB, 990 Pro 2TB, Corsair RM850x.
Skärm: LG OLED 42C2

Permalänk
Bildexpert 📺

@Markusas: Jag är inte där, men kommer att ha koll på vad som händer på den här fronten.

Permalänk
Medlem

@Laxpudding: Låter bra

Visa signatur

Dator: Lian Li O11 Dynamic, R9 5900X, MSI X570 ACE, Corsair H150i Pro, G.Skill TridentZ@3733MhzCL16, ASUS RTX 3090 TUF OC, Firecuda 530 2TB, 990 Pro 2TB, Corsair RM850x.
Skärm: LG OLED 42C2

Permalänk
Medlem

@Laxpudding Givet denna artikel, vilka nvidia bildinställningar bör jag ha när jag lirar HDR spel på min PC? har funderat på detta i flera år.

RGB full/8 bit är smidigare för då behöver jag ej ändra bildinställningar mellan SDR och HDR. Dessutom har jag upptäckt mindre banding jämfört med 4:2:2 konstigt nog i spel som resident evil 7.

Samtidigt är väl 4:2:2 10 bit och 12 bit mer korrekt, inte minst då konsollerna kör detta? Det konstiga är att om jag går min på c9 oleds hdmi info meny så står det att den outputar 4:2:2 8 bit (samma på PS4an), även om jag valt 10 bit 4:2:2. Jag ser heller inga skillnader gentemot RGB. Har du något konkret exempel från ett spel eller en film där man faktiskt kan se skillnaden själv mellan HDR med 8 bit RGB samt HDR med 10 bit 4:2:2 eller är den i princip inte synlig med det mänskliga ögat?

Permalänk
Bildexpert 📺
Skrivet av Taggen86:

@Laxpudding Givet denna artikel, vilka nvidia bildinställningar bör jag ha när jag lirar HDR spel på min PC? har funderat på detta i flera år.

Du bör välja de bästa inställningarna.

...och vilka som är "bäst" är beror på kombinationen av mjuk- och hårdvara och hur de svarar mot olika signaltyper. Där har du själv kommit fram till slutsatser och avvägningar som är så bra som det bara kan bli. Fanns det ett färdigt svar hade man aldrig behöver kombinera de här inställningarna till att börja med. Som det är nu svarar olika kombinationer av hårdvara olika på RGB och YCbCr samt YCbCr i 4:4:4, 4:2:2 och 4:2:0.

Så varje svar är individuellt. Philips OLED-TV (on top of my head) kan inte komplett reproducera alla färger vid inkommande 1080p-signal oavsett om det är RGB eller YCbCr 4:4:4. Men vid YCbCr 4:2:2 har den verkligen tappat förmågan att uppsampla färgerna och missar informationen som om det vore en 4:2:0-signal. Där vinner man alltså på att köra uppsamplingen i källan.

Som ett exempel då.

Skillnaden mellan HDR i 8 bit och 10 bitar är tydlig med mycket mer posterisering vid 8 bitar eftersom man beskriver ett så mycket större dynamiskt omfång med endast 256 steg. När du kör 8 bitar via PC:n brukar det dock ske en halvtonsrastrering, går igenom det här: https://www.sweclockers.com/artikel/28307

Denna kan vara så pass bra att det är oskiljaktigt vid en första anblick. Vilket då också ställas mot hur skärmen beter sig mot de olika signaltyperna. Man testar och jämför.

Permalänk
Medlem

@Laxpudding:

Okej, får fortsätta jämföra med och utan 10 bit och se om jag kan hitta några skillnader. Det finns inga most likely scenarios i film eller spel där det är mest sannolikt att man själv kan se skillnaderna? Om jag förstår dig rätt så är det synlig banding eller posterisering som man ska titta efter?

Givet att Phillips OLED skärm delvis är producerad av LG (och borde ha ungefär samma begränsningar) så talar väl även detta för att köra RGB 8-bit på min C9 vid HDR?

Permalänk
Bildexpert 📺
Skrivet av Taggen86:

Givet att Phillips OLED skärm delvis är producerad av LG (och borde ha ungefär samma begränsningar) så talar väl även detta för att köra RGB 8-bit på min C9 vid HDR?

Testa och se. Det finns inga "borde vara så" i denna värld.

Panelen är inte produkten. Här handlar det om elektroniken som hanterar bildsignal och processar bilden innan det blir något som ska visas på panelen inte är den kanske bästa. Och på den punkten skiljer det sig ordentligt från LG, Philips, Sonys och Panasonics produkter. Må vara samma sort panel men det är fortfarande helt olika resultat.

Panelen står mer för de fysiska egenskaperna som hur ljusstark den kan bli, energifördelningen i ljuset, kontrastförhållande etc.

Testmönster med ramper avslöjar en hel del om hur det fungerar och inte fungerar. Bäst är Spears&Munsil UHD Benchmark-skiva. Där kan man grotta ned sig i åratal framöver: http://spearsandmunsil.com