Nvidias RTX Video får stöd för HDR-uppskalning

Permalänk
Medlem
Skrivet av Nissling:

Det är väldigt sällan som en film har annorlunda mastering i HDR när man jämför fysisk media mot streaming rent statistiskt. Bortser man från komprimeringen kan det skilja sig i form av lågpassfiltrering och dynamisk metadata. Men själva ljussättningen är väldigt sällan annorlunda såvida vi pratar om filmer från "de fem stora".

Visserligen har jag inte tillgång till Disney+ eller filmen i fråga så jag kan inte uttala mig om hur filmen ser ut på specifikt den plattformen. Däremot hittade jag en analys av filmen och som du beskriver är den ljus sett till snittnivån. Men baserat på hur toppar och högdagrar presenteras ter det sig vara en direkt omöjlighet att det är frågan om en SDR till HDR-konvertering utan den är korrekt mastrad ur den aspekten.
https://forum.blu-ray.com/showpost.php?p=21421030&postcount=7...

Ok, då är det kanske en "korrekt" konvertering. Jag ser att du jobbar i branschen och har kunskap i ämnet, och då kanske utöver vad jag har som hobby-cineast och dito kalibrerare så full respekt för det. Men jag ser definitivt filmerna utan den här konverteringen, liksom de övriga filmerna av samma typ. Det är ju inget fel med film i SDR-kvalitet. De är gjorda i den tekniken och det ser finfint ut även på en modern OLED, även om filmen inte nyttjar den moderna teknikens fulla dynamik. Att göra filmen ljusare på fel ställen i tonkurvan (IMHO) förvanskar den bara. Många moderna HDR-filmer är ju inte allmänt ljusare överlag. De har vissa högdagrar som lyser genom skarpt och då höjer dynamiken och gör det mer verklighetstroget, men de kan överlag var mörka och "mjuka" i sin tonkurva. De här konverterade gamla filmerna blir motsatsen IMHO. Dessutom har många en rätt kraftig kornighet och överdriven skärpa, så det verkar ju som om konverteringen också skärper upp från kanske en HD-förlaga? Jag har mitt skärpereglage i TV'n satt nära lägsta.
Men folk kanske kollar på sina OLED med inställningen "Normal" för att få mesta möjliga ljusstyrka vanligtvis också (på SDR då), och då vill man ha samma "klipp" i bilden på de uppkonverterade filmerna också? Kanske därför filmbolagen valt den här varianten på tonemapping i överföringen då. Tummen ned från mig. Jag kollar på dem i SDR och med den gammakurvan som gäller då och som moderna HDR-TV ju stödjer fullt ut. Det ser helt perfekt ut där - i motsats till hur det ser ut i konverterat läge som blir syntetisk max-kontrast a'la TV-inställning "Dynamisk" eller "Intensiv".

Alla TV idag klarar ju att visa SDR-film med full kvalitet. Om man nu inte skannar om negativen och gör en ny 4k-hdr-mastring från grunden, vad är då vitsen med den här fulkonverteringen? Jämför Star Trek TNG där de remastrade om hela serien från negativ till full HD. Det var ett rejält lyft i kvalitet utan att för den skull tillföra nya problem. Tyvärr var det dyrt och projektet gick väl inte helt i hamn ekonomiskt, därför blev tyvärr t.ex Star Trek DS9 eller Voyager inte remastrade på samma vis.

Vore kul om @Laxpudding kunde poppa in och kanske ge sin synvinkel på det här också..

Permalänk
Bildexpert

@Barsk66: Det råder en del oklarheter i ditt inlägg med tanke på ordvalen. Det främsta jag reagerar på är "konvertering". Konvertering från vad?

Då detta är ett väldigt snävt och ingående ämne som alla kanske inte känner för att fördjupa sig i lägger jag det i en spoiler då det blev så pass mycket text.

All film gjord på negativ, där originalnegativet har använts som källa, har ju i sig genomgått flera konverteringar. Från negativ till positiv, ljussättning och slutligen från Cineon Log till vilken tonkurva som används (vanligtvis power law för SDR och PQ för HDR). Skälet till dessa konverteringar är ganska självklara: Man kan inte visa upp negativ "såsom de är", inte minst med tanke på att det är vanligt med skiftande ljus från scen till scen vilket beror på flera faktorer (ljussättning på plats, val av råfilm, framkallningsprocess med mera). Vissa filmer kan man pilla med hur mycket som helst utan att bli särskilt nöjd.

Fotokemiskt skapad film är dessutom knappast "gjord i SDR" från början. Om vi förhåller oss till traditionella, biodistribuerade långfilmer så är dessa vanligtvis skjutna på negativ film vilka har ett mycket stort dynamiskt omfång även med dagens mått mätt. Ja, faktiskt mycket större än i princip alla digitala kameror om man ser till hur mycket ljusa partier om kan fångas utan kompromisser. I samband med att exponeringen ökar, så ökar också densiteten och det skall väldigt mycket till innan du fångar så pass mycket ljus på filmremsan att du förlorar detaljer i högdagrar (5-6 steg överexponering är oftast inga problem). Av de tusentals originalnegativ jag har scannat (med ett spann från ca 1930 till år 2020) har jag inte varit med om att högdagrar har klippts. Det har hänt enstaka gånger att skannrarna inte har haft tillräckligt med dynamik däremot och då får man ändra ljusinställningarna, skanna om rörda scener och klippa ihop digitalt. Men återigen är det inte källmaterialet som det är fel på.

Det blir väldigt omvänt tycker jag personligen att först ha ett enormt dynamiskt omfång i källmaterialet och sedan anpassa sig till power law, som ju är extremt begränsande. Självklart är det hanterbart och innött, alla vet hur det funkar mer eller mindre och man kan få det till att se bra ut. Men för mig är det en stor lättnad de gånger jag får jobba med HDR istället. Så länge jag håller snittljuset på en rimlig nivå gör det inget att det förekommer toppar som drar iväg med flera hundra eller till och med tusen nits. Du kan nyttja ett omfång som inte alls är möjligt i SDR och då kan man verkligen tala om "äkta HDR", om man nu vill använda sådana termer (jag gillar det inte).

Av det jag ser så verkar det snarare som att många nya filmer har precis omvända problemet. Det vill säga att man har utgått ifrån en befintlig SDR-master och ljusat upp högdagrar och toppar vilket på intet sätt expanderar dynamiken. Lucy, som jag kikade på i fjol, är ett ypperligt exempel på det.
#20138556

Just detta är väldigt ovanligt förekommande på äldre filmer som färdigställts analogt. Ditt ifrågasättande om "varför man inte skannar originalnegativen och gör om jobbet från grunden" blir lite märkligt, för det är just detta man i princip alltid har gjort vid 4K HDR av katalogtitlar. Skillnaden är förstås de gånger då filmen är färdigställd som en DI från början. Då händer det att man skalar upp från en lägre upplösning och HDR kan också bli en blandad kompott, även om det skiljer sig en del från fall till fall. Men då ska man komma ihåg att en film med DI kanske inte heller har förutsättningen att skannas om på nytt utan att i praktiken göra om hela filmen beroende på hur arbetet har sett ut. Finns ändå exemplen där det har gjorts (Doom, Dawn of the Dead (2004), Big Fish).

Vad som gäller kornen så hänger det återigen ihop med flera faktorer: Råfilmens hastighet, exponering, ljussättning, fotokemiskt arbete med mera. Slutligen så påverkas det även av coloristens arbete förstås. På "den gamla tiden" var det vanligt förekommande att överexponera filmen vid inspelning och sedan dämpa ljuset i efterarbetet för att göra kornen mer diskreta. Används snabb film (typ kring ASA 500 eller mer) så kan man räkna med en mer aggressiv kornbild och då får man vara försiktig så att det inte blir alltför påtagligt. Det händer även att både skärpefiltrering och brusreducering förekommer (även om jag själv aldrig rör dem verktygen) men inte alls i samma utsträckning idag som för ca 15 år sedan; Oftast är effekten ganska så subtil och mest gjord för att "jämna ut" upplevelsen.

I mån av streamingtjänster finns det egentligen ingen som klarar av att återge filmkorn på ett särskilt bra vis (om än långt bättre idag än, säg, tio år sedan) så det är knappast omöjligt att vissa anpassningar görs där. Har dock inte djupdykt i det på något vis).

Dold text

Men för att bemöta dig lite mer humanistiskt: Jag förstår vad du menar med din kritik, men jag upplever att du har missförstått vad som ligger till grund för det hela.

Kikar man på hur "de fem stora" bolagen (Fox ägs ju av Disney) har hanterat sina arkivfilmer så är det faktiskt rätt intressant hur olika de kan se ut i HDR. För att ta det hela väldigt kortfattat och med exemplen så är min uppfattning ungefär denna...

  • Warner har ofta en hyfsat tillbakadragen snittnivå med peaks som sticker ut rejält (Den gröna milen). Det ger utrymme för effekten att bli mycket tydlig då den är så pass sparsam.

  • Universal tenderar att ha en lite högre medelnivå än Warner och mindre höga toppar men utnyttjar fortfarande dynamiken på ett bra sätt (Schindler's List)

  • Sony har historiskt sett har mycket höga snittljusnivåer och återigen mycket höga toppar men med tydliga indikationer på att det inte är konverteringar från SDR (Starship Troopers). På senare tid verkar de dock sikta på väsentligt lägre medelnivåer vilket gör de mer lika Universal (Taxi Driver).

  • Paramount har ofta en medelnivå som är jämförbar med Warner och toppar som påminner om Universal, om än i lägre utsträckning för det mesta (Pulp Fiction).

  • Fox har en tendens att vara lite blandade i sina filmer. I vissa fall är snittljuset högt med dämpade toppar och ibland tvärtom (Predator).

  • Disney har generellt sett återhållsam snittnivå och även låga toppar. Detta är något som påvisas även i deras nyare filmer (Insidan ut).

Det är förstås svårt att ställa vitt skilda filmer mot varandra med tanke på alla variabler, men sammanfattningsvis så märks det att bolagen behandlar sina filmer tämligen annorlunda. Just Sonys höga snittljus är väldigt påtagligt och det är långt ifrån alltid jag uppskattar det. Men det är inte frågan om några "fulkonverteringar" utan det är vad det är helt enkelt: HDR med väldigt högt snittljus. Det är korrekt utfört tekniskt och matematiskt sett utan några konverteringar från SDR. Däremot kan man absolut ifrågasätta den kreativa aspekten.

En del av det tror jag bottnar i det enkla faktum att många colorister satt med Dolby Pulsar-skärmar runt 2015 och framåt som klarar 4000 nits med bibehållen tonkurva. Den är än idag långt mer kapabel än i princip vilken konsument-TV som helst och vissa av dem som snöade in sig på HDR i början blev förmodligen lite fartblinda. Sony var uppenbarligen extra drabbade. Det är nog inte utan skäl som bolagen numer drar ner på ljuset istället för upp.

Och den enda naturliga reaktionen då är att det "andra" laget kommer och klagar på att bilden är för mörk.

Permalänk
Bildexpert 📺
Skrivet av DasIch:

Windows applicerar en sRGB EOTF när den visar SDR i HDR-läge, vilket är fel (sRGB-funktionen är bara till för encoding). Det gör att mörka toner lyfts om skärmen följer en ren potensfunktion som 2.2.

Lite off topic, men det låter som en dålig idé att ha skärmen kalibrerad till sRGB för foto. Bättre att profilera skärmen i dess fulla färgrymd, för att nyttja det i färghanterade applikationer.

Lite off-topic, ja, men ändå relevant för själva diskussionen som helhet. Att köra skärmen som sRGB är en bra idé (*) om allt man producerar är bilder för sRGB eftersom man då inte behöver konvertera färgrymder och använda profiler utan man får en direkt 1:1 mellan bitnivåer i signalen och fysiskt ljus ut från skärmen. När man har ett enda mål, likt att bara producera bilder för sRGB på webben, så är det en rätt enkel och bekväm situation.

Det där behovet att ta till vara på skärmens native och sedan via profilering konvertera färger i mjukvaran är ett sunt förhållningssätt för den som behöver sprida sina bilder via olika media. Spara materialet i så generös färgrymd som möjligt. Konvertera till AdobeRGB när bilden ska till print, konvertera till sin fotoskrivares färgrymd när det är målet, sRGB när bilden ska publiceras på webben, rec.709 när bilden säljs till en dokumentärfilm etc. Då är poängen att ta tillvara på så mycket färgrymd det går. Och man betalar ett pris med ökad komplexitet och osäkerhet, likt att samma material kan se rätt så olika med olika mjukvaror.

(*) Nu är ju problemet med sRGB att dess EOTF är särpräglad och i praktiken heller inte riktigt existerar. Förkrossande majoriteten konsumentskärmar kör rec.709 med typiskt 2.2-gamma. De skärmar som har sRGB-lägen följer dessutom sällan sRGB-standard. Vet nog inget som så konsekvent kallas för "sRGB" i skärmars menyer som på samma gång inte alls följer sRGB. Windows skulle verkligen behöva en potens/power-law-EOTF som val för sitt HDR-läge. Men en annan historia.

Permalänk
Bildexpert 📺
Skrivet av Barsk66:

Vore kul om @Laxpudding kunde poppa in och kanske ge sin synvinkel på det här också..

Oklar på vad du tänker på?

Men lite snabbt men konvertering till HDR kan för mig betyda två väldigt olika saker:

(1) Automatiserad konvertering från ursprungligt SDR-material till HDR genom "AI"-algoritmer likt en RTX-processor: Min åsikt är att det generellt är osmakligt eftersom man förvränger ursprungsmaterialet och adderar något som inte fanns där från början. Det ser mest märkligt ut. Precis som det mesta andra vi sett med "AI"-algoritmer, likt uppskalning och brusfiltrering som brukar resultera i något som ser ut som utslätade dockansikten med påklistrade ögon. För mig är detta tölpig teknikonani.

(2) Omsorgsfull och yrkesmässig konvertering av film till rådande HDR-format, likt HDR10 när det ursprungliga materialet skapades med format som av sin natur har ett högre dynamiskt omfång, likt fotografisk film och modernare digitala log-format, för att på så sätt få fram de nyanser och de färger som är omöjligt att representera med SDR.

Där är min åsikt att detta kan bli väldigt bra när det genomförs av personer som tar hänsyn till intentionen bakom ursprungsmaterialet. Vi har nu en historisk möjlighet att i hemmet se filmer på den nivå som en gång endast kunde återskapas på en biograf med exempelvis 70 mm-projicering. Snarare än att filmen är begränsad av det SDR-formatet som baseras på ett bildrör från 60-talet. För mig är detta blommor och kärlek.

Ett RTX-kort kommer aldrig kunna svara på den andra kategorin. Men reklambudskapet från Nvidia vill gärna alludera på detta.

Tolkar det som att du vill placera all konvertering till HDR under första kategorin? Jag menar att det är två helt olika saker.

Permalänk
Medlem
Skrivet av Nissling:

@Barsk66: Det råder en del oklarheter i ditt inlägg med tanke på ordvalen. Det främsta jag reagerar på är "konvertering". Konvertering från vad?

Då detta är ett väldigt snävt och ingående ämne som alla kanske inte känner för att fördjupa sig i lägger jag det i en spoiler då det blev så pass mycket text.

All film gjord på negativ, där originalnegativet har använts som källa, har ju i sig genomgått flera konverteringar. Från negativ till positiv, ljussättning och slutligen från Cineon Log till vilken tonkurva som används (vanligtvis power law för SDR och PQ för HDR). Skälet till dessa konverteringar är ganska självklara: Man kan inte visa upp negativ "såsom de är", inte minst med tanke på att det är vanligt med skiftande ljus från scen till scen vilket beror på flera faktorer (ljussättning på plats, val av råfilm, framkallningsprocess med mera). Vissa filmer kan man pilla med hur mycket som helst utan att bli särskilt nöjd.

Fotokemiskt skapad film är dessutom knappast "gjord i SDR" från början. Om vi förhåller oss till traditionella, biodistribuerade långfilmer så är dessa vanligtvis skjutna på negativ film vilka har ett mycket stort dynamiskt omfång även med dagens mått mätt. Ja, faktiskt mycket större än i princip alla digitala kameror om man ser till hur mycket ljusa partier om kan fångas utan kompromisser. I samband med att exponeringen ökar, så ökar också densiteten och det skall väldigt mycket till innan du fångar så pass mycket ljus på filmremsan att du förlorar detaljer i högdagrar (5-6 steg överexponering är oftast inga problem). Av de tusentals originalnegativ jag har scannat (med ett spann från ca 1930 till år 2000) har jag inte varit med om att högdagrar har klippts. Det har hänt enstaka gånger att skannrarna inte har haft tillräckligt med dynamik däremot och då får man ändra ljusinställningarna, skanna om rörda scener och klippa ihop digitalt. Men återigen är det inte källmaterialet som det är fel på.

Det blir väldigt omvänt tycker jag personligen att först ha ett enormt dynamiskt omfång i källmaterialet och sedan anpassa sig till power law, som ju är extremt begränsande. Självklart är det hanterbart och innött, alla vet hur det funkar mer eller mindre och man kan få det till att se bra ut. Men för mig är det en stor lättnad de gånger jag får jobba med HDR istället. Så länge jag håller snittljuset på en rimlig nivå gör det inget att det förekommer toppar som drar iväg med flera hundra eller till och med tusen nits. Du kan nyttja ett omfång som inte alls är möjligt i SDR och då kan man verkligen tala om "äkta HDR", om man nu vill använda sådana termer (jag gillar det inte).

Av det jag ser så verkar det snarare som att många nya filmer har precis omvända problemet. Det vill säga att man har utgått ifrån en befintlig SDR-master och ljusat upp högdagrar och toppar vilket på intet sätt expanderar dynamiken. Lucy, som jag kikade på i fjol, är ett ypperligt exempel på det.
#20138556

Just detta är väldigt ovanligt förekommande på äldre filmer som färdigställts analogt. Ditt ifrågasättande om "varför man inte skannar originalnegativen och gör om jobbet från grunden" blir lite märkligt, för det är just detta man i princip alltid har gjort vid 4K HDR av katalogtitlar. Skillnaden är förstås de gånger då filmen är färdigställd som en DI från början. Då händer det att man skalar upp från en lägre upplösning och HDR kan också bli en blandad kompott, även om det skiljer sig en del från fall till fall. Men då ska man komma ihåg att en film med DI kanske inte heller har förutsättningen att skannas om på nytt utan att i praktiken göra om hela filmen beroende på hur arbetet har sett ut. Finns ändå exemplen där det har gjorts (Doom, Dawn of the Dead (2004), Big Fish).

Vad som gäller kornen så hänger det återigen ihop med flera faktorer: Råfilmens hastighet, exponering, ljussättning, fotokemiskt arbete med mera. Slutligen så påverkas det även av coloristens arbete förstås. På "den gamla tiden" var det vanligt förekommande att överexponera filmen vid inspelning och sedan dämpa ljuset i efterarbetet för att göra kornen mer diskreta. Används snabb film (typ kring ASA 500 eller mer) så kan man räkna med en mer aggressiv kornbild och då får man vara försiktig så att det inte blir alltför påtagligt. Det händer även att både skärpefiltrering och brusreducering förekommer (även om jag själv aldrig rör dem verktygen) men inte alls i samma utsträckning idag som för ca 15 år sedan; Oftast är effekten ganska så subtil och mest gjord för att "jämna ut" upplevelsen.

I mån av streamingtjänster finns det egentligen ingen som klarar av att återge filmkorn på ett särskilt bra vis (om än långt bättre idag än, säg, tio år sedan) så det är knappast omöjligt att vissa anpassningar görs där. Har dock inte djupdykt i det på något vis).

Dold text

Men för att bemöta dig lite mer humanistiskt: Jag förstår vad du menar med din kritik, men jag upplever att du har missförstått vad som ligger till grund för det hela.

Kikar man på hur "de fem stora" bolagen (Fox ägs ju av Disney) har hanterat sina arkivfilmer så är det faktiskt rätt intressant hur olika de kan se ut i HDR. För att ta det hela väldigt kortfattat och med exemplen så är min uppfattning ungefär denna...

  • Warner har ofta en hyfsat tillbakadragen snittnivå med peaks som sticker ut rejält (Den gröna milen). Det ger utrymme för effekten att bli mycket tydlig då den är så pass sparsam.

  • Universal tenderar att ha en lite högre medelnivå än Warner och mindre höga toppar men utnyttjar fortfarande dynamiken på ett bra sätt (Schindler's List)

  • Sony har historiskt sett har mycket höga snittljusnivåer och återigen mycket höga toppar men med tydliga indikationer på att det inte är konverteringar från SDR (Starship Troopers). På senare tid verkar de dock sikta på väsentligt lägre medelnivåer vilket gör de mer lika Universal (Taxi Driver).

  • Paramount har ofta en medelnivå som är jämförbar med Warner och toppar som påminner om Universal, om än i lägre utsträckning för det mesta (Pulp Fiction).

  • Fox har en tendens att vara lite blandade i sina filmer. I vissa fall är snittljuset högt med dämpade toppar och ibland tvärtom (Predator).

  • Disney har generellt sett återhållsam snittnivå och även låga toppar. Detta är något som påvisas även i deras nyare filmer (Insidan ut).

Det är förstås svårt att ställa vitt skilda filmer mot varandra med tanke på alla variabler, men sammanfattningsvis så märks det att bolagen behandlar sina filmer tämligen annorlunda. Just Sonys höga snittljus är väldigt påtagligt och det är långt ifrån alltid jag uppskattar det. Men det är inte frågan om några "fulkonverteringar" utan det är vad det är helt enkelt: HDR med väldigt högt snittljus. Det är korrekt utfört tekniskt och matematiskt sett utan några konverteringar från SDR. Däremot kan man absolut ifrågasätta den kreativa aspekten.

En del av det tror jag bottnar i det enkla faktum att många colorister satt med Dolby Pulsar-skärmar runt 2015 och framåt som klarar 4000 nits med bibehållen tonkurva. Den är än idag långt mer kapabel än i princip vilken konsument-TV som helst och vissa av dem som snöade in sig på HDR i början blev förmodligen lite fartblinda. Sony var uppenbarligen extra drabbade. Det är nog inte utan skäl som bolagen numer drar ner på ljuset istället för upp.

Och den enda naturliga reaktionen då är att det "andra" laget kommer och klagar på att bilden är för mörk.

Skrivet av Laxpudding:

Oklar på vad du tänker på?

Men lite snabbt men konvertering till HDR kan för mig betyda två väldigt olika saker:

(1) Automatiserad konvertering från ursprungligt SDR-material till HDR genom "AI"-algoritmer likt en RTX-processor: Min åsikt är att det generellt är osmakligt eftersom man förvränger ursprungsmaterialet och adderar något som inte fanns där från början. Det ser mest märkligt ut. Precis som det mesta andra vi sett med "AI"-algoritmer, likt uppskalning och brusfiltrering som brukar resultera i något som ser ut som utslätade dockansikten med påklistrade ögon. För mig är detta tölpig teknikonani.

(2) Omsorgsfull och yrkesmässig konvertering av film till rådande HDR-format, likt HDR10 när det ursprungliga materialet skapades med format som av sin natur har ett högre dynamiskt omfång, likt fotografisk film och modernare digitala log-format, för att på så sätt få fram de nyanser och de färger som är omöjligt att representera med SDR.

Där är min åsikt att detta kan bli väldigt bra när det genomförs av personer som tar hänsyn till intentionen bakom ursprungsmaterialet. Vi har nu en historisk möjlighet att i hemmet se filmer på den nivå som en gång endast kunde återskapas på en biograf med exempelvis 70 mm-projicering. Snarare än att filmen är begränsad av det SDR-formatet som baseras på ett bildrör från 60-talet. För mig är detta blommor och kärlek.

Ett RTX-kort kommer aldrig kunna svara på den andra kategorin. Men reklambudskapet från Nvidia vill gärna alludera på detta.

Tolkar det som att du vill placera all konvertering till HDR under första kategorin? Jag menar att det är två helt olika saker.

Tack för era djupgående svar. Jag ska börja med att understryka att jag älskar HDR och ser i det formatet all nyare produktion som streamas idag, filmer och serier. Inga problem där alls. Superkvalitet för det allra mesta.
Jag har nog också sett någon HDR-konvererad äldre film som varit bra, minns dock inte nu. Det jag dock reagerat på är några av de filmer som ligger framförallt då på Disney+, Spiderman (första Tobey Maguire), Independence Day m.fl. Kan göra en grundligare koll om så önskas. Där upplever jag att HDR-konverteringen känns konstlad och med förhöjda ljusnivåer. Om den här konverteringen är gjord från SDR eller som ni hävdar från en bättre förlaga där dynamiken faktiskt finns vet jag inte. Jag kände bara att det här funkar inte, störde mig grymt på bildkvaliteten och tog fram min gamla Bluray istället. Men, det kanske var "korrekt" gjort som ni hävdar, fast med lite för hög ljusnivå i genomsnitt. Dock var också känslan att filmen kändes uppskalad och inte "native" 4K som i modernare produktioner. Men det kanske inte fanns mer skärpa i grundmaterialet. Eftersom det blir lite hypotetiskt då jag inte vet hur konverteringen är gjord och ni ju heller inte verkar ha tillgång till den streamingen(?) så kan ni ju heller inte kolla. Så jag tror inte vi kommer så mycket längre här. Kontentan blir väl att om konverteringen görs rätt så ska den konverterade filmen ha en hög kvalitet. Jag upplevde det dock inte så.

Om man återkommer till Topic för tråden (som jag ber om ursäkt om jag kapade lite) så kan man ju också med @Laxpuddings kommentarer dra slutsatsen att Nvidia/AI-konverterad video lär hamna i ett än värre träsk. Om nu "korrekt" konverterad video av mig upplevs konstlad så lär ju auto-konverterat inte falla mer på läppen direkt.

Permalänk
Medlem

@Nissling
@Laxpudding
Jag har gått in lite mer i detalj på TV-inställningarna för de här filmerna jag upplevt problematiska, de kan ha ljusnivåer som är över standard vad det verkar. Min LG OLED G2 har inställningen Peak Brightness till "High" på HDR-material och det är ju det rätta. I övrigt kör jag motsvarande "Filmmaker Mode" för övriga inställningar inklusive "Dynamic mapping" Off. Men för dessa filmer så om jag sätter ner till Peak Brightness till Medium" or Low så lirar det mycket mer behagligt i mitt nedsläckta vardagsrum. Det är ju egentligen en no-no att göra så för HDR, men löser ju problemet för de här lite för ljusa filmerna och det är väl därför LG har lagt med inställningen. Verkar mer vara så att de här konverteringarna är gjorda för ljusa rum, där de funkar hyffsat (testade just).
Det kan också vara så att fabrikskalibreringen på min G2 har börjat divergera väl mycket från standard, så det är väl hög tid att gräva fram min i1 Pro 3, I1D3, ColourSpace m.m. och göra jobbet jag skjutit framför mig nåt år...

Permalänk
Bildexpert

Just G2 har jag inte pillat med, men senast i helgen kalibrerade jag en 48C1 åt en klient. Om Peak Brightness var satt på high så blev tonkurvan alltför ljus kring 50-200 nits. Ett ingående värde på 50 kunde resultera i bortåt 70 nits i alstrat ljus, 140 nits blev närmare 180 nits och så vidare. Peak brightness medium jämnade ut kurvan rejält och hamnade inom målvärde, men då till priset av att de ljusaste topparna sjönk i ljus (från cirka 680 nits ner till strax under 600 nits) - Vilket ändå får ses som en helt rimlig kompromiss då bilden som helhet blev klart mer behaglig och korrekt.

G2 är dessutom kapabel till en mer ljusstark bild och beroende på inställningarna skulle det kunna påverka tonkurvan till det sämre ännu mer, eller för den delen det bättre. Thomas har bättre koll på just dessa modeller än mig.

Vad som gäller detaljrikedom och kornighet så kikade jag lite närmre på filmen i fråga och den ska tydligen vara skjuten på 200T, vilket är ganska snabbt och kan bli lite grovkornigt beroende på andra faktorer (optik, ljussättning, exponering, framkallning, bildförhållande etc). Dessutom blir det aldrig helt hundra att köra Tungsten-film vid dagsljus då man tappar lite exponering när vitbalansen korrigeras i post samtidigt som kornigheten är detsamma. Försöker man i sin tur dra upp snittljuset rejält så... Ja, det kommer se rätt aggressivt och ansträngt ut. Har man en långsam råfilm (typ 50D) och överexponerar ett eller två steg finns det mycket bättre förutsättningar generellt sett.

Allt är dock frågan om hantverk där det är många parametrar som spelar in. Att behärska analog film är i överlag en individbaserad kunskap hellre än allmängiltig.

Permalänk
Medlem
Skrivet av Laxpudding:

Lite off-topic, ja, men ändå relevant för själva diskussionen som helhet. Att köra skärmen som sRGB är en bra idé (*) om allt man producerar är bilder för sRGB eftersom man då inte behöver konvertera färgrymder och använda profiler utan man får en direkt 1:1 mellan bitnivåer i signalen och fysiskt ljus ut från skärmen. När man har ett enda mål, likt att bara producera bilder för sRGB på webben, så är det en rätt enkel och bekväm situation.

Det där behovet att ta till vara på skärmens native och sedan via profilering konvertera färger i mjukvaran är ett sunt förhållningssätt för den som behöver sprida sina bilder via olika media. Spara materialet i så generös färgrymd som möjligt. Konvertera till AdobeRGB när bilden ska till print, konvertera till sin fotoskrivares färgrymd när det är målet, sRGB när bilden ska publiceras på webben, rec.709 när bilden säljs till en dokumentärfilm etc. Då är poängen att ta tillvara på så mycket färgrymd det går. Och man betalar ett pris med ökad komplexitet och osäkerhet, likt att samma material kan se rätt så olika med olika mjukvaror.

(*) Nu är ju problemet med sRGB att dess EOTF är särpräglad och i praktiken heller inte riktigt existerar. Förkrossande majoriteten konsumentskärmar kör rec.709 med typiskt 2.2-gamma. De skärmar som har sRGB-lägen följer dessutom sällan sRGB-standard. Vet nog inget som så konsekvent kallas för "sRGB" i skärmars menyer som på samma gång inte alls följer sRGB. Windows skulle verkligen behöva en potens/power-law-EOTF som val för sitt HDR-läge. Men en annan historia.

Jag håller inte riktigt med där. Någonstans i processen ska det konverteras till sRGB (om det är målet). Bästa är att jobba med en "master" i så stor färgrymd som möjligt, för att sen kontrollera konverteringen i slutet. Då underlättar det med en skärm som också har större färgrymd. Sen kan man använda soft-proofing för att få en uppfattning om slutresultatet. Spelar kanske inte jättestor roll om målet är sRGB, men det kan ju vara trevligt att ha inför framtiden om inte annat.
AdobeRGB borde glömmas bort och begravas. Det är väldigt vanligt att utskrifter kan ha färger utanför AdobeRGB, varför det är bättre att gå från en större färgrymd och konvertera till utskriftens (skrivare/bläck + papper).

SRGB ska enligt standarden ha en encoding-funktion som är just sRGB men en EOTF som är 2.2. Finns en lång diskussion om det här, och jag skulle ge Troy Sobotka rätt i frågan:
https://community.acescentral.com/t/srgb-piece-wise-eotf-vs-p...

Windows skulle verkligen behöva färghantering som låter användaren välja. Det kan ju finnas goda anledningar att avvika från standarden. Jag kör t.ex. gamma 2.4 för det är mer lämpligt för grading och jag sitter oftast i ett mörkt rum. Det är inte alltid det mest korrekta men fungerar bra i praktiken.

Permalänk
Medlem
Skrivet av Nissling:

Just G2 har jag inte pillat med, men senast i helgen kalibrerade jag en 48C1 åt en klient. Om Peak Brightness var satt på high så blev tonkurvan alltför ljus kring 50-200 nits. Ett ingående värde på 50 kunde resultera i bortåt 70 nits i alstrat ljus, 140 nits blev närmare 180 nits och så vidare. Peak brightness medium jämnade ut kurvan rejält och hamnade inom målvärde, men då till priset av att de ljusaste topparna sjönk i ljus (från cirka 680 nits ner till strax under 600 nits) - Vilket ändå får ses som en helt rimlig kompromiss då bilden som helhet blev klart mer behaglig och korrekt.

G2 är dessutom kapabel till en mer ljusstark bild och beroende på inställningarna skulle det kunna påverka tonkurvan till det sämre ännu mer, eller för den delen det bättre. Thomas har bättre koll på just dessa modeller än mig.

Vad som gäller detaljrikedom och kornighet så kikade jag lite närmre på filmen i fråga och den ska tydligen vara skjuten på 200T, vilket är ganska snabbt och kan bli lite grovkornigt beroende på andra faktorer (optik, ljussättning, exponering, framkallning, bildförhållande etc). Dessutom blir det aldrig helt hundra att köra Tungsten-film vid dagsljus då man tappar lite exponering när vitbalansen korrigeras i post samtidigt som kornigheten är detsamma. Försöker man i sin tur dra upp snittljuset rejält så... Ja, det kommer se rätt aggressivt och ansträngt ut. Har man en långsam råfilm (typ 50D) och överexponerar ett eller två steg finns det mycket bättre förutsättningar generellt sett.

Allt är dock frågan om hantverk där det är många parametrar som spelar in. Att behärska analog film är i överlag en individbaserad kunskap hellre än allmängiltig.

Jag antar att du har full koll på att stänga av Energy saving och diverse tonkurve-autojusteringsfunktioner inför kalibreringen? Finns även en inställning i fabriksmenyerna där man kan stänga av nån dylik funktion, och även en logo-inbränningsfunktion som går att inaktivera. Jag är lite rostig i ämnet, men jag vill minns att det rekommenderades att stänga av dessa inför kalibrering.
ABL brukar ju spela in också så skärmen är ju inte lika ljus mot toppen av mätningen som i början. Jag minns med fasa mina försök att kalibrera gamma på min gamla plasma-TV... Du är ju proffset här så jag antar att du har full koll på allt detta dock.
När det gäller Spider-man (2002) så är det som du säger en rejält kornig och brusig film. Varierar också rätt mycket i detta från scen till scen, bl.a scenen där han blir biten av spindeln är ju bedrövligt brusig. Men, det är väl som regissören ville ha det... Med den uppljusning jag upplever så framhävs detta än mer uppenbarligen. Med Medium-inställning lugnar också det ner sig.
Moderna HDR-filmer upplever jag inte dessa problem med dock som sagt - och där kör jag alltid Peak brightness: High.

Permalänk
Bildexpert 📺

Energisparfunktionerna åker av oavsett. Har man missat stänga av dem börjar mätningar bli märkliga. Så man märker rätt snabbt när de är aktiverade. De slösar mest ens tid så att säga, snarare än att kalibreringen blir fel.

Peak Brightness: Medium för HDR i ett mörkt rum ser jag rätt mycket som fördel. Dels om man är känslig för hög peakar i ljusstyrka, dels blir det lugnare ABL och dels sätter sig midtonerna lite bättre i luminansnivå som skrivet.

Nu är vi väldigt off topic, men HDR är ett komplext ämne och mycket nytt för alla instanser att lära sig från produktion till reproduktion. Särskilt hur HDR ska appliceras.

Permalänk
Medlem
Skrivet av Laxpudding:

Energisparfunktionerna åker av oavsett. Har man missat stänga av dem börjar mätningar bli märkliga. Så man märker rätt snabbt när de är aktiverade. De slösar mest ens tid så att säga, snarare än att kalibreringen blir fel.

Peak Brightness: Medium för HDR i ett mörkt rum ser jag rätt mycket som fördel. Dels om man är känslig för hög peakar i ljusstyrka, dels blir det lugnare ABL och dels sätter sig midtonerna lite bättre i luminansnivå som skrivet.

Nu är vi väldigt off topic, men HDR är ett komplext ämne och mycket nytt för alla instanser att lära sig från produktion till reproduktion. Särskilt hur HDR ska appliceras.

Ja, vi ska nog inte fortsätta den här diskussionen här, då blir vi snart bannade.
HDR är komplext och jag minns att vi hade nån diskussion om det för nu några år sen och att du inte då i princip hade nån kunskap om hur man ens kunde kalibrera det. Det är väl också en orsak att jag väntat lite med min G2:a, för att låta tekniken landa lite.
Tack för alla insights och kloka ord i ämnet @Laxpudding och @Nissling. Helt klart var jag lite fel ute med att totaldissa "alla" äldre konverteringar.som fulkonverteringar Det är lite mer komplext än så, och det är alltså inte fel på filmerna i fråga, även om jag nog hade sett en annan tonkurva på en del av dom.

Permalänk
Bildexpert 📺
Skrivet av Barsk66:

Ja, vi ska nog inte fortsätta den här diskussionen här, då blir vi snart bannade.
HDR är komplext och jag minns att vi hade nån diskussion om det för nu några år sen och att du inte då i princip hade nån kunskap om hur man ens kunde kalibrera det. Det är väl också en orsak att jag väntat lite med min G2:a, för att låta tekniken landa lite.
Tack för alla insights och kloka ord i ämnet @Laxpudding och @Nissling. Helt klart var jag lite fel ute med att totaldissa "alla" äldre konverteringar.som fulkonverteringar Det är lite mer komplext än så, och det är alltså inte fel på filmerna i fråga, även om jag nog hade sett en annan tonkurva på en del av dom.

Kunskapen att kalibrera HDR är det inga problem med, kunskapen ökar på alla ändar av skalan. Verktygen för kalibrering (mätare, mjukvara etc.) blir också bättre och bättre.

Däremot är det fortfarande så att man får det man köper. Man kan sällan korrigera ett felaktigt HDR-beteende i en skärm genom kalibrering eftersom beteendet och godtycket är kodad i hårdvaran, likt algoritmerna bakom energiregleringen som ger oss ABL och FALD:n. Dessutom är verktygen i själva skärmen inte tillräckliga. Man kan endast räkna med att välja bland de ett fåtal menyalternativ och då anpassa sig för att välja det alternativ vilket adderar minst fel. Om det ens finns ett alternativ vill säga.

On topic här och typexempel är med Nvidia-RTX-HDR-konvertering är att du har ett enda alternativ för att konvertera till HDR. Funktionen är on/off. Du har ingen kontroll över hur konverteringen till HDR går till. Jag skulle vilja sätta en högsta mastringsnivå på omvandlingen som första början. Här är det bara ett kryss och någon godtycklig algoritm som någon på Nvidia anser vara den "rätta" lösningen på något som i andra sammanhäng kräver eftertanke och omsorg baserat på ursprungsmaterialet.

Samtidigt blir det bättre och bättre. HDR fungerar väldigt mycket bättre idag jämfört med bara fem år sedan. Fem år till och vi är där vi är idag med SDR där en bra TV faktiskt kan matcha en referensmonitor.

Ja, TV-apparater då. Bildskärmarna är där TV-apparaterna var för 5 år sedan.

Permalänk
Medlem

Ok. Jag backade lite från min omedelbara ambition att kalibrera min G2 med de 3D LUT-verktyg som finns via ColourSpace och Ted Aspiotis (Displaycalibrations), som ju utlovar fantastiska resultat via en närmast automatiserad process. De verktygen finns bara för vissa modeller av LG OLED och är i högsta grad specialiserade. Jag har licens och tillgång till alla, men att förstå vad de gör och att inte samtidigt sabba fabriksinställningarna är en inlärningströskel av stora mått, och då min G2:a då var helt ny så ville jag ge den några hundra timmars inkörning först. Sen drog det ut på tiden... Men som sagt dags att "wrappa" hjärnan runt alla dessa koncept och verktyg och SDR/HDR-teori igen. Jag har ju en förmåga att glömma alla detaljer när jag inte aktivt jobbar med dom så det är tillbaka till skolbänken och plugga på igen. Uppenbarligen så är de här processerna riktigt bra för SDR, men fortfarande inte för HDR, det finns inget motsvarande 3D LUT för HDR vad jag förstår. Så processen där är mer av det du beskriver med lite dåliga verktyg. Vitbalans ska man väl dock kunna få till även i alla HDR-varienter. Jag kör med en Raspberry PI som är bit-perfect och kan generera metadata för att ställa in displayen i den olika SDR- och HDR-lägena. Väldigt billig och väldigt bra TPG!