Den där videon är exempel på flera vanliga missuppfattningar. Videoskaparen försöker bevisa eller snarare "bevisa" att 1440p på en 4K-monitor är sämre genom att använda en miniräknare! Det är det första och alldeles hypotetiska steget om vad skalning innebär.
En CPU på 4,0 GHz är dubbelt så snabb som en CPU på 2,0 GHz ifall man använder exakt samma miniräknare. Men jag tror att majoriteten på Swec begriper att det inte automatisk är samma sak som dubbla prestandan. Det finns så sabla mycket mer som påverkar och avgör vad det blir i praktiken när man jämför två CPU:er med olika frekvenser.
Skärmar är inte så värst annorlunda från den insikten.
Verkligheten med skalning och hur det praktiska resultatet blir med en viss skärm, viss GPU och visst spel är givetvis något helt annat och rätt så mycket mer komplicerat än att dra kvoter på en miniräknare. 1080p på en 4K-skärm är heller inte automatiskt så bra som han försöker "bevisa" utan det förutsätter att man använder heltalsskalning. Gör man inte rätt där kan det lika gärna bli godtyckligt sämre. Detta är också en vanlig missuppfattning om 1080p på 4K-skärm.
1440p på 4K blir ofta något mjukare än 1440p native som i sin tur är mer pixeliserat pga av lägre upplösning och synligare pixelstruktur. En del föredrar det ena och andra föredrar det andra, typiskt då baserat på vilken skärm man är van med innan. Detta kompliceras ytterligare av DLSS etc. när vi kan rendera i 1440p och interpolera till 4K vilket fungerar olika bra i olika spel och dessutom fungerar olika bra för olika personer.
----
Sedan lite smådetaljer: Han kallar 1440p/QHD för "2K" vilket är fel då 2K betyder "ungefär 2000 pixlar på bredden" och alltså omfattar dels videovärldens faktiska 2K-monitorer i 17:9 med 2048x1080 och Full HD med 16:9 1920x1080p. 1440p skulle kallas "2.5K" enligt samma logik. Men istället envisas man med att hitta på ännu en beteckning när det redan finns 1440p, QHD och 2560x1440 som berättar vad det handlar om och skapar istället en helt onödig informationskonflikt.
Till och med Wikipedia beskriver 2K som Not to be confused with 1440p.
Han missar att 1440p och 1080p är uppskalning på skärm och kallar det för nedskalning. Det är alltid bilden som skalas upp till en högre upplösning eller skalas ned till en lägre upplösning. 4K-skärmen är alltid 3840x2160 pixlar. Mindre viktigt och jag vet att många har svårt att skilja på detta. Så jag kallar det för "1440p på 4K-skärm" för att vara tydlig.
Att jag skriver som jag gör beror på att jag nu har lite över 10 års erfarenhet av att skala på 4K-skärmar i allt från 24 till 43 tum på skrivbordet och upp till 100 tum på TV-bänken. Jag har också en miniräknare och det första jag lärde mig med den första 4K-skärmen var att den där simpla matematiska teorin bara tog mig så långt.