Inlägg

Inlägg som Laxpudding har skrivit i forumet
Av Laxpudding

Micro-LED finns redan. Det är bara era plånböcker som drömmer. Eller skrattar.

Av Laxpudding
Skrivet av 3rk0:

Vänta lite port display port 1.4? har jag missat nåt? varför i helvete har man inte displayport 2.0 på denna skärm så man kan köra 10bit 144hz utan konstigheter

Förmodligen därför att utvecklingen av den här produkten påbörjades minst ett år innan denna lansering. Då utgår man från vilka kretsar och komponenter som går att köpa och kan komma att levereras inför en produktion. Där lär DP 2.0-kretsar ha lyst med sin frånvaro. Eller varit tillgänglig i endast otillräckligt små mängder till skyhöga priser. Ingen vill boka en fabrik som står oanvänd därför att en kritisk komponent saknas. Så man bygger med det som finns tillgängligt.

Misstänker också att man överlag väntar in DP40- och DP80-kabelcertifieringarna från DP 2.1 som kom i oktober 2022. Det är för mig full tänkbart att man i processen att gå från spec till fungerande hårdvara insett hur viktigt det är med kablar som orkar med de här bandbredderna det handlar om.

Kanske CES 2024 ger de första stora brädet av DP 2.0-produkter? Ifall man hinner få ordning på den full förväntade kabelproblematiken vill säga.

Av Laxpudding

Jag tror för att få verkligt svar på hur mycket den drar behöver du dra ut varenda kontakt och aldrig använda lampor, utan enbart låta TV:n stå standby som enda elpryl och sedan vänta in elräkningen.

Av Laxpudding

Just det: ELMB försöker kombinera adaptiv synk med back light strobing vilket per definition måste ge flimmer och varierande ljusnivåer eftersom belysningen då måste tända och släcka dynamiskt med frekvensen på uppdateringen.

Aldrig fått chansen att testa någon skärm med den funktionen så vet inte hur det kan bli. Men som teorin beskriver det: flimmer

Av Laxpudding

Någon form av buffring måste alltid i skärmen, därav fördröjning + den tid det tar att rita bilden uppifrån och ned. Så mycket av den optimering som skett på kretsnivå handlar om att korta ned tiden på den buffringen. Jag antar med tanke på latenstiderna att moderna spelskärmar är väldigt nära CRT-idealet där signalen i princip drev elektronstrålen. TV-apparaterna har en längre tradition att alltid buffra flera bildrutor för diverse (onödigt) processande. Där börjar TV-spellägena komma ned på spelskärmsnivåer, bara att de startade längre bak så att säga.

Ironin i det hela är att diskussionerna idag kanske rasar som mest när latens och input lag i dagens TV och spelskärmar är så låga att det kan räknas som obetydande i förhållande till den totala systemlatensen. Ett himla gormande huruvida de där 2 eller 5 millisekundrarna är avgörande. Jämfört då med skillnader på 20 och 50 ms som det var för tio år sedan.

Latensnivåerna har alltså krympt tiofaldigt på tio år och på samma tio år har diskussionen istället blivit tio gånger högljuddare?

Skrivet av iiTungii:

Uppföljning, det är tydligen viktigt med gtg? helst 1ms men det finns 0,5?

Totalt oviktigt och verkligen en diskussion utan substans. En del av det jag läser får mig att tänka på barn som leker tebjudning och börjar bråka över vem som har bästa tesorten.

Det är påhittade siffror som skrivs på kartongen. För 10 år sedan var "4 ms" normen. Nu är det "1 ms" sedan några år tillbaka. Därför måste tillverkarna hitta på lägre siffror för att sälja in nya produkter som bättre. Faktiska responstider är något helt annat och ett mycket mer komplext ämne. En äldre kvalitetsskärm med "4 ms" på kartongen kan ha mindre eftersläp än en modern "1 ms"-skärm eftersom det är just påhittade siffror och inte kopplat till verklig prestanda eller kvalitet.

Gjorde en artikel om ämnet för ett par år sedan: https://www.sweclockers.com/artikel/30553

Av Laxpudding

Nu med elpriser och annat tar det fart igen och den här frågan med just detta "...den drar för mycket!" har dykt upp ett par gånger på forumet. Svaret då som nu är att din mätare troligtvis visar fel.

Den här frågan tog jag tag i för lite mer än 20 år sedan när jag upptäckte samma sak. Standby drog 25–50 Watt på alla mina prylar där det lovades 0,5–1 W. Så testa mätaren på alla prylar med Standby-lägen. Om mätaren säger 30-60 Watt på allt är det rimliga att mätaren inte är den rätta för det du försöker mäta.

De flesta mätare är inte byggda för hur det fungerar standbylägen, utan den är byggd för att kolla hur en brödrost, strykjärn, elelement eller liknande drar energi. Så att du kan se om det är 750 eller 800 W och liknande nivåer. När du mäter din vattenkokare drar den ström kontinuerligt och då stämmer siffrorna mer och precisionen på ±2 Watt eller vad det nu är blir sak samma på de nivåerna.

Jag är inte elektriker och generellt är elektriker sparsmakade med förklaringar. Förklaringen jag fick då är att prylarna i standby inte drar ström hela tiden utan laddar en konding stötvis, ofta under en enda fas, vilket de här mätarna inte kan skilja från kontinuerlig effekt. Vi har 50 Hz. Så den faktiska energiförbrukningen du mäter är förmodligen 32/50=0,64 W.

Troligtvis har mätarna inte precisionen för att hantera tiondels Watt, men jag gissar att du var ute efter att stämma av vilka energitjuvar det finns snarare än att se decimalprecision.

Av Laxpudding
Skrivet av Yoopapa:

Tack för svar!
Har testat med inställningarna 60 / 144 / 160 / 165 HZ och ligger mellan 100-120 fps 2k/ultra high. Det flimmrar fortfarande, dok värre i vissa spel som Modern warfare 2. I övrigt är Windows och Geforce up to date.

Får nog leva med att köra utan g-synk eller byta skärm, verkar som sagt inte som att jag är den enda med det här problem heller så det får nog isf bli en annan modell.

MVH

Kan ju vara just det – en dålig modell. Har du något exempel, avfilmat/video på hur flimret ser ut?

Av Laxpudding
Skrivet av Yoopapa:

Tack för tipsen men det verkar inte fungera, tyvärr... Nåväl.

har dok upptäckt ett problem med skärmen. Testar och skriver här innan jag startar en ny tråd.

När jag drar på G-sync så flimmrar skärmen i spelen... Har sökt lite på och det verkar vara fler som får detta just när de aktiverar g-synk. Har dok inte funnit någon lösning på det ännu... Är det något som kan ha en idé?

Flimmer uppstår ofta när man ligger för lågt eller för högt i FPS. Adaptiv synk har ett spann inom vilket det fungerar, 48–144 Hz och ligger man väldigt högt eller väldigt lågt uppstår flimmer. Det brukar ofta ske i laddscener och liknande där det ofta är extrem lågt eller just extremt högt, vilket varierar med spelen.

De som upplever problem runt detta brukar utveckla metoder likt att sätta en övre FPS-gräns i spelen eller i drivrutinen. Det förutsätter att man har grundläggande kontroll och använder FPS-mätare för att se hur man ligger till. De egentligen problemen är när det flimrar i spelen i sig, snarare än i laddscener och statisk grafik. När det flimrar i spelen kan det vara andra orsaker, inklusive sådant som gamla drivrutiner eller helt enkelt spelbuggar.

Oavsett behöver man bekanta sig med FPS och FPS-mätning för att få full kontroll.

Av Laxpudding
Skrivet av kelthar:

Kan du tipsa om en skärm under 6k som har minimalt med eftersläp. Tror att jag är superkänslig för det. När man i FPS drar musen fram och tillbaka snabbt så känns det grötigt.

Eller är det kanske hjärnan / ögonen som behöver överklockas på något sätt för sådana problem?

Har inte koll på priserna. Men minimalt med eftersläp är alla OLED. Vilket inte hjälper mot hur vi uppfattar eftersläp som följd av temporal aliasing. Dagens OLED-paneler ger alltså i princip noll eftersläp men du kommer ändå uppleva eftersläp pga av hur öga/hjärna upplever rörelse över tid.

Att det är grötigt när du rör musen kan bero på mer än enbart eftersläp och alltså inte bli bättre med en OLED. Upplevelse är också relativt något annat. Du kanske har en riktigt släpig VA-panel idag och du kör 60 Hz? Då kommer ju allt annat som kör 120+ Hz vara enorm förbättring. Ifall det är eftersläpen som är din grötighet vill säga.

Av Laxpudding

Ha-ha, fjärde på raken här: Läste på lite om just Street Fighter 6 och där verkar det som 120 Hz-läget främst är just en 60 FPS-rendering fast den håller 120 Hz signalmässigt. Diskussionerna är ju lite röriga med tredjehandsuppgifter och gissningar.

Om det är just 60 FPS–120 Hz så kommer tv:ns latens vara några millisekunder lägre. Man spar kanske 5–10 ms i TV:n på en helhet från konsol–till–spelmotor–till–HDMI som är mycket större, kanske 50–100 ms totalt.

Har svårt att se hur exempelvis 80 ms skulle vara så mycket mer avgörande bättre än 90 ms total latens. Då är det mer ett önsketänkade för den här mångåriga och supersnäva fokusen på just displayens latens. Latens var ju ett problem när en TV år 2013 hade kanske 50–80 ms i spelläget. Men inte som det ser ut idag. Man räknar fortfarande millisekunder för millisekunders skull med skygglappar för allt annat. "Wow det är halva latensen i TV:n" fast TV:n bara utgör sista steget i hela kedjan.

Samtidigt kommer man med en 120 Hz-signal ändå få TV:n att göra sitt bästa med situationen. Utnyttja sin TV till max. Vilket är mer av FOMO-tänkandet och det klassiska "jag–har–ju–betalat–för–det"-argumentet, än någon faktisk fördel för spelandet.

Ifall 120 Hz-läget arbetar med en kortare renderingsbuffer finns det förstås en större poäng om man kan plocka av ≈16 ms plus korta lite till i TV:n. Men det är fortfarande inte drastisk skillnad på helheten.

För att avgöra hur det påverkar måste man börja mäta total latens hela vägen specifikt i spelet och jämföra 60 Hz mot 120 Hz-lägena.

Hur det sedan påverkar spelandet och upplevelse. Ja, då börjar man tala om kontrollerade blindtester och sådant som att finna statistisk signifikans för att man vinner oftare i 120 Hz. Jag tror man kan finna en sådan signifikans men att det är så marginellt. Den bättre spelaren vinner alltid ändå.

Av Laxpudding

Volvo, villa, vovve och 1440p-skärm. Det är så standard det kan bli idag.

Beroende på vad du vill uppnå kan också 4K-skärmar vara ett alternativ.

Av Laxpudding
Skrivet av Söderbäck:

Det finns alltså många olika delar att ta hänsyn till. Vilka TVapparater som har lägst total input delay vet jag inte riktigt tyvärr. Dåligt uppdaterad.

Standard för 2022-TV-utbudet är som följer
120 Hz: 5–10 ms
60 Hz: 10-20 ms

Exakta siffror varierar med vilken utrustning man använder och var på skärmen man sätter mätaren. Därför får olika testare olika siffror.

Gäller även Philips "egna", Panasonic och Sony. Bottenskraparna och OEM-modellerna, där Philips har många modeller som är OEM, ger ofta högre latens, 30–50+ även i spelläget. Ofta är spelläget på enkla TV-modeller endast ett bildläge bland alla andra och inget som ger lägre latens.

Total latens i hela spelmotorn är dock mycket högre och mycket (men inte allt) kommer från en grafikbuffert som ska hålla typiskt 1–3 frames. Orkar hårdvaran rendera 60 FPS tar det alltså 16–50 ms av extra latens (utöver alla annan spelkod etc.) att fylla bufferten. Vid 120 Hz-läge i spelen är samma tid 8-25 ms och man kanske kan tillåta sig en mindre buffert eftersom avbrotten blir kortare.

Vill man ha svår på hur 120 Hz i nya Street Fighter påverkar måste man mäta latensen från tryck på handkontrollen tills grafiken ändras specifikt i det spelet. Det är rätt komplicerat men bör gå med 1000 FPS-kamera och lite statistiskt arbete.

Av Laxpudding

Reaktionsförmåga har inget med detta att göra.

Vår reaktionsförmåga är runt 100–250 ms i nyktert tillstånd beroende på vad man mäter. Det man är ute efter koordinationsförmågan. Förmågan att AFK träffa en boll med ett racket kräver öga/hand-koordination på millisekundnivå och detta applicerar rimligen för datorspel också. Med skillnaden att en dator och grafik i låga frekvenser har en betydande temporal aliasing. Upplösning i tid är för lågt. Grafiken bokstavligen hoppar fram.

Av Laxpudding

Kort och gott: Panelfrekvens (i Hz) vinner i längden, även när spelen är låsta till lägre FPS. Fast det har inte så mycket med input lag att göra.

Diskussionerna blir ofta konstiga därför att det är den enskilda tekniska siffran som diskuteras som om det vore allt och inget. Ofta en supersnäv fokus på exempelvis eftersläp, eller skärmens "input lag". Samtidigt som "det laggar!" används som slasktratt för allt som är dåligt flyt i spelet. När någon skriver "jag får hög input lag" kan det lika gärna handla om synkproblematik, nätverksproblem eller buggar i spelet. Fast man letar efter svaret i skärmens latens. Blir ofta en klassisk forumdiskussion i åsnan-och-svansen-stil.

Skärmar har en latens från att signalen kommer över kabeln till att den ritas upp och blir ljus. En elektronisk fördröjning. På moderna spelskärmar är det mycket lågt, enstaka millisekunder. Kontorsskärmar (som då kör typiskt 60 Hz-paneler) ofta högre och kan vara så mycket som 40+ ms. Så ja, produkten avgör väldigt mycket.

Bildskärmar uppdateras uppifrån och ned. Vid 60 FPS på 60 Hz tar det 16,67 ms att rita upp hela bilden. Då är det alltså mycket mer latens i botten av skärmen jämfört med toppen. Om vi hade hjärnor som faktiskt kunde urskilja latens på den här nivån då hade alla redan upptäckt att spelet är mycket "rappare" i toppen och långsammare i botten som att bilden rinner ned. Men det är det ingen som diskuterar eller har märkt av – naturligtvis eftersom öga/hjärnan inte fungerar så som teknik gör på millisekundnivå.

Mäter man latens med en ljusmätare i mitten av skärmen får man signalfördröjningen plus ≈8 ms vid 60 FPS i 60 Hz. På det kommer att skärmar som är låsta till max 60 Hz ofta har högre elektronisk latens från början (eftersom de inte är byggda för spelande) vilket kanske ger en mätning på ≈15-25 ms. där särskilt äldre skärmar kan vara uppemot 40–50 ms eller mer.

60 FPS på 240 Hz innebär att skärmen ritar hela bilden på 4,16 ms. Då ritas samma bild om fyra ggr för att matcha 240 Hz.

Mäter man latens med en ljusmätare i mitten av skärmen får man signalfördröjningen plus ≈2 ms på 60 FPS i 240 Hz. På det kommer att spelskärmar med 240 Hz ofta har mycket lägre latens eftersom de är byggda för just spel. Då får man ofta en lägre siffra även fast det är samma 60 FPS, mätning ≈ 5–10 ms.

Börjar man mäta 240 FPS på 240 Hz är det sedan mycket lägre och kanske närmare 1–3 ms.

Högre panelfrekvens ger mindre eftersläp
Här finns ytterligare poänger med en 240 Hz-skärm även vid 60 FPS, likt att eftersläpsnivåerna är lägre även om "persistance of vision" för öga/hjärna vid 60 FPS är densamma så släpar det mindre från själva panelen på 240 Hz-skärmen. Om det nu inte är en typisk VA-panel då.

Högre panelfrekvens ger mindre ryck vid synkproblematik
En andra poäng är när det blir avbrott i flödet, vilket verkar drabba alla spel. Missas det frames i spelmotorn av olika anledningar dröjer det 16,67 ms innan 60 Hz-skärmen kan rita upp en ny frame. 240 Hz-skärmen behöver endast vänta 4,16 ms vilket gör att alla avbrott, hack och ryck blir kortare och mindre störande på 240 Hz-skärmen.

Ofta när det klagas över "låg input lag" så är det över rycken och segheten som kommer när frekvensen inte är konstant. De rycken blir mindre kännbara på högre panelfrekvenser.

Spelmotorn
Så det som alldeles för sällan diskuteras: spelmotorn. Den totala latensen från musklick genom dator och spelmotor, grafikbuffert (dubbel, trippel etc) till vad som sedan blir en signal ut från grafikkortet är mycket högre.

Räkna med 50–100+ ms innan det blir en bildsignal för en spelmotor som låser på 60 FPS. Då är det inte av så enorm betydelse ifall skärmen lägger på 5 ms eller 20 ms latens.

Nu vet jag inte vilket spel det handlar om. Min erfarenhet är att alla spelmotorer är ganska olika och det blir olika resultat. Vissa kombinationer av egenskaper och inställningar är perfekta för en typ av spel medan de blir en försämring för ett annat.

Av Laxpudding

Precis, PG42UQ är konstant i sin ljusnivå och har inte det extra dimmandet från inbrännningsskydd som stör när man exempelvis arbetar med Excel där skärmen sedan tänder upp igen när man flyttar ett fönster.

ABL-förfarandet är fortfarande där om man drar det högt med ljusstyrkan. Brytpunkten hos PG42UQ är strax under 200 nits. Kliver man högre och högre blir ABL mer och mer märkbart och likt hur 42C2 fungerar.

PG42UQ är till synes också mer försiktig i hur den använder den vita subpixeln när man håller sig under 200 nits. Text och grafik får inte lika tydligt vita kanter.

Av Laxpudding

Det är nog same-same. Som trenden för bildskärmar ser ut är det att samma produkt återkommer med ny beteckning och lägre pris. Kvaliteten förblir ungefär samma.

Av Laxpudding
Skrivet av Aktsu:

De fall jag har sett som rapporterats om på Reddit har inte varit något som försvunnit av sig själv(eller pixel refresher) utan som varit permanenta och som Dell sedan bytt ut på sin "burn in warranty".

Det är såklart inget som hänt efter en spelsession på några timmar men några timmar per dag över tid verkar ha gett det. Verkar också finnas en hel del som fått t.ex. taskbaren eller ikoner som finns kvar ifall de har synts när de jobbat hela dagarna osv.

Modellerna med QD-OLED är ny teknik i sin allra första generation, så intressant att se hur det utvecklas. Har man behovet att köra hög ljusstyrka längre finns det lämpligare och ofta billigare produkter än en OLED. Då befinner man sig ofta i en rumsmiljö där fördelen med OLED i vilket fall går lite förlorad pga av ljusnivåerna.

Av Laxpudding
Skrivet av Aktsu:

Ja, det verkar dock som att det finns en del rapporter om att just spela 16:9 med svarta kanter gett inbränningar på de UltraWide OLED som finns ute även om de inte gjort bara det på skärmen. Händer säkert inte alla men eftersom det är mitt huvudsätt att spela på så är det nog smart att inte chansa med den lilla vinst jag får av OLED. Mestadels kommer jag dessutom arbeta på skärmen och även om problemen med text kanske inte är jättestörande så skall jag nog välja det verktyget som passar bäst.

De UW-skärmar med QD-OLED som finns har inte existerat tillräckligt länge för att ge faktiskt inbränningar. Om nu inte någon medvetet kört dem så att skador uppstår för att dokumentera skadorna vill säga. När någon skriver "burn in" efter att spelat 16:9-spel med svarta kanter i några timmar, då är det rentention och inget annat – oavsett om de kör LCD eller OLED.

Här är problemet med att "burn in" och "inbränning" används om egentligen tre olika typer av fenomen med kvardröjande bild. Alla skärmtyper kan få korsiktig retention av olika anledningar. Varar i sekunder och minutrar och drabbar både LCD och OLED. Överfokuseringen på OLED kommer av att man blandar ihop detta med de permanenta skadorna som uppstår vid extrem användning. Det talas om något som försvinner efter några minuter samtidigt som den bild man målar i huvudet är den permanent förstörda panelen.

Av Laxpudding
Skrivet av Aktsu:

Lutar nog ändå åt en Acer Predator X34GS, verkar ändå som att det har varit en del rapporter om inbränningar med mitt användningsmönster. Folk som alltid kört spel i 16:9 verkar se skillnad mellan den delen som använts och den som inte gjort det. om ingen annan har något tips på en UW-skärm med USB-C (med PD) och inbyggd KVM switch?

Problemet med orden "inbränningar" och "burn in" är att de används om olika fenomen. Det man är rädd för är de permanenta skadorna vilket kräver långt tid och extrem användning för att nås.

Det folk kan se på en LCD-panel som hos Acer Predator X34GS är retention och de klingar av efter flera minuter. Uppstår pga av temperaturskillnader och elektriska fenomen hos flytande kristaller som används flitigt. Hos OLED uppstår de som följd av temperaturskillnader där de pixlar som används blir varmare lyser något starkare. Då försvinner skillnaden när temperaturen jämnar ut sig vilken på en välkyld OLED-panel handlar om sekunder till någon minut på mindre välkylda paneler.

Av Laxpudding

dyac/dyac+ är Benq:s "namn" för backlight strobing där lysdioderna släcks ned medan panelen uppdateras. Andra tillverkare har liknande lösningar med andra "namn" med varierande nivåer av effekt och användbarhet. Poängen med tekniken är att minska intrycken av hur öga/hjärna uppfattar eftersläp.

Detta är dock inte en lösning på allt och alla gillar inte tekniken eftersom det har distinkta nackdelar, till exempel att det bokstavligen flimrar – eftersom det är just ett flimmer. En del upplever problem med dubbelbilder som värre än de eftersläp det kan ta bort. Så det har en poäng men är inte en självklar poäng för alla användare.

Går igenom hur just Benq:s lösning fungerar här: https://www.sweclockers.com/artikel/27924-lcd-utan-efterslap-...