TV-guiden 2023/24 – diskussionstråden

Permalänk
Medlem
Skrivet av aMp:

Är någon av LG C4 55" (2024) och Samsung S93C 55" (2023) ett solklart bättre val än den andre, om man ska kolla i mörkt utan rum, där jag enbart har svag belysning på väggen bakom TV:n? 95% av tiden kopplad till PC (jag kollar knappt vanlig TV) för att konsumera serier, film, YouTube, surfa och kanske lite lätt spelande här och där? Används med trådlösa hörlurar för det mesta, så inbyggda högtalare har för mig noll betydelse. Några andra OLED-alternativ i samma prisklass och storlek jag bör överväga?

Med Samsungen kanske jag kan köra på 65" också, det kan hända att den blir några centimeter för bred för mig så måste ta fram måttstocken för att dubbelkolla det dock.

https://www.webhallen.com/se/product/370602-LG-55-OLED55C44LA...

https://www.webhallen.com/se/product/360822-Samsung-55-TQ55S9...
https://www.webhallen.com/se/product/360832-Samsung-65-TQ65S9...

De har väldigt lik prestanda överlag men Samsungen har främst en ljusstarkare panel när det kommer till färger i HDR. Samsungens största nackdel är att den går miste om Dolby Vision.

För en sådan stor prisskillnad är det dock ganska enkelt att välja mellan dessa: S93C. Om 65” får plats är det ett riktigt bra val jämfört med C4 55".

Visa signatur

f0rest stan | Citera mera | 5800x, 6700 XT

Permalänk
Medlem
Skrivet av Ugga:

Jag är nära att köpa en 77” C3 men känns lite sådär att betala 21.5k när den går för 18k i Nordstan hos Webhallen. Samtidigt kan jag inte åka ner dit och chansa på att få en heller.

Ska man ha is i magen och hoppas på liiiite bättre pris alternativt om C4 kommer gå för ungefär samma runt Black Friday/mellandagsrean?

Skrivet av FatherOfThree:

Obs!
Webhallen Nordstans erbjudande på LG Evo är begränsat till 10+10+5st

De som är intresserade bör agera snabbt.

77 C3" kommer inte bli billigare än så här, C4 77" kommer kosta minst 25k på Black Friday och mellandagarna.

Och precis som @FatherOfThree säger så kommer man sannolikt behöva köa hos Webhallen och hänga på låset för att komma över en av dessa 10 apparater. Gissar att en del kommer köa från tidiga morgonkvisten (Eller natten) så om det är värt tiden / risken för att spara cirka ~3500kr vs att beställa på nätet är något du själv bara kan svara på.

Se bifogad länk:
https://www.webhallen.com/se/campaign/10858-Nypremiar-Nordsta...

Permalänk
Medlem
Skrivet av Ugga:

Jag är nära att köpa en 77” C3 men känns lite sådär att betala 21.5k när den går för 18k i Nordstan hos Webhallen. Samtidigt kan jag inte åka ner dit och chansa på att få en heller.

Ska man ha is i magen och hoppas på liiiite bättre pris alternativt om C4 kommer gå för ungefär samma runt Black Friday/mellandagsrean?

Jag slog till på en C3 77” på LGs hemsida för 21000kr och ångrar det inte för en sekund. Är för gammal för att dra fram sovsäcken och bosätta mig utanför Webhallen. Har man vilja och orken så skadar det väl dock inte att åka ner till Webhallen och se, har man tur så kanske det finns ett exemplar kvar. Tvn kom för övrigt otroligt välpackad från LG, det bästa jag sett hitills.

Visa signatur

Corsair 4000D Airflow | NZXT C650 | MSI B550-A PRO | Ryzen 5800X + Noctua NH-D15 | 16GB Gigabyte Aorus RGB Memory (3733 MHz) | Adata SX8200 PRO 500GB + Crucial BX100 240GB | EVGA GTX980 Ti | Benq G2420HDBL + LG CX |

Permalänk
Bildexpert 📺
Skrivet av aMp:

95% av tiden kopplad till PC (jag kollar knappt vanlig TV) för att konsumera serier, film, YouTube, surfa och kanske lite lätt spelande här och där?

Ihop med en PC som enda källa där TV:n i praktiken går som en skärm verkar det finnas en mer samlad kunskapsbank runt LG:s modeller för just det syftet inklusive mjukvaror för att integrera TV:n med PC:n, likt denna: https://www.sweclockers.com/forum/trad/1628585-lgtv-companion...

Jag upplever själv Samsungs TV som mer bökande med just PC-koppling, artikel här: https://www.sweclockers.com/artikel/35091-guide-samsungs-tv-s...

Detta kan förstås landa på smaksak och personlig erfarenheter. I grunden når du samma resultat men det kan finnas skillnader i handhavande och praktisk drift som pekar mot ena eller andra. Så om du ska söka vidare, kolla in det ämnet.

Permalänk
Medlem
Skrivet av Clasito:

De har väldigt lik prestanda överlag men Samsungen har främst en ljusstarkare panel när det kommer till färger i HDR. Samsungens största nackdel är att den går miste om Dolby Vision.

För en sådan stor prisskillnad är det dock ganska enkelt att välja mellan dessa: S93C. Om 65” får plats är det ett riktigt bra val jämfört med C4 55".

Skrivet av Laxpudding:

Ihop med en PC som enda källa där TV:n i praktiken går som en skärm verkar det finnas en mer samlad kunskapsbank runt LG:s modeller för just det syftet inklusive mjukvaror för att integrera TV:n med PC:n, likt denna: https://www.sweclockers.com/forum/trad/1628585-lgtv-companion...

Jag upplever själv Samsungs TV som mer bökande med just PC-koppling, artikel här: https://www.sweclockers.com/artikel/35091-guide-samsungs-tv-s...

Detta kan förstås landa på smaksak och personlig erfarenheter. I grunden når du samma resultat men det kan finnas skillnader i handhavande och praktisk drift som pekar mot ena eller andra. Så om du ska söka vidare, kolla in det ämnet.

Tack båda för inputen!

Det skulle inte vara den primära skärmen till PC:n, jag växlar med skärm med Win + P kommandot. Vidare är den datorn på 24/7, så har inget speciellt behov att TV:n sätts på i samband med att man startar en dator.

Som det känns nu är Samsung S93C frontrunner, främst då den antingen blir lite billigare eller att jag möjligtvis kan klämma in en 65". Frågan är om man framöver kommer ångra sig om man skippar DV dock. Men HDR10+ verkar trots allt bli mer och mer utbrett.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av aMp:

Tack båda för inputen!

Det skulle inte vara den primära skärmen till PC:n, jag växlar med skärm med Win + P kommandot. Vidare är den datorn på 24/7, så har inget speciellt behov att TV:n sätts på i samband med att man startar en dator.

Som det känns nu är Samsung S93C frontrunner, främst då den antingen blir lite billigare eller att jag möjligtvis kan klämma in en 65". Frågan är om man framöver kommer ångra sig om man skippar DV dock. Men HDR10+ verkar trots allt bli mer och mer utbrett.

Jasså? Tycker typ allt som streamas är DV när det är hdr,förutom Prime,där blir HDR10/hdr10+. Men från tex itunes,Disney,max,Netflix blir det ju DV 😊
Men när jag köpt BD så tror jag alla dom jag har är vanlig hdr10,har ibte så många UHBD skivor dock

Permalänk
Bildexpert 📺

DV vs. HDR10+ är inte en fråga om ett antingen eller som så många vill tolka situationen. Allting ska tydligen diskuteras utifrån "X vs. Y" som om det vore en boxningsmatch eller presidentval. Nåväl.

Ingen som köper en Samsung-OLED lär sakna DV för det finns inget sätt att påvisa när var och hur DV tillför något på den just TV:n för just den användaren.

Samma sak är det med HDR10+ där den som köper en LG-TV aldrig någonsin kommer sakna HDR10+ av samma anledning.

Fast det är skillnader. Inte alltid och inte hela tiden. Ibland små och ibland stora skillnader.

---

Både DV och HDR10+ bygger på HDR10 som bas och adderar dynamisk metadata som låter TV:n anpassa sin förmåga att ljussätta bilden efter scenens innehåll. Det är en komplexitet bakom detta som är alldeles för långt för att ta upp i ett inlägg, men kortfattat kan dynamisk metadata göra att TV:n får möjligheten(*) att göra det bästa den kan scen för scen i en film, snarare än att den ljussätter bilden statiskt baserat på hela filmens genomsnittliga bildinnehåll.

Det ska tilläggas att innehåll med både DV och HDR10+ fortfarande kan vara statiska i den egenskapen att det aldrig mastrats med dynamisk metadata för det behövs inte för produktionen i fråga. HDR10+ brukar dock bli mer konsekvent än HDR10-vanilj för det finns fortfarande metadata om ljusnivåerna vilket det inte alltid gör med HDR10-vanilj.

Det som DV tillför över dynamisk metadata är förmågan till högre precision via Dolby Vision FEL, Full Enhancement Layer. Bara det ämnet i sig är extra komplext och handlar även om själva mastringsprocessen. Kortfattat och enkelt kan Dolby Vision ge oss 12 bitars precision och högre kontroll över ljusnivåerna i bilden.

(*) Hur bilden tonemappas, dvs bild innehållet översätts till ljus, är betydligt mer konsekvent med Dolby Vision eftersom det sker genom Dolbys algoritmer och metodik. Vanilj-HDR och även HDR10+ är betydligt mer godtyckligt och upp till varje TV-tillverkares ibland rätt så jädra olika algoritmer. Dolby Vision styr verkligen upp detta och bilden som visas är mer ett resultat av vad TV:ns kvalitet, ljusstyrka och kontrast etc. Därför DV faktiskt fungerar och förbättrar även för enkla och simpla TV.

Den där möjligheten att göra det bästa TV:n tekniskt är kapabel till är generellt större med Dolby Vision.

---

Samsungs TV har visat enormt godtycke med HDR-återgivningen där det ofta är för ljus/platt bild och för starka färger. Jag har till och med mätt upp Samsung-TV:s som skiftar vitbalansen baserat på ljusinnehållet i HDR-bilden. Likt att hela bilden drar mot en mer turkos ton. Stort sabla fel!

Fast detta har blivit bättre, Samsungs 2024-OLED S95D är den första Samsung-TV jag mätt upp som mäter helt konsekvent med HDR10.

Här är du kruxet, pudelns kärna: Om du köper en Samsung och tittar på Netflix, UHD-BD mer mera där Dolby Vision annars finns, då existerar inget sätt att tydliggöra de fel och det godtycke som kanske eller kanske inte tillförs. Det är omöjligt att sakna Dolby Vision på annat sätt än att du köper en till TV med nära identiskt hårdvara (säg Sony A95L) och ställer den parallellt med Samsungen med DV-strömmen mot HDR10-strömmen.

Och även då är det inte säkert det är skillnad alla gånger. Eller ens säkert man kan avgöra vad som beror på DV/HDR10 mot hur varje tillverkare reglerar ljus- och energiflöde i sin hårdvara. Dvs det är svårt att säga vilka skillnader som beror på själva TV och vilka skillnader som beror på Dolby Vision.

Långt ifrån allt DV-innehåll använder FEL-nivån och långt ifrån allt DV och HDR10+ använder dynamisk metadata i större utsträckning. Om man bara streamar 90-talsserier är det nog sak samma. Om den superproducerade filmen som kör DV med alla finesser aktiverade är en bra film fortfarande en bra film. Omöjligt för väldigt många att veta ifall vissa scener på din Samsung-TV blev för ljusa eller hade fel vitbalans. Kanske inte ens var viktigt.

Så ja, man köpa en Samsung-TV och aldrig sakna Dolby Vision.

Gah! Omöjligt att förklara DV och HDR utan att det blir långa inlägg.

Permalänk
Medlem

Hhahaha, kung är du Laxpudding

Permalänk
Medlem
Skrivet av Laxpudding:

DV vs. HDR10+ är inte en fråga om ett antingen eller som så många vill tolka situationen. Allting ska tydligen diskuteras utifrån "X vs. Y" som om det vore en boxningsmatch eller presidentval. Nåväl.

Ingen som köper en Samsung-OLED lär sakna DV för det finns inget sätt att påvisa när var och hur DV tillför något på den just TV:n för just den användaren.

Samma sak är det med HDR10+ där den som köper en LG-TV aldrig någonsin kommer sakna HDR10+ av samma anledning.

Fast det är skillnader. Inte alltid och inte hela tiden. Ibland små och ibland stora skillnader.

---

Både DV och HDR10+ bygger på HDR10 som bas och adderar dynamisk metadata som låter TV:n anpassa sin förmåga att ljussätta bilden efter scenens innehåll. Det är en komplexitet bakom detta som är alldeles för långt för att ta upp i ett inlägg, men kortfattat kan dynamisk metadata göra att TV:n får möjligheten(*) att göra det bästa den kan scen för scen i en film, snarare än att den ljussätter bilden statiskt baserat på hela filmens genomsnittliga bildinnehåll.

Det ska tilläggas att innehåll med både DV och HDR10+ fortfarande kan vara statiska i den egenskapen att det aldrig mastrats med dynamisk metadata för det behövs inte för produktionen i fråga. HDR10+ brukar dock bli mer konsekvent än HDR10-vanilj för det finns fortfarande metadata om ljusnivåerna vilket det inte alltid gör med HDR10-vanilj.

Det som DV tillför över dynamisk metadata är förmågan till högre precision via Dolby Vision FEL, Full Enhancement Layer. Bara det ämnet i sig är extra komplext och handlar även om själva mastringsprocessen. Kortfattat och enkelt kan Dolby Vision ge oss 12 bitars precision och högre kontroll över ljusnivåerna i bilden.

(*) Hur bilden tonemappas, dvs bild innehållet översätts till ljus, är betydligt mer konsekvent med Dolby Vision eftersom det sker genom Dolbys algoritmer och metodik. Vanilj-HDR och även HDR10+ är betydligt mer godtyckligt och upp till varje TV-tillverkares ibland rätt så jädra olika algoritmer. Dolby Vision styr verkligen upp detta och bilden som visas är mer ett resultat av vad TV:ns kvalitet, ljusstyrka och kontrast etc. Därför DV faktiskt fungerar och förbättrar även för enkla och simpla TV.

Den där möjligheten att göra det bästa TV:n tekniskt är kapabel till är generellt större med Dolby Vision.

---

Samsungs TV har visat enormt godtycke med HDR-återgivningen där det ofta är för ljus/platt bild och för starka färger. Jag har till och med mätt upp Samsung-TV:s som skiftar vitbalansen baserat på ljusinnehållet i HDR-bilden. Likt att hela bilden drar mot en mer turkos ton. Stort sabla fel!

Fast detta har blivit bättre, Samsungs 2024-OLED S95D är den första Samsung-TV jag mätt upp som mäter helt konsekvent med HDR10.

Här är du kruxet, pudelns kärna: Om du köper en Samsung och tittar på Netflix, UHD-BD mer mera där Dolby Vision annars finns, då existerar inget sätt att tydliggöra de fel och det godtycke som kanske eller kanske inte tillförs. Det är omöjligt att sakna Dolby Vision på annat sätt än att du köper en till TV med nära identiskt hårdvara (säg Sony A95L) och ställer den parallellt med Samsungen med DV-strömmen mot HDR10-strömmen.

Och även då är det inte säkert det är skillnad alla gånger. Eller ens säkert man kan avgöra vad som beror på DV/HDR10 mot hur varje tillverkare reglerar ljus- och energiflöde i sin hårdvara. Dvs det är svårt att säga vilka skillnader som beror på själva TV och vilka skillnader som beror på Dolby Vision.

Långt ifrån allt DV-innehåll använder FEL-nivån och långt ifrån allt DV och HDR10+ använder dynamisk metadata i större utsträckning. Om man bara streamar 90-talsserier är det nog sak samma. Om den superproducerade filmen som kör DV med alla finesser aktiverade är en bra film fortfarande en bra film. Omöjligt för väldigt många att veta ifall vissa scener på din Samsung-TV blev för ljusa eller hade fel vitbalans. Kanske inte ens var viktigt.

Så ja, man köpa en Samsung-TV och aldrig sakna Dolby Vision.

Gah! Omöjligt att förklara DV och HDR utan att det blir långa inlägg.

Tack, du är en enorm källa av information som aldrig verkar ta slut!

Jag har haft lite konversationer med GPT4o och Copilot AI som genererat liknande svar, men Mr Laxpudding är mycket bättre på att förklara.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av Laxpudding:

Kortfattat och enkelt kan Dolby Vision ge oss 12 bitars precision och högre kontroll över ljusnivåerna i bilden.

Tack för utförligt och väl förklarat inlägg 🙏

En fundering kring 12 bitars precision. Är detta något som spelar roll på dagens tv? Iom att det inte existerar 12 bit-paneler (i vart fall inte för oss konsumenter?). Kan det ändå påverka på något sett eller är det mer en grej för framtiden?

Visa signatur

Dator: 7800x3d | RTX 4090 | 32gb ram | 1tb ssd
Ljud: M&K | Antlion Kimura Duo | Airpods Pro |
Bild: Sony X95L 85” | Alienware AW2723DF
Media: Zidoo Z30 Pro 8K | Apple TV | PS5

Permalänk
Bildexpert 📺
Skrivet av eFoppa:

Tack för utförligt och väl förklarat inlägg 🙏

En fundering kring 12 bitars precision. Är detta något som spelar roll på dagens tv? Iom att det inte existerar 12 bit-paneler (i vart fall inte för oss konsumenter?). Kan det ändå påverka på något sett eller är det mer en grej för framtiden?

Ja och nej. Det finns inte 12 bitars precision i TV-apparaterna i någon större utsträckning. I praktiken är det 6–10 bitars inom luminansomfånget där 10 bitar vid HDR typiskt approximeras genom olika halvtonsmönster, både spatiala och temporala halvtoner.

Mycket av de djupa och nördiga diskussionerna om problem och beteenden med exempelvis skuggtoner hos TV-apparater handlar om just detta, hur tillverkarna försöker med just sina metoder för att kliva runt begränsningar hos paneltekniken vid svaga luminansnivåer.

Däremot finns en poäng med 12 bitars precision för att täcka in ursprungsmaterialets, alltså filmens, nivåer så som det har mastrats vilket kan vara i 12 bitar eller mer. HDR10 och HDR10+ blir då en reducering av ursprungsmaterialet och då kan 12 bitar representera ett större omfång som tillverkarna med olika metoder då kan försöka approximera.

Detta är extra tydligt vid HDR som har absoluta nivåer. Det finns (inom videoomfång) ett 10-bitars intervall på värdet 64–940 där HDR10 beskriver 0 som svart, 723 som 1000 nits och 940 10 000 nits.

Så en HDR10-film mastrad för 1000 nits har ett kodomfång på 64–723, alltså 629 absoluta och diskreta steg av luminansnivåer från svart till det allra ljusaste filmen är skapad för. Med 12 bitar som grund är det därmed fyra gånger fler diskreta steg. Underlättar när TV:n ska skapa alla halvtoner och pricka in rätt luminansnivå.

Permalänk
Medlem
Skrivet av Laxpudding:

Ja och nej. Det finns inte 12 bitars precision i TV-apparaterna i någon större utsträckning. I praktiken är det 6–10 bitars inom luminansomfånget där 10 bitar vid HDR typiskt approximeras genom olika halvtonsmönster, både spatiala och temporala halvtoner.

Mycket av de djupa och nördiga diskussionerna om problem och beteenden med exempelvis skuggtoner hos TV-apparater handlar om just detta, hur tillverkarna försöker med just sina metoder för att kliva runt begränsningar hos paneltekniken vid svaga luminansnivåer.

Däremot finns en poäng med 12 bitars precision för att täcka in ursprungsmaterialets, alltså filmens, nivåer så som det har mastrats vilket kan vara i 12 bitar eller mer. HDR10 och HDR10+ blir då en reducering av ursprungsmaterialet och då kan 12 bitar representera ett större omfång som tillverkarna med olika metoder då kan försöka approximera.

Detta är extra tydligt vid HDR som har absoluta nivåer. Det finns (inom videoomfång) ett 10-bitars intervall på värdet 64–940 där HDR10 beskriver 0 som svart, 723 som 1000 nits och 940 10 000 nits.

Så en HDR10-film mastrad för 1000 nits har ett kodomfång på 64–723, alltså 629 absoluta och diskreta steg av luminansnivåer från svart till det allra ljusaste filmen är skapad för. Med 12 bitar som grund är det därmed fyra gånger fler diskreta steg. Underlättar när TV:n ska skapa alla halvtoner och pricka in rätt luminansnivå.

Tack igen för bra och informativt svar! 😃

Visa signatur

Dator: 7800x3d | RTX 4090 | 32gb ram | 1tb ssd
Ljud: M&K | Antlion Kimura Duo | Airpods Pro |
Bild: Sony X95L 85” | Alienware AW2723DF
Media: Zidoo Z30 Pro 8K | Apple TV | PS5

Permalänk
Medlem

Jag behöver hjälp.

Min Sony OLED XR A90J (master serie) 55 tum fick ett kluster fel i panelen. Det uppstod helt plötsligt en rand i TV, mitt i höger halva av bilden. Sjukt irriterande. Så jag lämnade in min TV för reparation. Nu säger man att felet inte går att åtgärda utan man kommer att byta ut TV mot en ny och då mot en Sony K-55XR84? Vad innebär det? Är den en motsvarande eller är det en sämre TV än vad jag tidigare haft? Jag gillade verkligen min A90J bild.

Tacksam för svar.

Visa signatur

Dell U2311H / MSI Optix MAG274QRF-QD
[ FD 7 Black TG Dark ][ MSI Z690 EDGE WIFI DDR4][ I7 12700K ][ Noctau NH-D15 Black ][ Kingston Fury Renegade 32GB 3600Mhz CL16 DDR4][ WD Blue M2 1TB][ Samsung 860 500 GB ][ WD Caviar Green (EZRX) 1TB ][ Corsair RM850x v3 ][ MSI GTX 1060 GamingX 6GB ][ Backup WD Caviar Green (EARX) 2TB ] [ Backup Seagate BarraCuda (ST2000DM006) 2TB ]
[ Qpad MK-50 ][ SteelSeries Sensei Ten ]

Permalänk
Medlem
Skrivet av NightFred:

Jag behöver hjälp.

Min Sony OLED XR A90J (master serie) 55 tum fick ett kluster fel i panelen. Det uppstod helt plötsligt en rand i TV, mitt i höger halva av bilden. Sjukt irriterande. Så jag lämnade in min TV för reparation. Nu säger man att felet inte går att åtgärda utan man kommer att byta ut TV mot en ny och då mot en Sony K-55XR84? Vad innebär det? Är den en motsvarande eller är det en sämre TV än vad jag tidigare haft? Jag gillade verkligen min A90J bild.

Tacksam för svar.

Det är en mycket mycket sämre TV (och LCD istället för OLED). Du bör givetvis få en TV i samma klass så påtala detta. Det är funktion och inte pris som sätter vad får i ersättning. Påpeka tex att film är viktigt för dig och att en mellanklass LCD inte är i närheten i svärta .

Permalänk
Medlem
Skrivet av Ibymafayhas:

Det är en mycket mycket sämre TV (och LCD istället för OLED). Du bör givetvis få en TV i samma klass så påtala detta. Det är funktion och inte pris som sätter vad får i ersättning. Påpeka tex att film är viktigt för dig och att en mellanklass LCD inte är i närheten i svärta .

Det är väl en OLED? Är väl dock inte den bästa i deras OLED-linje.

"K-55XR84 / BRAVIA 8
BRAVIA 8 | XR-processor | OLED | 4K Ultra HD | HDR (High Dynamic Range) | Smart-tv (Google TV) / Inkluderade komponenter kan variera beroende på inköpsland eller -region: RMT-TX450E, RMF-TX920U"

https://www.sony.se/electronics/support/oled-tvs-android-brav...

Permalänk
Bildexpert 📺

Bravia 8/XR84 (det blir inte tydligare med Sonys "namnbyte") är deras vanlig 2024-WOLED-modell som ersätter och förbättrar ovanpå A80L-serien. Så inte "Master"-nivån men den nivån finns heller inte riktigt kvar utan skulle då handla om QD-OLED-A95L-modellen som definitivt är ovanför A90J i prestanda. Så finns nog ingen riktig ersättare.

A80L är ett kliv bakåt mot A90J då den är ljussvagare och även har sämre reflexfilter. Jag vet inte ifall Bravia 8/XR54 åtgärdar detta, men de ska enligt Sony vid lansering vara ett lyft i ljusstyrka.

Rtings har testat och deras jämförelse pekar på att Bravia 8 i stort är ekvivalent med A90J:
https://www.rtings.com/tv/tools/compare/sony-bravia-8-oled-vs...

Permalänk
Medlem
Skrivet av Ugga:

Det är väl en OLED? Är väl dock inte den bästa i deras OLED-linje.

"K-55XR84 / BRAVIA 8
BRAVIA 8 | XR-processor | OLED | 4K Ultra HD | HDR (High Dynamic Range) | Smart-tv (Google TV) / Inkluderade komponenter kan variera beroende på inköpsland eller -region: RMT-TX450E, RMF-TX920U"

https://www.sony.se/electronics/support/oled-tvs-android-brav...

Var inne och försökte jämföra modellerna på Sonys hemsida. Min A90J är OLED och XR men så är ju också K-55XR84. Men mycket svårt att få eller se något vettigt då alla ruter inte är ifyllda eller att det står samma sak i alla rutor på A95K och A95L samt A90J men så gör det inte det på Bravia 8 XR80/84. Så jag tänkte det är bäst att ställa frågan här istället. Har dessutom ingen uppfattning vad det säger.

Skrivet av Laxpudding:

Bravia 8/XR84 (det blir inte tydligare med Sonys "namnbyte") är deras vanlig 2024-WOLED-modell som ersätter och förbättrar ovanpå A80L-serien. Så inte "Master"-nivån men den nivån finns heller inte riktigt kvar utan skulle då handla om QD-OLED-A95L-modellen som definitivt är ovanför A90J i prestanda. Så finns nog ingen riktig ersättare.

A80L är ett kliv bakåt mot A90J då den är ljussvagare och även har sämre reflexfilter. Jag vet inte ifall Bravia 8/XR54 åtgärdar detta, men de ska enligt Sony vid lansering vara ett lyft i ljusstyrka.

Rtings har testat och deras jämförelse pekar på att Bravia 8 i stort är ekvivalent med A90J:
https://www.rtings.com/tv/tools/compare/sony-bravia-8-oled-vs...

Tack för svar. Skulle man säga att modellen A90J och K-55XR84 är mycket lika i mångt och mycket men att den sist nämnda modellen är ljussvagare och sämre reflexfilter än A90J. Är det korrekt uppfattat. Men att färgmässigt är de likvärdiga. Att A95L är bra mycket bättre och därför inte går att jämföra med både A90J och K-55XR84. Men äldre modell A95K är den mer likvärdig med A90J och K-55XR84 då?

Visa signatur

Dell U2311H / MSI Optix MAG274QRF-QD
[ FD 7 Black TG Dark ][ MSI Z690 EDGE WIFI DDR4][ I7 12700K ][ Noctau NH-D15 Black ][ Kingston Fury Renegade 32GB 3600Mhz CL16 DDR4][ WD Blue M2 1TB][ Samsung 860 500 GB ][ WD Caviar Green (EZRX) 1TB ][ Corsair RM850x v3 ][ MSI GTX 1060 GamingX 6GB ][ Backup WD Caviar Green (EARX) 2TB ] [ Backup Seagate BarraCuda (ST2000DM006) 2TB ]
[ Qpad MK-50 ][ SteelSeries Sensei Ten ]

Permalänk
Bildexpert 📺
Skrivet av NightFred:

Tack för svar. Skulle man säga att modellen A90J och K-55XR84 är mycket lika i mångt och mycket men att den sist nämnda modellen är ljussvagare och sämre reflexfilter än A90J. Är det korrekt uppfattat. Men att färgmässigt är de likvärdiga. Att A95L är bra mycket bättre och därför inte går att jämföra med både A90J och K-55XR84. Men äldre modell A95K är den mer likvärdig med A90J och K-55XR84 då?

Det blev delvis missuppfattning.

A80L är ljussvagare och har sämre reflexfilter än A90J. Bravia8/XR8 ersätter A80L men är enligt rtings mer ekvivalent med din A90J. De observerar hos Bravia 8 och bättre spelprestanda men något sämre färgprecision som är inom det mät- och exemplarmässiga variationer skulle jag säga. De konstaterar likadana reflexfilter och samma nivå av ljusstyrka.

Jag har inte sett en europeisk Bravia 8 så vet inte hur detta stämmer. Nu brukar Sony sällan skilja sig mellan nordamerika och europa så det troliga är att det rtings konstaterar även stämmer här.

A95K är en utgången modell sedan 18 månader så den har nog kanske inte Sony kvar att ge bort. A95L är bättre än A95K med mer ljusstyrka. En 2023-modell med carry over för 2024.

Permalänk
Medlem
Skrivet av Laxpudding:

Det blev delvis missuppfattning.

A80L är ljussvagare och har sämre reflexfilter än A90J. Bravia8/XR8 ersätter A80L men är enligt rtings mer ekvivalent med din A90J. De observerar hos Bravia 8 och bättre spelprestanda men något sämre färgprecision som är inom det mät- och exemplarmässiga variationer skulle jag säga. De konstaterar likadana reflexfilter och samma nivå av ljusstyrka.

Jag har inte sett en europeisk Bravia 8 så vet inte hur detta stämmer. Nu brukar Sony sällan skilja sig mellan nordamerika och europa så det troliga är att det rtings konstaterar även stämmer här.

A95K är en utgången modell sedan 18 månader så den har nog kanske inte Sony kvar att ge bort. A95L är bättre än A95K med mer ljusstyrka. En 2023-modell med carry over för 2024.

Tack för att du förklarar. Då förstår jag. Får hoppas på lite tur och se hur det hela slutar. Har tryckt på att en A95K som ersättning är helt OK och det inte måste vara senaste modellen men jag förstår att den jag lämnade in var av äldre modell och att A95K är på utgående och därför svår att få tag på. Tycker bara att man borde få en likvärdig produkt ur Master serien. Men misstänker att det blir den K55XR84 i slutändan. Med mina mindre bra kunskaper så var de rätt lika på rtings sida när jag satt och läste en stund.

Visa signatur

Dell U2311H / MSI Optix MAG274QRF-QD
[ FD 7 Black TG Dark ][ MSI Z690 EDGE WIFI DDR4][ I7 12700K ][ Noctau NH-D15 Black ][ Kingston Fury Renegade 32GB 3600Mhz CL16 DDR4][ WD Blue M2 1TB][ Samsung 860 500 GB ][ WD Caviar Green (EZRX) 1TB ][ Corsair RM850x v3 ][ MSI GTX 1060 GamingX 6GB ][ Backup WD Caviar Green (EARX) 2TB ] [ Backup Seagate BarraCuda (ST2000DM006) 2TB ]
[ Qpad MK-50 ][ SteelSeries Sensei Ten ]

Permalänk
Medlem
Skrivet av NightFred:

Tack för att du förklarar. Då förstår jag. Får hoppas på lite tur och se hur det hela slutar. Har tryckt på att en A95K som ersättning är helt OK och det inte måste vara senaste modellen men jag förstår att den jag lämnade in var av äldre modell och att A95K är på utgående och därför svår att få tag på. Tycker bara att man borde få en likvärdig produkt ur Master serien. Men misstänker att det blir den K55XR84 i slutändan. Med mina mindre bra kunskaper så var de rätt lika på rtings sida när jag satt och läste en stund.

Även om A95x är en serie som motsvarar A90J i produkthierarkin så kommer de nog bara hävda att de är för mycket bättre jämfört med det har nu.

Sett till prislappen så kan det tyckas att du borde få en A95L då de kostar i samma region som A90J gjorde men då får du också en ganska mycket bättre TV än den du har idag vilket Sony helst inte bara vill ge dig. Tråkig sits att vara i men Bravia 8 kommer knappast göra dig besviken.

Visa signatur

f0rest stan | Citera mera | 5800x, 6700 XT

Permalänk
Medlem
Skrivet av Clasito:

Även om A95x är en serie som motsvarar A90J i produkthierarkin så kommer de nog bara hävda att de är för mycket bättre jämfört med det har nu.

Sett till prislappen så kan det tyckas att du borde få en A95L då de kostar i samma region som A90J gjorde men då får du också en ganska mycket bättre TV än den du har idag vilket Sony helst inte bara vill ge dig. Tråkig sits att vara i men Bravia 8 kommer knappast göra dig besviken.

Ja, det var så Sony resonerade att min A90J var av äldre generation och att nuvarande modell i Master-serien var så bra mycket bättre att det inte gick att jämföra även med den utgående A95K modellen vilket jag föreslog skulle vara en rimlig lösning. Det hela slutade med att jag får en Sony Bravia 8 K55XR84 som kommer till Power. Fick kalibrering på köpet av Power men det var dock den gamla när jag köpte den men det tackar man ju för. Det var ju hyggligt av Power! Sony vill inte ge bort en bättre tv i utbyte och de har säkert strikta regler på att inte förlora för mycket pengar vid dessa typer av fel. Vilket jag kan förstå. Så jag har ju inget att välja på utan har accepterat mitt öde. Det är säkert en mycket bra tv, det tvivlar jag inte på men felet som uppstod var ju inte orsakat av mig utan var ett fabriks fel där det känns som jag nog drog en nitlott. Men tack för hjälpen, det uppskattas verkligen.

Visa signatur

Dell U2311H / MSI Optix MAG274QRF-QD
[ FD 7 Black TG Dark ][ MSI Z690 EDGE WIFI DDR4][ I7 12700K ][ Noctau NH-D15 Black ][ Kingston Fury Renegade 32GB 3600Mhz CL16 DDR4][ WD Blue M2 1TB][ Samsung 860 500 GB ][ WD Caviar Green (EZRX) 1TB ][ Corsair RM850x v3 ][ MSI GTX 1060 GamingX 6GB ][ Backup WD Caviar Green (EARX) 2TB ] [ Backup Seagate BarraCuda (ST2000DM006) 2TB ]
[ Qpad MK-50 ][ SteelSeries Sensei Ten ]

Permalänk
Medlem
Skrivet av Clasito:

Även om A95x är en serie som motsvarar A90J i produkthierarkin så kommer de nog bara hävda att de är för mycket bättre jämfört med det har nu.

Sett till prislappen så kan det tyckas att du borde få en A95L då de kostar i samma region som A90J gjorde men då får du också en ganska mycket bättre TV än den du har idag vilket Sony helst inte bara vill ge dig. Tråkig sits att vara i men Bravia 8 kommer knappast göra dig besviken.

TV är på plats. Nöjd med bilden så här initialt. Har inte hunnit testa så mycket då jag fick den i helgen. Kalibreringen gjorde ju att bilden blev bättre än direkt ur kartong. Just nu är problemet att HDMI ARC från tv till min Advance Paris A10 Classic inte funkar. Vet inte riktigt varför men får verkligen inget ljud. Står att det inte stödjer eller fel på kabeln. Detta funkade felfritt på den gamla A90J modellen. Provat allt möjligt men utan resultat. Slutade med att jag fick koppla en optisk kabel istället vilket funkar men då försvinner hela funktionen med HDMI ARC. Använde samma kabel som tidigare så det borde väl fungera? Finns det något som hindrar? Är den nya tv så att man måste köpa en nyare HDMI kabel för att det skall fungera?

Visa signatur

Dell U2311H / MSI Optix MAG274QRF-QD
[ FD 7 Black TG Dark ][ MSI Z690 EDGE WIFI DDR4][ I7 12700K ][ Noctau NH-D15 Black ][ Kingston Fury Renegade 32GB 3600Mhz CL16 DDR4][ WD Blue M2 1TB][ Samsung 860 500 GB ][ WD Caviar Green (EZRX) 1TB ][ Corsair RM850x v3 ][ MSI GTX 1060 GamingX 6GB ][ Backup WD Caviar Green (EARX) 2TB ] [ Backup Seagate BarraCuda (ST2000DM006) 2TB ]
[ Qpad MK-50 ][ SteelSeries Sensei Ten ]

Permalänk
Bildexpert 📺

@NightFred: det är inte HDMI-kabeln om den fungerat tidigare med ARC eftersom ARC/eARC inte kräver något särskilt avancerat. Hade kabeln du använde saknat pinne14-kopplingen för ARC/eARC hade det inte fungerat tidigare heller.

Däremot är det väldigt vanligt med den här typen av krångel med just ARC och typiskt scenario är att det är tyst med eller utan felmeddelanden. Sedan fungerar det plötsligt utan att man till synes gjort något annorlunda. Man får fippla, låta enheter stå strömlösa, dra kabeln in och ut, ändra, starta om och svära högt. Sedan fungerar det. Inte helt olikt scenariot att få in en USB-kontakt på första försöket.

Du kan fortfarande försöka med en ny HDMI-kabel om det håller i sig. Ett långskott är att gamla kabeln faktiskt blev glapp eller liknande när du nu bytte TV och drog ut kabeln. Men oftast är det bara bråk mellan kretsarna i vardera änden av kabeln.

Permalänk
Medlem
Skrivet av Laxpudding:

@NightFred: det är inte HDMI-kabeln om den fungerat tidigare med ARC eftersom ARC/eARC inte kräver något särskilt avancerat. Hade kabeln du använde saknat pinne14-kopplingen för ARC/eARC hade det inte fungerat tidigare heller.

Däremot är det väldigt vanligt med den här typen av krångel med just ARC och typiskt scenario är att det är tyst med eller utan felmeddelanden. Sedan fungerar det plötsligt utan att man till synes gjort något annorlunda. Man får fippla, låta enheter stå strömlösa, dra kabeln in och ut, ändra, starta om och svära högt. Sedan fungerar det. Inte helt olikt scenariot att få in en USB-kontakt på första försöket.

Du kan fortfarande försöka med en ny HDMI-kabel om det håller i sig. Ett långskott är att gamla kabeln faktiskt blev glapp eller liknande när du nu bytte TV och drog ut kabeln. Men oftast är det bara bråk mellan kretsarna i vardera änden av kabeln.

Tack för svaret. Ja, svurit har jag gjort en hel del. Testat det som du skrev men jag får helt enkelt fortsätta att testa igen. Det är ju inte direkt "plug and play" enkelt. Köper en ny kabel så har jag uteslutit detta problem också!

Visa signatur

Dell U2311H / MSI Optix MAG274QRF-QD
[ FD 7 Black TG Dark ][ MSI Z690 EDGE WIFI DDR4][ I7 12700K ][ Noctau NH-D15 Black ][ Kingston Fury Renegade 32GB 3600Mhz CL16 DDR4][ WD Blue M2 1TB][ Samsung 860 500 GB ][ WD Caviar Green (EZRX) 1TB ][ Corsair RM850x v3 ][ MSI GTX 1060 GamingX 6GB ][ Backup WD Caviar Green (EARX) 2TB ] [ Backup Seagate BarraCuda (ST2000DM006) 2TB ]
[ Qpad MK-50 ][ SteelSeries Sensei Ten ]

Permalänk
Medlem
Skrivet av Laxpudding:

@NightFred: det är inte HDMI-kabeln om den fungerat tidigare med ARC eftersom ARC/eARC inte kräver något särskilt avancerat. Hade kabeln du använde saknat pinne14-kopplingen för ARC/eARC hade det inte fungerat tidigare heller.

Däremot är det väldigt vanligt med den här typen av krångel med just ARC och typiskt scenario är att det är tyst med eller utan felmeddelanden. Sedan fungerar det plötsligt utan att man till synes gjort något annorlunda. Man får fippla, låta enheter stå strömlösa, dra kabeln in och ut, ändra, starta om och svära högt. Sedan fungerar det. Inte helt olikt scenariot att få in en USB-kontakt på första försöket.

Du kan fortfarande försöka med en ny HDMI-kabel om det håller i sig. Ett långskott är att gamla kabeln faktiskt blev glapp eller liknande när du nu bytte TV och drog ut kabeln. Men oftast är det bara bråk mellan kretsarna i vardera änden av kabeln.

Hittade svaret. När jag valde PMC så fick jag ljud genom till HDMI ARC på stereon från tv. Hittade det efter ett tips i ljud inställningarna på tv. Verkar som eARC inte funkade mot stereons ARC riktigt. Vet ej om det är kompatibelt med varandra men nu funkar det som innan med samma HDMI kabel. Tack för hjälpen!

Visa signatur

Dell U2311H / MSI Optix MAG274QRF-QD
[ FD 7 Black TG Dark ][ MSI Z690 EDGE WIFI DDR4][ I7 12700K ][ Noctau NH-D15 Black ][ Kingston Fury Renegade 32GB 3600Mhz CL16 DDR4][ WD Blue M2 1TB][ Samsung 860 500 GB ][ WD Caviar Green (EZRX) 1TB ][ Corsair RM850x v3 ][ MSI GTX 1060 GamingX 6GB ][ Backup WD Caviar Green (EARX) 2TB ] [ Backup Seagate BarraCuda (ST2000DM006) 2TB ]
[ Qpad MK-50 ][ SteelSeries Sensei Ten ]

Permalänk

Med nya familjeförhållanden befinner jag mig plötsligt i en etta på 25 kvm. Under ett fönster vill jag nu ställa en teve, kanske på bananlådor på golvet, eller kanske bara på golvet.

Mitt föredragna format 32" kanske är för litet? Kan tänka mig upp till 43" möjligen.

Vilken tv kan köra GeForce Now natively? Samt gärna har bluetooth för keyboard och mus som inte trasslar för mycket? Suuuuuper casual gaming mest för att barnen kan köra lite Minecraft eller så. GeForce Now i en timme på free tier är väl tanken.

Vill jag välja bort Samsungs och LGs respektive operativsystem till förmån för Google TV/Android TV (?)

Tack tv-guiden-tråden!

P.S. Blev rekommenderad att kika in på SweClockers igen när jag var inne hos Kjell & Co och började älta ovan.