Inlägg

Inlägg som Novdid har skrivit i forumet
Av Novdid

Läser diskussionen och det jag tänker är att mer RT i takt med att hårdvara hanterar det bättre är oundvikligt. Främst för att utvecklarna vill ha det, för att deras arbete underlättas så de kan lägga mer tid på att faktiskt göra spel istället för att baka ljus, placera ljuskällor för att fejka indirekt belysning och programmera mer eller mindre avancerade rastreringstekniker. RT löser ljussättning med en mycket mindre insats från utvecklare.

Sedan tycker jag personligen att rastreringstekniker för skuggor (shadow maps) och screen space-reflektioner är så fula att jag oftast önskar att utvecklarna använde tekniker som kom innan. Tänk Doom 3s stencil-skuggor eller simpla cube maps för reflektioner.

Av Novdid
Skrivet av Mr_Flash:

Någon mer än jag som fick 2st begagnade Noctua-fläktar istället för nya (Amazon 199kr styck)?

Jag köpte 4 och de såg ut och kändes på alla sätt som nya. Tråkigt att du fått begagnade.

Av Novdid
Skrivet av DasIch:

Ja, alltså, typ en aning nerfad.

I spelen har jag för mig att Yen nämner något om att det gjorts försök och det visat sig särskilt obra för kvinnor. Fast det är ju en... eh... medicinteknisk begränsning. Om de knäckt gåtan kring hur de ska göra nya witchers är det ju inte så långsökt att de fått proceduren att funka bättre.

Ja precis. Det fina med fiktion är ju precis det att det går, inom de regler som sätts upp för världen, göra justeringar. Och att återuppliva/återupptäcka processen för Trial of The Grasses och justera receptet något så det funkar även på kvinnor (och Ciri är allt annat än en normal kvinna) är inte en orimlig utveckling av loren. Kan till och med vara en del av prologen för spelet om det tar vid där W3 slutade.

Av Novdid
Skrivet av Pantburk:

@Donnerstal

Den sålde jag när jag fick några hundra i förtjänst och köpte en 9800x3d för 5400kr som sonen tyvärr la beslag på.

Har väntat på att fler 9800 ska släppas men verkar ta tid och vart lite intresserad av 285K när jag såg den för 6000kr.

Jag är lite random user så många kärnor kan ju vara bra.

Men handen på hjärtat, gör 285K någonting bättre än 7950X (som är billigare)? Förutom att vissa verkligen vill att det ska stå "Intel" på lådan de köper så ser jag inga rimliga skäl just nu att välja Arrow Lake. Inga alls faktiskt, de är både dyrare och långsammare än andra alternativ. Oavsett om man spelar eller producerar.

Av Novdid
Skrivet av ågren:

Är inte Apple kända för att erbjuda bäst kvalitet på deras digitala releaser? Man kan köpa filmer i 4K med Dolby Atmos och jag vet inte hur de står sig mot en fysisk BD men det kan vara värt att kolla upp om man är intresserad. 🙂

Köper man filmerna genom deras plattform så finns det kanske möjlighet att ladda ned en fet 40GB-fil med maxad bitrate? Jag fattar så klart att det inte är samma sak som att ha en samling fysiska filmer men kritiken verkar främst handla om bild- och ljudkvalitet och Apple kanske har något vettigt att erbjuda i det avseendet jämfört med traditionella streamingtjänster?

Det är inte Bluray-kvalitet från Apple, och tjänsten är mer att likna vid en hyra eller leasing än att äga. UHD-Bluray är upp till 100GB och de flesta filmer är mellan 50 och 80 GB.

Skrivet av GuessWho:

Hade varit bra med en motsvarighet till GoG så man kan ha möjlighet att ladda ner filmerna DRM fritt och lagra på en extern hårddisk eller NAS eller vad man nu vill.
Så du alltid kan ha en kopia så länge du har backup. Även om tjänsten skulle försvinna i framtiden.

GOG är ett mycket bättre exempel såklart. Men problemet är att det är helt orealistiskt att det skulle vara DRM-fritt tyvärr. Även Bluray har en mild form av DRM inbyggt. Oavsett så hade det varit fantastiskt att kunna köpa filmer digitalt med lossless ljud och Bluray-kvalitet rent bildmässigt och lagligt(!) kunna lagra dem på en privat NAS. Men det är väl att be om för mycket.

Av Novdid

Det är dags för en tjänst likt Steam för digital media som kan ersätta Bluray. Det är något jag genuint inte förstår varför ingen har tagit tag i. Ingen ekonom i deti? Jag hade nog köpt fler filmer om det var ett alternativ att kunna dra ner filmer och serier i absolut högsta kvalitet som jag "äger".

Av Novdid
Skrivet av mistahh:

Spelet är patchat: https://www.fz.se/nyhet/299281-forsta-indiana-jones-patchen-f...

"Added Full Ray Tracing (Path Tracing) feature on supported NVIDIA video cards. A minimum of 12GB VRAM is required to make use of this feature."

Men fan. De ger inte ens valmöjligheten att slå på Path Tracing...

Handlar väl om att de gärna vill att upplevelsen ska vara OK om även de mindre kunniga slår på PT och möter ett spel med hack på över sekunden pga brist på VRAM. Argumentet gäller även användare med AMDs grafikkort som kanske har mängden VRAM men inte RT-prestanda för mer än enstaka FPS.

Av Novdid

Mycket renare grafik med PT. Speciellt skuggorna städas upp snyggt. Shadow maps i moderna spel är verkligen sjukt fula (även i Alan Wake 2). Problemet är väl att FPS sjunker som en sten. I djungeldelen så går det från ca 110-120 till ca 40. Ouch. Speciellt då det i vissa scener inte ger så mycket utöver skuggorna vad jag kan se. Blir väl en avvägning om det är värt det eller ej.

Av Novdid

Samtidigt sitter de flesta med grafikkort med bra mycket mer kraft än dessa CPUers NPUer, och får inte nyttja dessa funktioner. Intressant.

Av Novdid
Skrivet av spacedebree:

Undrar lite med... Frame gen kan du väl inte köra med AMD-kort, men de har väl liknande tekniker?

AMD har en variant på frame-gen som funkar väldigt bra faktiskt. Uppskalningen i FSR är inte den bästa med FSR-frame gen är bra nära DLSS-frame gen. Det går dessutom att modda in i spel med DLSS-frame gen, vilket jag med ett 3090 har gjort i vissa spel med framgång.

Av Novdid
Skrivet av xfade:

I detta fall testades ett spel. ingent annat.

Men du hade någon form av raljant utläggning om CPU-begränsning där du ifrågasatte testet. Jag försökte vänligt förklara bara.

Av Novdid
Skrivet av jOnÄTÄn:

Men om man kör spelet på medium/hög så lär det inte dra så mycket vram. Man bör ju vara redo att acceptera lägre inställningar när man köper mellanklass kort.

Ska själv testa lite när spelet släpps. Har ett 6650xt och kör 3440x1440, men tror det ska gå om jag går ner på Low/medium.
Eventuellt FSR eller Xess om det ser okej ut i spelet.

Problemet är väl att rent generellt finns det ingen inställning sänker spel visuellt lika mycket som texturer. Det är den sista inställningen jag hade velat sänka.

Av Novdid
Skrivet av Sveklockarn:

Fast vi lever inte i konsolvärlden utan i PC-världen, där har man grafikinställningar för att kunna optimera olika inställningar efter sin hårdvara. Fyra år är på tok för gammalt för att kunna komma och hävda att allt borde gå att spela.

Vad har du helst nu, ett 3070 8 GB eller ett Radeon VII 16 GB?

Jag skulle inte heller köpa ett kort (eller rekommendera ett) med 8 GB VRAM till att maxa AAA-spel, men det finns också en balans mellan hur mycket man har betalat och vilken prestanda man kan förvänta sig. Nvidia har ju konstigt nog lyckats hålla täten trots att AMD började pumpa ut grafikkort med 16 GB VRAM för åtta år sedan.

Nu är nog ett RX 6800 med 16GB VRAM en mycket mer relevant jämförelse mot 3070 sett till ålder och pris. Men visst, vill du vinkla hejvilt så står det dig fritt.

Skrivet av sweisdapro:

Det stora problemet är att ingen köper Radeon, även när de gör bra saker, jag är nu inne på mitt andra Radeon-kort (bara precis börjat med 7900XTX), och mitt 6900XT har jag haft (tror jag) längre än mitt 1080Ti, utan några som helst problem.
Tittar vi på titeln som testas här så är det inte heller någon milsvid skillnad i prestanda, i en titel som kräver RT dessutom.
Sen kan det bero på att jag skiljer mig från många "fellow gamers" i att jag tycker att RT i sin nuvarande form är lite 'meh', och jag känner helst inte för att ta i uppskalare med tång om jag inte måste.

Fast nu var det inte att de var snåla jag menade (det hade varit "okej"), utan att de gett mer mängd till kort som är lägre i stacken, än till vissa högre, vilket gör att i vissa titlar ändras deras "ordning" i förhållande till var de "borde" vara.
Det logiska hade varit 8GB till 3060, 10GB till 3070, och 12GB till 3080, eller hur?
Då hade vi inte heller hamnat där vi är nu med 3070 vs 3060

Nu valde Nvidia en bussbredd mot VRAM som hade gett 12GB på 3060, 16GB på 3070 och 20GB på 3080 om de inte hade försökt hålla marginalerna uppe och snålat på 3070 och 3080. Personligen så tror jag de högre teoretiska minnesmängderna är och var vettigare när korten släpptes också.

Av Novdid
Skrivet av xfade:

Nej i 1080p är ni inte begränsade av CPU.
Det ÄR klara signifikanta skillnader mellan resultaten.

Å det ÄR därför de seriösa siterna testar Grafikkort i just 1080p för att inte vara begränsade av CPU.

Å det är precis det en grafikkorts recenssioner handlar om.
Att sen slå bort dem med en floskler om "over head" vad vill ni säga Swec? att ni inte skall testa grafikkort i 1080p?

( välj sida nu ) Antingen testa grafikkort med CPU begränsningar, som det inte var i detta test i 1080p, eller inte.

"I 1080p-upplösning är vi relativt begränsade av processorn vilket leder till att de fyra toppmodellerna från både Nvidia och AMD presterar i stort sett likadant med en viss fördel för lag röd. Gissningsvis har AMD lägre overhead i sina drivrutiner, vilket gör att processorflaskhalsen flyttas något."

@CrispVanDahl @JonasT

Är detta första gången / "spelet" som AMD är snabbare i 1080p än 4090? som inte är ett rimligt konsument kort.. i min humla..

Nvidia har sedan länge ingen schemaläggare i hårdvara medan AMD fortfarande har det. Det sköts av CPU i Nvidia. Det finns många exempel där svagare CPUer i lägre upplösningar ger bättre prestanda på Radeon. I realiteten är det dock inget som är relevant då det är under scenarion som är mer akademiska än något annat. I detta spel med 4090 och 4080 i låg upplösning med mycket höga FPS.

Av Novdid
Skrivet av Thomas:

ASBL (TPC) måste man ju typ stänga av på modeller före C2 eftersom LG vägrat fixa problemen som uppstår med det.
Jag hade det på i över ett år, men fy fasen vad störande det var. Flera TV-serier blev typ omöjliga att se, och när det varit en mörkare scen några minuter brukade jag dra upp menyerna för att se om det verkligen skulle vara så mörkt, eller om TV:n buggat ur nu igen, och dragit ner ljusnivån i botten för att "undvika inbränning" när bilden redan var under 1 nit till att börja med.

Ännu jobbigare var det när jag spelade Celeste på den, fick utan överdrift byta till nåt ljust var 4:e-5:e minut för att kunna spela vidare, annars blev det för mörkt för att se vad jag gjorde; det var där jag valde att stänga av det.
Spelet har inte ens en GUI som kan bränna in.

Helt riktigt, TPC och GSR måste deaktiveras på C2 och tidigare för att bli användbara som skärmar. Det pumpas för mycket ljus upp och ner annars.

Av Novdid
Skrivet av DasIch:

Tims resultat tycker jag snarare vittnar om att inbränningar inte är ett stort problem. Det är ett worst-case scenario där det ändå inte är så farligt (alltså, jag hade inte själv velat ha det på min skärm, men det går att leva med). Dessutom är det lätt att minska risken avsevärt: Ställ ner ljusstyrkan, spendera inte timmar med två kontrasterande fönster sida vid sida över hela skärmen, mixa användningen och var du placerar fönster, göm aktivitetsfältet, rotera bakgrundsbilden på skrivbordet, använd skärmsläckare...

Det är inte så stora uppoffringar man behöver göra för att det ska bli mycket bättre.

Precis så. Jag har i princip endast ändrat mitt användande med två åtgärder. Jag gömmer aktivitetsfält och ikoner på skrivbordet, jag har aktiverat skärmsläckare. Jag har aldrig kört extremt ljusstarkt på skrivbordet ändå så på den delen är det som förr (förutom spel och mediekonsumtion i HDR). Och helt ärligt är det skönt att gömma aktivitetsfältet, numera stör jag mig när den syns konstant.

Har en C2 42" som använts flitigt i 2,5 år med olika användningar, CAD, ordbehandling och spel/media. Ingen tillstymmelse till inbränning än.

Av Novdid
Skrivet av +_+:

Tja, Vet inte om det är okej jag frågar i denna tråd, istället för o skapa en ny.

Jag har idag en gammal 42" LCD TV på 1080p som jag gärna vill byta mot en oled. Den skall användas som skärm, Windows, YT, Spel.

Haft 42" i över 15 år så jag är van med storleken även om 4k får annan skalning så klart. Har svårt o tro att jag blir nöjd med något mindre än 42".

jag är dock orolig att LG 42 C4 kommer kännas suddig eller oklar i texten som många klagar på? Pixel tätheten blir ju nästan det dubbla jämfört med idag och detta är ingen superskärm direkt 😂.
Men subpixel strukturen är ju annorlunda på Woled.
Samt hur är det med auto dimming? Är känslig för förändring i ljusstyrka. Kan inte ha de på tex mobilen.

Känns som att BF eller mellandagsreorna är tiden att slå till isf. Butikerna brukar vägra att man kopplar in en dator o tittar. känns meningslöst o köpa, ta hem, bli missnöjd o lämna tillbaka.

Jag använder en C2 42" som skärm. Pixelstrukturen är inte optimal, men det är fullt funktionellt. För spel och mediekonsumtion är den dock exceptionell! Otroligt bra.

Av Novdid
Skrivet av SiRai:

ca 200w för hela systemet är ju inte så mycket. Vad drar en modern PC ungefär?

Vad är det för komponenter? 14900K drar väldigt mycket mer än 7800X3D. Är grafikkortet ett 4060 eller 4090?

Svaret är med andra ord från ca 150W till över 700W. Sedan gillar vissa att klocka och då kan det verkligen springa iväg.

Av Novdid
Skrivet av Taxas:

Frågan är nu, ska man byta ut sin c3 42 tum till en c4 42 tum?
Eller slösar man bara pengar. Använder sen som datorskärm

Använder för tillfället en C2 som skärm och det lockar verkligen inte att uppgradera. Kan tänka mig att uppgradera när 42" Oled erbjuder 240Hz eller högre i framtiden. Det hade gjort en enorm skillnad på skrivbordet för mig. Tror inte att C4 ger någon märkbar skillnad gentemot C2 alls faktiskt.

Av Novdid
Skrivet av tonka/lonka:

Det där är en bild på LS34BG850SUXEN den har mini Displayport. Men LS34DG850SUXEN har Vanlig displayport. Det är LS34DG850SUXEN dom är Nedsatt till 8490. Samsung Odyssey G8 LS34DG850SUXEN

https://images.samsung.com/is/image/samsung/p6pim/se/ls34dg850suxen/gallery/se-odyssey-oled-g8-g85sd-ls34dg850suxen-542925934?$2052_1641_PNG$

Ja, där var det en miss av mig. Och en miss på Samsungs produktnamngivningsavdelning. Skärmar kan vara förvirrande.