Nvidia aktiverar DLSS 4 i uppdaterade drivrutiner

Permalänk
Medlem
Skrivet av Gender Bender:

Du får prestandaökning genom att köra performance i stället för quality, eftersom bildkvalitén i performance med DLSS 4 är bättre än quality med DLSS 3.

ett av dom första inställningarna jag testade. i no mans sky är det 0 skillnad i fps mellan performance och quality.

Permalänk
Medlem

Fullkomligt älskar DLSS och vad dom gör med det.

Köpte mitt 3080 för att spela Cyberpunk med raytracing
Köpte mitt 4090 för att spela Cyberpunk med pathtracing
Köpte mitt 5090 för att spela Cyberpunk med pathtracing i 200 fps+

Om man klarar av att skita i hur saker är gjort och istället kollar på slutprodukten, dvs spelandet, då är DLSS och givetvis hårdvara som kan utnyttja det 100% legit.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Skal3t:

Provade lite kort igår att aktivera dlss 4 via nvidia appen. Var ju smidigt! Men vet inte om jag märkte någon större skillnad i Path of exile 2 där jag provade. Kanske lite snyggare, men jag vet inte.
Ni märkt någon skillnad i det ni testat?

Hur vet du att DLSS4 är på i poe2?
Finns ju inget sånt val i drivrutinen, ja det den senaste.
Och i spelets katalog är dll filen v3.x
Läste igår på reddit om det men förstår inte hur man vet/gör att det är dlss4
upplys mig tack.

Visa signatur

^^^
@¿@
o

Permalänk
Skrivet av Cyberz:

Hur vet du att DLSS4 är på i poe2?
Finns ju inget sånt val i drivrutinen, ja det den senaste.
Och i spelets katalog är dll filen v3.x
Läste igår på reddit om det men förstår inte hur man vet/gör att det är dlss4
upplys mig tack.

Du får forcera det i nvidia appen

Hitta spel fliken, välj POE 2
Scrolla längst ned och hitta dlss override och välj latest på allt

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av kiario:

ett av dom första inställningarna jag testade. i no mans sky är det 0 skillnad i fps mellan performance och quality.

Jag märkte skillnad i No Man's Sky. Har du använt DLSS Override för att tvinga på DLSS 4? För NMS har inget native stöd för DLSS 4 än så länge, utan du måste använda Nvidia App och välja Preset K (Latest).

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem

Ta en närmare titt. DLSS 4 performance har skarpare detaljer.

Vänster DLSS 4 Performance. Höger DLSS 3 Quality.

En annan fördel som inte framgår i dessa bilder är hur mycket bättre DLSS 4 är i rörelse.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem
Skrivet av Joppis:

Oklart. När nya multiframe används så körs det totalt 5 AI-modeller per frame och tensorkärnorna i Blackwell är typ 2,5ggr snabbare på AI-beräkningar. Sedan har 5000-serien extra hårdvara (Flip Metering) som ansvarar för att sprida ut bildrutorna jämnt och minimera stutter.

Man lär sig mågot nytt varje dag. Tackar!

Permalänk
Medlem
Skrivet av talonmas:

Är inte bättre bildkvalité = prestandaökning?

Per definition, nej.

Prestanda är ett mått på hur snabbt ett arbete eller arbeten kan utföras på hårdvaran. DLSS-uppskalning ökar tekniskt sett inte prestandan på något grafikkort, utan är enbart en form av sofistikerad bilduppskalning som utförs av sekundära AI-kärnor. Det är i praktiken som att dra ner skärmupplösningen från 4k till 1440p eller 1080p, för att få mer FPS genom att GPU:n inte behöver jobba lika hårt för att rendera en bild.

Kan också dra ett exempel med analog teknologi, där alla grafikkort hade en DAC för att kunna skicka bilder till en CRT. Bildkvalitén var då starkt kopplat till kvalitén på DAC:n, men hade ingen som helst inverkan på prestanda.

Sedan skulle jag påstå att anledningen till att DLSS ens behövs, är för att vi gick bort från CRT-skärmar, som redan skalade helt naturligt.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Medlem
Skrivet av Wizbro:

Dags att gå till optikern om du inte ser skillnaden

Så bra att du påpekar var man ser störst skillnad mellan de i princip identiska bilderna.
Tack!
❤️

Visa signatur

Att förespråka Mac på Swec är som att förespråka hybridbilar på en raggarträff i Mora.

Nuvarande stationär: 7800X3D, 128Gb ram, 4Tb nvme, 3x8Tb sata-ssd, 4070 Ti S

Permalänk
Medlem
Skrivet av Gender Bender:

Ta en närmare titt. DLSS 4 performance har skarpare detaljer.

Vänster DLSS 4 Performance. Höger DLSS 3 Quality.
<Uppladdad bildlänk>

En annan fördel som inte framgår i dessa bilder är hur mycket bättre DLSS 4 är i rörelse.

DLSS 4 Performance - tricklar det ner till 4000-serien?

Permalänk
Medlem
Skrivet av Alexraptor:

Sedan skulle jag påstå att anledningen till att DLSS ens behövs, är för att vi gick bort från CRT-skärmar, som redan skalade helt naturligt.

Håller med, det är många som glömmer eller aldrig upplevt en CRT. Överlag är ju en modern plattskärm bättre men CRT hade fördelar. Att inte ha bara en native upplösning är en, suverän motion clarity en annan. Nu behöver vi skyhöga framerates istället för att det inte skall se blurigt/hackigt ut.

Jag tycker iofs att DLSS är en lösning som är bättre än att köra CRT så det är ju löst i mina ögon iallafall.

Visa signatur

- 5090

Permalänk
Skrivet av Dreas89:

DLSS 4 Performance - tricklar det ner till 4000-serien?

Ja finns nu

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Dreas89:

DLSS 4 Performance - tricklar det ner till 4000-serien?

Tricklar hela vägen till 20-serien 😊

Visa signatur

Nr 1: X670, 7800X3D, Peerless Assassin, 32GB 6000MHz CL36, 4070 Super, SN850X 1TB + MP600 Pro 2TB, V850 Gold i Multi, FD North.
Nr 2: B550, 5700X, Hyper 212 Evo V2, 32GB 3200MHz CL16, 1080 Ti, Firecuda 510 1TB + HDD 3TB, Focus GX 650W, Pure Base 500DX.
Någon laptop eller två.

Permalänk
Medlem
Skrivet av Swedishchef_90:

Ja finns nu

Nice!

Skrivet av Snusious:

Tricklar hela vägen till 20-serien 😊

Wow!

Permalänk
Medlem
Skrivet av Swedishchef_90:

Du får forcera det i nvidia appen

Hitta spel fliken, välj POE 2
Scrolla längst ned och hitta dlss override och välj latest på allt

Måste vara blind.
Tack, ska kolla ikväll

Visa signatur

^^^
@¿@
o

Permalänk
Medlem
Skrivet av Alexraptor:

Per definition, nej.

Prestanda är ett mått på hur snabbt ett arbete eller arbeten kan utföras på hårdvaran. DLSS-uppskalning ökar tekniskt sett inte prestandan på något grafikkort, utan är enbart en form av sofistikerad bilduppskalning som utförs av sekundära AI-kärnor. Det är i praktiken som att dra ner skärmupplösningen från 4k till 1440p eller 1080p, för att få mer FPS genom att GPU:n inte behöver jobba lika hårt för att rendera en bild.

Kan också dra ett exempel med analog teknologi, där alla grafikkort hade en DAC för att kunna skicka bilder till en CRT. Bildkvalitén var då starkt kopplat till kvalitén på DAC:n, men hade ingen som helst inverkan på prestanda.

Sedan skulle jag påstå att anledningen till att DLSS ens behövs, är för att vi gick bort från CRT-skärmar, som redan skalade helt naturligt.

Fast det är inte så man har pratat om prestanda historiskt. Ta anti-aliasing som exempel. Där pratar man om olika prestanda för olika metoder, t.ex. MSAA vs FXAA. Men det är bara olika algoritmer att visa olika saker på.

Om man strikt tittar på ett önskat resultat och sen jämför fps där emellan så bryr sig ingen HUR det är uppnått. Och de flesta skulle säga att den som har flest fps är d n med bäst prestanda. I det här fallet så kan man sänka upplösningen (vid rendering) och sen skala upp det för att få exakt samma upplevda bildkvalitet o latens. Därmed bättre prestanda.

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem
Skrivet av Swedishchef_90:

Du får forcera det i nvidia appen

Hitta spel fliken, välj POE 2
Scrolla längst ned och hitta dlss override och välj latest på allt

Hm fungerar det även på Black Myth Wukong?

Permalänk
Medlem
Skrivet av johanb78:

Hm fungerar det även på Black Myth Wukong?

https://www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-en...

Uppskalningen ja än så länge.

Visa signatur

Nr 1: X670, 7800X3D, Peerless Assassin, 32GB 6000MHz CL36, 4070 Super, SN850X 1TB + MP600 Pro 2TB, V850 Gold i Multi, FD North.
Nr 2: B550, 5700X, Hyper 212 Evo V2, 32GB 3200MHz CL16, 1080 Ti, Firecuda 510 1TB + HDD 3TB, Focus GX 650W, Pure Base 500DX.
Någon laptop eller två.

Permalänk
Medlem
Skrivet av Aphex:

Om du ska skilja på "riktiga pixlar" och "låtsas pixlar" hoppas jag att du gör samma för rasterizerat fejk-ljus och äkta strålspårning, håller dig undan från fusk som occlusion culling, LOD scaling, osv osv.

All 3D du ser på skärmen bygger på decennier av optimeringar och genvägar med enda målet att det ska se bra nog ut, DLAA/DLSS är inget avsteg från det, det är bara ett effektivare sätt att få ett likadant resultat.

Bra talat. De som talar om DLSS som fakepixlar har helt enkelt ingen koll alls på hur spelgrafik rent tekniskt fungerar. "There are no real frames".

Permalänk
Medlem
Skrivet av Trihxeem:

Så bra att du påpekar var man ser störst skillnad mellan de i princip identiska bilderna.
Tack!
❤️

Titta på bilden ovan från Gender Bender

Visa signatur

Gigabyte FO32U2P | RTX 3090 | AMD R7 5800X3D | 32GB 3600MHz DDR4 | Gigabyte X570 Aorus Master | 5TB NVMe | 80TB NAS | Seasonic Focus GX 850 | Audeze LCD2 Classic | Fractal North XL | LG CX55 | Yamaha HS7+HS8S | Nvidia Shield TV Pro (2019)

Citera för svar!

Permalänk
Medlem
Skrivet av Alexraptor:

Per definition, nej.

Prestanda är ett mått på hur snabbt ett arbete eller arbeten kan utföras på hårdvaran. DLSS-uppskalning ökar tekniskt sett inte prestandan på något grafikkort, utan är enbart en form av sofistikerad bilduppskalning som utförs av sekundära AI-kärnor. Det är i praktiken som att dra ner skärmupplösningen från 4k till 1440p eller 1080p, för att få mer FPS genom att GPU:n inte behöver jobba lika hårt för att rendera en bild.

Kan också dra ett exempel med analog teknologi, där alla grafikkort hade en DAC för att kunna skicka bilder till en CRT. Bildkvalitén var då starkt kopplat till kvalitén på DAC:n, men hade ingen som helst inverkan på prestanda.

Sedan skulle jag påstå att anledningen till att DLSS ens behövs, är för att vi gick bort från CRT-skärmar, som redan skalade helt naturligt.

Inte nödvändigtvis specifikt hur snabbt, mer generellt blir det ju en fråga om "hur bra" med avseende på vad det nu är för mätpunkt man fokuserar på. Hela poängen blir väl just att svaret kan bero på vad det är man faktiskt mäter...

I detta fall är det vad jag förstår att man jämför två DLSS-versioner på samma hårdvara, så det verkar ju tydligt vara frågan om att jämföra hur uppskalarna i DLSS 3 respektive DLSS 4 presterar (helt en fråga om hur mjukvaran presterar i sin uppgift med andra ord).

Och det framstår ju som att DLSS 4 presterar bättre om det nu är så att man får bättre bildkvalitet vid samma uppskalningsratio / bildfrekvens (och då kanske ungefär motsvarande bildkvalitet vid ännu mer uppskalning och högre bildfrekvens, om man vill vända och vrida på det).

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || MSI Ventus 3x 5080 || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av Snusious:

Jaha du talar om CP bilderna, förstod inte först.
Jag skojade om Space Marine 2 bilderna:
4K DLSS 3 Quality (1440p) vs 4K DLSS 4 Performance (1080p) https://imgsli.com/MzQxNDYw
4K DLSS 3 Quality (1440p) vs 4K DLSS 4 Ultra Performance (720p) https://imgsli.com/MzQxNDgx
4K DLSS 3 Quality (1440p) vs 4K DLSS 4 Quality (1440p) https://imgsli.com/MzQxNDg4

Hade dock varit trevligt med en native jämförelse också.

Skrivet av Wizbro:

Titta på bilden ovan från Gender Bender

Bättre se bildena via det inlägget kanske, där kan man själv zooma och flytta och så.

Visa signatur

Nr 1: X670, 7800X3D, Peerless Assassin, 32GB 6000MHz CL36, 4070 Super, SN850X 1TB + MP600 Pro 2TB, V850 Gold i Multi, FD North.
Nr 2: B550, 5700X, Hyper 212 Evo V2, 32GB 3200MHz CL16, 1080 Ti, Firecuda 510 1TB + HDD 3TB, Focus GX 650W, Pure Base 500DX.
Någon laptop eller två.

Permalänk

Har alltid tyckt DLSS är en cope från devs som ej kan optimera sina spel / en täckmantel för nvidias dåliga generationslyft men denna versionen + framegen gör så jag kan köra alan wake och cyberpunk i ultra allt med PT och RT me DLSS balanced 90-110 fps vilket är sinnesjukt snyggt. Visst ser man artifacts om man letar men spelar man vanligt så ser det sjukt snyggt ut.

Visa signatur

Lian Li A3 - 7800X3D - 32GB DDR5 6000 CL30 - RTX 4080 Super - 2TB NVME

Permalänk
Medlem

Det är klart att det finns "real frames" och "fake frames".

Real frames är framräknade från 3d modeller i en 3d rymd vars positioner och orientering är baserad på input från spelmotor, fysikmotor och spelare.

Fake frames är baserade på två eller fler av ovanstående bilder. Vad spelaren eller spelmotorn säger eller gör har ingen som helst inverkan, inte förrän nästa real frame presenteras.

Försök spela något gjort av enbart "fake frames", det blir inte så kul. Det blir inget alls.

Permalänk
Medlem
Skrivet av talonmas:

Fast det är inte så man har pratat om prestanda historiskt. Ta anti-aliasing som exempel. Där pratar man om olika prestanda för olika metoder, t.ex. MSAA vs FXAA. Men det är bara olika algoritmer att visa olika saker på.

Om man strikt tittar på ett önskat resultat och sen jämför fps där emellan så bryr sig ingen HUR det är uppnått. Och de flesta skulle säga att den som har flest fps är d n med bäst prestanda. I det här fallet så kan man sänka upplösningen (vid rendering) och sen skala upp det för att få exakt samma upplevda bildkvalitet o latens. Därmed bättre prestanda.

Det har det absolut varit. Att du kallar det för "bara olika algoritmer att visa olika saker på", visar på en bristande förståelse för hur datorgrafik faktiskt fungerar.

MSAA vs FXAA är inte bara olika algoritmer, men två helt skilda tekniker för kantutjämning. MSAA utförs under rasteriseringssteget i render-pipelinen och innan fragment shaders behandlas. FXAA däremot är en post-processing effekt/filter, som körs på den färdiga bilden, när den ligger i framebuffern.

Man talar därför om att FXAA har bättre prestanda, för att det är en beräkningsmässigt enklare metod för kantutjämning än MSAA. Oavsett, så är bägge arbeten som ska utföras av GPU:n.

Att sedan argumentera om hur saker "upplevs" är bara fånigt, då prestanda handlar om empiriska mått och inte subjektiva.

Skrivet av evil penguin:

Inte nödvändigtvis specifikt hur snabbt, mer generellt blir det ju en fråga om "hur bra" med avseende på vad det nu är för mätpunkt man fokuserar på. Hela poängen blir väl just att svaret kan bero på vad det är man faktiskt mäter...

I detta fall är det vad jag förstår att man jämför två DLSS-versioner på samma hårdvara, så det verkar ju tydligt vara frågan om att jämföra hur uppskalarna i DLSS 3 respektive DLSS 4 presterar (helt en fråga om hur mjukvaran presterar i sin uppgift med andra ord).

Och det framstår ju som att DLSS 4 presterar bättre om det nu är så att man får bättre bildkvalitet vid samma uppskalningsratio / bildfrekvens (och då kanske ungefär motsvarande bildkvalitet vid ännu mer uppskalning och högre bildfrekvens, om man vill vända och vrida på det).

Problemet som uppstått är att man nu i princip klämmer ihop två helt skilda processer under ett och samma mått. För vi pratar ju nu om arbetet som GPU'n(tekniskt sett CUDA-kärnorna men är enklare att bara kalla det för GPU) gör, och arbetet som AI-kärnorna gör, vilket är helt beroende av GPU:ns output.

Optimering av uppskalningsalgoritmerna gör ju att uppskalningen kan utföras snabbare, vilket sedan kan nyttjas för att producera högre bildkvalitét. Dock har ju detta ingen som helst inverkan på hur snabbt GPU:n kan utföra sitt arbete, vilket då blir flaskhalsen i hela processen.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Medlem
Skrivet av Gimbal:

Det är klart att det finns "real frames" och "fake frames".

Real frames är framräknade från 3d modeller i en 3d rymd vars positioner och orientering är baserad på input från spelmotor, fysikmotor och spelare.

Fake frames är baserade på två eller fler av ovanstående bilder. Vad spelaren eller spelmotorn säger eller gör har ingen som helst inverkan, inte förrän nästa real frame presenteras.

Försök spela något gjort av enbart "fake frames", det blir inte så kul. Det blir inget alls.

Precis, "real frames", är det som förbereds och skickas till GPU'n av CPU'n och är representativa av aktuell game-state. "fake frames" är något som grafikkortet hittar på, på egen hand och utgör en gissning av hur det skulle kunna se ut, om det fanns ett uppdateringssteg just då.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Medlem
Skrivet av Gimbal:

Det är klart att det finns "real frames" och "fake frames".

Real frames är framräknade från 3d modeller i en 3d rymd vars positioner och orientering är baserad på input från spelmotor, fysikmotor och spelare.

Fake frames är baserade på två eller fler av ovanstående bilder. Vad spelaren eller spelmotorn säger eller gör har ingen som helst inverkan, inte förrän nästa real frame presenteras.

Försök spela något gjort av enbart "fake frames", det blir inte så kul. Det blir inget alls.

Jodå, fungerar med 100% fejk utan något annat också

https://www.sweclockers.com/nyhet/39510-forskare-spelar-doom-...

Permalänk
Medlem
Skrivet av Dreas89:

DLSS 4 Performance - tricklar det ner till 4000-serien?

Funkar på alla RTX-kort, så ända ner till 2000-serien

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem

Detta var en besvikelse för mig som 1080p spelare. Testade köra cyberpunk benchmarken i native, convolutional quality, convolutional DLAA (hade aldrig testat den förut) och transformer modellen. Såg egentligen ingen skillnad på någon av DLSS typerna. Antar att det är "bra" resolutions mässigt men helvete vad det är artefakter i allt utom native. Direkt när kameran kommer ut ur baren och svänger runt ett hörn så freakar bilden ur på högra sidan ie hörnet och bilden verkar använda massa extremt utdaterad information. Sedan runt slutet av benchmarken när kameran snurrar runt palmerna så flimrar det extremt mycket runt dom små "håren" på palmerna.

Tyvärr är fortfarande endast native acceptabelt, inte ens DLAA funkade samma temporära instabiliteter återfanns där. Testade inte ens transformer DLAA då alla DLSS tester uppvisade samma problem.

Permalänk
Hedersmedlem
Skrivet av Saagaa:

Detta var en besvikelse för mig som 1080p spelare. Testade köra cyberpunk benchmarken i native, convolutional quality, convolutional DLAA (hade aldrig testat den förut) och transformer modellen. Såg egentligen ingen skillnad på någon av DLSS typerna. Antar att det är "bra" resolutions mässigt men helvete vad det är artefakter i allt utom native. Direkt när kameran kommer ut ur baren och svänger runt ett hörn så freakar bilden ur på högra sidan ie hörnet och bilden verkar använda massa extremt utdaterad information. Sedan runt slutet av benchmarken när kameran snurrar runt palmerna så flimrar det extremt mycket runt dom små "håren" på palmerna.

Tyvärr är fortfarande endast native acceptabelt, inte ens DLAA funkade samma temporära instabiliteter återfanns där. Testade inte ens transformer DLAA då alla DLSS tester uppvisade samma problem.

Ja ju lägre native-upplösning man har desto mer uppever jag också artefaktproblemen.

För 4k är det problemet generellt en hel del mindre. Men det häner rätt mycket på vilket spel det är också.

Visa signatur

🎮 → Node 304 • Ryzen 7 5700X3D • Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx
💻 → Lenovo Yoga slim 7 pro 14" Oled