Hur mycket grafikminne som behövs för att driva runt moderna speltitlar är en ständig snackis i såväl SweClockers forum som övriga entusiastplattformar. Diskussionen har dock blossat upp ytterligare i samband med att den senaste generationens grafikkort lanserades, och då specifikt kopplat till att Nvidia påstås snåla in med mängden grafikminne de bestyckat Geforce RTX 4000-seriens kort med.

ss_ea8b45bb65d05fafa911387df16399ead11e6878.jpg

The Last of Us Part 1 var en ganska risig PC-portning med höga anspråk på grafikminne.

Därtill har år 2023 kantats av många nya spel som tar särskilt mycket grafikminne i anspråk ställt mot tidigare. Det rör sig dels om en satsning på väldigt högupplösta texturer, men också en bredare implementation av tekniker som ray tracing, där båda driver upp kravet på tillgängligt minne. Ovanpå det ska det också sägas att många av spelen är mindre polerade PC-portningar av konsolditon, där minnesoptimering för datorer inte har legat högst upp på priolistan.

I denna artikel tänkte vi ta en närmare titt på just grafikminnesanvändningen i moderna spel. Dels handlar det om att analysera minnesanvändningen i en handfull av de senaste titlarna med grafikreglaget uppskruvat i taket. Därtill kikar vi på vilken påverkan just högupplösta texturer och ray tracing har på minnesanvändningen samt vad som händer i olika spel när grafikminnet väl tar slut.

Komponenter i testsystemet

Komponent

Modell

Tack till

Processor

Intel Core i9-12900KS

Moderkort

Asus ROG Z690 Maximus Hero

Asus

Minne

2× 16 GB G Skill Trident Z5 RGB 6 400 MHz, 32-39-39-102

Grafikkort

Nvidia Geforce RTX 4090 FE (24 GB)

Kylning

Noctua NH-D15

Noctua

Lagring

Samsung 980 Pro M.2, 2 TB

Nätaggregat

Seasonic Prime Ultra Titanium, 1 000 W

Seasonic

Chassi

Streacom BC1 Open Benchtable

Streacom

Skärm

Dell P2415Q

Operativsystem

Windows 11 Professional

Mätningarna utförs på redaktionens sedvanliga testsystem för grafikkortstester, vilket baseras kring en Intel Core i9-12900KS. Gällandes grafikkort används primärt ett Nvidia Geforce RTX 4090 Founders Edition för att ge gott om spelrum med dess grafikminne om 24 GB. För prestandatesterna i slutet växlas dock andra modeller in med mer begränsade resurser på minnesfronten.

Testmetod

Det har historiskt sett varit knixigt att mäta grafikminnesanvändning i spel, där merparten av verktygen som finns tillgängliga redovisar minnesallokering snarare än faktisk minnesanvändning. Med allokering menas att spelet skjuter in mer data i grafikminnet än som faktiskt används i praktiken, vilket i vissa fall kan ge väldigt uppblåsta siffror när den mätmetoden används ihop med ett grafikkort som har en stor mängd grafikminne tillgängligt.

pix.png

För den här artikeln använder vi oss av Microsoft PIX, vilket är ett analysverktyg för DirectX-applikationer. Mjukvaran används främst av utvecklare för att prestandaoptimera och felsöka spel, där en av tillämpningarna är just att kunna läsa ut det aktuella spelets minnesanvändning i realtid.

Medan siffrorna som presenteras är generellt mer träffsäkra än de allokerade värdena från andra program ska det dock sägas att det inte alltid behöver betyda att ett grafikkort med mindre minne än de uppmätta värdena faller ihop totalt. Beroende på hur spelet är uppbyggt kan det ibland skyffla runt datan och hantera en mindre mängd tillgängligt minne utan att det märks för användaren, medan det i andra fall kan innebära katastrofal prestanda, grafiska artefakter eller rentav krascher.

På menyn för testet står sex speltitlar som utgörs av The Last of Us Part 1, Hogwarts Legacy, Ratchet & Clank: Rift Apart, Cyberpunk 2077, Diablo 4 och Star Wars Jedi: Survivor. Fem av dessa är från år 2023 medan Cyberpunk 2077 finns med som en lite "äldre" referens från år 2020.

Vi inleder med att köra igenom spelen i upplösningarna 1 920 × 1 080, 2 560 × 1 440 och 3 840 × 2 160 pixlar med högsta möjliga detaljinställningar men med ray tracing avstängt. Mätningarna pågår under en period på fem minuter, där vi dels redovisar ett snitt av minnesförbrukningen men också det maximalt uppmätta värdet (rödmarkerat i tabellerna).

1 920 × 1 080

2 560 × 1 440

3 840 × 2 160

The Last of Us Part 1

8,85 GB (8,91 GB)

9,58 GB (9,69 GB)

11,64 GB (11,95 GB)

Hogwarts Legacy

8,98 GB (9,19 GB)

9,19 GB (9,33 GB)

9,82 GB (10,31 GB)

Ratchet & Clank: Rift Apart

8,64 GB (8,81 GB)

9,06 GB (9,14 GB)

10,01 GB (10,11 GB)

Cyberpunk 2077

5,71 GB (6,02 GB)

6,36 GB (6,67 GB)

8,80 GB (9,11 GB)

Diablo 4

9,68 GB (10,13 GB)

10,29 GB (10,63 GB)

11,58 GB (11,79 GB)

Star Wars Jedi: Survivor

8,11 GB (9,58 GB)

8,71 GB (10,41 GB)

10,14 GB (12,29 GB)

Med siffrorna i hand ser vi hur samtliga av de testade spelen som lanserats i år överskrider 8 GB minnesanvändning vid upplösningen 1080p. En lite udda utstickare här är Diablo 4, som har en minnesanvändning som slår över 10 GB – trots en låg upplösning. Även Star Wars Jedi: Survivor slår högt, med strax under 10 GB minnesanvändning. I den andra delen av spektrat hittar vi Cyberpunk 2077, vilket är väldigt snällt sett till minnesanvändning med en topp på 6 GB.

När vi blickar mot den betydligt högre upplösningen 3 840 × 2 160 pixlar seglar The Last of Us Part 1 upp rejält i minnesanvändning, där det toppar 11,95 GB. Diablo 4 fortsätter att presentera hög minnesanvändning med en maximalt värde om 11,79 GB medan Star Wars Jedi: Survivor presenterar det högsta värdet vid 12,29 GB. Återigen är det den något äldre titeln Cyberpunk 2077 som ligger i botten i avseendet minnesanvändning, där spelet drar som mest 9,11 GB.

D4-Launch_Media-Thumbs_Strongholds_1600.webp

Diablo 4 slukar förvånansvärt mycket grafikminne med högupplösta texturer.

Härnäst ska vi kika närmare på skillnaden i minnesanvändning när man skruvar ned detaljerna på spelets texturer ett snäpp. Mätningarna sker vid upplösningen 3 840 × 2 160 pixlar, där vi växlar mellan högsta möjliga texturkvalitet (Ultra i tabellen) till den näst högsta (High i tabellen). Nämnvärt är att de faktiska namnen på kvalitetslägena kan skilja sig mellan spelen, men normaliseras här för läsbarhetens skull.

High Textures

Ultra Textures

Minnespåverkan

The Last of Us Part 1

10,03 GB (10,69 GB)

11,64 GB (11,95 GB)

+16%

Hogwarts Legacy

7,90 GB (8,21 GB)

9,82 GB (10,31 GB)

+24%

Ratchet & Clank: Rift Apart

9,17 GB (9,27 GB)

10,01 GB (10,11 GB)

+9%

Cyberpunk 2077

7,70 GB (7,87 GB)

8,80 GB (9,11 GB)

+14%

Diablo 4

7,85 GB (8,07 GB)

11,58 GB (11,79 GB)

+48%

Star Wars Jedi: Survivor

9,67 GB (11,65 GB)

10,14 GB (12,29 GB)

+5%

Som synes varierar det enormt mellan de olika titlarna hur pass stor avtryck den högsta möjliga texturinställningen gör på minnesanvändningen. I Diablo 4 ökar exempelvis minnesanvändningen med hela 48 procent när reglaget ställs på Ultra istället för High. Andra exempel där Ultra-texturerna gör stort avtryck är Hogwarts Legacy, vilket ökar med 24 procent samt The Last of Us Part 1, där minnesanvändningen ökar med 16 procent. Minst skillnad syns i Star Wars Jedi: Survivor, där minnesanvändningen endast ökar med 5 procent med Ultra-inställningar.

Cyberpunk2077_Outnumbered_But_Not_Outgunned_RGB@1x.jpg

Cyberpunk 2077 med path tracing är både prestanda- och minneskrävande.

För de sista minnesmätningarna ska vi kika närmare på hur pass stort avtryck ray tracing gör. Upplösningen är återigen ställd på 3 840 × 2 160 pixlar medan detaljnivån och tillika texturinställningen är vriden till Ultra. Testerna görs med spelets ray tracing avslagen och sedan helt påslagen för samtliga parametrar som gäller för just den titeln. Detta innebär exempelvis det tunga "Overdrive"-läget med path tracing i Cyberpunk 2077.

Ray tracing av

Ray tracing på

Minnespåverkan

Hogwarts Legacy

9,82 GB (10,31 GB)

12,14 GB (12,92 GB)

+24%

Ratchet & Clank: Rift Apart

10,01 GB (10,11 GB)

11,98 GB (12,28 GB)

+20%

Cyberpunk 2077

8,80 GB (9,11 GB)

14,58 GB (14,84 GB)

+66%

Star Wars Jedi: Survivor

10,14 GB (12,29 GB)

10,80 GB (12,87 GB)

+7%

Av de sex spelen vi testat är det fyra som har någon form av implementation av ray tracing. Cyberpunk 2077 har den avlägset tyngsta implementationen, vilket också syns i mätningarna. Spelet ökar här sin minnesanvändning med hela 66 procent och uppvisar ett högsta värde om 14,84 GB. Även Hogwarts Legacy och Ratchet & Clank ökar sin minnesanvändning drastiskt när ray tracing aktiveras medan det är en relativt liten ökning som uppmäts för Star Wars Jedi: Survivor.

Prestandapåverkan när det tillgängliga grafikminnet tar slut

Sist men inte minst ska vi kika på om det finns några mätbara prestandasmällar eller andra avvikelser som inträffar när vi använder ett grafikkort med en mindre mängd minne som i de flesta fallen ligger under våra uppmätta värden från tidigare. För ändåmålet används ett Geforce RTX 4060 Ti med 8 GB grafikminne. Utöver det presenterar vi värdena från ett Geforce RTX 3060 med 12 GB grafikminne. Dessa skiljer sig i prestandanivå, men det vi snarare vill påvisa är huruvida korten beter sig olika när vi växlar mellan olika texturnivåer sett till sin tillgängliga minnesmängd.

Vi börjar med The Last of Us Part 1, där Geforce RTX 4060 Ti tappar 13 procent prestanda till följd av att minnet tar slut vid den högsta texturinställningen. Detta kan verifieras genom att titta på Geforce RTX 3060, vilket med sin minnesmängd på 12 GB presenterar identiska resultat oavsett texturinställning. Upplevelsen med Geforce RTX 4060 Ti är inte katastrofal på något sätt, men dock mätbart sämre till följd av den begränsade minnesmängden.

Sett till hur Diablo IV toppade tabellerna i våra minnesmätningar trodde vi att spelet skulle ge tydliga avtryck i prestandan när minnet potentiellt tog slut hos Geforce RTX 4060 Ti. Så blev det dock inte, och i praktiken ligger den uppmätta prestandan inom felmarginal när vi växlar mellan de två texturlägena på korten, precis som med Geforce RTX 3060.

Vi testade även att köra spelet vid den betydligt högre upplösningen 4K UHD för att se om det gick att forcera minnesbrist hos Geforce RTX 4060 Ti. Även här syntes ingen skillnad mellan det högsta och näst högsta texturläget för kortet, vilket även verifierades med Geforce RTX 3060 med 12 GB.

Ratchet & Clank: Rift Apart var lite av en huvudkliare, då vi under mätningarna konsekvent fick högre resultat från Geforce RTX 3060, med undantag för ray tracing – trots att modellen ligger i en lägre prestandadivision. Detta fick oss att misstänka den begränsade minnesmängden hos Geforce RTX 4060 Ti. Men även om vi skruvade ned det globala detaljreglaget till "Medium", vilket knuffar ned minnesanvändningen en bit under 8 GB, så låg RTX 3060 kvar i vinstposition.

Spelet verkar helt enkelt rulla relativt dåligt på Geforce RTX 4060-serien ställt mot Geforce RTX 3060 oavsett minnesmängd, vilket vi senare märkte när vi såg andra sajters prestandatester av titeln.

En av titlarna som drog relativt mycket grafikminne i våra mätningar var Star Wars Jedi: Survivor. De siffrorna reflekteras dock inte i prestandamätningarna, där Geforce RTX 4060 Ti inte har något problem att hålla prestandan uppe. Även med ray tracing aktiverat, vilket drar upp minnesanvändningen ytterligare, syns inga konstigheter och allt är i linje med beteendet från Geforce RTX 3060 med 12 GB grafikminne.

ss_d4930d675af053dc1e61a876a34fc003e85e261f.jpg

Hogwarts Legacy krashade konsekvent när grafikminnet tog slut.

Det spel som gav oss mest strul var utan tvekan Hogwarts Legacy. Spelet rullade utan några som helst problem när vi gjorde mätningarna med ett Geforce RTX 4090, men vid växlingen till Geforce RTX 4060 Ti med 8 GB grafikminne började den stora kraschfesten. Vid 1080p med Ultra-texturer krashade spelet flertalet gånger under våra prestandamätningar – till den grad att det inte gick att få ut några vettiga siffror.

Genom att växla ned ett snäpp på texturdetaljerna kom vi under gränsen för 8 GB minnesanvändning, och krascherna upphörde. Likaså fungerade det att stoppa in ett Geforce RTX 3060 med 12 GB grafikminne, vilket klarade av att köra på som vanligt även med högsta texturinställningarna samt även med ray tracing aktiverat - även om prestandan blev lite lidande i det sistnämnda läget.

Sammanfattning, lärdomar och tips gällandes grafikminnesanvänding

Med facit i hand står det klart att många av senaste snittets spel drar en hel del grafikminne ställt mot hur det såg ut för några år sedan – åtminstone om man tittar på de mätvärden som redaktionen samlat in. Samtidigt är det tydligt att man inte blint kan lita på uppmätt minnesanvändning i spel och förvänta sig att detta gör någon praktisk skillnad på spelupplevelsen eller prestandan – detta kommer helt enkelt att skilja sig från spel till spel, och i slutändan behöver man testa sig fram vad som fungerar för just ens egna system.

rtx_4060_ti-2.jpg

Geforce RTX 4060 Ti med 8 GB grafikminne räcker ibland inte till när texturnivån skruvas upp.

Tittar man på prestandatesterna var det The Last of Us Part 1 och Hogwarts Legacy som presenterade problematik när grafikminnet tog slut med Geforce RTX 4060 Ti. Det förstnämnda spelet uppvisade bildfrekvenstapp vid högsta möjliga texturinställningarna, vilket kunde stävjas genom att vrida ned texturerna ett snäpp. Hogwarts Legacy uppvisade värre problem, med återkommande krascher när minnesanvändningen överskred det tillgängliga minnet på grafikkortet. Återigen åtgärdades detta genom att vrida ned texturinställningarna ett snäpp.

Övriga spel uppvisade inga konstigheter i varesig prestanda eller grafiska artefakter när de kördes på ett kort med begränsad mängd grafikminne. Nu kan vi givetvis inte testa alla scenarion och platser i spelen, och visst är det möjligt att problematik kan uppstå i vissa fall. Men då ska det ändå sägas att prestandatesterna är utförda på samma platser där minnesmätningarna utfördes.

Vilka åtgärder kan man ta till i de fallet när grafikminnet tar slut?

1. Titta på texturinställningarna

Främst bör du titta på texturinställningarna, där det högsta läget oftast gör en väsentlig skillnad på mängden grafikminne som används. Plockar du ned detta ett snäpp till motsvarande "High" istället för "Ultra" lyckas du i många fall landa inom ramarna för vad ditt grafikkort klarar av.

2. Ändra upplösning eller använd uppskalningsteknik

Skruva ned upplösningen eller använd någon av spelets inbyggda uppskalningslösningar, likt AMD FSR eller Nvidia DLSS. Detta blir särskilt användbart ihop med ray tracing, vilket både ger en stor prestandasmäll och hög minnespåverkan. Beroende på hur omfattande ray tracing-implementationen är kan du även behöva tumma på texturnivån för att hamna inom ramarna för grafikkortets tillgängliga minnesmängd.

3. Uppgradera grafikkortet

En kanske inte fullt lika rolig åtgärd, är att byta grafikkort till en modell med mer tillgängligt grafikminne. Detta är väl kanske inte något du gör i första hand om du redan sitter på ett relativt nytt kort, men det kan dock vara något du kan ha i åtanke om det vankas uppgradering eller ett nybygge. Beroende på vilken upplösning du tänkt spela i, samt om både högupplösta texturer och ray tracing värderas högt, bör du undvika kort med 8 GB grafikminne och istället ta sikte på något med åtminstone 12 GB – och kanske ännu högre om du ämnar att spela i 4K UHD.