Hur mycket grafikminne använder de senaste spelen?

Permalänk
Medlem

Tycker det visar vad de flesta test visar att man ska ta sig en funderare på om 8GB om man köper nytt idag men samtidigt om man har 8GB idag kan man vänta lite innan man måste uppdatera

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem

8 GB VRAM räcker gott och väl under väldigt lång tid framöver!!

Om man enbart spelar Jazz Jackrabbit 2 som jag

Dold text
Visa signatur

JJ2 Multiplayer
JJ2 ZStats

[1] Ryzen 5800X | 5500XT | Kingston A2000 | Lenovo G24-10 144Hz [2] Ryzen 5700G | RX 560 | WD Blue SN550 [3] Ryzen 5600G | Kingston A2000 [4] Ryzen 3600 | GT 740 | 850 EVO [5] Ryzen 3600 | Geforce 405 | 850 EVO (alla är i bruk)

Permalänk
Medlem
Skrivet av Icecrystal:

Med tanke på det här så är det ett mysterium att Nvidias RTX4070 på bärbara kommer med 8GB idag. Lycka till att uppgradera det kortet liksom.

Inte minsta mysterium. VRAM drar mycket ström, och 30 minuter batteritid säljer sämre än 8 gig vram

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Skrivet av användare-234:

Fyfan vad jobbigt att spela på Windows. Orka dona med tusen faktorer.

Kan ju låta GeForce Experience ställa in dina spel automatiskt så slipper du att göra något.

Permalänk
Medlem
Skrivet av talonmas:

Inte minsta mysterium. VRAM drar mycket ström, och 30 minuter batteritid säljer sämre än 8 gig vram

Batteritid? Med GPUn igång? Du gör bäst i att undvika det och koppla in datorn.

Permalänk
Skrivet av slayersweden:

Kan ju låta GeForce Experience ställa in dina spel automatiskt så slipper du att göra något.

Hur vet GeF0rC3 n0W! om jag gillar tearing eller inte? eller om jag ser skillnad på 4K och 1080p på min 65"-skärm från 2,8m håll?

Permalänk
Permalänk
Skrivet av användare-234:

Hur vet GeF0rC3 n0W! om jag gillar tearing eller inte? eller om jag ser skillnad på 4K och 1080p på min 65"-skärm från 2,8m håll?

Det handlar om grafikinställningar på spelet. Men har du en VRR med freesync eller g sync så slipper du tearing I spelen. Brukar vara automatiskt aktiverat. Så slipper du allt bekymmer du verkar gnälla över.

Permalänk

Mycket bra ämne. Den här artikeln skulle lätt kunna säljas till någon engelsktalande sajt.
Snyggt jobbat!

Permalänk
Medlem

Hm, tur i oturen att jag har 8GB i mitt gamla schletna RX580; jag inser att det inte är modernt längre men med 4GB hade väl moderna spel varit ännu jobbigare i 1920x1080@60 (mer kör jag av naturliga skäl sällan). Att moderna kort säljs med 8GB känns dock lite galet.

Visa signatur

ASUS P8Z68-v Pro i7 2600K@4.5, 32GB RAM, RX 580, 4K Samsung u24e590, Intel SSD, Seagate SSHD, LG BH16NS55 BD/RW, MacOS Monterey, Win 10+11, Linux Mint

Macbook Pro 2009, 8GB RAM, SSD, MacOS Catalina + Windows 7

Permalänk
Medlem

Ganska sjukt att diablo 3 minskar med den mängden vram mellan ultra och high, låter absurt!

Om nvidia får ordning på sin algoritm med vram optimering så blir ju detta enbart problem för amd i framtiden!
Den som lever får se

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Jättebra artikel!

Permalänk
Medlem

Kul test där det som Jonas skriver kanske kan vara missvisande beroende på kort.
3080 skulle vara ett roligt kort att ta med i dessa tester för att se vad som händer.
Det är väl det kort med särklass starkaste GPU med minst minne sätt till dess prestanda.
Detta kortet borde ju i flera av adress testerna rejält att falla efter vilket då borde visa sig att prestandan dyker på märkliga sätt.
Gör den det i verkligen?

Permalänk
Skrivet av Triton242:

Kul test där det som Jonas skriver kanske kan vara missvisande beroende på kort.
3080 skulle vara ett roligt kort att ta med i dessa tester för att se vad som händer.
Det är väl det kort med särklass starkaste GPU med minst minne sätt till dess prestanda.
Detta kortet borde ju i flera av adress testerna rejält att falla efter vilket då borde visa sig att prestandan dyker på märkliga sätt.
Gör den det i verkligen?

Har 3080 och kör Diablo 4 i högsta grafikinställningar med 1440p. Fungerar mycket bra utan problem. 👌🏻

Permalänk

rip Nvidia

Permalänk
Medlem

Vad jag undrar dock är varför vissa spel så mycket vram men knappt visuellt snyggare? Är det för dem använder mer unika objekt istället för att återanvända?

Nu har jag inte lirat någon av de spel ni testar men jag kör RdR2 med högre texturer i 4k och använder ca 6 gb vram aktivt och 9 allokerat

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Vad jag undrar dock är varför vissa spel så mycket vram men knappt visuellt snyggare? Är det för dem använder mer unika objekt istället för att återanvända?

Nu har jag inte lirat någon av de spel ni testar men jag kör RdR2 med högre texturer i 4k och använder ca 6 gb vram aktivt och 9 allokerat

Antagligen ja. I början av datorspels-historien var man tvungen att vara väldigt smart med minnesanvändning. Använd dina 50 sprite filer till att konstruera en hel spelvärld. Detta kräver så klart mer utvecklingstid om du skulle jämföra med 3ggr mer minne men allt annat lika.

Under senare konsolgenerationer delade man texturer mellan olika miljöer i stor utsträckning. Detta leder så klart till kompromisser.

Nu kanske man kan ha unika texturer för nästan allting. Att göra på detta viset kommer så klart inte vara "optimerat". Men leder måhända till snabbare utvecklingstider. I slutändan är det alltid en avvägning.

Permalänk
Medlem
Skrivet av slayersweden:

Har 3080 och kör Diablo 4 i högsta grafikinställningar med 1440p. Fungerar mycket bra utan problem. 👌🏻

Ja det är nog flera tungdrivna titlar där kort med mer minne och snarlika gpu prestanda borde dra iväg rejält allt 3080 helt plötsligt tappar fart.

Permalänk
Medlem

Nice test!
Hade varit kul om ni undersökt skillnaderna i VRAM allokering mellan AMD och nVidia.
Kanske kommer i ett upppföljningstest?

Permalänk
Medlem

Hur i helvete kan ett spel som Diablo kräva närmare 12GB, känns som någon på Blizzard borde få en rejäl pungspark.

Permalänk
Skrivet av ramlösa:

Hur i helvete kan ett spel som Diablo kräva närmare 12GB, känns som någon på Blizzard borde få en rejäl pungspark.

Kräver och kräver..

Permalänk
Medlem

Ja, 8GB är inte längre det framtidssäkra som för några år sedan.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem

Vad roligt att det fortfarande görs originalinnehåll på sidan.

Det är synd att det inte verkar finnas något sätt att manuellt inaktivera minne på ett grafikkort så man kan se exakt samma grafikkort med samma inställningar, men om det hade haft hälften så mycket minne.

Egentligen är det ju bra att ett spel tror sig kunna använda extremt mycket minne, när det finns tillgängligt. Det behöver ju inte betyda att det fungerar dåligt med mindre minne.

Permalänk
Medlem
Skrivet av ramlösa:

Hur i helvete kan ett spel som Diablo kräva närmare 12GB, känns som någon på Blizzard borde få en rejäl pungspark.

Slutade folk läsa efter dom såg tabellerna för minnesanvändingen eller?

Techpowerup testade ju över 20spel i sin recension av 4060Ti 16GB, i snitt presterar korten likvärdigt i 1080p, och 5% skillnad i 2160p i minfps.

Deras slutsats var väl lite denna:

"Averaged over the 25 games in our test suite, the RTX 4060 Ti 16 GB ends up a whole 0% faster at 1080p Full HD, 1% at 1440p, and 2% at 4K. While there's games that do show small performance improvements, the vast majority of titles runs within margin of error to the RTX 4060 Ti 8 GB Founders Edition. The best gains with 1080p are seen in Plague Tale (+2%), Deathloop (+1.6%), F1 23 (+1.2%), Far Cry 6 (+0.9%) and Cyberpunk (+0.8%). At higher resolution these gains do improve, but only marginally. The only exception is The Last of Us, which gains +19% at 1440p and +21% at 4K. F1 23 gains 10% at 4K, too, but RTX 4060 Ti is fundamentally not a card for 4K in modern AAA titles. The Last of Us 4K runs at 27 FPS with the 16 GB card and 22 FPS with the 8 GB model—both too slow for a serious gaming experience—and that's the title with the biggest gains.

https://www.techpowerup.com/review/nvidia-geforce-rtx-4060-ti...

Hade jag köpt ett 5000kr kort med 8GB VRAM i dagsläget? Nej, det hade jag nog inte. Men jag har haft kort med 8GB VRAM sen 2017 och jag har fortfarande inte stött på ett enda spel där jag haft problem med det, D4 inkluderat.

Permalänk
Medlem

Jag tycker att lika intressant som resultatet med prestandaskillnaden mellan 8 och 12GB vram är HUR spelen hanterar minnesbristen. Diablo 4 och Jedi survivor, som bevisligen vill ha mer än 8GB, fungerar trots allt bra. Hogwarts Legacy däremot kraschar. Spelmotorn/utvecklarna kan uppenbarligen påverka hur ett spel uppför sig under sämre än optimala förhållanden. Det är något jag tycker är värt att notera.

Nu har jag bara läst två sidor kommentarer så har någon annan lyft det här har jag missat det..

Permalänk
Medlem
Skrivet av Swedishchef_90:

Om nvidia får ordning på sin algoritm med vram optimering så blir ju detta enbart problem för amd i framtiden!
Den som lever får se

RTX 5060 TI, nu med 2 GB VRAM och DLSS 4 som renderar alla texturer internt i 256x256 och skalar upp dem.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem
Skrivet av Pepsin:

RTX 5060 TI, nu med 2 GB VRAM och DLSS 4 som renderar alla texturer internt i 256x256 och skalar upp dem.

Jag kunde inte bry mig mindre om jag får 2 GB VRAM så länge spelet flyter som jag tänkt mig.
Att hänga upp sig på storlek på die , vram etc så länge prestandan är där den skall är bara dumt.

https://www.tweaktown.com/news/91355/nvidias-new-texture-comp...

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Bra artikel!
Märkte själv av hur tungt Diablo 4 var på mitt 3080 10GB om man körde Ultra textures (1440p), det rullade på bra stundvis, men sen fick man stundvis extreeema stutters, och typ rubberband i spelet. Försvann när jag sänkte till High textures. Känns lite sådär att ett 3080 kan vara föräldrat på ~3 år.

Visa signatur

EVGA 3080 FTW3 ULTRA | x570 Strix F-gaming | 5800x3D | 16 GB Ballistix 3200 Mhz c16 | Noctua DH-15 | EVGA G2 750 | Fractal Design R5
Acer 27" Predator XB271HU 165 Hz G-sync

Permalänk
Medlem

Jag har alltid varit den som köpt grafikkort som ger mest bang for the buck. Självfallet var det lättare innan grafikkortspriserna sköt i höjden men det var också enklare när ray tracing inte var lika etablerat.

Men denna gång köpte jag RTX4090 för straxt ett år sedan. Måste ändå säga att det är rätt skönt att inte alls tänka på inställningar (eller lika mycket) samt att inte behöva bry sig om vram.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem
Skrivet av norzma:

Bra artikel!
Märkte själv av hur tungt Diablo 4 var på mitt 3080 10GB om man körde Ultra textures (1440p), det rullade på bra stundvis, men sen fick man stundvis extreeema stutters, och typ rubberband i spelet. Försvann när jag sänkte till High textures. Känns lite sådär att ett 3080 kan vara föräldrat på ~3 år.

Det var väl ungefär det alla sa när de släpptes, minnet är gimpat