> och minnesanvändningen med GPU-Z.
> Att testa minnesanvändning är inte helt så enkelt som det kan framstå. Det kan finnas skillnader mellan allokerat minne och hur mycket minne som faktiskt används.
> Att bara titta på det vi kallar "VRAM-användning" berättar inte allt. Fokus för oss har istället varit på praktisk prestanda i kombination med indikationen på minnesallokering.
Ärligt talat så förstår jag inte riktigt syftet med artikeln, eller vad exakt ni har tittat på. "Allokering" av minnet är överlag totalt oväsentlig i faktiska diskussioner av VRAM-nyttjande. Även "allokering" är något felaktigt. Det ni har mät är inte faktiskt var som har allokherats eller nyttjats aktivt av spel, utan enbart vad dem har begärt från GPU:n. Till på det så rapporterar GPU-Z detta över hela systemet, och inte på processnivå.
Här är ett citat från ExtremeTech från 2015 från en Nvidia-representant som också är relevant:
Skrivet av ExtremeTech:
GPU-Z: An imperfect tool
GPU-Z claims to report how much VRAM the GPU actually uses, but there’s a significant caveat to this metric. GPU-Z doesn’t actually report how much VRAM the GPU is actually using — instead, it reports the amount of VRAM that a game has requested. We spoke to Nvidia’s Brandon Bell on this topic, who told us the following: “None of the GPU tools on the market report memory usage correctly, whether it’s GPU-Z, Afterburner, Precision, etc. They all report the amount of memory requested by the GPU, not the actual memory usage. Cards will (sic) larger memory will request more memory, but that doesn’t mean that they actually use it. They simply request it because the memory is available.”
Källa: https://www.extremetech.com/gaming/213069-is-4gb-of-vram-enou...
Ett exempel på hur detta påverkar är ett spel jag betatestade för några år sedan som hade en bugg där spelet kontinuerligt begärde mer minne trots att det faktiskt inte nyttjade det. Så i verktyg som GPU-Z och dåtida RTSS påstod att 11 GB av mitt VRAM (hela min 1080 Ti VRAM) var "allokerat" av spelet -- men det stoppade mig inte från att boota upp NieR: Automata eller Final Fantasy XV och köra dem utan större problem.
I verkligheten så trots att spelet "begärde" mer VRAM hela tiden så nyttjade det aldrig mer än typ ~2 GB, och återstående 9 GB trots att det var "allokerat" hade ingen negativ påverkan på andra applikationer eller spel som också behövde nyttja VRAM.
---
Vad ni faktiskt skulle ha fokuserat på och mät är vad man kallar "memory budget" i DXGI, eller faktiskt VRAM som nyttjas av processen. Senaste versionerna av RTSS mäter och rapporterar detta (det heter inte VRAM, utan något annat har jag för mig), likaså är det något som Special K-verktyget också rapporterar för processen.
Då hade ni fått _exakt_ VRAM-nyttjande för spelprocessen i sig, vilket hade låtit er se om prestandan faktiskt påverkas negativt av kortet (all VRAM som är tillgänglig nyttjas) eller inte, samt vad spel generellt nyttjar i olika upplösningar.
Och speciellt det sista kan vara av enormt intresse då spel ofta faktiskt nyttjar 2-3 GB lägre än vad dem begär. Nu har ni fokuserat på "dagens tyngsta spel" vilket gör det lättare för er (dem kommer nyttja mer än tidigare spel trots allt), men något som var av mycket intresse för mig vid spelande i 1440p och 4K sedan 3 år tillbaka med *korrekt* mätning av VRAM-nyttjande var hur lite VRAM som faktiskt nyttjades av de flesta spel i 4K. Trots att deras systemkrav nämnde siffror som 8 GB VRAM och begärde så mycket (eller till och med mer) osv så var det många som aldrig gick över 2.5-4 GB faktiskt nyttjande.
Men det var dåtidens spel -- moderna spel som har fokus på senaste generationen konsoler och hårdvara ligger någon/några GB överst -- och dagens tyngsta spel kan vara upp mot 7-8 GB eller högre beroende på inställningar och upplösning.