Följ Black Week på SweClockers

Snabbtest: Grafikprestanda i Just Cause 3

Permalänk
Hedersmedlem
Skrivet av Allihopa:

eh har du själv läst xD

går klart och tydligt se på sida 3 vad man fick fram på ett 980ti och det var 42-68fps inte 67-80fps som jag fick och skulle du snitta
båda resultaten så blir dem inte inärheten lika

Det låter som du tolkar värdena som att FPSen skulle pendla mellan 42-68 i sweclockers test.
Men det är inte alls vad sweclockers mätvärden visar.
Värdet 42 är det minsta värdet som är uppmätt i testet med mätmjukvaran.
Värdet 68 är däremot medelvärdet för testet.
Sedan kan spelet ha varit uppe i 200 fps under en tid men det redovisas inte i detta test alls ;).

Visa signatur

🎮 → Node 304 • Ryzen 7 5700X3D • Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Avstängd
Skrivet av Villejulian:

Varför testar ni inte GTX 780?

Är det lönt att testa med tidspressen? 780 Ti finns på plats så det kan du lätt jämföra med.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk

680 och med tidspress så kanske manborde prioritera att nyare kort testas och skillnaden mellan 780 ti och 780 är ganska stor

Permalänk
Avstängd
Skrivet av Villejulian:

680 och med tidspress så kanske manborde prioritera att nyare kort testas och skillnaden mellan 780 ti och 780 är ganska stor

Ja, men den är extremt konsekvent också. Kolla Sweclockers prestandaindex för någon månad sedan så ser du att skillnaden är 18% i 1080p och 19% i 1440p. Så avancerat är det inte.

http://www.sweclockers.com/test/20783-asus-geforce-gtx-980-ti...

Vad har 680 med det att göra, det är en bra baseline? Antagligen referenskort också vilket 770 är svårare att testa för.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem

Det här kanske man skall prova

Permalänk
Medlem

Just cause 3 ska tydligen använd DRMen Denuvo vilket avskräcker mig från att vilja köpa spelet.
Undrar hur mycket prestanda som går förlorad pga Denuvo.

Visa signatur

KTH student, programmerare, arch användare

Permalänk
Medlem

@xobust: Det var inget prat om att det skulle ta prestanda, det var att SSD-diskar slets ut snabbare.

Visa signatur

CPU: I7 4770K Grafik: Poseidon Platinum GeForce GTX 980Ti Moderkort: Asus Maximus VI Hero Z87 RAM: 16Gb Corsair Dominator Platinum CL9 Nätagg: Corsair HX1050 Gold SSD: Corsair Force GT 240Gb SSHD: Seagate Desktop 4TB Låda: Corsair Graphite 600T

Permalänk
Avstängd

Kan rekommendera Jim Sterlings video på Just Cause 3 om ni gillar den typen av humor.

https://www.youtube.com/watch?v=qXTOrYWZcPs

Visa signatur

http://iogt.se/
du blir ful och dum av sprit
flow är lek

Permalänk
Medlem
Skrivet av Dinoman:

AMD imponerar. Battlefront var lite av en överaskning och nu detta. Verkar som att AMD har gått på en lite framtidssäkrare arkitektur än Nvidia eller så passar de här två titlarna helt enkelt AMD.

Den som lever få se. Jag behåller nog mitt 980Ti än så länge iaf.

Det roliga jag ser är stengamla 7970, som både hänger med som 380, men samtidigt totalt sopar golvet med 680, som var dens "konkurrent" förr. Samtidigt är 290x uppe och sniffar runt 980s prestanda...

AMD är verkligen mer framtidssäkrat de senaste åren, och det syns tydligt när man tittar på hur de hänger med många år senare när de optimerats väl.
Sen är det väl ironi i det hela att de gör det i en titel som borde gynna Nvidia

Permalänk
Datavetare
Skrivet av Paddanx:

Det roliga jag ser är stengamla 7970, som både hänger med som 380, men samtidigt totalt sopar golvet med 680, som var dens "konkurrent" förr. Samtidigt är 290x uppe och sniffar runt 980s prestanda...

AMD är verkligen mer framtidssäkrat de senaste åren, och det syns tydligt när man tittar på hur de hänger med många år senare när de optimerats väl.
Sen är det väl ironi i det hela att de gör det i en titel som borde gynna Nvidia

Huruvida de "optimeras väl" är nog rätt diskutabelt. Jämför kapaciteten hos 7970 vs 680

Kapaciteten i 7970 är så här mycket högre än 680

  • shader kapacitet (GFLOPS): 23%

  • VRAM bandbredd (GB/s): 38%

  • Pixel fillrate (Gp/s): -8%

  • Texel fillrate (Gt/s): -8%

Jämför man 380 och 960 (stock) så har 380 så här mycket högre kapacitet

  • shader kapacitet (GFLOPS): 50%

  • VRAM bandbredd (GB/s): 63%

  • Pixel fillrate (Gp/s): -21%

  • Texel fillrate (Gt/s): 51%

Borde inte frågan i stället vara varför Nvidias kort överhuvudtaget kan ligga på samma nivå, framförallt när man jämför 380 och 960? I teoretisk kapacitet ligger 380 mycket närmare 970 än 960 och 390x ligger i flera fall ovanför 980ti. Pixel fillrate är generellt sett högre för Nvidia, men det lär knappast vara en flaskhals i en titel som inte kör MSAA eller något annat som pushar den delen.

Sedan finns det väl knappast något i denna titel som specifik borde gynna Nvidia, eller? I låga upplösningar lär flaskhalsen bli trianglar/s (samma geometri men väldigt hög FPS -> många trianglar per tidsenhet), där har Kepler/Maxwell en klar fördel mot GCN vilket också syns i resultaten. Med "post-processing AA" och en rad andra effekter som lastar shaders är detta en perfekt match för GCN.

Enda GameWorks som används är WaveWorks som körs på CPU(fysiken) och shaders (rendering av vågor, GCN är som sagt relativt sett starkare än Maxwell på shaders). Enda delen som kan accelereras av GPU i WaveWorks på ett sätt som "gynnar" Maxwell är tessellation av vågorna.

Sedan är diskussionen kring "framtidssäker" rätt meningslös idag. Att t.ex. 7970 klarat sig så väl (även 680 har ju klarat sig bra sett till vad Nvidia har idag) är ju till väldigt stor del ett resultat av att man fastnat på 28 nm. Alla som köper en GPU idag kommer få se "sin" modell rejält överskuggad av motsvarande modell när den kommer med 16 nmFF. GPUer, till skillnad från CPUer, skalar ju nära nog linjärt med antal "kärnor" och 16 nm kommer betyda ungefär dubbelt så många transistorer på en specifik yta ("16 nm" är i praktiken 20nm med FinFET så dubbel, inte fyra gånger, så många transistorer).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Moderator
Testpilot
Skrivet av Yoshman:

Huruvida de "optimeras väl" är nog rätt diskutabelt. Jämför kapaciteten hos 7970 vs 680

Kapaciteten i 7970 är så här mycket högre än 680

  • shader kapacitet (GFLOPS): 23%

  • VRAM bandbredd (GB/s): 38%

  • Pixel fillrate (Gp/s): -8%

  • Texel fillrate (Gt/s): -8%

Jämför man 380 och 960 (stock) så har 380 så här mycket högre kapacitet

  • shader kapacitet (GFLOPS): 50%

  • VRAM bandbredd (GB/s): 63%

  • Pixel fillrate (Gp/s): -21%

  • Texel fillrate (Gt/s): 51%

Borde inte frågan i stället vara varför Nvidias kort överhuvudtaget kan ligga på samma nivå, framförallt när man jämför 380 och 960? I teoretisk kapacitet ligger 380 mycket närmare 970 än 960 och 390x ligger i flera fall ovanför 980ti. Pixel fillrate är generellt sett högre för Nvidia, men det lär knappast vara en flaskhals i en titel som inte kör MSAA eller något annat som pushar den delen.

Sedan finns det väl knappast något i denna titel som specifik borde gynna Nvidia, eller? I låga upplösningar lär flaskhalsen bli trianglar/s (samma geometri men väldigt hög FPS -> många trianglar per tidsenhet), där har Kepler/Maxwell en klar fördel mot GCN vilket också syns i resultaten. Med "post-processing AA" och en rad andra effekter som lastar shaders är detta en perfekt match för GCN.

Enda GameWorks som används är WaveWorks som körs på CPU(fysiken) och shaders (rendering av vågor, GCN är som sagt relativt sett starkare än Maxwell på shaders). Enda delen som kan accelereras av GPU i WaveWorks på ett sätt som "gynnar" Maxwell är tessellation av vågorna.

Sedan är diskussionen kring "framtidssäker" rätt meningslös idag. Att t.ex. 7970 klarat sig så väl (även 680 har ju klarat sig bra sett till vad Nvidia har idag) är ju till väldigt stor del ett resultat av att man fastnat på 28 nm. Alla som köper en GPU idag kommer få se "sin" modell rejält överskuggad av motsvarande modell när den kommer med 16 nmFF. GPUer, till skillnad från CPUer, skalar ju nära nog linjärt med antal "kärnor" och 16 nm kommer betyda ungefär dubbelt så många transistorer på en specifik yta ("16 nm" är i praktiken 20nm med FinFET så dubbel, inte fyra gånger, så många transistorer).

Fast bara för att det kommer nya arkitekturer så betyder inte det att dom gamla inte är mer eller mindre framtidssäkra. Självklart kommer de nya generationerna överskugga de äldre men med tanke på att AMD har en positivare utvecklingskurva än Nvidia så betyder ju det, iaf i mina ögon att GCN passar bättre för dagens spel än vad Fermi, Kepler och Maxwell gör.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Datavetare
Skrivet av Dinoman:

Fast bara för att det kommer nya arkitekturer så betyder inte det att dom gamla inte är mer eller mindre framtidssäkra. Självklart kommer de nya generationerna överskugga de äldre men med tanke på att AMD har en positivare utvecklingskurva än Nvidia så betyder ju det, iaf i mina ögon att GCN passar bättre för dagens spel än vad Fermi, Kepler och Maxwell gör.

Det gör ju skillnad då spelen kommer utvecklas mot "mainstream". Under många år nu har GPU prestanda för "mainstream" varit ovanligt nära föregående generation just p.g.a att man inte kommit förbi 28 nm. Ovanpå det börjar högupplösta skärmar blir allt vanligare, 4k är numera mainstream för TV-apparater över 50" så det borde börja bli ett sug efter kraftigare GPUer. Om VR slår är det ett annat område där dagens high-end GPUer i bästa fall ligger i nedre spannet för vad som behövs.

Vad spelar det för roll om GCN ökar sin prestanda med säg 10% och Maxwell ökar sin med 0% om nästa generation "mainstream" är 100% snabbare? 10% kommer inte göra en relevant skillnad.

Däremot tror jag 14/16 nm kommer bli väldigt mycket som 28 nm, vi kommer få se många generationer GPUer på denna tillverkingsnod. Anledningen är att kostnaderna börjar skena och är uppenbart att 14/16 nm processen är rejält utmanande för alla som jobbar med den. "yield" är fortfarande ett stort problem för Samsung/GloFo, även Intel har problem med att tillverka vissa kretsar, som t.ex. 6700K, i tillräckligt stora kvantiteter något som är unikt för företaget så här pass långt efter introduktion av en ny nod.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Huruvida de "optimeras väl" är nog rätt diskutabelt. Jämför kapaciteten hos 7970 vs 680

Kapaciteten i 7970 är så här mycket högre än 680

  • shader kapacitet (GFLOPS): 23%

  • VRAM bandbredd (GB/s): 38%

  • Pixel fillrate (Gp/s): -8%

  • Texel fillrate (Gt/s): -8%

Jämför man 380 och 960 (stock) så har 380 så här mycket högre kapacitet

  • shader kapacitet (GFLOPS): 50%

  • VRAM bandbredd (GB/s): 63%

  • Pixel fillrate (Gp/s): -21%

  • Texel fillrate (Gt/s): 51%

Borde inte frågan i stället vara varför Nvidias kort överhuvudtaget kan ligga på samma nivå, framförallt när man jämför 380 och 960? I teoretisk kapacitet ligger 380 mycket närmare 970 än 960 och 390x ligger i flera fall ovanför 980ti. Pixel fillrate är generellt sett högre för Nvidia, men det lär knappast vara en flaskhals i en titel som inte kör MSAA eller något annat som pushar den delen.

Sedan finns det väl knappast något i denna titel som specifik borde gynna Nvidia, eller? I låga upplösningar lär flaskhalsen bli trianglar/s (samma geometri men väldigt hög FPS -> många trianglar per tidsenhet), där har Kepler/Maxwell en klar fördel mot GCN vilket också syns i resultaten. Med "post-processing AA" och en rad andra effekter som lastar shaders är detta en perfekt match för GCN.

Enda GameWorks som används är WaveWorks som körs på CPU(fysiken) och shaders (rendering av vågor, GCN är som sagt relativt sett starkare än Maxwell på shaders). Enda delen som kan accelereras av GPU i WaveWorks på ett sätt som "gynnar" Maxwell är tessellation av vågorna.

Sedan är diskussionen kring "framtidssäker" rätt meningslös idag. Att t.ex. 7970 klarat sig så väl (även 680 har ju klarat sig bra sett till vad Nvidia har idag) är ju till väldigt stor del ett resultat av att man fastnat på 28 nm. Alla som köper en GPU idag kommer få se "sin" modell rejält överskuggad av motsvarande modell när den kommer med 16 nmFF. GPUer, till skillnad från CPUer, skalar ju nära nog linjärt med antal "kärnor" och 16 nm kommer betyda ungefär dubbelt så många transistorer på en specifik yta ("16 nm" är i praktiken 20nm med FinFET så dubbel, inte fyra gånger, så många transistorer).

Tror du behöver titta på priset, för det är just därför jag jämför dem som jag gör, och något som gör din relation om hur mycket de optimeras per använd hårdvara ganska irrelevant.

När 7970 kom så var priset rätt likt 680. Så Nvidia optimerade, precis som du säger, djuret ur denna hårdvara och kunde därför sälja ett "lika bra kort", med sämre hårdvara.

7970 har dock med åren optimerats, och DX12/Vulkan (via mantle) kan nog pressa ur ännu mer ur den. Och rent teoretiskt så har den, precis som du säger, mer hårdvaruprestanda under huven. Så om du ska köpa kort X eller Y, som båda kostar ungefär samma. Det ena kommer med bättre hårdvara, och kommer att bli snabbare med tiden, samtidigt som det stöder framtida APIer bättre, då anser jag banne mig att det är mer framtidssäkrat, vilket också syns.
http://www.sweclockers.com/artikel/18402-sweclockers-prestand...
Den senaste versionen av drivare har de inte med 7970, då det är svårt att jämföra, men tittar men på den innan så ser man 7970 bra bit om både 680 och 770 (76 vs 65 och 69), och dessa kort kostade alltså samma pris när de en gång tävlade mot varandra. Kortet har även 3G VRAM vilket räcker bra mycket bättre än 680s 2GB i många spel idag.

Så jag vidhåller min ståndpunkt att 7970 både är ett bättre kort, mer framtids säkrat än både 680 och 770. Vi kan ju se om 960Ti fyller i det hålet som detta kort har haft i prestandan...

http://www.sweclockers.com/artikel/18402-sweclockers-prestand...
Sen har du 290X, där 970 har länge påstås vara bättre, och ändå så hänger 290(ej X) med precis under, och 290X är nu över detta kort. Notera då att 290X egentligen borde tävla mot 780 (ej Ti) då det var där det kortet släpptes en gång i tiden. Tittar vi på det så har vanliga 780 inte en chans på 83 poäng (gamla) och du måste upp i 780Ti för att tangera 290X (både nya och gamla testerna). Så glöm inte vilket pris 780Ti såldes för, och du kan än idag köpa 290x för 3000kr. Det närmaste är 780 Ti som finns idag för 4000kr, för samma prestanda. Men du kan ju titta på vad de "normalt" kostar och har kostat sedan länge, minst 5000k för 780 (ej Ti), eller iaf 6000kr fram till mitten 2015 för 780Ti.

Så ett kort för 3000kr, som har möjlighet att ge ännu mer, har möjlighet att bli bättre med DX12/Vulkan, vs ett kort som är redan max optimerat av Nvidia för minst 1000kr till... Var är prisvärdheten? Var är framtids-tänket hos Nvidia, säg mig?

Det enda framtidssäkra med Nvidias senaste kort är Nvidias plånbok, för de säljer dig ett kort som idag är bra och hänger med, men om 3 år måste bytas ut (om det håller). AMD ägare har egentligen bara ett enda problem för framtiden... håller kortet? Vågar inte svara på det, men jag har själv 2 st 7970 som håller än, samt några 290 kort. Ett 290 kort för en vän har bränt (ca 2 år gammalt), och ett 980 kort hos en annan (ca 1 år gammalt), så det är lite tur, det vet jag.

Så ja, Nvidia optimerar bättre... de optimerar så bra att där sen inte finns ett jädra dugg mer att optimera för. Och när väl Nvidia slutar optimera (tänk tex hairworks och andra 900-serie optimeringar) så tar deras tidigare gen kort smällen. Så vilket är mer framtidssäkrat tycker du? ett alt som bara kan bli sämre, eller ett som har mer att ge?

Ang 380 kortet så är det den nyaste av alla GCN, och därför också den som har sämst optimering. Kortet har även visat sig få problem med minnesbrist, vilket gör att du inte kan få ut den prestandan du borde få. Å andra sidan så har 380 potential att fixas... 960 kommer aldrig bli bättre, utan är fortfarande ett överprisat budget kort som är skräp i mina ögon till allt annat än lägre TDP. I den klassen är 750Ti kung, dock till lägre prestanda så klart.

Permalänk
Hjälpsam

@Kenneth: Liten kort fråga;
jag noterar att värdena i "very high", för GTX970 och R) 390 skiljer sig lite åt mellan tabellerna och staplarna i ert test.
http://www.sweclockers.com/test/21387-snabbtest-grafikprestan...
Antar att det är någon inställing som inte är identisk (MSAA?), eller är det helt enkelt pga av av variationer, mellan olika mätningar.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare

@Paddanx: som jag ser det så om man köpte ett 7970 vid lansering så betalande man för en ~$500 GPU, men man har aldrig riktigt fått prestandan motsvarande ett GPU för $500. När väl drivarna hamnat på en sådan nivå att det matchar/gick förbi samtida Nvidia kort så är prestanda inte längre vad man får för $500.

Däremot håller jag helt med om att den högre teoretiska kapaciteten i AMDs kort jämfört med likvärdigt prissatta Nvidia kort är ju en fördel om drivarna hamnar på en riktigt bra nivå.

Alla borde dock se att det inte är en hållbar strategi för AMD att kompensera sin relativt dåliga effektivitet i drivers med mer kisel, det fungerar inte affärsmässigt på lång sikt. Är ju uppenbart att man inte kan ta ett högre pris för att något i framtiden eventuellt kan bli bättre. Initiala priset på 680 och 7970 speglar deras relativa prestanda vid introduktion vilket känns fullt rimligt, det som spelar roll är faktiskt prestanda idag och den beror av HW * drivers.

Jämförelsen mellan 290x och 970 skulle jag säga är lite sned. SweC kör 290x i "über-mode" medan 970 körs i referens som är ett läge nästan ingen kör ett 970 i. Du ska jämföra 290x med resultatet som nu finns för 970 från EVGA i den tabell du länkar. Så i praktiken presterar 970 (än så länge) bättre än 290x enligt prestandaindex.

Orkar inte hålla på med överklockning själv, det ska bara fungera. För t.ex. MSI 970 Gaming så får man med en programvara där man kan välja "silent" (referens), "gaming" (förval om man inte installerar programmet) eller "OC". MSI garanterar alltså att kortet fungerar som det ska med dessa lägen. I "OC" läget får direkt de ~10% dag #1 man kan hålla tummarna att AMD klämmer ut via drivare någon gång ("OC" läget är i princip vad man får med EVGA-kortet). Att välja ett av tre val i ett medföljande program ser jag inte som "överklockning" och tror nog det är på en nivå som även "svensson" begriper sig på -> det används även i praktiken. Ett annat alternativ är att välja t.ex. EVGA-kortet eller någon av de modeller med "OC" i namnet så har är förvalet "OC" läget (kostar dock några 100-lappar extra).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Gurk:

@xobust: Det var inget prat om att det skulle ta prestanda, det var att SSD-diskar slets ut snabbare.

Efter som den obfuskerar koden väldigt hårt med ett white box crypto så går det inte att garantera någonting.
Det är som sagt väldigt svårt att analysera vad delar av maskinkoden gör.
Men sådant får man ju räkna med när man kör proprietär mjukvara.

Visa signatur

KTH student, programmerare, arch användare

Permalänk
Medlem
Skrivet av xobust:

Efter som den obfuskerar koden väldigt hårt med ett white box crypto så går det inte att garantera någonting.
Det är som sagt väldigt svårt att analysera vad delar av maskinkoden gör.
Men sådant får man ju räkna med när man kör proprietär mjukvara.

Det florerade rykten för något år sedan om CPU-load och att det skrev sönder diskarna... men det verkar ha stannat där, vid ett rykte. Så, om du baserar ditt köp eller inte köp på bara den detaljen så är det såklart som så att du ska låta bli. Fakta brukar annars vara rätt så bra att gå på, men det är ju jag det

Visa signatur

CPU: I7 4770K Grafik: Poseidon Platinum GeForce GTX 980Ti Moderkort: Asus Maximus VI Hero Z87 RAM: 16Gb Corsair Dominator Platinum CL9 Nätagg: Corsair HX1050 Gold SSD: Corsair Force GT 240Gb SSHD: Seagate Desktop 4TB Låda: Corsair Graphite 600T

Permalänk
Medlem
Skrivet av Gurk:

Det florerade rykten för något år sedan om CPU-load och att det skrev sönder diskarna... men det verkar ha stannat där, vid ett rykte. Så, om du baserar ditt köp eller inte köp på bara den detaljen så är det såklart som så att du ska låta bli. Fakta brukar annars vara rätt så bra att gå på, men det är ju jag det

Ja fakta är bra men som sagt om man försöker gömma fakta genom att obfuskera koden så ska man nog vara försiktig.

Visa signatur

KTH student, programmerare, arch användare

Permalänk
Benchmaskin 🍞
Skrivet av Ratatosk:

@Kenneth: Liten kort fråga;
jag noterar att värdena i "very high", för GTX970 och R) 390 skiljer sig lite åt mellan tabellerna och staplarna i ert test.
http://www.sweclockers.com/test/21387-snabbtest-grafikprestan...
Antar att det är någon inställing som inte är identisk (MSAA?), eller är det helt enkelt pga av av variationer, mellan olika mätningar.

Lite oklart vad du menar här. EVGA 970 och Sapphire 390 är korten som finns med i Vinterdatorn 2015 och är något överklockade. Därför är de separerade och innehåller även alla upplösningar och inställningar.

I diagrammet är alla korten i sina respektive referensfrekvens och är därför annorlunda från tabellen ovanför.

Förstod jag dig rätt?

Permalänk
Medlem

390x.... Vilket galet grafikkort

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Hjälpsam
Skrivet av Kenneth:

Lite oklart vad du menar här. EVGA 970 och Sapphire 390 är korten som finns med i Vinterdatorn 2015 och är något överklockade. Därför är de separerade och innehåller även alla upplösningar och inställningar.

I diagrammet är alla korten i sina respektive referensfrekvens och är därför annorlunda från tabellen ovanför.

Förstod jag dig rätt?

Japp, det gjorde du.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Yoshman:

@Paddanx: som jag ser det så om man köpte ett 7970 vid lansering så betalande man för en ~$500 GPU, men man har aldrig riktigt fått prestandan motsvarande ett GPU för $500. När väl drivarna hamnat på en sådan nivå att det matchar/gick förbi samtida Nvidia kort så är prestanda inte längre vad man får för $500.

Däremot håller jag helt med om att den högre teoretiska kapaciteten i AMDs kort jämfört med likvärdigt prissatta Nvidia kort är ju en fördel om drivarna hamnar på en riktigt bra nivå.

Alla borde dock se att det inte är en hållbar strategi för AMD att kompensera sin relativt dåliga effektivitet i drivers med mer kisel, det fungerar inte affärsmässigt på lång sikt. Är ju uppenbart att man inte kan ta ett högre pris för att något i framtiden eventuellt kan bli bättre. Initiala priset på 680 och 7970 speglar deras relativa prestanda vid introduktion vilket känns fullt rimligt, det som spelar roll är faktiskt prestanda idag och den beror av HW * drivers.

Jämförelsen mellan 290x och 970 skulle jag säga är lite sned. SweC kör 290x i "über-mode" medan 970 körs i referens som är ett läge nästan ingen kör ett 970 i. Du ska jämföra 290x med resultatet som nu finns för 970 från EVGA i den tabell du länkar. Så i praktiken presterar 970 (än så länge) bättre än 290x enligt prestandaindex.

Orkar inte hålla på med överklockning själv, det ska bara fungera. För t.ex. MSI 970 Gaming så får man med en programvara där man kan välja "silent" (referens), "gaming" (förval om man inte installerar programmet) eller "OC". MSI garanterar alltså att kortet fungerar som det ska med dessa lägen. I "OC" läget får direkt de ~10% dag #1 man kan hålla tummarna att AMD klämmer ut via drivare någon gång ("OC" läget är i princip vad man får med EVGA-kortet). Att välja ett av tre val i ett medföljande program ser jag inte som "överklockning" och tror nog det är på en nivå som även "svensson" begriper sig på -> det används även i praktiken. Ett annat alternativ är att välja t.ex. EVGA-kortet eller någon av de modeller med "OC" i namnet så har är förvalet "OC" läget (kostar dock några 100-lappar extra).

Anledningen till varför 7970 korten var så dyra var inte AMD "fel", utan det var bit-coin grävarna som kunde gå in och handla 20 kort bara "så där". Detta drev upp priserna över allt på dessa kort, och Nvidias hade inget att komma med i den världen.

Jag ser det dock mer som $300 + $200 kort, om du jämför vad du hade behövt handla från Nvidia så är det betydligt mer än det för att få samma prestanda över alla åren. Ja, du hade initialt fått bättre prestanda, ingen tvekan om det, men 2 år senare hade du behövt handla ett nytt kort för att komma i kapp. Och sen 2 år senare, ett nytt igen. Hur du än vänder det så blir det en sabla bra långtids investering. 2600k + 7970 är än idag än kraft att räkna med, och det finns absolut inget Nvidia har, öht, som kan ses på samma sätt.

Tittar du sen på prisen lite mer noga så ser man att 7970 korten föll rätt snabbt under 5000kr nivån om du scrollar bak till 2012, trots bitcoin hysterin, och 680 korten var inte direkt... Långt ifrån.. Utan det är runt samma 5000kr. Så under både 2012 och 2013 har de haft ca samma pris på runt 4500kr, och detta trots att 680 måste vara i SLI för att ens hänga med ett 7970.
Så i mina ögon har man trots bitcoin överpriset, fått enormt mycket för pengarna (du kan ju jämför populariteten...).

Håller med dig ang 970, men jämför då 390 och 970, då de är av samma generation, som många glömmer...
200 AMD: Release date Announced: September 25, 2013
Released: Oct 8, 2013
900 Nvidia: Release date September 2014

Det ca 1 år efter... och korten hänger ändå med Nvidias referenskort... Du måste alltså ta ett kort Nvidia har släppt 1 år senare, och överklocka (fabrik eller själv) för att ens kunna slå ett kort som AMD har haft på marknaden i ca 1 år. Ursäkta, men jag är inte imponerad...
AMDs 290 kort slog 780 redan från start, och då släppte Nvidia 780Ti, som även den nu har 290 korten jobbat sig förbi och är ikapp gen efter (dvs 970).

Att Nvidia kan göra kraftfulla kort, och kort som ger mycket prestanda vid släpp håller jag med, men AMDs kort gör det i 3-5 år... Nvidia förväntar sig att du handlar nytt om 1-2 år.

Med det sagt så håller jag helt med dig att för AMDs skull så kan de inte fortsätta så. De kommer inte tjäna nog på det. Så frågan är om AMD kan vinna på att blåsa kunderna som NVidia istället, när de som köper AMD idag, vet att man får mer för pengarna. Återstår att se vad som sker med nästa gen och DX12/Vulkan. Hur det påverkar både befintliga kort och hur pass bra de nya blir kommer avgöra mycket om hur Nvidia och AMDs framtid blir, då det är ny era, ny tillverkning och ny minnesteknik.

Permalänk
Moderator
Testpilot
Skrivet av Yoshman:

@Paddanx: som jag ser det så om man köpte ett 7970 vid lansering så betalande man för en ~$500 GPU, men man har aldrig riktigt fått prestandan motsvarande ett GPU för $500. När väl drivarna hamnat på en sådan nivå att det matchar/gick förbi samtida Nvidia kort så är prestanda inte längre vad man får för $500.

Däremot håller jag helt med om att den högre teoretiska kapaciteten i AMDs kort jämfört med likvärdigt prissatta Nvidia kort är ju en fördel om drivarna hamnar på en riktigt bra nivå.

Alla borde dock se att det inte är en hållbar strategi för AMD att kompensera sin relativt dåliga effektivitet i drivers med mer kisel, det fungerar inte affärsmässigt på lång sikt. Är ju uppenbart att man inte kan ta ett högre pris för att något i framtiden eventuellt kan bli bättre. Initiala priset på 680 och 7970 speglar deras relativa prestanda vid introduktion vilket känns fullt rimligt, det som spelar roll är faktiskt prestanda idag och den beror av HW * drivers.

Jämförelsen mellan 290x och 970 skulle jag säga är lite sned. SweC kör 290x i "über-mode" medan 970 körs i referens som är ett läge nästan ingen kör ett 970 i. Du ska jämföra 290x med resultatet som nu finns för 970 från EVGA i den tabell du länkar. Så i praktiken presterar 970 (än så länge) bättre än 290x enligt prestandaindex.

Orkar inte hålla på med överklockning själv, det ska bara fungera. För t.ex. MSI 970 Gaming så får man med en programvara där man kan välja "silent" (referens), "gaming" (förval om man inte installerar programmet) eller "OC". MSI garanterar alltså att kortet fungerar som det ska med dessa lägen. I "OC" läget får direkt de ~10% dag #1 man kan hålla tummarna att AMD klämmer ut via drivare någon gång ("OC" läget är i princip vad man får med EVGA-kortet). Att välja ett av tre val i ett medföljande program ser jag inte som "överklockning" och tror nog det är på en nivå som även "svensson" begriper sig på -> det används även i praktiken. Ett annat alternativ är att välja t.ex. EVGA-kortet eller någon av de modeller med "OC" i namnet så har är förvalet "OC" läget (kostar dock några 100-lappar extra).

Jag håller med om att många recensioner blir lite skeva med tanke på hur Maxwell generellt har ett högt överklockningstak, speciellt i jämförelse med Fiji. Att ha med en modell som MSI Lightning, EVGA Kinpin eller PowerColor Devil kan vara en god idé för att påvisa vad arkitekturerna är kapabla till.

Mitt 980 Ti Hybrid boostar t.ex. upp till 1500Mhz utan några större problem, boostar till runt 1400Mhz utan extra volt, och det hade varit intressant att se hur Fury X står sig då.

Sen är det ju i det sammanhanget väldigt viktigt att poängtera prisskillnaden. Jag tycker att Techreport använder sig av en bra funktion för att visualisera detta med en scatter plot, där man kan ha FPS kontra pris.

Dold text
Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk

Jag har 80+fps konstant i tex Siege 1440p med ultra settings, och med freesync känns inte dippen från 130 ned till 80fps alls skulle jag vilja påstå ( i just detta spel som exempel)
köper man ett 980ti eller FuryX bör man lägga pengar på att gå över 1080p för det finns ingen mening med att ha så starka kort i princip, i den upplösningen. högst personlig åsikt dock

Skrivet av Dinoman:

Med tanke på dom siffrorna så tror jag att GTX 980 Ti och R9 Fury X är ganska bra balanserade att leverera ~100 fps i 1080p. Vill man ha 144fps i 1440p så får man gå på multi-GPU lösningar.

Hade det funnits statistik på uppdateringsfrekvens på skärmarna som folk kör med så tror jag det hade varit ett förkrossande övertag för 60Hz-skärmar. Där fungerar 980 Ti utmärkt i 1440p.

Visa signatur

ROG Strix SCAR 17 | 12th gen i9H | 3070Ti 8GB (såld)
Ryzen 7600 med iGPU | 32GB ram 6800 Mhz
Ljudprylar: M-Audio Studiophile Q40, Blue Yeti mick, JBL Quantum 810, V-moda Crossfade 2

Permalänk

Själv har man 20fps med 6990 Quadfire och 19FPS utan crossfire. på absolut lägsta.

Visa signatur

-Ny Mainrigg kommer inom framtiden.

Permalänk
Medlem

Nya JC3 optimerade drivare från Nvidia kom precis ut, vore kul att se skillnaden..

Visa signatur

CPU I9 9900K@4,7Ghz |EVGA GTX 2070 Super 10365p Timespy 3DMark |Ram 32GB CorsAir DDR4 Vengence PRO |Define R6| ASUS Strix Z390F | M.2 SSD Evo 970 1TB |CorsAir 750W | Acer 27" Predator XB271HU | Win 11 Pro