VRzone testar 8800gt och 3870 - bildkvalitet w00t!

Permalänk

VRzone testar 8800gt och 3870 - bildkvalitet w00t!

http://www.vr-zone.com/articles/AMD_Radeon_HD3850_and_HD3870_...

Kolla in sandstranden =S Och texturerna på stenarna. Är det bara mina ati-fanboy-ögon som ser en enorm skillnad till atis fördel eller har nv problem?

F.ö. ser 3870 ut att klocka enormt vilket nog har att göra med bra PWM och kondingar. Med standardkylaren som är underdimensionerad, temperaturer på 80c trots extremt låg energiförbrukning, fick ju vrzone upp coren med över 10%.

Visa signatur

Allting jag skriver är om inget annat utrycks, SANT! Ingenting är subjektivt, och du kan göra antaganden baserade på mina åsikter utan att överväga mer än bara just min åsikt.
wazzabi: Varför detta prat om AMD, har de något med grafikkort att göra som jag inte förstår?

Permalänk

Nej det är helt rätt som bilderna visar.
Frågan är vad det är som påverkar detta. Det hade vart intressant och se bildkvalitén av HD2900XT då G80 har bättre bildkvalité jämfört med R600.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk

Det kan man nog inte säga att den har generellt. G80 är bättre på AF men på AA är dom likvärdiga och sedan är det andra saker som spelar in i bildkvaliten. Här är det någonting med texturerna som är fel på nvidia men frågan är om inte det sitter i drivare och kanske tom är en fuling precis som den med vattenreflektionen i crysis. Jag är hyffsat säker på att r600 skulle ge exakt samma bild som 3870 här och att hela 88** serien ger samma bild med de drivarna som användes i testet. Lustigt är att gubbarna på vrzone tyckte bildkvaliten endast var marginellt bättre för det här är ju den största skillnaden sedan 5900-serien...

Visa signatur

Allting jag skriver är om inget annat utrycks, SANT! Ingenting är subjektivt, och du kan göra antaganden baserade på mina åsikter utan att överväga mer än bara just min åsikt.
wazzabi: Varför detta prat om AMD, har de något med grafikkort att göra som jag inte förstår?

Permalänk
Geeks
SweClockers

ATI har väl alltid haft bättre bildkvalitet än Nvidia? Inget nytt under solen.

Visa signatur

» Kontakta oss » SweClockers på Facebook » SweClockers på Youtube » Blips of SweClockers (Spotify)
» Pappa till Moderskeppet » SweClockers chefredaktör 2007–2015

Permalänk
Citat:

Ursprungligen inskrivet av xphaze
ATI har väl alltid haft bättre bildkvalitet än Nvidia? Inget nytt under solen.

ha ha, morgonens garv, redaktören sätter ner foten tydligt, nu är inte jag så engagerad i fanboydebatterna men detta får jag nog ha bakhuvet när jag läser nästa rec från SC om grafikkort
inget illa ment, tyckte bara att det var lite kul

Visa signatur

ASUS ROG Strix B250I, Intel Core i5-6600 Skylake, Crucial DDR4 2400MHz 8GB, MSI GTX 1050 Ti 4 gb Aero, WD Black 1 TB, Fractal Design Node 304, 18 cm

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Bobby Tex
ha ha, morgonens garv, redaktören sätter ner foten tydligt, nu är inte jag så engagerad i fanboydebatterna men detta får jag nog ha bakhuvet när jag läser nästa rec från SC om grafikkort

Precis...;) Redaktörerna prisar väl dom som betalar dom bäst, swec är väl knappast bättre eller sämre än andra forum som recenserar hårdvara. Dom är ju beroende av att tillverkarna förser dom med hårdvara för att testa och det är väl inte helt otroligt att dom efter testad och genomförd recension får behålla densamma eller!?

Man skall inte bita den hand som föder en heter det ju...:)

Permalänk
Citat:

Ursprungligen inskrivet av xphaze
ATI har väl alltid haft bättre bildkvalitet än Nvidia? Inget nytt under solen.

Absolut inte.
Hela år 2007 från det att G80 har lanserat så har Nvidia haft bildkvaliteten. Sedan har väl ATi haft större delen av kvalitén.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Filmjölkstrand, helt mjuk och geggig, stenarna ser också mjuka och bleka ut i jämförelse.
Kanske 320 stream processors har en fördel i allafall, de verkar ju hinna måla klart stenarna istället för att stressa fram en nya. Har jag fel?

Visa signatur

mobo Asus M4A88TD-M EVO/USB3 cpu 1100T kylare Noctua NH-D14
gpu RX 460 passive ram 16GB DDR3 1600MHz ssd Samsung 850 EVO 250GB
psu Corsair AX 850 skärmar 3 * 40" NEC P401

Permalänk
Medlem

"NVIDIA was cheating in games by leaving out certain details in games and so we decided to put the Radeon HD3870 and NVIDIA's 8800GT to the test. "

Kan vara därför det är sämre bildkvallité på 8800GT's bild. Vem vet.

Visa signatur

Antec P182,AMD 64 X2 4600+ @2,73 ghz, Noctua NH-U12F, 2GB DDR2 667@804 Mhz 4-4-4-4-12-2T, ATI HD4870 512 MB ,Gigabyte S4. Samsung Spinpoint 400GB , Samsung Spinpoint 1TB.

Permalänk
Medlem

Prestanda > liten skillnad i bildkvalité
Enligt mig i alla fall

JonkeNN^: Det där var enbart en rykte som har åtgärdats utan något prestanda förlust i Crysis.

Visa signatur

LG OLED77CX • Intel i9 10900K @ 5.0GHz • Noctua NH-D15 • ASUS Strix Z490-H • Corsair 32GB DDR4 3200MHz • GIGABYTE RTX 4080 • Phanteks Evolv X • Corsair RM 850W V2

Permalänk
Medlem

Ja, AMD kortets bild ser verkligen mycket bättre ut.
Nvidiakortets bild ser ljusare ut, som att de har lägre konstrast och använder mer "gamma".
Förutom det så finns det ju skuggor på AMD bilden som inte finns på den andra (skuggorna från de stenar som är närmast stranden).

På AMD bilden finns också massa småsten i nedre högre hörnet. De är ersatta av en jämngrå massa på Nvidiakortet.

Är skillnaden i bildkvalite sådär stor mellan korten överlag så är nog loppet långt ifrån kört för ATI/AMDs del. Isåfall skulle jag faktiskt föredra detta kort framför 8800 GT.

Jag undrar om inte 3870 kortet skulle slå 8800GT om det förstnämnda sänkte bildkvaliteten till 8800GTs nivå. Sådana där detaljer tar ju mycket kraft.
Det blir lite som att jämföra två kort där det ena kör med 4X AA och det andra utan...

Visa signatur

Namn : Jesper | Ålder : 45 | In-game namn : iller
Yrke : Matematisk modellerare (finansiell matematik), mjukvaruutvecklare för risksystem.
Utbildning : Doktor i matematik + en del mat-stat, numme och IT-relaterat.

Permalänk
Medlem

Och vem f*n bryr sig om en sten egentligen? huvudsaken är väll att spelet är bra.

Angående skuggorna på stenarna s står den simulerade solen olika högt på bilderna så därför har du mer skuggor på ati/amd bilden, (den står närmare cenit på nvidia bilden och ger därför mindre skuggor)

Och om detta är kvaliten på texturerna i crysis så är jag inte sådär superimponerad, dom ser fortfarande målade ut på båda bilderna, att sen amd kan rendera bumpmapps eller om det är normalmapps bättre än nvidia så är det ju ingen nackdel precis.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mr_carl
Och vem f*n bryr sig om en sten egentligen? huvudsaken är väll att spelet är bra.

Angående skuggorna på stenarna s står den simulerade solen olika högt på bilderna så därför har du mer skuggor på ati/amd bilden, (den står närmare cenit på nvidia bilden och ger därför mindre skuggor)

Och om detta är kvaliten på texturerna i crysis så är jag inte sådär superimponerad, dom ser fortfarande målade ut på båda bilderna, att sen amd kan rendera bumpmapps eller om det är normalmapps bättre än nvidia så är det ju ingen nackdel precis.

Diskusionen handlar om att, som det ser ut just nu iaf, ett företag tar genvägar för att vinna prestanda tester. Är detta sant så bör folk vara medvetna om det.

Visa signatur

|| Surface GO 2 ||

|| NR200P, 12600K, Z690M-ITX, NH-U9S, RTX 3060 Phoenix, SKC2500 500GB, Fury 16GB, HX520 ||

Permalänk
Citat:

Ursprungligen inskrivet av Sanazin
Prestanda > liten skillnad i bildkvalité
Enligt mig i alla fall

JonkeNN^: Det där var enbart en rykte som har åtgärdats utan något prestanda förlust i Crysis.

Från och med nu borde alla prestandatester utföras med texturkvalite ett snäpp under på atis kort tills nv har fixat detta. Skulle vara kul att se vilket kort som presterar bäst i crysis om nv kör på high och ati på medium.

Visa signatur

Allting jag skriver är om inget annat utrycks, SANT! Ingenting är subjektivt, och du kan göra antaganden baserade på mina åsikter utan att överväga mer än bara just min åsikt.
wazzabi: Varför detta prat om AMD, har de något med grafikkort att göra som jag inte förstår?

Permalänk

Jag tänker inte hoppa hej än. Jag tycker det ser lite konstigt ut. Tittar man på G80's bildkvalité är den verkligen superb. G92 bygger ju på samma arkitektur och minne.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk

Tråkigt att detta skall förekomma. Det blir ju otroligt svårt att jämföra prestanda mellan två olika tillverkare om de skall skilja så mycket i bildkvalitet. Känns som Nvidia ersatt en bugg med en annan.

Visa signatur

Intel Core 2 Quad Q8200 : Sapphire Radeon HD4850X2 2Gb : Gigabyte P35-DS3 : 4*1024 Mb DDR2 6400 : WD Raptor 74 Gb : Maxtor 200 Gb : Samsung Spinpoint 250 Gb : X-Fi XtremeGamer Fatal1ty : Logitech G5 : Silverstone TJ09 : Corsair CMPSU-750TX : Benq G2420HDBL@1920*1080

Permalänk
Citat:

Ursprungligen inskrivet av Antonsson
Från och med nu borde alla prestandatester utföras med texturkvalite ett snäpp under på atis kort tills nv har fixat detta. Skulle vara kul att se vilket kort som presterar bäst i crysis om nv kör på high och ati på medium.

Så stor är väl knappast skillnaden...

Visa signatur

Corsair Carbide 500R - Asus Sabertooth - Intel i5 2500k - Asus DirectCU II 580 GTX - Corsair 16GB - Corsair TX 650W

Permalänk
Medlem

jag tycker nvidias bild är lite blekare, men "stenarna på stranden" som ni kallar den på ati's bild tycker jag såg ut som en bugg i bilden men de kanske är stenar, dock ser de inte snygga ut.

dock så spelar det inte mig någon roll om ati har lite bättre kvalite då 8800gt presterar en hel del bättre. (om man inte kör på monster upplösningen 2560x1600, som jag verkligen inte gör) skönt att veta att man inte gör bort sig som ligger i kö på 8800gt

Visa signatur

• ASUS 35" ROG Strix XG35VQ • Lian Li PC-O11 Air Mini • Ryzen 7 5800x3D • NZXT X63 • Asus TUF RTX 3070
• Asus B550-F • G.skill 2x16GB (3600MHz 16-19-19-39) • Corsair RM750x • Corsair Force MP600 1TB • Windows 10 Pro

Permalänk
Medlem

öhhh detta gäller ju bara 1 enda spel, lite bilder på att trenden följer med i andra spel vore ju något.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

På länken i ursprungsinlägget finns två par av bilder. Det översta paret är nog inte från Crysis och där är skillnaden mellan korten också tydlig.

Dock vore det trevligt med ännu fler bilder för att verkligen få en bra uppfattning.

Visa signatur

Namn : Jesper | Ålder : 45 | In-game namn : iller
Yrke : Matematisk modellerare (finansiell matematik), mjukvaruutvecklare för risksystem.
Utbildning : Doktor i matematik + en del mat-stat, numme och IT-relaterat.

Permalänk
Medlem

Nvidia släppte i samband med Crysis en ny drivrutin som automatiskt försämrade kvalitén på texturerna för att öka FPS "Optimated for the game Crysis" =/ Används äldre drivrutiner ser det bättre ut men laggar desto mer. Döp om Crysis.exe till något annat så skall inte denna bluff-funktion aktiveras.

Permalänk
Geeks
SweClockers
Citat:

Ursprungligen inskrivet av Andersj
Precis...;) Redaktörerna prisar väl dom som betalar dom bäst, swec är väl knappast bättre eller sämre än andra forum som recenserar hårdvara. Dom är ju beroende av att tillverkarna förser dom med hårdvara för att testa och det är väl inte helt otroligt att dom efter testad och genomförd recension får behålla densamma eller!?

Man skall inte bita den hand som föder en heter det ju...:)

Jag testar inte grafikkort och jag har inte ägt ett ATI på flera år.

Visa signatur

» Kontakta oss » SweClockers på Facebook » SweClockers på Youtube » Blips of SweClockers (Spotify)
» Pappa till Moderskeppet » SweClockers chefredaktör 2007–2015

Permalänk

Jag har varit utan ATI i ca 3 år nu, senaste kortet jag hade var ett 1950XT men bytte snart ut det mot ett 8800GTS.

Dock nu blir det 3870 i crossfire då jag redan sitter på ett Gigabyte DQ6 P35-moderkort och har en 24" skärm man behöver försörja med oändligt antal pixlar.

Visa signatur

Abit AN7 | XP 2500+ @ 2048MHz (185x11) | 2*512Mb TwinMOS PC-3200 | Sapphire Radeon 9800pro 128Mb @ Sapphire 9800XT 128Mb (438/364) | 6548p. i 3Dmark 2003

Permalänk
Vila i frid

Lixom, vafan... bilderna är ju tagna med olika avstånd och det är väl självklart att den undre, tagen från ett längre avstånd, ser sämre ut.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Andersj
Precis...;) Redaktörerna prisar väl dom som betalar dom bäst, swec är väl knappast bättre eller sämre än andra forum som recenserar hårdvara. Dom är ju beroende av att tillverkarna förser dom med hårdvara för att testa och det är väl inte helt otroligt att dom efter testad och genomförd recension får behålla densamma eller!?

Man skall inte bita den hand som föder en heter det ju...:)

Alla är inte korrupta och i ett sådant desperat behov av pengar att man måste sälja ut sin trovärdighet. Jag menar inte att höja Swec till skyarna men det känns nästan lite oförskämt att starta ett påhopp på det här sättet utan att ens sitta med rätt fakta.

Som det nu visat sig så har redaktören till att börja med inte ägt ett ATI senaste åren och att han dessutom överhuvudtaget inte recenserar grafikkort gör hela attacken ännu löjligare.

Punkt.

Visa signatur

Corsair PSU 620HX, Gigabyte P35-DS4, Q6600 @ 3,6Ghz, 8800GT @ ( 700, 1750, 1000 ), Corsair XMS DDR2 800MHZ (4, 4, 4, 12), WD Raptor 150 GB, Lian Li PC-A05, Thermalright 120 E, Noctua 1300rpm, Windows Vista 64

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Andre_H
Filmjölkstrand, helt mjuk och geggig, stenarna ser också mjuka och bleka ut i jämförelse.
Kanske 320 stream processors har en fördel i allafall, de verkar ju hinna måla klart stenarna istället för att stressa fram en nya. Har jag fel?

Det har inget med kortet att göra, det är Nvidia som fuskar. De sänker medvetet kvaliteten för att öka prestandan då dem inte tror folk märker deformerade reflektioner och texturer.

Det har inget med kortet i sig att göra -

Permalänk
Medlem

Kontentan är att bilden blir bättre med ATi än Nvidia?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av hejo
Nvidia släppte i samband med Crysis en ny drivrutin som automatiskt försämrade kvalitén på texturerna för att öka FPS "Optimated for the game Crysis" =/ Används äldre drivrutiner ser det bättre ut men laggar desto mer. Döp om Crysis.exe till något annat så skall inte denna bluff-funktion aktiveras.

Sen har ju nvidia också fixat det där med lika bra fps, altsså var det en bugg.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk

Nej dom har fortsatt fuska för drivaren som används i detta test är den senare och bildkvaltien är som sagt bedrövlig. Jag menar fan den som köper ett sånt kort gör det för att kunna maxa spelet med så bra prestanda som möjligt och om man sedan inte får maxad grafik i alla fall så har man blivit lurad.

Visa signatur

Allting jag skriver är om inget annat utrycks, SANT! Ingenting är subjektivt, och du kan göra antaganden baserade på mina åsikter utan att överväga mer än bara just min åsikt.
wazzabi: Varför detta prat om AMD, har de något med grafikkort att göra som jag inte förstår?

Permalänk
Medlem

Precis, om det ser ut så på 8800GT kan man ju köpa 3870 o köra HIGH istf VERY HIGH och dra om med lika bra IQ.

Visa signatur

FROJDMACHINE [list][*]Sharkoon Rebel9 Economy Edition • Corsair HX520 • 3x Nexus 120mm • TR Ultima-90i • Accelero S1
[*]Gigabyte P-35 DS3 • E6750 • 4GB Corsair XMS2 • Asus HD4850
[/list]