Geforce RTX 4090 kammar hem 500 FPS i Overwatch 2

Permalänk
Medlem
Skrivet av Ricerunner:

Ja just i det experimentet så kommer ju en tillräckligt ljusstark bild att hänga efter i synen, så testpersonerna har nog egentligen rätt så många millisekunder på sig att avgöra vad det kan vara innan den inbrända bilden försvunnit helt.

Ja precis, man överbelastar en kemisk process som skickar signaler långt efter bilden slutat visas, men så är det med de flesta av våra sinnen, ganska veka och analoga och fulla av fel och tveksam felkorrigering

Permalänk
Medlem
Skrivet av Fenrisulvfan:

D.v.s 4090 får 507/3 = 169 rastarutor.

Accelererad med ganja då?

Visa signatur

Phanteks P400A RGB : Asus Prime X570-P : Ryzen 9 5900X : Corsair H100X : 32GB G.Skill Trident Z Neo 3600CL14 : Sapphire Nitro+ 6800 XT : Xiaomi 34" Curved 3440x1440 : Playseat Evolution Alcantara : Thrustmaster T300RS GT / Ferrari SF1000 Edition Add-on : HP Reverb G2

Permalänk
Medlem

Yeah but can it run Crysis 3?
Det är den enda frågan som spelar någon roll

Visa signatur

TV: LGOLED65B1
PC:
Corsair Crystal 570X - ASUS ROG Strix B560-A GAMING - i9 11900K - Asus TUF RTX 4090
OC24 Gaming - SAMSUNG 960 EVO 250GB - SAMSUNG 980 PRO 1TB - Corsair Vengeance RGB PRO DDR4 3600MHz 64GB - Corsair RM1000i - ASUS VG27BQ - Steel Series Apex Pro - Steel Series Rival 5.
Mobil: OnePlus 10 Pro

Permalänk
Medlem
Skrivet av perost:

Grejen med 4090 är att de ökar TDP:n till 450W istället för 350W som 3090 låg på, medan 4080 16GB ligger kvar på samma 320W som 3080. 3090 Ti drar förvisso också 450W, men det beror mest på att Nvidia slängt allt vad energieffektivitet heter i sjön och dragit upp klockfrekvenserna för högt (3090 Ti presterar bara ~8-9% bättre än 3090 med 30% högre TDP).

4090 ligger på ungefär samma klockfrekvenser som de övriga korten i 4000-serien, strömförbrukningen kommer istället från det kraftigt ökade antalet kärnor vilket ger betydligt mer prestanda per watt än att öka klockfrekvenserna. Om man drar av 30% av 4090:s kärnor (d.v.s. samma som ökningen i TDP) så blir skillnaden mellan 4090 och 4080 16GB ungefär lika stor som mellan 3090 och 3080.

Så jag skulle nog säga att 4080 16GB är kortet som ligger rätt till namnmässigt (om än inte prismässigt) medan skillnaden upp till 4090 mer beror på att Nvidia ökat TDP:n än att 4080 skulle vara sämre än det borde.

Hmm fair enough isådanafall.

4080 16gb är ju definitivt ett intressant kort, men helvete vad det inte är intressant för det hutlösa priset.

Får hoppas på att inga vill köpa kortet så kanske de släpper en 4080ti och sänker priset på 4080 en massa eller så.

Hoppas också på att FE korten går att få tag på utan att behöva krångla till det med påminnelser och att köpa det från andra länders affärer ..

Visa signatur

MB: Gigabyte B650 Aorus Elite V2 | CPU: Ryzen 5, 7600X
GPU: AMD Asus TUF 7800 XT | Chassi: FD Meshify 2 compact
Ram: Teamgroup T-Create - 6000mhz 38-38-38-78

Permalänk
Medlem

Det för övrigt ganska kul att ingen klagade på Nvidias namngivning på 30-korten, fast den var helt ologisk ijmf med tidigare generationer. Men det var väl inte lika viktigt då det "gick åt rätt håll".

Permalänk
Medlem
Skrivet av draanexle:

Får hoppas på att inga vill köpa kortet

Av allt att döma så är det vad även Nvidia hoppas på.

Permalänk
Medlem

Men... vad har den för fill rate?

Permalänk
Medlem

But will it blend?

Visa signatur

*Citera för svar*
Work smart, not hard.

Permalänk
Medlem
Skrivet av Klubba:

AMD har aldrig på något sätt varit konsekventa med sina GPU namn, 5700XT ersatte ju VEGA64, och blev sen ersatt av RX6800XT, och sen släppte de nerskalade 6700XT.

Hade de inte varit mer förvirrande om de istället släppte 6700XT 16GB, 6700XT12Gb och senare 6700XT 8GB?

Nvidia däremot har haft 1060 192bit, 1070 256bit, 2060 192bit, 2070 256bit, 3060 192bit, 3070 256 bit och nu bryter de mönstret för att försöka förvirra mindre insatta, och sen släpper de 2 HELT TOTALT OLIKA kort som heter RTX 4080 16GB och RTX 4080 12GB.

Jämfört med deras tidigare releaser borde korten de släpper nu hetat 4080, 4070 och 4060 vilket hade gjort det enklare att se att det handlar om olika kort, och inte bara olika mängd minne. Men kör till då att de höjer alla ett namn för de tycker de presterar tillräckligt bra, då borde det ju vara 4090, 4080 och sen 4070.

Att ha samma beteckning på 2 helt olika kort, och sen nån liten 16GB eller 12GB text på kartongen är ju bara för att medvetet förvirra. Nvidia har tidigare haft relativt logisk namngivning på sina graffen, om man inte tittar på laptop's då där de ju är helt åt helvete

När ska vi en gång för alla acceptera att nVidia inte längre drar sig ens för dom fulaste av knep, även om det är totalt uppenbart; allt i namnet av intäkter?

Permalänk
Medlem
Skrivet av X-Psycho:

När ska vi en gång för alla acceptera att nVidia inte längre drar sig ens för dom fulaste av knep, även om det är totalt uppenbart; allt i namnet av intäkter?

Det har vi vetat länge.
Problemet är att när man väl sitter där och stirrar sig blind på FPS så köps det ett RTX-kort igen, samtidigt som vi alla skriker ut i kör hur gärna vi vill ha konkurrens.

Det är vi på detta forumet som till stor del sett till att det ser ut som det gör, så gör dina framtida barn en tjänst och köp Intel / AMD...

Visa signatur

Krusidullen är stulen

Permalänk
Keeper of The Nvidia Drivers

Underbart att det är mindre än en vecka tills man kan beställa! Får sitta klistrad klockan 15.00 på onsdag. Jag antar att om man blinkar missar man sin chans att köpa ett 4090.

Visa signatur

AMD FX53 939 | MSI nForce4 939 | Ati Radeon x1800XT OC PE | 2*1024mb G-Skill 1-2-3-2-5 | Comhem 10/1 | Frölunda Indians SM GULD!!!
In Hoc Signo Vinces!

Permalänk
Avstängd
Skrivet av medbor:

Ja precis, man överbelastar en kemisk process som skickar signaler långt efter bilden slutat visas, men så är det med de flesta av våra sinnen, ganska veka och analoga och fulla av fel och tveksam felkorrigering

Nu skulle det förstås vara en extremt nischad testgrupp, men om man kunde testa med samma urvalsgrupp (piloter, eller före detta får man anta) fast endast de som har ögonproteser som skickar elektroniska signaler in i synnerven, då skulle resultaten vara högst intressanta att läsa.

Vet dock inte om det blir någon ghosting i synapserna, så att säga.

Permalänk
Medlem

Overwatch..är det särskilt grafikkrävande? Känns som dom lika gärns kunde testat CSGO

Visa signatur

AMD Ryzen 5 5600X | ASUS GeForce RTX 2080 8GB DUAL OC | Corsair Vengeance LPX Black 16GB (2x8GB) / 3200MHz | MSI B450 TOMAHAWK - ATX / B450 | Fractal Design Define C - Svart | Corsair RM750X V2 750W 80+ Gold | Noctua NH-D15 |

Permalänk
Medlem
Skrivet av SellahiR:

Overwatch..är det särskilt grafikkrävande?

Uppenbarligen inte men sålänge inte CPU:n flaskar så spelar det ingen roll för GPU-benchmarking.

Permalänk
Medlem

Kanske hör till en annan tråd, men blev inte Overwatch 2 ett riktigt fiasko som väldigt få spelar?
Hade inte ens hört talas om släppet. Spelade 1:an och tittade på 2:an och konstaterade att det ser precis likadant ut =/

OT:
Men jag håller med övriga. Det saknas GPU:er i detta test för att gör det intressant.
Ta med 3090, 3090Ti & 3080Ti tack

Visa signatur

🧠i9-10900k @ 3,7GHz 📹3080Ti STRIX OC 12GB 📼Corsair Vengeance 64GB
📰MSI MEG z490 Unify 💽Samsung 970 EVO plus 500GB/1TB 📺Asus PG348Q 34"

Permalänk
Medlem
Skrivet av griid:

OT:
Men jag håller med övriga. Det saknas GPU:er i detta test för att gör det intressant.
Ta med 3090, 3090Ti & 3080Ti tack

Jag håller inte med övriga. Det är inte direkt jättesvårt att räkna ut hur övriga 30-kort "ballpark-presterar" i detta spel i 1440p. De relativa skillnaderna är ju välkända så det är klart det är intressant.

Permalänk
Medlem

Att det mäts system latency var nytt för mig. Vad innebär det?

Visa signatur

8700K | MAXIMUS X HERO | 1080TI | 960 EVO | 16GB 3600 G.SKILL | PG279Q

Permalänk
Medlem
Skrivet av Nyhet:

Från RTX 3000-serien saknas både RTX 3090 och RTX 3090 Ti. Istället är det RTX 3080, 3070 och 3060 som testas. För de två förstnämnda landar resultaten på 249 respektive 195 FPS, men sjunker ned till 122 FPS för minstingen i sammanhanget. För den som önskar ligga över 144 FPS med RTX 3060 rekommenderas därmed att kliva ned till 1080p.

Läs hela artikeln här

Inte för att vara den som är den, men för den med ett RTX 3060 kanske rekommendationen skulle vara att ta ett kliv ner från Ultra Preset till High, snarare än att sänka upplösningen?

Permalänk
Medlem
Skrivet av Ragnarok:

Underbart att det är mindre än en vecka tills man kan beställa! Får sitta klistrad klockan 15.00 på onsdag. Jag antar att om man blinkar missar man sin chans att köpa ett 4090.

Mer troligt att det kommer vara överskott. Folk har andra utgifter att tänka på, och miningen har kraschat.

Visa signatur

Registrerad 2001-12-24 15:10
Jul med Kalle Anka och Sweclockers

Permalänk
Medlem
Skrivet av ipac:

Jag håller inte med övriga. Det är inte direkt jättesvårt att räkna ut hur övriga 30-kort "ballpark-presterar" i detta spel i 1440p. De relativa skillnaderna är ju välkända så det är klart det är intressant.

Vadå räkna ut, man vill ändå se det svart på vitt än att gissa sig till resultat i ett nytt spel...

Visa signatur

🧠i9-10900k @ 3,7GHz 📹3080Ti STRIX OC 12GB 📼Corsair Vengeance 64GB
📰MSI MEG z490 Unify 💽Samsung 970 EVO plus 500GB/1TB 📺Asus PG348Q 34"

Permalänk
Medlem
Skrivet av SellahiR:

Overwatch..är det särskilt grafikkrävande? Känns som dom lika gärns kunde testat CSGO

Overwatch är betydligt mer krävande än csgo.

Permalänk
Medlem
Skrivet av Sveklockarn:

Men vem köper ett 4090 för att spela Overwatch...?

Vad klarar 4090 för framerate i Quake 3 Team Arena då?

Ja, varför körde folk 1080Ti för att köra CS Go i 720p (low settings)

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem
Skrivet av Ryssfemma:

Overwatch är betydligt mer krävande än csgo.

Ja jo men poängen kvarstår. Ska man glänsa med hur snabbt kortet är så väljer ma inte overwatch.

Visa signatur

AMD Ryzen 5 5600X | ASUS GeForce RTX 2080 8GB DUAL OC | Corsair Vengeance LPX Black 16GB (2x8GB) / 3200MHz | MSI B450 TOMAHAWK - ATX / B450 | Fractal Design Define C - Svart | Corsair RM750X V2 750W 80+ Gold | Noctua NH-D15 |

Permalänk
Medlem
Skrivet av Nautilus011:

Ja, varför körde folk 1080Ti för att köra CS Go i 720p (low settings)

För att folk antar att "proffs vet bäst", när det huvudsakligen handlat om vad dom vant sig vid. Inget nytt.

Permalänk
Medlem
Skrivet av griid:

Vadå räkna ut, man vill ändå se det svart på vitt än att gissa sig till resultat i ett nytt spel...

Och vad spelar det för roll om man "gissar" säg 2-3 fps fel?
Informationen som här ges är fortfarande intressant.

Enl Nvidia så är 3080 i detta nya spel [i 1440p] ~28% snabbare än 3070.
Som av en händelse så är 3080 ~28% snabbare än 3070 i Swecs prestandaindex [i 1440p].
Hur detta spel presterar för 80Ti, 90 och 90Ti är därmed bara en lätt "you do the rest of math"-övning. Denna "gissning" kommer inte pricka in det exakta fps-värdet men det är tillräckligt exakt för att vara intressant.

Permalänk
Medlem
Skrivet av Nautilus011:

Ja, varför körde folk 1080Ti för att köra CS Go i 720p (low settings)

För att pengar inte är en lika stor bristvara som förstånd.

Permalänk
Medlem
Skrivet av ipac:

Historiskt så har 80-kortet oftast nyttjat det näst största chippet i line-upen så 4080 16GB får nog allt sägas vara ett "rättmätigt" 80 kort i det perspektivet. Det är mest priset som är helknäppt.

Att det sen är skillnad upp mot 80Ti och sen ytterligare upp mot 90 känns rätt rimligt. Iaf vettigare än 30-serien där Nvidia gick bort sig totalt och 80 (2 olika 80 t.o.m.), 80Ti och 90 erbjöd snarlik prestanda.

Sweclockers skrev vid testet av 3080Ti "Ett dyrt och fullkomligt onödigt kort".
Jag håller bara med till 50%.
Dyrt, JA!
Onödigt, Nej.
Jag såg det mer som att 3080Ti är ett billigare* kort än 3090.
Vid tidpunkten jag köpte mitt kort va dom flesta 3090 korten runt 5000 kr dyrare och jag såg inte något mervärde för den summan.
Inte onödigt för att jag tycker att 3080Ti är det optimala kortet för 1440p spelande.

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Keeper of The Nvidia Drivers
Skrivet av Selo:

Mer troligt att det kommer vara överskott. Folk har andra utgifter att tänka på, och miningen har kraschat.

Man får hoppas på det så man kan köpa modellen man helst vill ha.

Visa signatur

AMD FX53 939 | MSI nForce4 939 | Ati Radeon x1800XT OC PE | 2*1024mb G-Skill 1-2-3-2-5 | Comhem 10/1 | Frölunda Indians SM GULD!!!
In Hoc Signo Vinces!

Permalänk
Medlem

Hade hellre sett siffror från något mer relevant spel än en re-release på en 6-år gammal titel (tack för den Greedzard). Jag får över 1000 fps med mitt 6800XT i Half Life...

Visa signatur

7800X3D//4090
Kubuntu // W10

Permalänk
Medlem
Citat:

*RADERAT INLÄGG*

RTX 3090 / RTX 3090Ti var inga billiga budgetkort heller. Men verkar ändå sålts en del.
Har sett folk skriva. Blir RTX 4000 såhär dyr så sitter jag kvar på mitt 3090.
Men för folk som redan köpt 20kkr grafikkort antas väl vara potentiella kunder till att kunna göra det igen.
Sen kan man definitivt hoppa över generationer.
Det verkar också som det är/blir mindre lönsamt att mina nu mot för 1-2 år sen.
Jag är inte jätteinsatt i mining.
Men kan förstå att om folk har kunnat få tillbaka vad de gett för grafikkortet. Eller åtminstone en stor del av det. Då känns det inte lika farligt att köpa ett dyrt grafikkort. Bara att man ska ha såna summor att lägga ut. Men om lönsamheten sjunker kan det bli färre som gör så.

Sen så om man ser det bredare. Exempelvis totala antalet stationära datorer som säljs eller totala antalet datorer som har steam installerat.
Då borde det ändå vara en ganska liten andel som har kort som RTX 3090, RTX 3090Ti och nu snart RTX 4090.

GTX 1060 är väl fortfarande ett av de mest använda grafikkorten bland de som kört steam survey.

Så det är inte så att alla som någonsin spelat något mer krävande än kortspel har ett RTX 3080 eller bättre.