Geforce RTX 4080 12 GB presterar i linje med RTX 3090 Ti

Permalänk
Medlem
Skrivet av aMp:

Om man räknar på prestandan utan DLSS i Flight Simulator är det ändå ett hyfsat uppsving.

RTX 4080 12GB ~25% snabbare än RTX 3080
RTX 4080 16GB ~50% snabbare än RTX 3080

Sett till att MSRP för de nya korten är 29% ($899) respektive 72% ($1199) högre än MSRP var för RTX 3080 ($699), nej.

Permalänk
Medlem

Så fort 3000 serien är slutsålda så lär väl 4080 12GB döpas om till 4070 och sedan lanseras 4060 osv.
Alla i en lite högre prisklass då än förra generationen såklart..

Permalänk
Medlem
Skrivet av MinscS2:

En riktig Ding-Ding-Värld när ett grafikkort för ~22.000:- (RTX 4090) är "det mest prisvärda" i den nya generationen.

Verkligen! Fram tills nu har det gällt att högre prestanda => högre pris i förhållande till prestanda.
Ur den aspekten är deras nya prissättning helt sjuk!

Skrivet av Scarabeo:

The Times They Are a-Changin', minns när man räknade om 900 dollar till 9 000 kr.

Jag minns när $900 räknades om till 4500 kr och räckte till en årsförbrukning villaolja.
Det var vid samma tid som man räknade 10 kr för ett pund, DMark i 2,50, FFranc 1 kr, osv...

Permalänk
Medlem
Skrivet av Sveklockarn:

Efter att ha kollat diverse YT-videos i ämnet under kvällen så framgår två saker tydligt.

Det första är att det verkliga prestandahoppet av att gå från ett 3080 10 GB till ett 4080 16 GB generellt verkar vara runt 20%, med enstaka gynnsamma scenarion uppåt 25% högre prestanda, så vi kan anta att det handlar om 22,5% förbättring i snitt.

Du får nog börja kika på lite andra Youtube-kanaler.
Alt. skriva 12 istället för 16.

Permalänk
Medlem

Ärligt talat tycker jag nästan inte DLSS 3 ska finnas med i grafer som jämför prestanda mellan korten, det är alldeles för missvisande. Om inte annat sätt råprestanda mer i fokus. De gröna staplarna är det som tar fokus för ögat och man scannar snabbt av siffrorna och relativa skillnaden mellan staplarna, vilket får nya korten att framstå som ett otroligt steg i prestanda tills man inser att det är just DLSS 3. Det blir lite att ge mig sig till Nvidia's fulspel.

Tycker råprestanda ska synas i graferna utan DLSS påslaget och sista bilderna kan visa grafer med DLSS prestanda.

Permalänk
Medlem
Skrivet av JBE:

Fel. Så fungerar det inte. Om man tar onlinespel som exempel så är "1:1 FPS till inmatning" serverns tickrate, på i princip alla spel är den ca 10-66fps. Något enstaka spel har högre i tex LAN-tävlingar etc. Ingen sitter och spelar csgo i 64fps eller LOL i 30fps bara för att få 1:1 inmatning.
Högre interpolerad fps lokalt hos dig utan input från server kommer ge högre rörelseskärpa/flyt vilket gör det enklare att sikta/identifiera objekt, eller fortsätta panorera vidare mot info du redan har fått och även reagera snabbare om inte din hjärna kan instascanna 100% av all visuell information varje frame. (hint: det kan den inte).

Även om man utesluter det, och bara ser på dlss 3 vs dlss off i något offlinespel lokalt med en lokal simulering med tickrate som är = renderad fps, så är det återigen fel tänkt - dlss3 verkar ungefär dubbla framrate men köa en extra frame, dvs plus minus noll i latency. Tester visar ungefär samma latency med dlss3 som dlss off (medan dlss2 faktiskt har lägst latency av allt då den är effektivare än "verkligheten").

De har gjort videos för att testa vad som sker i låg fps och provocera fram artefakter, men hela meningen med tekniken i verkligheten är ju att nå hög fps där det inte märks. Jag har sett några videos om dlss 3 och generellt verkar det som du inte ser artefakter, om du inte sparar video, pausar och letar efter dem genom att analysera frames, eller provocerar fram dem med onaturligt låg fps.
De genererade bilderna är INTE suddiga, utan precis lika skarpa som de äkta, men KAN ha artefakter, vilka man generellt inte ser. Jag såg en video där man hade separerat ut och bara visade de interpolerade framsen, och den såg lika skarp ut som vilken video som helst, tyvärr har jag inte kvar länk då det var någon hög-kvalitets-fileshare då de ville visa det utan att youtube introducerade egna kompressions-artefakter.

I framtiden kommer det nog nya kort tror jag, jag antar att ingen köper dessa för prestandan de kommer ge om 6-10 år.
Ser man inte skillnad på 60/120FPS kan man nog tryggt skippa både dlss 3 och top-end-kort med gott samvete.

Där har du fel. Renderingen ser ut så här:

1. Native 1080p bild 1 renderas av spelmotorn
2. DLSS2 skalar upp bild 1 till 2160p (tar några ms) (denna visas på skärmen också, men bild 2 är i fokus för denna gång)
3. Native 1080p bild 2 renderas av spelmotorn
4. DLSS2 skalar upp bild 2 till 2160p (tar några ms)
5. DLSS3 genererar en bildruta från uppskalade bild 1 och 2, låt oss kalla den bild 1.5 (tar några ms)
6. Bild 1.5 visas på skärmen
7. Native 1080p bild 3 renderas av spelmotorn
8. Bild 2 visas för spelaren (några ms efter att 1.5 börjat visas)
9. DLSS2 skalar upp bild 3 till 2160p (tar några ms)
10. DLSS3 genererar en bildruta från uppskalade bild 2 och 3, låt oss kalla den bild 2.5 (tar några ms)
11. Bild 2.5 visas på skärmen

Hur du än räknar så är det faktist fördröjning, mycket mer än DLSS2. Du väntar med att visa en färdig bild (se bild 2 ovan), istället genereras en bild till med DLSS3 (tar några ms dessutom) som sedan visas. Sen efter det väntas ännu en halv bilds fördröjning, sen så visas den senast färdiga bilden från DLSS2. Det är nästan en hel bildrutas fördröjning i förhållande till DLSS2

Enkelt schema blir ungefär såhär:
1. Native 1080p: 25ms
2. DLSS2 1080p->2160p: 30ms
3. DLSS3 1080p->2x2160p: 50-60ms
4. Native 2160p: 40-60ms(?)

Fördröjningen blir kraftigt försämrat jämfört med dlss2, mer jämförbart med native, men med dubblerad bildfrekvens. Dessutom är bilderna av tveksam kvalitet om man ska se till analyser

Jag tror det behöver upplevas för att se hur det är, men spontant tror jag inte alls det är en trevlig upplevelse

Permalänk
Medlem

Känns som att AMD har ett fint läge att gå in och knäcka 4080 i både pris och prestanda. Tror tyvärr inte att AMD når upp till 4090.

Släpper dom samtidigt 7800X3D (i november enligt några rykten) så blir det nog bra reklam för AMD-spelburkar.

Permalänk
Medlem
Skrivet av TuHack:

Känns som att AMD har ett fint läge att gå in och knäcka 4080 i både pris och prestanda. Tror tyvärr inte att AMD når upp till 4090.

Släpper dom samtidigt 7800X3D (i november enligt några rykten) så blir det nog bra reklam för AMD-spelburkar.

Måste AMD nå upp till 4090? Bara de gör vettiga alternativ till 3060/70/80 til bra pris. Iofs tror inte jag heller att de kommer att klara av det....

Visa signatur

Moderkort: Gigabyte X570 AORUS MASTER rev 1.2 Processor: AMD Ryzen 7 5800X3D Kylning: Corsair be quiet! Dark Rock Pro 4 Minne: 32 GB Crucial Ballistix 3600 MHz Grafikkort: Sapphire NITRO+ Radeon RX 7900 XTX Hårddiskar: Corsair Force MP600 1TB M.2, Seagate BarraCuda 4TB 5400rpm Nätagg: Corsair RM850x V2 Chassi: Fractal Design Define 7 Compact Skärm: LG C3 77 tums TV

Permalänk
Medlem
Skrivet av ipac:

Du får nog börja kika på lite andra Youtube-kanaler.
Alt. skriva 12 istället för 16.

Det är Nvidias siffror jag refererar till. Hade det varit 3080 12 GB så hade de skrivit ut det.

Permalänk
Medlem
Skrivet av TuHack:

Känns som att AMD har ett fint läge att gå in och knäcka 4080 i både pris och prestanda. Tror tyvärr inte att AMD når upp till 4090.

Släpper dom samtidigt 7800X3D (i november enligt några rykten) så blir det nog bra reklam för AMD-spelburkar.

AMD vet nog om att de inte kan slå Nvidia gällande AI och RT men de skulle kunna gå aggressivt med priset och sikta in sig där de flesta konsumenter spelar. Nvidia har ju i princip lämnat ett "öppet mål" här. Frågan är om de kommer göra detta. Deras kort kommer, vad jag förstått, vara billigare att tillverka. Ada Lovelace gjordes ju med en sak i åtanke: maximal prestanda oavsett prislapp och på bekostnad av allt annat. Blir intressant att se prisutvecklingen av RDNA2 och Ampere när RDNA3 finns ute.

Visa signatur

Ryzen 7 5800x, lg 27gl850, rx 7800 xt

Permalänk
Medlem
Skrivet av Sveklockarn:

Det är Nvidias siffror jag refererar till. Hade det varit 3080 12 GB så hade de skrivit ut det.

Så först skriver du YouTube-videos och sedan Nvidias siffror? Vilka är dessa siffror får man då fråga? För enligt dessa i artikeln så har vi 53%, 52,9%, 54% och 42,5% bättre prestanda från 3080 -> 4080 16GB.

Permalänk
Medlem
Skrivet av Sveklockarn:

Det är Nvidias siffror jag refererar till. Hade det varit 3080 12 GB så hade de skrivit ut det.

Du har Nvidias siffror i artikeln.
Så på tal om matematik, tycker du själv att 4080 16G verkar vara 3080 + 22.5%?

Permalänk
Medlem
Skrivet av Scarabeo:

Borde det inte vara olagligt att ge två helt olika kort samma namn förutom minnesmängden? Många som inte är insatta lär ju tro att prestandan är densamma så länge inte VRAM-gränsen överskrids.

Nvidia gillar lurar konsumenter. Till exempel när GTX 970 var marknadsförds med 4GB ram men var egentligen bara 3,5 med snabba minne sen resten var långsammare. Egentligen spelade inte stor roll men ändå.

Visa signatur

>>X3D o sval=yeet^2!

Permalänk
Medlem
Skrivet av reeson:

Nvidia gillar lurar konsumenter. Till exempel när GTX 970 var marknadsförds med 4GB ram men var egentligen bara 3,5 med snabba minne sen resten var långsammare. Egentligen spelade inte stor roll men ändå.

De gjorde ju samma med 3080.
(även om skillnaden då var mindre och att man höll sig till ett chip)

Permalänk

Ju mer information jag ser om 4000-serien desto nöjdare blir jag med mitt kort från förra generationen. Utan DLSS-ljug så är det egentligen bara 4090 som ger någon direkt prestandaökning jämfört med mitt Sapphire RX 6900 XT Nitro+ Special Edition (riktigt eltandborstenamn på den), och det till nästan tredubbla priset. Ändå är prestandan inte sååå mycket högre, och konstigt vore det väl annars med tanke på priset.

Så här något år senare har RX 6900 XT klivit framåt en hel del i prestanda och sprungit både ikapp och förbi 3090 i vissa spel (utan Ray Tracing då förstås).

DLSS hit och frame generation dit, reelll prestanda ser inte ut att vara något att hänga i julgranen direkt.

Visa signatur

PC: Ryzen 7 5800X | ASUS ROG Strix B550-F Gaming Wi-Fi | 32GB DDR4 | Sapphire NITRO+ RX 6900 XT SE | 27" LG UltraGear 27GL83A-B | openSUSE Tumbleweed / Win 10 Pro
Laptop: Lenovo Legion Y520 | Core i5-7300HQ | 16GB DDR4 | Geforce GTX 1060 Max Q | Fedora Linux

Permalänk
Medlem
Skrivet av skitskurk:

Ju mer information jag ser om 4000-serien desto nöjdare blir jag med mitt kort från förra generationen. Utan DLSS-ljug så är det egentligen bara 4090 som ger någon direkt prestandaökning jämfört med mitt Sapphire RX 6900 XT Nitro+ Special Edition (riktigt eltandborstenamn på den), och det till nästan tredubbla priset. Ändå är prestandan inte sååå mycket högre, och konstigt vore det väl annars med tanke på priset.

DLSS hit och frame generation dit, reelll prestanda ser inte ut att vara något att hänga i julgranen direkt.

Skulle nog säga att 4090 har en rejäl prestandaökning mot 6900 XT/3090/3090Ti medan 4080/4080 12Gb är rena skämten för den prislappen som annonserats. Sen kan jag ju förstå att de flesta inte vill köpa ett grafikkort för 22-28 tusen..

Visa signatur

Europeisk marknadschef för Pimax Technology.
SweViver - Min officiella VR Gaming & Review YouTube kanal: https://www.youtube.com/SweViver/
PC: Palit RTX 4090 Gamerock OC - AMD 5950x - 32GB DDR4 3600MHz - HX1000i
Go-to VR headset: Pimax 8KX & Pimax Crystal

Permalänk
Medlem
Skrivet av reeson:

Nvidia gillar lurar konsumenter. Till exempel när GTX 970 var marknadsförds med 4GB ram men var egentligen bara 3,5 med snabba minne sen resten var långsammare. Egentligen spelade inte stor roll men ändå.

Det här borde verkligen regleras i en lag. Det är inte okej att vilseleda konsumenter på detta sätt. Verkar ju vara riktigt stora skillnader denna gång dessutom.

Visa signatur

🏬: B550M DS3H 🔲: Ryzen 5 5600X ❄️: Freezer 34 eSports 🏴: RTX 3060 Ti Ventus 2X OC
🗄️: Stronghold 🔌: RM650 (2019) 🎞️: 32 GB DDR4 3200 MHz CL16 💾: CS3030 1 TB
⌨️: E9270P/MK730 (MX Red)/G80-3000N (MX Silent Red) 🖱️: Xlite V2 Mini/G603/MX Vertical
🎧: Edition XS/Astro A50/GSP 370/ATH-SR30BT/TAT2206 📶: Archer C6 📱: Pixel 6a
🖥️: OLED55BX/276E8VJSB

Permalänk
Medlem

Efter att ha kollat om 4000-serien har en chans att bli ett bra köp så är jag nu nybliven ägare till ett nästan nytt Gigabyte Gaming OC 3090, kvitto inkl. för 8500 pix.

Helt ok.

Permalänk
Medlem
Skrivet av aMp:

Om man räknar på prestandan utan DLSS i Flight Simulator är det ändå ett hyfsat uppsving.

Spelar du mycket Flight Simulator?

Kanske ingen högoddsare att Nvidia optimerat skiten ur sin drivrutin för just de titlar de väljer att visa upp.

Skrivet av aMp:

RTX 4080 12GB ~25% snabbare än RTX 3080
RTX 4080 16GB ~50% snabbare än RTX 3080

Jag vet inte var du hittar de siffrorna, men här är en kommentar på Nvidias egna siffror.
https://www.youtube.com/watch?v=uKQRzh6B7xg

Permalänk
Medlem
Skrivet av Sveklockarn:

Kanske ingen högoddsare att Nvidia optimerat skiten ur sin drivrutin för just de titlar de väljer att visa upp.

För MS Flight Sim så är skillnaden mellan 4090 och 3080 mindre än vad den är för Swecs prestandaindex för 4K (1.73 ggr vs 2.02 ggr). Eller TPUs svit på hela 24 titlar (1,89 ggr).

Så det spelet är verkligen ingen "cherry picker" för 40-kortens rasteriserings-prestanda.

Citat:

men här är en kommentar på Nvidias egna siffror

"4080 är dyra!"

Rätt hög "in other news, water is wet"-faktor på den.

Permalänk
Medlem
Skrivet av ipac:

"4080 är dyra!"

Rätt hög "in other news, water is wet"-faktor på den.

Om det är din behållning så har du kanske en knackig engelskförståelse?

Det är kort sagt ett extremt dåligt förhållande mellan prisökningen och den marginellt ökade prestanda som fås. En positiv sidoeffekt är att AMD får rejält utrymme att expandera, om de bara kan hålla sig från att skruva upp prislapparna till Nvidia-nivåer. Om typ två veckor får vi veta!

Permalänk
Medlem
Skrivet av Sveklockarn:

Det är kort sagt ett extremt dåligt förhållande mellan prisökningen och den marginellt ökade prestanda som fås.

"4080 är dyra" är ännu kortare sagt.

Det han säger har varit känt ända sen korten presenterades.

Permalänk
Medlem
Skrivet av magma86:

AMD vet nog om att de inte kan slå Nvidia gällande AI och RT men de skulle kunna gå aggressivt med priset och sikta in sig där de flesta konsumenter spelar. Nvidia har ju i princip lämnat ett "öppet mål" här.

Nvidia har stora lager 3-serien dom vill bli av med. Misstänker iofs att dom sänker när AMD korten väl dyker upp (om det behövs).
Finns ingen annan rimlighet i nuvarande 4080 prissättning. Å andra sidan så måste det då bli någon form av rekord i snabb prissänkning vilket inte kan vara helt populärt bland ÅF / kunder. Balansgång mellan ägare / kunder antar jag.

Permalänk
Medlem

Man får ta och skala ner godis kraver på kortet man har .

Visa signatur

Låda thermaltake view 91 M-kort ASUS X399 ROG Zenith Extreme CPU AMD Ryzen Threadripper 1920X 3.5 GHz Kylning Hemma byggd vattenkylning 2 x 480mm + 1 x 420mm radiatorer Minne 8 X 16Gb DDR4 HD SSD 240GB OCZ Trion 100 Grafik Gigabyte Geforce RTX 3080 10GB GAMING OC WATERFORCE WB AGG Corsair RM 1000w 80+ Gold Skärm ASUS 43" ROG Strix XG438QR 4K VA HDR 120 Hz

Permalänk
Medlem
Skrivet av Scarabeo:

Borde det inte vara olagligt att ge två helt olika kort samma namn förutom minnesmängden? Många som inte är insatta lär ju tro att prestandan är densamma så länge inte VRAM-gränsen överskrids.

Det var väl samma med 1060 3GB vs. 6GB?

Permalänk
Medlem
Skrivet av viller2:

Det var väl samma med 1060 3GB vs. 6GB?

Jo, exakt. Men det borde inte vara tillåtet. Namnet ska beskriva produkten och är det andra skillnader än bara VRAM ska det tydligt framgå i namnet.

Visa signatur

🏬: B550M DS3H 🔲: Ryzen 5 5600X ❄️: Freezer 34 eSports 🏴: RTX 3060 Ti Ventus 2X OC
🗄️: Stronghold 🔌: RM650 (2019) 🎞️: 32 GB DDR4 3200 MHz CL16 💾: CS3030 1 TB
⌨️: E9270P/MK730 (MX Red)/G80-3000N (MX Silent Red) 🖱️: Xlite V2 Mini/G603/MX Vertical
🎧: Edition XS/Astro A50/GSP 370/ATH-SR30BT/TAT2206 📶: Archer C6 📱: Pixel 6a
🖥️: OLED55BX/276E8VJSB

Permalänk
Medlem

Det är för stort prestanda gap mellan 4090 och 4080. Och 4080 från partnertillverkare för ca 20k. Vem ska köpa de?
Hållet med alla som säger att 4080 ist är 4070.

Er tur nu AMD.

Permalänk
Medlem

Katastrof detta.

Nvidia borde skämmas.

Blir att invänta RDNA3.

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Skrivet av Dizzö:

Katastrof detta.

Nvidia borde skämmas.

Blir att invänta RDNA3.

Det gör dom tydligen, https://www.nvidia.com/en-us/geforce/news/12gb-4080-unlaunch/

Oväntat är väl det minsta man kan säga.

Visa signatur

ASUS PRIME X570-PRO+RYZEN 5900X, Asus TUF 3080 OC, Acer predator X34P

Permalänk
Medlem
Skrivet av Firebird 455:

Det gör dom tydligen, https://www.nvidia.com/en-us/geforce/news/12gb-4080-unlaunch/

Oväntat är väl det minsta man kan säga.

Fantastiska nyheter! Sällan jag sett Nvidia agera vettigt

Fatta vad detta måste kosta, eller sätter de bara klisterlappar med nya namnet på lådorna?