Nvidia lyfter skynket av Geforce RTX 5000-serien "Blackwell"

Permalänk
Medlem
Skrivet av Aeig:

De flesta som har ett RTX 4090 gör nog bäst i att vänta till 6000 serien, såvida inte behovet finns av någon praktisk anledning Sen är det alltid roligt med det senaste och kraftfullaste, men 20-40% mer prestanda kostar.

Mvh

Om man redan spelar en massa spel med frame generation så kommer man få mer än dubbla fps i dom spelen, för mig är det värt det.

Om jag räknat rätt på detta så kommer alla path tracing spel slicka 240fps på min 5120x1440p skärm. Det är en bra uppgradering.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Lussarn:

Om man redan spelar en massa spel med frame generation så kommer man få mer än dubbla fps i dom spelen, för mig är det värt det.

Ja, du har ju en utmärkt praktiskt anledning till att uppgradera Sen är det dyrt, men använder du kortet varje dag i ett par år är det kaffepengar.

Mvh

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 64GB DDR5 - MSI RTX 5070 Ti Vanguard - Corsair MP700 - WD Black SN850 - WD Black SN850X - WD Black HDD - Noctua NH-D15 G2 - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Medlem
Skrivet av lasseTM:

Någon har tagit grafen som nvidia visade under sin presentation på CES för att räkna ut att RTX 5090 är 27,5% bättre än RTX 4090 baserat på antal pixlar i höjd på berörda grafen.

Men med tanke på att 5090 har fler och förmodligen effektivare RT kärnor så bör prestandan gå upp något för just 5090 med RT på slaget kontra om du skulle köra utan RT påslaget och du jämför rå prestanda.
Så om det är 27,5% skillnad i prestanda så bör du ta bort ett par % för just bättre RT så i slutändan så kanske vi pratar 20-25% högre raster prestanda.

RT står förövrigt för ray tracing, du får googla själv vad det är.

Haha, ok så kan man ju också göra, jag hade liksom ingen aning om att bilden du la upp var editerad och att "Far Cry" ska fungera som någon typ av benchmark men visst jag hajar, DLSS är av på den stapeln så det är väl det närmsta man kan gå på.

Ja alltså jag vet vad Ray tracing är, har trots allt drivit företag inom 3d-rendering i snart 25 år, vet däremot inte mycket om spel över huvud taget och kan inte gissa mig fram till vad andra menar baserat på staplar med speltitlar jag aldrig hört talas om.

Men tillbaka till korten då, det gick ju att komma fram till ungefär samma prestandaökning utan att räkna pixlar på grafer och det här känns som en rätt värdelös uppgradering för kreatörer av många anledningar, finns inte på kartan att byta ut ett 4090 mot ett 5090 iaf. Säkert superkul för gamers dock, vad vet jag.

Visa signatur

Phanteks enthoo pro 2 server edition - Asus ProArt B650-CREATOR - AMD Ryzen 9 9950X - Thermalright Peerless Assassin 120 - Kingston 128GB DDR5 5200MHz - Corsair RM1000x - Kingston Fury Renegade M. 2 NVMe SSD Gen 4 2TB -Samsung 970 EVO Plus 1TB x2 - 4x WD Red WD30EFRX 64MB 3TB - Dell 27" UltraSharp U2724D IPS Black QHD 120

Permalänk

Jensen Huang har även berättat om ARM-datorn som kommer i maj:

https://www.realworldtech.com/forum/?threadid=222429&curposti...

3000 USD ska den kosta...

Permalänk
Medlem
Skrivet av Greyguy1948:

Jensen Huang har även berättat om ARM-datorn som kommer i maj:

https://www.realworldtech.com/forum/?threadid=222429&curposti...

3000 USD ska den kosta...

Inklusive en riktigt gpu dock! Och direkt Ubuntu stöd

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Hedersmedlem
Skrivet av Swedishchef_90:

Inklusive en riktigt gpu dock! Och direkt Ubuntu stöd

Och med följande text:

Citat:

A Grace Blackwell AI Supercomputer on your desk.

Powered by the NVIDIA GB10 Grace Blackwell Superchip, Project DIGITS delivers a petaflop of AI performance in a power-efficient, compact form factor. With the NVIDIA AI software stack preinstalled and 128GB of memory, developers can prototype, fine-tune, and inference large AI models of up to 200B parameters locally, and seamlessly deploy to the data center or cloud.

Bara så att inte någon får för sig att det är för konsumenter / till spel...

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

Och med följande text:

Bara så att inte någon får för sig att det är för konsumenter / till spel...

Sant men den lär väl kunna köra roblox iaf

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av pixel8:

Haha, ok så kan man ju också göra, jag hade liksom ingen aning om att bilden du la upp var editerad och att "Far Cry" ska fungera som någon typ av benchmark men visst jag hajar, DLSS är av på den stapeln så det är väl det närmsta man kan gå på.

Ja alltså jag vet vad Ray tracing är, har trots allt drivit företag inom 3d-rendering i snart 25 år, vet däremot inte mycket om spel över huvud taget och kan inte gissa mig fram till vad andra menar baserat på staplar med speltitlar jag aldrig hört talas om.

Men tillbaka till korten då, det gick ju att komma fram till ungefär samma prestandaökning utan att räkna pixlar på grafer och det här känns som en rätt värdelös uppgradering för kreatörer av många anledningar, finns inte på kartan att byta ut ett 4090 mot ett 5090 iaf. Säkert superkul för gamers dock, vad vet jag.

Skulle snarare säga tvärt om, antalet cuda cores lovar för bättre Blender prestanda och dessutom flera och uppdaterade media engines 3 istället för 2st med bättre stöd så för kreatörer är skillnaden större än för spelare.
RT kärnorna lär dessutom hjälpa till mer vid rendering än tidigare.

Visa signatur

Blank

Permalänk
Medlem
Skrivet av lasseTM:

Någon har tagit grafen som nvidia visade under sin presentation på CES för att räkna ut att RTX 5090 är 27,5% bättre än RTX 4090 baserat på antal pixlar i höjd på berörda grafen.

Men med tanke på att 5090 har fler och förmodligen effektivare RT kärnor så bör prestandan gå upp något för just 5090 med RT på slaget kontra om du skulle köra utan RT påslaget och du jämför rå prestanda.
Så om det är 27,5% skillnad i prestanda så bör du ta bort ett par % för just bättre RT så i slutändan så kanske vi pratar 20-25% högre raster prestanda.

RT står förövrigt för ray tracing, du får googla själv vad det är.

Fast det är 27,5% i Far Cry 6, som sägs vara begränsat av CPU. Plague Tale lär vara mer indikativt på genomsnittlig prestandaökning, och där pekar det mot ungefär vad man kunnat förvänta sig i genomsnitt. Lite mindre ökning än föregående generation, men fortfarande en stadig förbättring. RT presterar inte heller bra om inte CUDA-kärnorna gör det, så det här indikerar även en förbättring i rasterprestanda.

Permalänk
Medlem

Alltså förstår inte detta helt riktigt, vi får upp till 4x mer FPS i kommande/nuvarande spel men folk stör sig på det och kallar det "Fake frames"

Då säger jag varsågoda och spela det utan någon av teknikerna påslaget så får ni njuta av i värsta fall stundtals cinematic.

Visa signatur

Fractal Design Pop XL Air RGB | ASRock Z690 Taichi | i5-12600k | Corsair 32GB (2x16GB) DDR5 6000MHz CL30 | Gigabyte RTX 2080 Gaming OC

Nintendo Switch | PlayStation 5 +PS4 Pro | Xbox Series X + One X
Min FZ Profil

Permalänk
Hedersmedlem
Skrivet av SVclocker:

Alltså förstår inte detta helt riktigt, vi får upp till 4x mer FPS i kommande/nuvarande spel men folk stör sig på det och kallar det "Fake frames"

För att 200 fps med 4x FG ger mycket högre latens än 200 fps utan FG, samt att det kan ge artefakter i rörelse.

Exempelsiffror från 2x FG (DLSS 3) i 4K + Psycho RT i Cyberpunk:
Native: 42 fps, 63.5 ms latency
DLSS Quality: 72 fps, 47 ms latency
DLSS Q + FG: 112 fps, 62.6 ms latency

Så i detta exemplet får du 112 fps med samma latency som 42 fps, så musen kommer kännas precis lika laggig som om du hade 42 fps, skillnaden är att det inte längre hackar.
Om du kör bara DLSS till uppskalning får du lägre fps än med FG på, men trots det mindre muslagg.

Jag är inte mot FG i sig och ogillar "fake frames"-snacket, men det finns ändå få lägen där jag skulle vilja använda det. Främst då i spel där input lag inte är så viktigt, så alla förstapersonsspel försvinner direkt.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av lasseTM:

Skulle snarare säga tvärt om, antalet cuda cores lovar för bättre Blender prestanda och dessutom flera och uppdaterade media engines 3 istället för 2st med bättre stöd så för kreatörer är skillnaden större än för spelare.
RT kärnorna lär dessutom hjälpa till mer vid rendering än tidigare.

Du är nog rätt ensam om den gissningen.

Menar du att gamers kommer få sämre än en 20%-boost jämfört med 4090? Ganska värdelös uppgradering faktiskt.

Drog ut ett test med RT på/av i Redshifts benchmarkscen (samma motor som i Cinebench 2024) och som du ser så är det inte någon spektakulär skillnad även fast RT presterar väldigt bra i just den här scenen, att ha RT på är i vissa fall helt meningslöst även fast motorn kan hantera det för att man är rätt mån om tiden det tar tills första pixeln är renderad, det händer väldigt mycket innan det.

Både Cuda cores och RT cores är exakt 32,81% fler i 5090 jämfört med 4090 så skillnaden är väl förhoppningsvis proportionerlig?

RT-kärnorna kommer att göra mer nytta i ett spel än i en DCC-mjukvaras renderare siar jag.

Visa signatur

Phanteks enthoo pro 2 server edition - Asus ProArt B650-CREATOR - AMD Ryzen 9 9950X - Thermalright Peerless Assassin 120 - Kingston 128GB DDR5 5200MHz - Corsair RM1000x - Kingston Fury Renegade M. 2 NVMe SSD Gen 4 2TB -Samsung 970 EVO Plus 1TB x2 - 4x WD Red WD30EFRX 64MB 3TB - Dell 27" UltraSharp U2724D IPS Black QHD 120

Permalänk
Medlem
Skrivet av pixel8:

Du är nog rätt ensam om den gissningen.

Menar du att gamers kommer få sämre än en 20%-boost jämfört med 4090? Ganska värdelös uppgradering faktiskt.

Drog ut ett test med RT på/av i Redshifts benchmarkscen (samma motor som i Cinebench 2024) och som du ser så är det inte någon spektakulär skillnad även fast RT presterar väldigt bra i just den här scenen, att ha RT på är i vissa fall helt meningslöst även fast motorn kan hantera det för att man är rätt mån om tiden det tar tills första pixeln är renderad, det händer väldigt mycket innan det.

<Uppladdad bildlänk>

Både Cuda cores och RT cores är exakt 32,81% fler i 5090 jämfört med 4090 så skillnaden är väl förhoppningsvis proportionerlig?

RT-kärnorna kommer att göra mer nytta i ett spel än i en DCC-mjukvaras renderare siar jag.

Tidigare SM-kluster har ju byggts upp med ett specifikt antal av varje, så förhållandet mellan cores och RT är alltid samma. Känns rimligt att de skalar lika

Men prestanda per core/RT är vanligtvis inte konstant, utan ändras varje generation. Dels pga nya noder/klockhastigheter men också arkitekturella förändringar

Permalänk
Medlem
Skrivet av medbor:

Tidigare SM-kluster har ju byggts upp med ett specifikt antal av varje, så förhållandet mellan cores och RT är alltid samma. Känns rimligt att de skalar lika

Men prestanda per core/RT är vanligtvis inte konstant, utan ändras varje generation. Dels pga nya noder/klockhastigheter men också arkitekturella förändringar

Dom har väl dragit tillbaka hastigheterna på cores nu och ökat signifikant på minnet om jag läste rätt, orkar inte googla fram specarna igen.

Oavsett så finns det bara några saker som är intressant för mig och det är hur många cores det finns, hur snabba dom är och mängden minne (behöver inte 32 men 16 är snålt), resten är totalt meningslöst förrutom RT som ger en liten boost i vissa fall och ingen boost i andra fall, nästan allt körs på Cuda.

Allt detta kommer att gynna gamers minst lika mycket men dom får även massvis med annat att gotta i.

Har fortfarande inte pratat med någon som jobbar med 3d som tycker det här var en nice release medans massvis med gamers är i extas över AI-grejerna, visar det sig att folk har gissat helt fel här och korten presterar bättre än 4090+20-25% på cuda+RT så blir jag glad men annars är det bara att börja bunkra fler 4090 för nästa release lär inte bli bättre.

tillägg
Visa signatur

Phanteks enthoo pro 2 server edition - Asus ProArt B650-CREATOR - AMD Ryzen 9 9950X - Thermalright Peerless Assassin 120 - Kingston 128GB DDR5 5200MHz - Corsair RM1000x - Kingston Fury Renegade M. 2 NVMe SSD Gen 4 2TB -Samsung 970 EVO Plus 1TB x2 - 4x WD Red WD30EFRX 64MB 3TB - Dell 27" UltraSharp U2724D IPS Black QHD 120

Permalänk
Medlem
Skrivet av pixel8:

Dom har väl dragit tillbaka hastigheterna på cores nu och ökat signifikant på minnet om jag läste rätt, orkar inte googla fram specarna igen.

Oavsett så finns det bara några saker som är intressant för mig och det är hur många cores det finns, hur snabba dom är och mängden minne (behöver inte 32 men 16 är snålt), resten är totalt meningslöst förrutom RT som ger en liten boost i vissa fall och ingen boost i andra fall, nästan allt körs på Cuda.

Allt detta kommer att gynna gamers minst lika mycket men dom får även massvis med annat att gotta i.

Har fortfarande inte pratat med någon som jobbar med 3d som tycker det här var en nice release medans massvis med gamers är i extas över AI-grejerna, visar det sig att folk har gissat helt fel här och korten presterar bättre än 4090+20-25% på cuda+RT så blir jag glad men annars är det bara att börja bunkra fler 4090 för nästa release lär inte bli bättre.

Det jag menade är att prestandan inte nödvändigtvis är jämförbar mellan ’cores’ på 4000 vs 5000, det kan skilja ganska många procent vid samma klockfrekvens mellan generationerna

Permalänk
Medlem
Skrivet av medbor:

Det jag menade är att prestandan inte nödvändigtvis är jämförbar mellan ’cores’ på 4000 vs 5000, det kan skilja ganska många procent vid samma klockfrekvens mellan generationerna

Nej det fattar jag, jag jämförde mängden RT-cores i förhållande till Cuda-cores som är detsamma av logiska skäl, inte hastighetsskillnader på kärnorna mellan 2 olika generationer. Ville även påpeka att RT inte tillför några mirakel i DCC's om någon nu trodde det, det finns såklart program som kan utnyttja det mesta men dom som är marknadsledande vill mest bara kötta med cuda.

Det bör ju ha hänt rätt mycket mer sen 4000-serien på alla fronter och även fast klockfrekvensen sjunkigt lite (om jag minns rätt) så bör ändå prestanda per kärna öka lite när allt spelar in, tycker jag. Läser man i tråden så verkar andra inte tycka det eftersom 32,81% ökning av cores enbart genererar en prestandaökning på 27,5%.

Jag försöker bara dra slutsatser av vad folk säger men det går inte ihop så jag ger nog upp och väntar på riktiga benchmarks och testar.

Visa signatur

Phanteks enthoo pro 2 server edition - Asus ProArt B650-CREATOR - AMD Ryzen 9 9950X - Thermalright Peerless Assassin 120 - Kingston 128GB DDR5 5200MHz - Corsair RM1000x - Kingston Fury Renegade M. 2 NVMe SSD Gen 4 2TB -Samsung 970 EVO Plus 1TB x2 - 4x WD Red WD30EFRX 64MB 3TB - Dell 27" UltraSharp U2724D IPS Black QHD 120

Permalänk
Medlem
Skrivet av SVclocker:

Alltså förstår inte detta helt riktigt, vi får upp till 4x mer FPS i kommande/nuvarande spel men folk stör sig på det och kallar det "Fake frames"

Då säger jag varsågoda och spela det utan någon av teknikerna påslaget så får ni njuta av i värsta fall stundtals cinematic.

2x mer FPS, inte 4x, relativt 4000-korten.

Men vad är det du inte förstår?

Vilket kort lirar du helst på, 5070 eller 4090? Det kvittar fullständigt för dig eftersom både kort ger samma FPS? De har ju samma prestanda, Jensen himself sa ju det.

För det enda som betyder nått är antalet FPS, inte hur dessa FPS skapas, right?

Varsågod. Lira på med 5070 du.

Vi övriga, som utan att blinka föredrar 4090, förstår att Jensen fullständigt har devalverat betydelsen av ordet prestanda och dessutom har skapat en äpplen vs päron situation. Dessa kort har rent faktiskt inte samma prestanda. Det är där skon klämmer, inte att Multi FG nödvändigtvis alltid ska hållas avslaget.

Eller låt säga att 6000-korten blir identiska med 5000-korten. Det enda som skiljer är att 6000-korten har "Super Multi FG" som ger 2x mer FPS relativt 5000-korten. Alltsammans lanserat med orden, "yeah, nu har vi dubblat prestandan igen". Inga problem, vi har ju dubbla FPS, right?

Permalänk
Medlem

Tycker dom verkar vara helt rätt ute, med AI hålls de stora prestandakliven uppe när nodkrympningarna uteblir. Latensen verkar Reflex 2 vara på rätt spår med också:

Citat:

Without Reflex, PC latency in THE FINALS on a GeForce RTX 5070 is 56 ms, using highest settings at 4K. With Reflex Low Latency, latency is more than halved to 27ms. And by enabling Reflex 2, Frame Warp cuts input lag by nearly an entire frametime, reducing latency by another 50% to 14ms. The result is an overall latency reduction of 75% by enabling NVIDIA Reflex 2 with Frame Warp.

Citat:

Reflex 2 Frame Warp takes this concept from research to reality. As a frame is being rendered by the GPU, the CPU calculates the camera position of the next frame in the pipeline, based on the latest mouse or controller input. Frame Warp samples the new camera position from the CPU, and warps the frame just rendered by the GPU to this newer camera position. The warp is conducted as late as possible, just before the rendered frame is sent to the display, ensuring the most recent mouse input is reflected on screen.

https://www.nvidia.com/en-us/geforce/news/reflex-2-even-lower...

Permalänk
Medlem
Skrivet av pixel8:

Du är nog rätt ensam om den gissningen.

Menar du att gamers kommer få sämre än en 20%-boost jämfört med 4090? Ganska värdelös uppgradering faktiskt.

Drog ut ett test med RT på/av i Redshifts benchmarkscen (samma motor som i Cinebench 2024) och som du ser så är det inte någon spektakulär skillnad även fast RT presterar väldigt bra i just den här scenen, att ha RT på är i vissa fall helt meningslöst även fast motorn kan hantera det för att man är rätt mån om tiden det tar tills första pixeln är renderad, det händer väldigt mycket innan det.

<Uppladdad bildlänk>

Både Cuda cores och RT cores är exakt 32,81% fler i 5090 jämfört med 4090 så skillnaden är väl förhoppningsvis proportionerlig?

RT-kärnorna kommer att göra mer nytta i ett spel än i en DCC-mjukvaras renderare siar jag.

Min gissning är att prestandan i spel utan fake fps igång går upp 25%
Min gissning är att kortet är bra mycket bättre än 25% i både Blender och i videoredigering.
Nvidia visar ju som sagt själv en ökning på 27,5% i deras graf.
Base clock har ju gått ned så även om en ökning med 32,81% har skett i antal cores så har klockfrekvenserna gått ned vilket bör resultera i en ökning på runt 25-30% i ren prestanda.
Visst kanske man kan hitta lite på IPC men jag tror inte det med tanke på deras stora fokus på Ai och fuskbilder.

Visa signatur

Blank

Permalänk
Medlem
Skrivet av Halldin:

Tycker dom verkar vara helt rätt ute, med AI hålls de stora prestandakliven uppe när nodkrympningarna uteblir. Latensen verkar Reflex 2 vara på rätt spår med också:

https://www.nvidia.com/en-us/geforce/news/reflex-2-even-lower...

Låter sjukt om det fungerar vettigt

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av SVclocker:

Alltså förstår inte detta helt riktigt, vi får upp till 4x mer FPS i kommande/nuvarande spel men folk stör sig på det och kallar det "Fake frames"

Då säger jag varsågoda och spela det utan någon av teknikerna påslaget så får ni njuta av i värsta fall stundtals cinematic.

Problemet är ju snarare hur han presenterar det på scen vilket är mer eller mindre en lögn.

En okunnig kanske tar det som sanning att ett 5070 är lika snabbt som ett 4090 för att sedan komma hem och spela COD/CS/Fortninte och inte alls få 4090 prestanda då man inte kan leva med 50+ms i latency
Och ofta är det just FPS spelare som jagar de höga fps:en, en Diablo spelare kanske inte behöver samma prestanda som en som spelar COD på hög nivå.

För att citera nvidia själva.
“In competitive games, a few milliseconds of input lag can mean the difference between victory and defeat.”

Visa signatur

Blank

Permalänk
Medlem

https://www.youtube.com/watch?app=desktop&v=rlV7Ynd-g94&t=999...

50XX serien blir en flopp.

AI & mjukvaraboost i sin ära, men dessa korten är knappt en uppgradering från 40xx serien.

EDIT: Förutom 5090, men det kortet kostar så mycket att det inte går att räkna med.

Visa signatur

ASUS GeForce RTX 4080 TUF
AMD Ryzen 7 9800X3D
Kingston BEAST 32GB DDR5 6000Mhz
@4K/138Hz

Permalänk
Medlem
Skrivet av gurkburk92:

https://www.youtube.com/watch?app=desktop&v=rlV7Ynd-g94&t=999...

50XX serien blir en flopp.

AI & mjukvaraboost i sin ära, men dessa korten är knappt en uppgradering från 40xx serien.

EDIT: Förutom 5090, men det kortet kostar så mycket att det inte går att räkna med.

Det sade man om 4000 serien också, gissar den säljer likvärdigt 😊

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av lasseTM:

Problemet är ju snarare hur han presenterar det på scen vilket är mer eller mindre en lögn.

En okunnig kanske tar det som sanning att ett 5070 är lika snabbt som ett 4090 för att sedan komma hem och spela COD/CS/Fortninte och inte alls få 4090 prestanda då man inte kan leva med 50+ms i latency
Och ofta är det just FPS spelare som jagar de höga fps:en, en Diablo spelare kanske inte behöver samma prestanda som en som spelar COD på hög nivå.

För att citera nvidia själva.
“In competitive games, a few milliseconds of input lag can mean the difference between victory and defeat.”

Men om de med all ai teknik ändå skulle lyckas med att få till en riktigt bra input lag med MFG? Är det forfarande "fel" då? Många verkar ju mena att input lag är problemet, men om det inte är ett problem då? Och om artefakterna har mininerats? Vad är då problemet? Principen?

Permalänk
Medlem
Skrivet av Eismannen:

Men om de med all ai teknik ändå skulle lyckas med att få till en riktigt bra input lag med MFG? Är det forfarande "fel" då? Många verkar ju mena att input lag är problemet, men om det inte är ett problem då? Och om artefakterna har mininerats? Vad är då problemet? Principen?

Ja det känns som folk har fel tänkt.
Om nu nya reflex 2+ warp är så bra som det sägs så får man <25ms input latency med mfg

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av gurkburk92:

https://www.youtube.com/watch?app=desktop&v=rlV7Ynd-g94&t=999...

50XX serien blir en flopp.

AI & mjukvaraboost i sin ära, men dessa korten är knappt en uppgradering från 40xx serien.

EDIT: Förutom 5090, men det kortet kostar så mycket att det inte går att räkna med.

Segmentering. Det är ordet det handlat om senaste 5 åren.

Visa signatur

''Man får betala för kvalitet och stabilitet'' //Pantburk 2024.
Poor 9800X3D + RTX 5090 user.

Permalänk
Medlem
Skrivet av Swedishchef_90:

Det sade man om 4000 serien också, gissar den säljer likvärdigt 😊

Menar du innan eller efter Nvidia fick panik och gjorde super serien med 4070 super nästan 20 % snabbare än 4070 och sänkte priset på 4080 med 20 % ?

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 11 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av Eismannen:

Men om de med all ai teknik ändå skulle lyckas med att få till en riktigt bra input lag med MFG? Är det forfarande "fel" då? Många verkar ju mena att input lag är problemet, men om det inte är ett problem då? Och om artefakterna har mininerats? Vad är då problemet? Principen?

Om de lyckas få 0 input lag och 0 artefakter så är jag helt med på banan.
Men hur mäter du antal artefakter och deras utbredning tex?

Hur ska du i framtiden jämföra prestandan mellan olika grafikkort, Nvidia, Amd, Intel när du får just fel i bilden?
Om Intels nästa uppskalning med Ai gör att alla spel ser ut som Nintendo 64 spel men du får 2000 fps skulle du då acceptera detta eller hur skulle du då mäta detta mot Nvidia som får 500 fps men spelen ser ut som ett AAA spel 2015 kontra Amd som får 200 fps men spelen ser ut som ett AAA 2024?

Lite som om en bilsäljare ger dig ett par fish eye glasögon för att bilen ska upplevas snabbare än vad den verkligen är, upplevda känslan är att du gör 0-100 på 3 sekunder men verkligheten så ligger den på 8 sekunder.

Visa signatur

Blank

Permalänk
Medlem
Skrivet av ottoblom:

Menar du innan eller efter Nvidia fick panik och gjorde super serien med 4070 super nästan 20 % snabbare än 4070 och sänkte priset på 4080 med 20 % ?

Som helhet 😊 vet inte hur % delen är men enligt Steam survey så är ju 4070 populärare än super serien

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Swedishchef_90:

Som helhet 😊 vet inte hur % delen är men enligt Steam survey så är ju 4070 populärare än super serien

Under vilken tidsram ?

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 11 ASUS PG279Q skärm