Cyberpunk visar Arrow Lakes potential för optimering

Permalänk
Melding Plague

Cyberpunk visar Arrow Lakes potential för optimering

Nya uppdateringen av Cyberpunk 2077 har upp till 33 procent högre CPU-prestanda.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Hedersmedlem

"Upp till" kan ju betyda lite vad som helst dock, känns som att det återstå att se tredjepartstester. Men med ett sånt påstående får vi väl hoppas på att de når åtminstone 10% i snitt, vilket väl vore en rätt bra ökning för en mjukvarufix i mina ögon.

När Hardware Unboxed testade Cyberpunk (och 44 andra spel) nyligen låg 285K 9.3% efter 14900K, så den har goda chanser att komma ikapp.
9800X3D däremot ligger 33% före 14900K och därmed 45% före 285K.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

"Upp till" kan ju betyda lite vad som helst dock, känns som att det återstå att se tredjepartstester. Men med ett sånt påstående får vi väl hoppas på att de når åtminstone 10% i snitt, vilket väl vore en rätt bra ökning för en mjukvarufix i mina ögon.

När Hardware Unboxed testade Cyberpunk (och 44 andra spel) nyligen låg 285K 9.3% efter 14900K, så den har goda chanser att komma ikapp.
9800X3D däremot ligger 33% före 14900K och därmed 45% före 285K.

Ja, sådana tester borde väl börja trilla in, om de inte redan gjort det.

Processorerna finns ute, Cyberpunk-patchen har varit ute några dagar...

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || Sapphire Pulse RX 7900 XTX || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av Thomas:

"Upp till" kan ju betyda lite vad som helst dock, känns som att det återstå att se tredjepartstester. Men med ett sånt påstående får vi väl hoppas på att de når åtminstone 10% i snitt, vilket väl vore en rätt bra ökning för en mjukvarufix i mina ögon.

När Hardware Unboxed testade Cyberpunk (och 44 andra spel) nyligen låg 285K 9.3% efter 14900K, så den har goda chanser att komma ikapp.
9800X3D däremot ligger 33% före 14900K och därmed 45% före 285K.

i testerna HU gjorde mellan just 285k och 9800x3d så var AMD 45% snabbare precis som du säger, så nu är 285% bäst 13% sämre än 9800x3d för 1000kr mer!

Bra för 285k men långt ifrån tillräckligt tyvärr, speciellt med tanke på att kostnaden för ett helt nytt system även är till fördel för AMD som blir 2000kr billigare.

Visa signatur

here we go!

Permalänk
Medlem

Och tänk på att denna uppdatering kanske även höjer fps på en 9800x3d mm.

Visa signatur

Asus Tuf Gaming X670E-Plus - Amd 9700X - Noctua D15 Chromax Black - Corsair 6000MHz cl30 - Asus 4090 Tuf - Asus Rog Thor 850W 80+ Platinum - Sound Blaster AE-9 - Asus 26.5" ROG Swift PG27AQDM OLED 240Hz

Permalänk
Medlem
Skrivet av Pantburk:

Och tänk på att denna uppdatering kanske även höjer fps på en 9800x3d mm.

Ironiskt nog samma anledning Nvidia/intel alltid låg före förut trots alla "wait for drivers/patches!". "Fine wine" applicerar på all hårdvara inom felmarginal. Är inget raktav defekt som Intels GPU drivrutiner gäller prestandadiffen vid släppet mellan hårdvaran hela hårdvarans livsläng och långt därefter

Som när fanboys krävde att tidiga Ryzen processorer skulle minsann testas med snabbare minnen för prestandan blir så mycket bättre än intel! Sen stoppade testare samma snabba minnen i Intel testriggen och fick samma procentuella prestandaökning. Lite kul att se att det är tvärtom idag.

Permalänk
Medlem

Lite udda att detta är en optimering från utvecklaren och inte något från intel eller via scheduler.
Undrar om det är att de faktiskt gjort något smart lösning för att få ut mer ur Arrow Lake, eller att de fixat något dumt de gjort tidigare. Typ som när de ett tag efter release inte körde trådat på ryzen specifikt och löste det när det blev en snackis.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Pantburk:

Och tänk på att denna uppdatering kanske även höjer fps på en 9800x3d mm.

Njae, denna patch handlar om sättet spelmotorn till Cyberpunk kan prioritera P-cores. En 9800x3D har ju bara P-cores.

Visa signatur

Ryzen 7 7800X3D | ASUS TUF Gaming B650-Plus WIFI | Kingston 32GB (2x16GB) DDR5 6GT/s CL30 FURY Beast | Kingston Fury Renegade M.2 NVMe SSD Gen 4 2TB | MSI RTX 4060 8GB | Fractal Design Define S | MSI MPG A850G 850W | Thermalright Phantom Spirit 120 SE | Windows 11 Pro | AOC 27" AGON AG276QZD2 OLED QHD 240 Hz

Permalänk
Medlem
Skrivet av Shiprat:

Lite udda att detta är en optimering från utvecklaren och inte något från intel eller via scheduler.
Undrar om det är att de faktiskt gjort något smart lösning för att få ut mer ur Arrow Lake, eller att de fixat något dumt de gjort tidigare. Typ som när de ett tag efter release inte körde trådat på ryzen specifikt och löste det när det blev en snackis.

WCCFTech skriver att även Intel jobbar på ny mikrokod för schemaläggaren.

Visa signatur

Ryzen 7 7800X3D | ASUS TUF Gaming B650-Plus WIFI | Kingston 32GB (2x16GB) DDR5 6GT/s CL30 FURY Beast | Kingston Fury Renegade M.2 NVMe SSD Gen 4 2TB | MSI RTX 4060 8GB | Fractal Design Define S | MSI MPG A850G 850W | Thermalright Phantom Spirit 120 SE | Windows 11 Pro | AOC 27" AGON AG276QZD2 OLED QHD 240 Hz

Permalänk
Medlem
Skrivet av Joppis:

WCCFTech skriver att även Intel jobbar på ny mikrokod för schemaläggaren.

schemaläggaren? menar du microsoft kanske? för schemaläggaren är ju i windows. intel gör ju bara cpu delarna

Permalänk
Medlem

"speciellt med tanke på att Cyberpunk 2077 är en erkänt CPU-tung titel."

Det är väl specifikt i CPU tunga spel som en CPU optimering kan ge stora prestandavinster eller hur menar ni?

Permalänk
Hedersmedlem
Skrivet av Nimafor:

schemaläggaren? menar du microsoft kanske? för schemaläggaren är ju i windows. intel gör ju bara cpu delarna

De har ju sin Thread Director som är relaterat åtminstone. Den lär kunna uppdateras i mikrokod.
https://www.intel.com/content/www/us/en/support/articles/0000...

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Hedersmedlem
Skrivet av Maximo:

"speciellt med tanke på att Cyberpunk 2077 är en erkänt CPU-tung titel."

Det är väl specifikt i CPU tunga spel som en CPU optimering kan ge stora prestandavinster eller hur menar ni?

Nu tog du ju bort halva meningen

"33 procent är dock knappast realistiskt i de flesta spel"

De flesta spel är inte såhär CPU-tunga, därmed kommer de flesta spelen inte tjäna lika mycket på CPU-optimering.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

Nu tog du ju bort halva meningen

"33 procent är dock knappast realistiskt i de flesta spel"

De flesta spel är inte såhär CPU-tunga, därmed kommer de flesta spelen inte tjäna lika mycket på CPU-optimering.

Ja det var ju det där med läsförståelse också... Jag läste det som "Det är inte speciellt realistiskt i cyberpunk"

Permalänk
Datavetare
Skrivet av Pantburk:

Och tänk på att denna uppdatering kanske även höjer fps på en 9800x3d mm.

Det utvecklaren skriver kring detta är

"Optimized threading system to improve performance by up to 33% on Intel Arrow Lake based CPUs."

Den första delen "Optimized threading system to improve performance" utesluter inte att dessa optimeringar även är fördelaktigt för andra CPU-modeller.

Oavsett bör rimligen Arrow Lake se störst fördel. Sen kan man fundera lite på hur relevant detta är i praktiken. Helt klart underpresterar 285k i detta spel, ändå skiljer det ca 3 % mellan 9800X3D och 285K även med ett 4090 när man når 2560x1440.

Klicka för mer information
Visa mer

Rimligen är det ett större problem för Intel att Arrow Lake desktop inte längre är snabbare Qualcomm (Snapdragon 8 Elite), Arm (Cortex X925) och att den är långsammare än Apple (M4) i typ allt.

För Arrow Lake är ju bra i allt förutom spel (i genomsnitt betydligt bättre än 9800X3D). Men är primärt spel som fortfarande är rätt hårt budet till x86/Windows (även om M4 är snabbare än 9800X3D även här är det mindre relevant då det finns väldigt få PC-spel till MacOS).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Moderator
Testpilot
Skrivet av Yoshman:

Det utvecklaren skriver kring detta är

"Optimized threading system to improve performance by up to 33% on Intel Arrow Lake based CPUs."

Den första delen "Optimized threading system to improve performance" utesluter inte att dessa optimeringar även är fördelaktigt för andra CPU-modeller.

Oavsett bör rimligen Arrow Lake se störst fördel. Sen kan man fundera lite på hur relevant detta är i praktiken. Helt klart underpresterar 285k i detta spel, ändå skiljer det ca 3 % mellan 9800X3D och 285K även med ett 4090 när man når 2560x1440.

Rimligen är det ett större problem för Intel att Arrow Lake desktop inte längre är snabbare Qualcomm (Snapdragon 8 Elite), Arm (Cortex X925) och att den är långsammare än Apple (M4) i typ allt.

För Arrow Lake är ju bra i allt förutom spel (i genomsnitt betydligt bättre än 9800X3D). Men är primärt spel som fortfarande är rätt hårt budet till x86/Windows (även om M4 är snabbare än 9800X3D även här är det mindre relevant då det finns väldigt få PC-spel till MacOS).

Vänta. Jämförde du precis processorer i 1440p med RT?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Avstängd

Intel Core Ultra 5 245K 3699kr det kan man ju tänka sig betala iaf, till skillnad från AMD's x3d 6000kr priser

Permalänk
Hedersmedlem
Skrivet av Lofus:

Intel Core Ultra 5 245K 3699kr det kan man ju tänka sig betala iaf, till skillnad från AMD's x3d 6000kr priser

Håller med om att 7000/9000 med 3D V-Cache är alldeles för dyra just nu, men det finns ju andra alternativ.

245K har i snitt samma spelprestanda som Ryzen 7600X för 2390 kr t ex. (Köpte en till kompisen för 1790 kr på Inets Swec-stream nyligen.)
Och den är (som SweClockers recension har i titeln) långsammare i spel än 14600K (3090 kr).
https://www.sweclockers.com/test/39913-intel-core-ultra-5-245...

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Datavetare
Skrivet av Dinoman:

Vänta. Jämförde du precis processorer i 1440p med RT?

japp, skillanden är 1 % utan RT i samma upplösning, så tog "worst case"

Klicka för mer information
Visa mer

720p har viss relevans. Men när man ger sig på sådana jämförelsen tycker i alla fall jag att man då inte längre kan ignorera att M4 faktiskt är världens snabbaste spel CPU. Ingen spelar i 720p med 4090 och MacOS har väldigt få spel, så rätt likvärdig jämförelse

Edit: behövs kanske lite mer kontext. Jag är helt med på varför man testar i 720p.
Frågan är mer här hur relevant denna förändring är egentligen? Framförallt då det verkar vara utvecklaren av spelet som lagt resurserna.

Att prestanda ökar i 720p är kritiskt för Intel då det resultat kommer visas i benchmarks. Men TPU-graferna visar att det i praktiken faktiskt inte fanns något relevant problem om man faktiskt vill spela detta spel, inte ens med 285K. För inte ens med 4090 (som kanske mer är ett kort för 4k) finns någon relevant skillnad i prestanda mellan 285K (som är/var "dålig" i denna titel) och 9800X3D (som är "bäst").

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Moderator
Testpilot
Skrivet av Yoshman:

japp, skillanden är 1 % utan RT i samma upplösning, så tog "worst case"

720p har viss relevans. Men när man ger sig på sådana jämförelsen tycker i alla fall jag att man då inte längre kan ignorera att M4 faktiskt är världens snabbaste spel CPU. Ingen spelar i 720p med 4090 och MacOS har väldigt få spel, så rätt likvärdig jämförelse

Edit: behövs kanske lite mer kontext. Jag är helt med på varför man testar i 720p.
Frågan är mer här hur relevant denna förändring är egentligen? Framförallt då det verkar vara utvecklaren av spelet som lagt resurserna.

Att prestanda ökar i 720p är kritiskt för Intel då det resultat kommer visas i benchmarks. Men TPU-graferna visar att det i praktiken faktiskt inte fanns något relevant problem om man faktiskt vill spela detta spel, inte ens med 285K. För inte ens med 4090 (som kanske mer är ett kort för 4k) finns någon relevant skillnad i prestanda mellan 285K (som är/var "dålig" i denna titel) och 9800X3D (som är "bäst").

Jag skulle nog hävda att det enda som händer är att vi skiftar fokus från CPU och istället börjar titta på GPU. Det är RTX 4090 som är flaskhalsen i den jämförelse som du gör och inte processorn, varpå det är mest rimligt att titta på lägre upplösningar för att ta bort faktorn med GPU och fokusera på CPU.

Att vi kan konstatera att det inte spelar någon större roll vilken CPU du använder dig av i det scenario du tar upp är ju helt korrekt men det kan ju knappast användas som en måttstock.

För mig är det så enkelt.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Prestandaökningen beror kanske på att spelet själv identifierar prestandakärnorna i Arrow Lake?
Om jag minns rätt så sitter klustren olika i Arrow Lake jämfört med tidigare modeller, där mer eller mindre varannan kärna är en slökärna. Detta för att kunna reglera spänningen på ett annat sätt än tidigare (möjligen för att förhindra degradering?).

Antar opatchade spelmotorerna att slökärnorna är prestandakärnor?
Någon som har koll på vad slökärnorna sitter på för index i 13/14-serien?

Möjligen kan en uppdatering av Windows lösa en del av problemen, om nu inte spelmotorerna väljer att köra sitt eget race.

Permalänk
Medlem
Skrivet av Lofus:

Intel Core Ultra 5 245K 3699kr det kan man ju tänka sig betala iaf, till skillnad från AMD's x3d 6000kr priser

Du får ju jämföra Ultra 5 245k mot Ryzen 5 9600x som finns för 3000kr. I sweclockers speltester vinner 9600x över 245k i 5 av 7 spel. Däremot är 245k vinnare i samtliga "produktivitetstest" antagligen tack vare de extra kärnorna så kan man nyttja dom känns valet på intel ganska enkelt enligt mig.
https://www.sweclockers.com/test/39913-intel-core-ultra-5-245...

Båda presterar ju bra i de allra flesta fallen.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Datavetare
Skrivet av Dinoman:

Jag skulle nog hävda att det enda som händer är att vi skiftar fokus från CPU och istället börjar titta på GPU. Det är RTX 4090 som är flaskhalsen i den jämförelse som du gör och inte processorn, varpå det är mest rimligt att titta på lägre upplösningar för att ta bort faktorn med GPU och fokusera på CPU.

Att vi kan konstatera att det inte spelar någon större roll vilken CPU du använder dig av i det scenario du tar upp är ju helt korrekt men det kan ju knappast användas som en måttstock.

För mig är det så enkelt.

Som sagt, är helt med på varför man benchmark:ar i 720p på 4090. Är också helt med på varför Intel har ett stort intresse av att få upp 720p siffrorna.

Det som är förvånande här är att spelstudion bryr sig om att optimera för Arrow Lake givet att det i praktiken (d.v.s. i de upplösningar man kommer använda när man faktiskt spelar spelet) lär vara helt lönnöst då det redan innan optimeringen skiljer enstaka procent mellan absoluta toppen och 285K.

Skrivet av Dalton Sleeper:

Prestandaökningen beror kanske på att spelet själv identifierar prestandakärnorna i Arrow Lake?
Om jag minns rätt så sitter klustren olika i Arrow Lake jämfört med tidigare modeller, där mer eller mindre varannan kärna är en slökärna. Detta för att kunna reglera spänningen på ett annat sätt än tidigare (möjligen för att förhindra degradering?).

Antar opatchade spelmotorerna att slökärnorna är prestandakärnor?
Någon som har koll på vad slökärnorna sitter på för index i 13/14-serien?

Möjligen kan en uppdatering av Windows lösa en del av problemen, om nu inte spelmotorerna väljer att köra sitt eget race.

Eller annan tyvärr fullt möjlig förklaringen är att spelstudion faktiskt försökt "optimerat" innan och "optimeringen" här är att man slutar tvinga en schedule-policy och låter Windows+ThreadDirector lösa problemet på eget bevåg.

Vi såg ju på Linux runt 2011 (när Arm lanserade big.LITTLE) att det krävdes lite jobb för att hantera den typen av designer. Men efter något år var det ett icke-problem som väldigt nära 100 % av alla program kan ignorera då OS:et kommer göra något som är "nära optimalt".

MacOS lyckas lösa detta problem redan tidigare genom GrandCentralDispatch, GCD (lanserades 2009, de lär ha haft inside-information på Arms big.LITTLE). Här finns helt klart exempel där tillverkare av program (t.ex. vissa ljudprogram) har aktivt gjort saker de tror är "optimalt", men som i praktiken ställer till det (så de program som inte är "optimerade" fungerar bättre).

Windows saknar motsvarande funktion likt GCD innan Windows 11, men det är möjligt att hårt låsa vilka CPU-kärnor en OS-tråd får köra på (något som spel definitivt bör låta bli att göra för de lär fcsk:a upp det).

I Windows 11 finns det rätt snarlikt stöd som GCD och rätt använt kan det nog hjälpa spel. Sen är firmware involverat i P/E-beslutet, så fullt möjligt för Intel att ställa till det för sig. Men den delen kan bara Intel fixa och låter ju som de har en beta ute som förbättrar just denna punkt (skarp release på förväntas slutet av året alt. början januari).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Dinoman:

Jag skulle nog hävda att det enda som händer är att vi skiftar fokus från CPU och istället börjar titta på GPU. Det är RTX 4090 som är flaskhalsen i den jämförelse som du gör och inte processorn, varpå det är mest rimligt att titta på lägre upplösningar för att ta bort faktorn med GPU och fokusera på CPU.

Att vi kan konstatera att det inte spelar någon större roll vilken CPU du använder dig av i det scenario du tar upp är ju helt korrekt men det kan ju knappast användas som en måttstock.

För mig är det så enkelt.

I det generella fallet har du rätt. Man måste benchmarka CPU CPU-bundet. Men nu pratar vi om det specifika fallet Cyberpunk 2077. Finns det någon som i praktiken vinner något på att få upp hastigheten 33% på 285k.

Det är det Yoshman menar och han har en poäng. Men det finns säkert folk som spelar även Cyberpunk i skyhöga framerates 1080p, och då har Yoshman inte rätt.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Nimafor:

schemaläggaren? menar du microsoft kanske? för schemaläggaren är ju i windows. intel gör ju bara cpu delarna

Joppis nämnde Intels "Thread Director". Även AMD levererar information i realtid till Windows från sina processorer:

Citat:

AMD uses a slightly different approach, but their BIOS does provide guidance to the OS, like for example the CPPC2 Preferred Cores mechanism. There are also a number of undocumented settings for Windows Power Plan, which could be another way to improve the scheduling.

https://www.techpowerup.com/review/amd-ryzen-9-9700x-performa...

Permalänk
Medlem
Skrivet av Joppis:

WCCFTech skriver att även Intel jobbar på ny mikrokod för schemaläggaren.

Även då lite förvånande att CDPR skulle ha löst med optimering som Intel inte själva löst än. Är ju en bra sak, bara udda.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Även då lite förvånande att CDPR skulle ha löst med optimering som Intel inte själva löst än. Är ju en bra sak, bara udda.

Det är inte särskilt konstigt egentligen, CDPR behöver bara optimera ett spel medan Intel måste hitta en lösning som fungerar för spel i allmänhet utan att försämra prestandan i andra tillämpningar. Cyberpunk är även ett av väldigt få spel som har inställningar för att låta spelet välja kärnor att köra på istället för att låta OS:et göra det automatiskt, så troligtvis har de rätt bra koll på hur spelet använder kärnorna.

Permalänk
Medlem
Skrivet av Lussarn:

I det generella fallet har du rätt. Man måste benchmarka CPU CPU-bundet. Men nu pratar vi om det specifika fallet Cyberpunk 2077. Finns det någon som i praktiken vinner något på att få upp hastigheten 33% på 285k.

Det är det Yoshman menar och han har en poäng. Men det finns säkert folk som spelar även Cyberpunk i skyhöga framerates 1080p, och då har Yoshman inte rätt.

Nu kommer ju dock nya grafikkort lanseras redan i januari, med betydligt högre prestanda i toppsegmentet om man ska tro ryktena. Då blir det återigen viktigt att få upp prestandan med Arrow Lake för folk som spelar i högre upplösningar. Oavsett så påverkar ju CPU-prestandan även 1% low FPS, vilket väldigt tydligt påverkar det upplevda flytet.

Visa signatur

Antec P280 | FSP Hydro Ti Pro 1000W | MSI X670E Carbon | Ryzen 7 9800X3D | Kingston Fury Beast 6000MT/s CL30 2x32GB | ASUS RTX 3080 TUF OC | 2x Samsung 990 Pro 4TB | Kingston KC3000 4TB | Samsung 970 Pro 1TB | 2x Samsung PM863a 3.84TB | 2x ASUS PG279Q