AMD Ryzen 9 3900X och 7 3700X "Matisse"

Permalänk
Datavetare
Skrivet av FattarNiInte:

Bara å köp.

07-08-2019, 12:39 PM
Pop!_OS 19.04 has fixed this issue by backporting the AMD rdrand patch - I can confirm that this is the correct reason these distributions fail to boot. We will release a new ISO to address the issue, but other distributions are unlikely to.

Hopefully an AMD firmware update can work around this issue with the current ISOs for those distributions that do not regularly re-roll their ISOs.
Last edited by jackpot51; 07-08-2019, 12:43 PM.

Dold text

Skickades från m.sweclockers.com

Perfekt! Tanken här är att stoppa in en 3900X i ett 2U-chassi (helst inte större, men får i värsta fall bli ett 3U) och använda ett par sådana system som ersättare till det som vår IT-avdelning idag valt: dual socket Xeon Gold 6136 (18C/36T för ca $2500 per CPU).

Något som tror Noctua NH-L9i fixar att kyla en 3900X, för mycket större kylare lär man inte få in? Folk har kört överklockade Intel 4C/8T med denna kylare (4790K och 6700K), kör själv den på en överklockad 5775C. Ljudnivå är ett icke-problem då det kommer sitta i ett serverrum och är ju väldigt bra luftflöde genom rack-chassin.

Är helt för att välja serverplattform där det finns en poäng. Men verkar som ingen riktigt kolla på CPU-användningen hos våra Jenkins master/slaves. Finns absolut delmoment där alla 72 trådar används, men handlar om <10 % p.g.a. Amdahls lag.

Inte säker på att 12C/24T per slav är optimalt, men rätt säker att som det är nu hade 9900K varit ett mer optimalt val (eller kanske mer sannolikt, Xeon E-2288G som i praktiken är 9900K med stöd för ECC RAM och utrustad med eDRAM).

Finns absolut fall där många lite långsammare kärnor är ett bättre val, finns definitivt fall där man behöver stöd för mer än 64 GB RAM (Intel stödjer 128 GB på konsumentserien nu, kanske Ryzen 3000 också gör det?). Men även på serversidan har nu konsument CPUerna nått en nivå där primära flaskhalsen är Amdals lag, i det läget är det enda som ger bättre prestanda högre enkeltrådprestanda!

Fallet jag ska ge mig på att optimera är definitivt begränsat mer av Amdals lag än något annat, 18C med maxboost på 3,7 GHz och all-core boost på 3,0 GHz är knappast optimalt där. För att ens utnyttja 12C/24T optimalt måste genomsnittlig parallellism ligga på >20 (d.v.s. man bör ha minst 20 i princip oberoende uppgifter aktiva, i genomsnitt!).

Det som vi primärt vill optimera är latens per jobb, d.v.s. korta tiden när ett enskilt jobb startar till dess det är klart. Fler parallell jobb är trivialt att skala för, bara addera fler slavmaskiner. Latens är som alltid det betydligt svårare problemet, högre prestanda per kärna är vad man vill åt här!

Som tur är kan man vänta ut nuvarande situation vad det gäller barnsjukdomar och bristande tillgänglighet från hängmattan, ett gäng veckors semester har prio #1 och ovan är för jobbet

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Sidde:

Om du bara visste som jag funderat/legat vaken om nätterna senaste dagarna.
Jag satt med 2 kundvagnar på inet och tillslut efter några öl ledsnade jag. Jag vill ha något att bygga på semestern...

Och det fanns många skäl åt båda hållen, äger dessutom en massa AMD-aktier så ville så gärna...

Blev själv väldigt chockad över att det stod att jag skulle behöva vänta tills Augusti för leverans. Men verkar som Inet ändrat sig till redan nu på Fredag (12 Juli). Åtminstone för 7 3700X som jag beställt.

Men samtidigt förstår jag precis vad du menar.

Visa signatur

AMD Ryzen 7 5800X3D | EVGA GeForce RTX 3080 10GB FTW3 ULTRA | ASUS ROG Strix B450-F Gaming | Corsair RM750X V2 | Crucial Ballistix Sport LT 3200MHz 16GB | Samsung 980 Pro 1TB | Crucial MX500 2TB | NZXT H500

Permalänk
Medlem

Det blir säkert bra med en 9700 med, fast prisskillnaden behöver inte vara så stor som du räknat med. Man kan köra på ett 470/450 moderkort istället för 570 och minnena bör ju vara samma oavsett AMD eller Intel (3200-minnen om du inte vill lägga ut mer för 3600-minnen). Sen får du ju köpa kylare till Intel vilket du kan skippa om du nöjer dig med den medföljande till AMDn. Plötsligt är prisskillnaden rätt liten.

Visa signatur

Vituð ér enn, eða hvað?

Permalänk
Medlem

Hade en AMD XP +2500 Barton 2003, nu efter 16 år så är jag tillbaka med en 3700x, känns förbaskat kul. Kör B450 Tomahawk till

Permalänk
Medlem
Skrivet av Sidde:

Om du bara visste som jag funderat/legat vaken om nätterna senaste dagarna.
Jag satt med 2 kundvagnar på inet och tillslut efter några öl ledsnade jag. Jag vill ha något att bygga på semestern...

Och det fanns många skäl åt båda hållen, äger dessutom en massa AMD-aktier så ville så gärna...

Jag har funderat på samma sak som du sen i söndags då jag är i den målgruppen där FPS spelar stor roll (100Hz skärm och hög upplösning). Nu har jag förvisso beställt en 3800X och moderkort (X470, vågar vägra de överprisade X570 korten som inte ger någon fördel) samt AMD minne har jag redan fått hem men jag kan inte sluta titta på alla spelbenchmarks där varken 3700X eller 3900X vinner över 9700K. 9700K, X390 mobo samt minne kostar dessutom 900kr mindre än AMD systemet jag redan beställt. Visst kan man hoppas på optimeringar osv på AMDs sida om några månader men det hjälper ju en inte idag. Nu dröjer det två veckor innan min 3800X kommer så jag får helt enkelt bevaka Reddit samt denna tråd och se om något positivt händer i AMDs favör. Vill verkligen köra AMD denna gången då jag tycker de gjort ett fantastiskt jobb med denna generation, dock ännu inte helt perfekt på spelavdelningen.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | MSI 321URX QD-OLED | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem

@Mocka: En tanke bara är att om du kör med hög upplösning så kommer förmodligen grafikkortet vara flaskhals och vilken processor du väljer är inte alls lika kritiskt. Det kanske skiljer några procent i de 720/1080 tester du sett, men i högre upplösningar så är det förmodligen nästan ingen skillnad alls.

Permalänk
Medlem
Skrivet av Cenorida:

Blev själv väldigt chockad över att det stod att jag skulle behöva vänta tills Augusti för leverans. Men verkar som Inet ändrat sig till redan nu på Fredag (12 Juli). Åtminstone för 7 3700X som jag beställt.

Men samtidigt förstår jag precis vad du menar.

verkar som de får in lite strö leveranser, dom har ändrat datumen väldigt ofta de senaste 2 dagarna. antar att dom kanske har dålig koll på små leveranser men bättre på de stora så då sätter dom ett datum när en stor troligtvis ska komma. hellre det än för tidigt och dom får uppleva internet ilskan.

Visa signatur

Ryzen 9800X3D @ Stock, MSI Suprim X 3080 @ game mode.
YT kanal där jag meckar bilar: https://www.youtube.com/@saab900turbo9

Permalänk
Medlem

@Yoshman: Vågar inte säga något om NH-L9I men jag har använt NH-D9L (U3) till både 7900x och 9900k med "lyckat" resultat. 9900k med CPU-Z stresstest ger en temperatur på 80 celsius med en fläkt. 7900x behövde ha två fläktar monterade för att stanna under 90 grader av vad jag minns.

Permalänk
Skrivet av Xinpei:

Det är för att det är vad Intel specificerar. Allt över 2666 MHz vore per definition överklockning och då blir det helt plötsligt stock mot OC och det vore bara skevt. Det i kombination med eventuella stabilitetsproblem är orsaken till denna ställning. Det tåls att nämnas att 3200 MHz inte på något sätt är en "Sweetspot" för AMD heller.

Vill minnas att det inte specificerades om det gällde enbart en kärna eller flera? Men om vi ska fokusera på all-cores så är det 4,7 GHz som gäller för 9900K. Ska du över 5 GHz så måste du börja pumpa in volt i processorn som inte är i närheten av nyttig för den. På luft ska det mycket till för att du ska ens komma över 5 GHz på all core.

roligt att du nämner ryzen och stabilitetsproblem är inte deras cpuer just otroligt kräsna med just minnen? sweclockers gjorde själva ett test där det skiljde upp mot 15% prestanda mellan olika minnen. tror inte nån på det här forumet köper de absolut billigaste minnena till sin k-cpu, dessutom är väl stödet visst officiellt om du bara följer moderkortets qvl och aktiverar xmp.

tycker det är väldigt mycket hallå över 13% ökad prestanda över tidigare gen och aktiv kylning på moderkortet. 2000-serien är ju *vansinnigt* mer prisvärd med en ryzen 2600 för runt 1500.

Visa signatur

i7 12700kf | gigabyte b760 ds3h ax ddr4 | 2x16gb kingston 3600mhz | zotac 3060ti | corsair mp510 960gb (OS) + wd black sn750se 1tb + samsung 860 evo 1tb | seasonic focus gx 850w | tr phantom spirit | fractal r3 | dell alienware 34 ips | win 11 | death adder chroma | cherry tkl

Permalänk
Medlem

Jag sitter som så många andra i uppgraderingstankar, och ville ha överklockade referensresultat före/efter dagens windowspatch (som vissa spekulerat kan påverka prestanda), så patchade och testade och pastade geekbench4-resultat för 6700k@4.5Ghz: #17975939

Om någon orkar patcha och testa samma sak för 9700/9900k med mild 24/7 överklock vore det snällt.

tldr; Ingen skillnad, och 6700k@4.5 ligger bara ca 2% efter artikelns resultat för 3700x i geekbench single thread.

Permalänk
Medlem
Skrivet av JBE:

Jag sitter som så många andra i uppgraderingstankar, och ville ha överklockade referensresultat före/efter dagens windowspatch (som vissa spekulerat kan påverka prestanda), så patchade och testade och pastade geekbench4-resultat för 6700k@4.5Ghz: #17975939

Om någon orkar patcha och testa samma sak för 9700/9900k med mild 24/7 överklock vore det snällt.

tldr; Ingen skillnad, och 6700k@4.5 ligger bara ca 2% efter artikelns resultat för 3700x i geekbench single thread.

Geekbench är en rätt klen indikator av något alls faktiskt på stationär dator så du kanske inte ska dra så stora växlar på just det, min 1800 belastas så hårt av det att den inte går en grad över Idle temp under eller direkt efter testet bästa du kan göra för att se spelprestanda är att jämföra din egen burk i ett spel som testare nyttjar med exempelvis en inbyggd benchmark, då får du en långt bättre bild av eventuell prestanda vinst, var bara noga att matcha inställningar och versioner av drivare. Se också upp med ifall du blir gpu bunden.

Skickades från m.sweclockers.com

Visa signatur

| nVidia RTX3090FE | R9 5800X3D | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 12TB nvme, 2TB sata SSD | RM1000x | Creative X4 | Antec C8 | Alienware aw3821dw | >Antec C8 Custom Loop< |

Permalänk
Medlem
Skrivet av tellus82:

Geekbench är en rätt klen indikator av något alls faktiskt på stationär dator så du kanske inte ska dra så stora växlar på just det, min 1800 belastas så hårt av det att den inte går en grad över Idle temp under eller direkt efter testet bästa du kan göra för att se spelprestanda är att jämföra din egen burk i ett spel som testare nyttjar med exempelvis en inbyggd benchmark, då får du en långt bättre bild av eventuell prestanda vinst, var bara noga att matcha inställningar och versioner av drivare. Se också upp med ifall du blir gpu bunden.

Skickades från m.sweclockers.com

Nja, geekbench single har faktiskt varit en väldigt bra indikator spel spelprestanda då väldigt många spel flaskat på just 1 cputhread (och sen sprider ut mindre laster på övriga). Helt realistiskt att du inte går upp speciellt mycket i temperatur, det gör man ju inte ju de flesta spel heller. (dock körde jag 5 runs i rad ifall att).
Dock börjar det kanske bli lite lite med 4 cores så man är ju lite sugen..

Inbyggda benchmarks i spel är kanske optimalt, men inget spel jag just nu spelar/äger/är intresserad i har nog det. Om det inte finns något bra gratis.

Permalänk
Medlem
Skrivet av JBE:

Nja, geekbench single har faktiskt varit en väldigt bra indikator spel spelprestanda då väldigt många spel flaskat på just 1 cputhread (och sen sprider ut mindre laster på övriga). Helt realistiskt att du inte går upp speciellt mycket i temperatur, det gör man ju inte ju de flesta spel heller. (dock körde jag 5 runs i rad ifall att).
Dock börjar det kanske bli lite lite med 4 cores så man är ju lite sugen..

Inbyggda benchmarks i spel är kanske optimalt, men inget spel jag just nu spelar/äger/är intresserad i har nog det. Om det inte finns något bra gratis.

Problemet är bara att det i sig inte reflekterar prestanda i spel, det reflekterar prestanda i geekbench.

Visa signatur

| nVidia RTX3090FE | R9 5800X3D | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 12TB nvme, 2TB sata SSD | RM1000x | Creative X4 | Antec C8 | Alienware aw3821dw | >Antec C8 Custom Loop< |

Permalänk
Medlem
Skrivet av tellus82:

Problemet är bara att det i sig inte reflekterar prestanda i spel, det reflekterar prestanda i geekbench.

Enligt min erfarenhet är det faktiskt ett av de test som bäst reflekterar prestanda i spel.
Om du förutsätter att jag är helt opålitlig (jag tar inte illa upp), så ta en titt i artikeln, och lite andra artiklar runt om.

9900k slår 3900x med ca 6% i geekbench singlecore, och tittar man runt lite så är det väldigt representativt för skillnaden överlag i spel. (LTT sammanställde tex spelresultat och fick det till 5%).
Detta är ingen slump utan stämmer oftast bra i tidigare generationer med.

Saker som antagligen reflekterar spelprestanda i relation till cpu sämre än geekbench:
* Sätta allt på ultra i 4k i random spel/benchmark och därmed hårdflaska gpu och konstatera att alla cpuer är väldigt jämna (vilket nästan verkar vara en industristandard..).
* Syntetiska benchmarks som maxar alla tillgängliga kärnor och kallar det fysikpoäng.
* Testa i 720p och skapa beroenden i västa fall på ram, eller andra scenarion motorn bara inte är optimerad för.

Återigen är det ju självklart bäst testa det spelet man vill spela (eller kanske något extremt cpubundet spel i stil med path of exile, wow med mycket action (svårt), f1, dota2 eller dylikt), men i brist på det gillar jag faktiskt geekbench.

Permalänk
Inaktiv

@JBE: Instämmer med Tellus82. Kör man Geekbench med 1 tråd sker det ingen kommunikation mellan CCX kluster vilket i sig är en flaskhals för Ryzen i spel då det är väldigt hög latens mellan dessa kluster. Du har helt rätt att endast en tråd ofta är den stora flaskhalsen i många spel, men den höga latensen mellan CCX kluster orsakar 'pipeline stalling' med Ryzen även på den tyngsta tråden. Hur mycket prestandan påverkas av CCX latens varierar från spel till spel och beror även på hur snabbt RAM man kör med.

Edit: CS:GO är ett bra skräckexempel för Ryzen 2700X, jämfört mot 9700K. https://www.youtube.com/watch?v=xfaxNaw2p6s

Permalänk
Medlem

@anon39067: Det påstås bara vara en barnsjukdom som löses i windows update/scheduler/(bios?).
LTT i sin recension uppmärksammade att ryzen3900x fick stora variationer i fps mellan runs det och visade sig att spel råkade få cores tilldelade på olika cluster, men så skall det inte vara (de visade även detta grafiskt).

Om det mot förmodan inte fixas, är ju alla cpuer som inte klarar att konsekvent lägga alla de viktigaste trådarna i ett spel på samma cluster "skräp" och inte ens med som alternativ om man helt objektivt handlar ny cpu (för spel).

Permalänk
Medlem

Just ja. När jag testade Cpu-z benchen igår så märkte jag att den knappt boostade i singlecore testet.
Efter mycket felsökande ändrade jag ifrån ryzen optimerad till balanserad i energiinställningarna och helt plötsligt boostade den som den skulle.
Är det någon bugg med ryzen optimeringen i windows?

Skickades från m.sweclockers.com

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Inaktiv

@JBE: Detta problemet kan inte "fixas" på första och andra generationerna av Ryzen, endast mitigeras. I slutändan är 8 kärnor bättre än 4 kärnor med SMT, och man vill alltid ha de tyngsta trådarna uppdelat på alla 8 kärnorna så länge de är tunga nog. Ryzen 3000 serien har sett förbättringar här på hårdvaru nivå med större L3 cache med mera, men dessa förbättringar mitigerar bara CCX latenserna som fortfarande finns där och fortfarande påverkar spelprestanda, dock inte lika mycket som tidigare Ryzen generationer vilket givetvis är bra.

I grund och botten är Ryzen inte en optimal CPU arkitektur för spel, men den fungerar bra ändå med snabbt RAM. Min överklockade Ryzen 7 2700 presterar fortfarande ungefär samma som 2700X i videon jag länkade, med fullt uppdaterat Windows 10 pro.

Permalänk
Medlem
Skrivet av JBE:

@Tellatus: Det påstås bara vara en barnsjukdom som löses i windows update/scheduler/(bios?).
LTT i sin recension uppmärksammade att ryzen3900x fick stora variationer i fps mellan runs det och visade sig att spel råkade få cores tilldelade på olika cluster, men så skall det inte vara (de visade även detta grafiskt).

Om det mot förmodan inte fixas, är ju alla cpuer som inte klarar att konsekvent lägga alla de viktigaste trådarna i ett spel på samma cluster "skräp" och inte ens med som alternativ om man helt objektivt handlar ny cpu (för spel).

Är inte detta ett problem som funnits ända sen första Ryzen släpptes? Om jag inte kommer ihåg fel så var det samma diskussioner då, att Windows schedulern av någon a anledning inte skulle hantera Ryzen på rätt sätt.

Permalänk
Inaktiv

@MarkSix: Det stämmer, och förbättringar har skett för att mitigera problemen med Ryzen, men som jag nämnde i tidigare inlägg, problemen är i grund och botten i själva arkitekturen i sig och kan aldrig fixas på mjukvaru nivå, endast mitigeras.

Permalänk
Medlem

Finns ju en stor chans till bättre optimeringar för Ryzen i Windows pga Xbox Scarlet.

Permalänk
Inaktiv

@Mordekai: Absolut, det är sannolikt att framtida spel kommer att utvecklas med dessa CCX latenser i åtanke för att minimera deras påverkan på prestandan allt eftersom att fler konsumenter har en Ryzen CPU, varje sig den är i en konsoll eller på PC, så Ryzen är ju fortfarande ett bra köp även om man bara har tänkt spela på den.

Permalänk
Medlem
Skrivet av Yoshman:

Perfekt! Tanken här är att stoppa in en 3900X i ett 2U-chassi (helst inte större, men får i värsta fall bli ett 3U) och använda ett par sådana system som ersättare till det som vår IT-avdelning idag valt: dual socket Xeon Gold 6136 (18C/36T för ca $2500 per CPU).

Något som tror Noctua NH-L9i fixar att kyla en 3900X, för mycket större kylare lär man inte få in? Folk har kört överklockade Intel 4C/8T med denna kylare (4790K och 6700K), kör själv den på en överklockad 5775C. Ljudnivå är ett icke-problem då det kommer sitta i ett serverrum och är ju väldigt bra luftflöde genom rack-chassin.

Är helt för att välja serverplattform där det finns en poäng. Men verkar som ingen riktigt kolla på CPU-användningen hos våra Jenkins master/slaves. Finns absolut delmoment där alla 72 trådar används, men handlar om <10 % p.g.a. Amdahls lag.

Inte säker på att 12C/24T per slav är optimalt, men rätt säker att som det är nu hade 9900K varit ett mer optimalt val (eller kanske mer sannolikt, Xeon E-2288G som i praktiken är 9900K med stöd för ECC RAM och utrustad med eDRAM).

Finns absolut fall där många lite långsammare kärnor är ett bättre val, finns definitivt fall där man behöver stöd för mer än 64 GB RAM (Intel stödjer 128 GB på konsumentserien nu, kanske Ryzen 3000 också gör det?). Men även på serversidan har nu konsument CPUerna nått en nivå där primära flaskhalsen är Amdals lag, i det läget är det enda som ger bättre prestanda högre enkeltrådprestanda!

Fallet jag ska ge mig på att optimera är definitivt begränsat mer av Amdals lag än något annat, 18C med maxboost på 3,7 GHz och all-core boost på 3,0 GHz är knappast optimalt där. För att ens utnyttja 12C/24T optimalt måste genomsnittlig parallellism ligga på >20 (d.v.s. man bör ha minst 20 i princip oberoende uppgifter aktiva, i genomsnitt!).

Det som vi primärt vill optimera är latens per jobb, d.v.s. korta tiden när ett enskilt jobb startar till dess det är klart. Fler parallell jobb är trivialt att skala för, bara addera fler slavmaskiner. Latens är som alltid det betydligt svårare problemet, högre prestanda per kärna är vad man vill åt här!

Som tur är kan man vänta ut nuvarande situation vad det gäller barnsjukdomar och bristande tillgänglighet från hängmattan, ett gäng veckors semester har prio #1 och ovan är för jobbet

NH-L9i ska fixa 91W vilket med nöd och näppe borde fixa en 3900X vid "mindre" hårda scenarion likt spel (med hänvisning till JonasT's tidigare inlägg), du lär ju veta bäst om detta är en acceptabel lösning.

NH-D9L (som petabyte nämnde) ska fixa 165W vilket borde klara hårda hammringar av CPUn galant, men då är man uppe i 3U istället för 2.

Dom där Xeon Gold processorerna ligger tekniskt sett redan på 150W styck (så om det redan är 2U chassin borde det redan throttla friskt på tunga laster), frågan blir ju om Intel har räknat server TDP på samma sätt som konsument TDP eller använt worst case.

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Medlem

@anon39067: @MarkSix: https://youtu.be/z3aEv3EzMyQ?t=437 Är det jag snackade om exakt.
Det windows borde göra är att upptäcka att detta är ett spel, om det vill ha 4 cores, lägg det på 1234 på samma cluster på samma chiplet.
Spelet behöver antagligen ha metadata om trådprioritet eller så.
Vill det ha 6, nåja, ta dessa två i cluster2 på samma chiplet. Om fler än 6. jaja, ta cores från chiplet2 och blanda in i optimal konfiguration (om jag förstått det rätt är 3900x 4+2 cores per chiplet i 2 olika chiplets).

Det som verkar ske nu, enl LTT, är att cores blir slumpmässigt använda. De fick om man lyssnar några sekunder jämnare prestanda genom att manuellt tilldela cores.

Tills det fixas, om någonsin, så kan man faktiskt starta spel eller program med en shortcut med affinity mask och själv tilldela cores man vet hör ihop. Det är ju lite drygt men borde vara identiskt med en äkta fix.

Tidigare ryzen har kanske varit för liten marknadsandel att varken microsoft eller spelutvecklare högt prioriterat detta (eller om man vill vara konspirationsteoretiker kanske intel mutat dem för att inte prioritera det.. ). Kan hoppas det blir ändring på detta när denna generationen verkar såpass bra.

Permalänk
Medlem

@anon39067: Jag menar att microsoft kommer utveckla schedulern bättre. Xboxen kör ju i princip Windows 10. Den konskap de tar in där lär ju återföras till Windows 10. Tveksam till att spel kan påverka vilken kärna trådarna hamnar på.

Permalänk
Medlem

Men det är nog inte lätt att fixa schedulern, HT har ju funnits hur länge som helst och fortfarande finns det laster som orsakar onödiga cache-rereads och ger sämre prestanda med än utan HT. Bulldozer hade väl ett än värre problem med sina cluster som väl heller aldrig helt kunde avvärjas i windows.

Permalänk
Medlem
Skrivet av Sidde:

Jag har väntat i ett halvår på denna lansering. Vill så gärna vara trogen AMD som the good old days. Men har svårt att motivera ett högre pris för lägre eller jämnlik prestanda i spel som också har tvivelaktiga drivrutiner. Så beställde en 9700 nu och får acceptera att jag kunde köpt den för 6 månader sedan när jag tänkte göra det.

Tja, varken Intels är AMDs toppmodeller är kattskit så det är svårt att göra ett stort fel i sammanhanget, ibland rör det sig om rätt små diffar rent praktiskt.

Visa signatur

|[●▪▪●]| #Monster Battle Station(tm)#: Ryzen 3700X >-< GB-X570-AE >-< 32GB RAM >-< RTX 4070S >-< Crucial 2TB SSD |[●▪▪●]|

Permalänk
Medlem
Skrivet av Xinpei:

Det är för att det är vad Intel specificerar. Allt över 2666 MHz vore per definition överklockning och då blir det helt plötsligt stock mot OC och det vore bara skevt. Det i kombination med eventuella stabilitetsproblem är orsaken till denna ställning. Det tåls att nämnas att 3200 MHz inte på något sätt är en "Sweetspot" för AMD heller.

Jag kan garantera dig att de per definition kört överklockning på minnen på såväl 9900K som Ryzen 3000-modellerna. XMP-profil är per defintion överklockning och gjorde de det så är deras argument rent missvisande.

Permalänk
Inaktiv

@JBE @Mordekai: När jag pratar CCX kluster syftar jag på CCX kluster inom samma chiplet, även på nya Ryzen 3000 serien. Ryzen 3900X är 12 kärnor (24 trådar med SMT), alltså två helt separata chiplets (4 CCX kluster) vilket har ännu högre latens än två CCX kluster har. Ryzen 2700X har endast 1 die, men ändå 2 CCX kluster inom den med hög latens mellan dom. Återigen, detta går inte att fixa på mjukvaru nivå och kan därför inte fixas av Microsoft, endast mitigeras. Det spelar alltså ingen roll hur schedulern hanterar det, det går inte heller att fixa igenom att manuellt sätta core affinity. Om ett spel vill utnyttja 8 lika tunga trådar vill man givetvis utnyttja båda CCX kluster eftersom att 8 kärnor är bättre än 4 kärnor med SMT (1 CCX kluster), och då är man tvungen att utnyttja båda CCX kluster. Om ett spel vill utnyttja 16 trådar kommer man inte undan CCX latensen överhuvudtaget på 2700X och 3700X.

Edit: SMT orsakar inte mer än ungefär en 3% prestandaförlust när trådar är uppdelade optimalt, och är alltså därför inte ett problem. Problemet med SMT är endast när SMT prioriteras över riktiga kärnor på ett sub-optimalt sätt, Microsoft har redan fixat detta.

Här kan ni se hur dessa kluster ser ut på Ryzen 2000 serien.

Så här ser Ryzen 3900X ut med dess 12 kärnor på 2 chiplets.

Permalänk
Medlem
Skrivet av anon39067:

@JBE @Mordekai: När jag pratar CCX kluster syftar jag på CCX kluster inom samma chiplet, även på nya Ryzen 3000 serien. Ryzen 3900X är 12 kärnor (24 trådar med SMT), alltså två helt separata chiplets (4 CCX kluster) vilket har ännu högre latens än två CCX kluster har. Ryzen 2700X har endast 1 die, men ändå 2 CCX kluster inom den med hög latens mellan dom. Återigen, detta går inte att fixa på mjukvaru nivå och kan därför inte fixas av Microsoft, endast mitigeras. Det spelar alltså ingen roll hur schedulern hanterar det, det går inte heller att fixa igenom att manuellt sätta core affinity. Om ett spel vill utnyttja 8 lika tunga trådar vill man givetvis utnyttja båda CCX kluster eftersom att 8 kärnor är bättre än 4 kärnor med SMT (1 CCX kluster), och då är man tvungen att utnyttja båda CCX kluster. Om ett spel vill utnyttja 16 trådar kommer man inte undan CCX latensen överhuvudtaget på 2700X och 3700X.

Här kan ni se hur dessa kluster ser ut på Ryzen 2000 serien.

https://hexus.net/media/uploaded/2018/4/2b60e0c9-4b4e-4ea8-85f4-49eac25f9d0f.jpg

Jo jag förstår det men schedulern kan lägga fyra trådar från samma process i ett kluster istället för att sprida ut dom över fyra. Affinity är ju egentligen bara en möjlighet att stänga av kärnor för en process. En väg är ju såklart en kombination, dvs att latensokänsliga trådar läggs av utvecklaren i en separat process och kan därmed hamna i ett annat kluster, annars har man som regel ingen möjlighet som utvecklare att välja kärnor. Jag tror dock som sagt att Microsoft redan har en lösning på detta för Scarlet som kommer implementeras i Windows också. Troligen någon form av utökat API för trådhantering/trådskapning.