AMD Ryzen 3000 "Matisse" – samlingstråd

Permalänk
Hedersmedlem
Skrivet av anon5930:

Haha, sant det.

Flest kärnor när man dör vinner, eller hur det nu var.

Det går att diskutera. Men ordet ""framtidssäkert" dök upp i huvudet som motivation till ytterligare en 12c/24t-burk i huset

Skickades från m.sweclockers.com

Visa signatur

|| SWECLOCKERS.COM || oskar@sweclockers.com || OSkar000.se || Fototråden ||
|| Gundeman || Bartonofix || GundemanX2 || Obelinux || Nexofix || Filofix || Ircofix ||
|| Tillse att hjärnan är inkopplad innan fingrarna vidrör tangentbordet ||
|| D300 | D700 | 24/2,8 | 28/2,8 | 35/2 | 50/1,8 | 55/2,8 | 85/1,8 | 105/2,5 | 200/4 | 300/4,5 | 10-20 | 24-70/2,8 | 75-150/3,5 | 80-200/2,8 ||

Permalänk
Medlem
Skrivet av Ozzed:

Och hur många höghertz-skärmar med 720P finns det där ute? Inte många. Hade i så fall varit mer relevant att testa i 1080P med lägsta möjliga inställningar så har du genast ett verkligt scenario för de som vill veta vilken processor som är bäst på att skyffla frames. Min invändning är att när man testar i 720P så är det inget verkligt scenario. Det sägs oftast att man då ser vilken CPU som är "starkast", i vad då, ett scenario som inte finns?

Se'n håller jag med om att CB15 är ett dumt test då det programmet är daterat och använder orealistiska laster, men CB20 använder ju moderna intruktionsuppsättningar och borde vara relevant för någon, men självklart skall man göra så många tester som möjligt, men de bör i så fall vara baserade på laster som folk faktiskt kan tänkas köra på sin dator.

Fast nu testar men väl ändå i 720p just för att CPUn ska bli flaskhalsen och iom det får man fram information om hur snabba CPUerna är relativt varandra. Jag tror att det finns ganska många som byter grafikkort 2-3 ggr så ofta som de byter CPU och då blir ju den CPU med högst prestanda i 720p också den som kan leverera samma FPS när man har ny GPU. På så sätt så är ger ju 720p testat intressant information i mina ögon iaf.

Visa signatur

Errare human est

Permalänk
Avstängd
Skrivet av kniven:

Fast nu testar men väl ändå i 720p just för att CPUn ska bli flaskhalsen och iom det får man fram information om hur snabba CPUerna är relativt varandra. Jag tror att det finns ganska många som byter grafikkort 2-3 ggr så ofta som de byter CPU och då blir ju den CPU med högst prestanda i 720p också den som kan leverera samma FPS när man har ny GPU. På så sätt så är ger ju 720p testat intressant information i mina ögon iaf.

Själv tycker jag att FPS i 720P är ointressant, en gammal I5 7600k kanske får skit bra FPS i 720p o går om alla Ryzen CPUer, släng in den i en miljö där den prövas som i Assassins creed origins eller odessey emot en R5 1600 och kolla vilken CPU du skulle vilja använda.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av _Merc_:

Själv tycker jag att FPS i 720P är ointressant, en gammal I5 7600k kanske får skit bra FPS i 720p o går om alla Ryzen CPUer, släng in den i en miljö där den prövas som i Assassins creed origins eller odessey emot en R5 1600 och kolla vilken CPU du skulle vilja använda.

Hehe, ja självklart kan man inte bedömma hur en cpu presterar enbart på ett sånt test, men som en del av en bredare bedömning tycker jag testet är meningsfullt

Skickades från m.sweclockers.com

Visa signatur

Errare human est

Permalänk
Medlem

@_Merc_: Fast det hade visat precis samma sak oavsett upplösning det är ju det som är poängen, är processorn snabbare i 720p så är den det i 1080p och 1440p med. Skillnaden visar ju sig bara tydligare i lägre upplösningar. Eller vad menar du?

Visa signatur

CPU: i7- 13700KF + Corsair 115i Pro || GPU: 2080 Super FE
MoBo: Gigabyte Gaming X AX Z790 || Ram 32GB G.Skill Trident Z 6600mhz
Chassi: Corsair Obsidian 500D PSU: Corsair RMX 850
Skärm 1: AGON AG271QG 1440p 165hz Skärm 2: LG C2

Permalänk
Avstängd
Skrivet av Vash:

@_Merc_: Fast det hade visat precis samma sak oavsett upplösning det är ju det som är poängen, är processorn snabbare i 720p så är den det i 1080p och 1440p med. Skillnaden visar ju sig bara tydligare i lägre upplösningar. Eller vad menar du?

När en CPU inte klarar av modernare spel. Sen får vi även se om intel inte behöver täppa till sin säkerhets problem och hur det kommer påverka prestandan inte minst på deras hypertrådade CPUer som 7700k, 6700k,8700k

sen är det missvisande då, du använder spel som använder max 4 kärnor att driva runt ett spel. då är det själv klart att en Quad core med höga klocks vinner. Men om ett spel som tex vermintide, assassins creed, Total war warhammer och några BF1 som använder några fler Cores kan få möjligheten att maxa ut sina kärnor så kanske man kan se hur mycket exakt dem kan nyttjas på lång sikt. Finns även vissa tester där Ryzen får en hel del prestanda på att slå av sin SMT då vissa spel/windows in vet hur dem skall hantera alla trådar.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem

@_Merc_: Tror vi pratar om olika saker, har aldrig sagt emot att vissa moderna titlar har nytta av HT eller fler kärnor. Men de blir inte bättre för en cpu med 4/4 än en 8/16 för att du sänker upplösningen de bara lyfter bort flaskhalsen från gpu å ger en tydligare bild av vad processorn är kapabel till.

Visa signatur

CPU: i7- 13700KF + Corsair 115i Pro || GPU: 2080 Super FE
MoBo: Gigabyte Gaming X AX Z790 || Ram 32GB G.Skill Trident Z 6600mhz
Chassi: Corsair Obsidian 500D PSU: Corsair RMX 850
Skärm 1: AGON AG271QG 1440p 165hz Skärm 2: LG C2

Permalänk
Medlem
Skrivet av Dr. MASS:

25% moms och dålig krona bla bla. jag tror mer på minst 4500:-

Dollarn har dock rasat denna månad så man kan ju hoppas att den rasar lite till. :>

Skrivet av kelthar:

Och där hade jag rätt som vanligt. 3900X var minsann klockad högst.

Skickades från m.sweclockers.com

Nu ska vi inte ta i så vi spricker här. Däremot skall det bli intressant och se hur varm 3900X blir under last. Kanske AMD har hittat den heliga Graalen med sin chipletdesign?

Skrivet av kelthar:

Jo, Det har ju alltid varit så, så jag såg det som en självklarhet. Fast det gjorde inte alla andra. Så man behöver hälla lite salt nu så att de minns :). Och för att det är kul att småretas.

Skickades från m.sweclockers.com

Men samtidigt har samma historik visat att CPU:er över 8 kärnor tenderar att gå kokheta. Kolla bara på Intel.

Skrivet av anon159643:

Ganska förväntade resultat och inte följande som vissa hade hoppas på:
Ett modifierat The Onion Movie citat:
The new Ryzen 3800X.
Throw your 9900K away.
It’s a piece of shit.

3800X blev tyvärr inte precis så bra...

Hur bra dessa nya Ryzen cpuer kommer att sälja beror nu på Intels svar, får Intel ut Ice Lake snart och får de igång produktionsvolymerna så får AMD det tufft. Denna 3800X cpu som AMD snart lanserar borde ha lanseras för 6 månader sedan.

Rykten säger att desktopversionerna av Ice Lake är minst ett år bort eftersom Intel fokuserar på låg-watt och sina företagskunder.

Skrivet av tsint:

Tänkte uppgradera min htpc, finns det någon anledning för att invänta en 3700x istället för att köpa en 2700 nu? Samma antal kärnor, men dyrare - har inget behov av några extra MHz.

Högre IPC och högre klockfrekvens = Mer prestanda. Så det skiljer inte bara några "extra MHz" här inte eftersom (om det visar sig stämma i spelscenarion dvs) CPUn är markant snabbare vid samma klockfrekvens. Ser faktiskt ingen orsak att köpa 2700 om man nu inte får den väääldigt billigt dvs.

Skrivet av Xyborg:

Det borde varit väletablerat för länge sen att den mannen bara dragit siffror ur röven.

Skickades från m.sweclockers.com

Ändå länkas hans påståenden i varenda tråd som handlar om AMD både här och på andra sidor som han vore den mest trovärdigaste källan utanför AMDs väggar.

Skrivet av Dr. MASS:

@Icte: Hmmm...jag är nog ute och cyklar ändå. Det borde knappast bli 4500:- Ryzen 7 2700x hade samma launchpris som nu 3700x kommer att ha 329$. Kostade 2700x ca. 3500:- ut i butik i Sverige när den lanserades ? Visst dåligare krona nu, men borde inte gå över 4000:- som du sa.

Tyvärr har dollarn ökat i pris medan SEK har sjunkit i värde så även om MSRP är densamma så kan det fortfarande skilja en hel del i svenska butiker.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Sando:

Jag skulle tvärtom säga att rätt få har användning för mera än kanske 4 kärnor, om man då bortser spelare. Det är knappast mer än 1% av datorägare som sysslar med bild- och ljudredigering, databashantering och annat som utnyttjar många kärnor, speciellt på en sån nivå att lite extra tid har stor betydelse. Sen så är de flesta såna användare också inom näringslivet, där de inte nödvändigtvis kan påverka så mycket vad de använder för hårdvara.
SweC är dessutom rätt konsumentinriktat.

Skickades från m.sweclockers.com

Man kan ju inte kolla på youtube om man inte har 12 kärnor, 32GBram 4000Mhz + och dubbla Radeon VII/RTX 2080
Kan vi inte glömma 4 kärnor nu, 4 kärnor är ju över 10 år gammalt... Pensionera dem nu och låt dem bli "retro"..
6 kärnor borde vara det nya Quad Core nu ... vi lever inte i 2009 utan 2019 XD

Permalänk
Inaktiv
Skrivet av ExcZist:

Man kan ju inte kolla på youtube om man inte har 12 kärnor, 32GBram 4000Mhz + och dubbla Radeon VII/RTX 2080
Kan vi inte glömma 4 kärnor nu, 4 kärnor är ju över 10 år gammalt... Pensionera dem nu och låt dem bli "retro"..
6 kärnor borde vara det nya Quad Core nu ... vi lever inte i 2009 utan 2019 XD

Dom flesta datoranvändare har inte behov av mer, knappt ens fyra kärnor. (Sen att dom flesta datoranvändare inte hänger på sweclockers är en annan femma, behovet ser lite annorlunda ut här...)

Permalänk
Medlem
Skrivet av Vash:

@_Merc_: Tror vi pratar om olika saker, har aldrig sagt emot att vissa moderna titlar har nytta av HT eller fler kärnor. Men de blir inte bättre för en cpu med 4/4 än en 8/16 för att du sänker upplösningen de bara lyfter bort flaskhalsen från gpu å ger en tydligare bild av vad processorn är kapabel till.

Du har rätt i de flesta fall, men snubblade över ett resultat på en youtubevideo som testade hur mycket prestanda intel tappar med HT avstängt (med det senaste säkerhetshålet de hittat)
Just How Screwed is Intel without Hyper-Threading?
Runt 6 minuter så kommer BFV; i 1080p så gör det i princip ingen skillnad att stänga av HT på 8700k, men när de ökar till 1440p så tappar helt plötsligt också 8700k prestanda utan HT.
Detta skulle i princip innebära att man kunde fått bättre resultat med en viss GPU och en 7600k än med en 1600 från AMD i 720p, men om man sen skruvar upp till 1440p så skulle det vara 1600 som står för den "spelbara" FPSen (bara ett hypotetiskt scenario och absolut inte verkligheten)

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem

Vad tror ni om chansen att återförsäljare (eller företagen själva) flashar bios på t.ex. B450 moderkorten? Jag är lite sugen på att köpa en Zen2 men ett moderkort för uppåt 2000 kr eller mer känns mycket.

Permalänk
Medlem
Skrivet av anon42512:

Dom flesta datoranvändare har inte behov av mer, knappt ens fyra kärnor. (Sen att dom flesta datoranvändare inte hänger på sweclockers är en annan femma, behovet ser lite annorlunda ut här...)

Nja, 6 kärnor minimum idag, oavsett vad du gör med datorn så kommer 4 kärnor bli för lite om man inte nitiskt stänger program innan man öppnar något nytt

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem

Blir troligtvis en 3900X när det är dags för byte i burken. Har saknat AMD 😊

Skrivet av Ozzed:

Jag har intec sett presentationen eller haft tid att plöja så mycket text så jag vet inte, men gör de det så är det väl för att visa att de kan nå bra spelprestanda även med Intel's världsfrånvända mätmetider.

Om Intel använder sig av den metoden så är de dumma. Om AMD gör samma sak så är det för att bevisa att Intel är dumma.

¯\_(ツ)_/¯

Visa signatur

Låda: Phanteks Eclipse P400S White TG | Mobo: ASUS ROG Strix Z390-F | CPU: Intel i9 9900K @ 5,0 GHz | GPU: ASUS ROG Strix GTX 1080 Ti | RAM: Crucial Ballistix Sport LT 32GB (4x8GB) DDR4 @ 2400 MHz | Corsair RM750x | Lagring: Samsung SSD 850 EVO 120GB | Crucial MX300 275GB | WD Caviar Blue 1TB | Hitachi Deskstar 500GB | OS: Windows 10 Professional - https://valid.x86.fr/4m66jq

Permalänk
Medlem

Kort och gott, för 12-16c så kan ni glömma de billigaste budget borden ur 3 och 4 serien, borde inte vara en överraskning då de redan var på gränsen med 8c, de absolut bästa x370 kan med hög sannolikhet hantera en maxad 16c men där missar man alla schyssta overdrive boost funktioner, vilket kan vara helt ok med manuell oc.

Vill du kunna plonka i en 3000 serie CPU med många kärnor så kommer det äta en del ström men håller man sig till 8c eller mindre är det fine på i praktiken alla normalt förekommande bord, förutsatt att det fixas uefi stöd. För stock frekvenser så kan även äldre billiga bord fixa 12c men det kan vara på gränsen med dålig kylning av vrm och man tappar mycket prestanda på felande boost funktioner.

Sen kommer vi in på minnes oc, detta kommer vara bäst på x570 borden och alla äldre bord som kör Daisy chain layout, alltså de två primära minnesplatserna länkas till de två sekundära, anledningen är att AGESA är optimerad för denna layout direkt från AMD, T layout där länken splittas till primär och sekundär med samma avstånd optimeras det inte för i AGESA. High end x370 med daisy chain så som mitt asrock eller taichi från samma kommer med sannolikhet prestera bäst av de äldsta (samma nivå som x470) men det ryktas om kraftiga förbättringar på x570.

Visa signatur

| nVidia RTX3090FE | R9 5800X3D | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem

Buildzoid nämnde något om överklockning att han fick typ inte säga något pga NDA men att vi kommer få en till faktor vid överklockning av Zen2 och det är liknande den som behövdes på AM3+

Är det chipsetet som måste överklockas då också eller vad menar han? Någon som överklockade AM3+ här?

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem

Priser på moderkort?
Är 3800X värd de extra slantarna över 3700X när det gäller sin egna OC (dvs utan handpåläggning)?

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av Mocka:

Priser på moderkort?

Inga priser ute ännu.

Skrivet av Mocka:

Är 3800X värd de extra slantarna över 3700X när det gäller sin egna OC (dvs utan handpåläggning)?

Kan finnas annat som skiljer sig åt, se mitt inlägg här:

#17923476

Visa signatur

12c/24t 4.0GHz (Zen2) • 2x16GiB 3200MHz C14 • RTX 2080 FE 1965MHz 7000MHz • X570 I PW • Ghost S1 MKII

Permalänk
Medlem
Skrivet av Mocka:

Priser på moderkort?
Är 3800X värd de extra slantarna över 3700X när det gäller sin egna OC (dvs utan handpåläggning)?

Helt omöjligt att svara på än så länge, priser kommer vara högre på x570 i snitt än x470/370, det dyraste gigabyte bordet landar runt 6tkr

Skickades från m.sweclockers.com

Visa signatur

| nVidia RTX3090FE | R9 5800X3D | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Inaktiv
Skrivet av sweisdapro:

Nja, 6 kärnor minimum idag, oavsett vad du gör med datorn så kommer 4 kärnor bli för lite om man inte nitiskt stänger program innan man öppnar något nytt

Nej, verkligen inte. Många klarar sig fortfarande på dual cores.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av anon42512:

Nej, verkligen inte. Många klarar sig fortfarande på dual cores.

Skickades från m.sweclockers.com

Lycka till att spela Battlefield.

Permalänk
Medlem
Skrivet av Xinpei:

Nu ska vi inte ta i så vi spricker här. Däremot skall det bli intressant och se hur varm 3900X blir under last. Kanske AMD har hittat den heliga Graalen med sin chipletdesign?

Eller så kanske du erkänner att du hade 110% fel och att jag hade så jäääävla rätt.

Skrivet av anon42512:

Nej, verkligen inte. Många klarar sig fortfarande på dual cores.

Ja, frågan är vad de gör med sin dator med och vilket version av windows eller linux som de kör för att inte behöva ta kaffepaus när de klickar på någonting? Kanske om de bara kör BitchX i konsollen eller liknande. Eller typ Win95.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

Om man kollar den läckta bilden på hwinfo64 som visar den 16kärniga 32thread ryzen-cpun, så ser man ju att cpu package power ligger på 245watt vid 4.1GHz så lite varm borde toppmodellen bli.

edit : samma bild visar iofs att processorn håller nästan 83grader samtidigt, så ja den blir varm.

https://wccftech.com/amd-ryzen-9-16-core-zen-2-cpu-leak-overc...

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem

Det är inte någon tvekan att 16c kommer gå varm i vissa laster, speciellt under OC, om jag lastar min 1800x vid max OC med "fel" last så kommer jag över 220w i package power i HwiNFO64 och då är den inte jättekall.. Att 16c vid ~1.4v visar 245w är snarare förvånande hur lite det drar, men det kan också vara en lätt last dom kör så som cinebench, 7nm gör såklart sitt till det med och det är detta som ligger till grund att vi får 12-16c alls på am4

Visa signatur

| nVidia RTX3090FE | R9 5800X3D | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem

X470

Har ett Gigabyte Aourus Gaming 7 wifi med en 2700x som vattenkyls. Jag är säker på att det kommer ge en betydlig ökning på allt när det blir ett byte till 3900x med högre IPC, klockfrekvens, högre klockfrekvens på minnen (G-skill 3600) och detta tillsammans kommer hålla mig nöjd till vi har 3 nano processorer inom förhoppningsvis 5 år.

Visa signatur

Fractal Design Define R6 Svart, Corsair HX 850, Gigabyte X570 Aorus Elite, Ryzen 9 5950x, Fractal Design Celsius S36, NVIDIA GeForce GTX 1080Ti, G.Skill 32 GB DDR4 3600MHz CL19 Sniper X Urban Camo, Seagate Archive 8TB, Toshiba 12 TB N300, SSD Samsung 500 GB, SSD 1TB WD Black, Asus BluRay extern, Edifier högtalare, Samsung 27¨1440p skärm, Fnatic Gear Read silent, Logitech pro x mus.

Permalänk
Medlem
Skrivet av markiiie:

Blir troligtvis en 3900X när det är dags för byte i burken. Har saknat AMD 😊

Om Intel använder sig av den metoden så är de dumma. Om AMD gör samma sak så är det för att bevisa att Intel är dumma.

¯\_(ツ)_/¯

Vad ska de annars göra när Intel satt tonen? Om AMD istället skulle börja visa 1080P i låga inställningar skulle säkert många säga att "De döljer något, varför testar de inte i 720P" och så vidare. Det centrala hos de där trollen verkar vara att 720P skall testas, inte att grafikkortet inte skall vara flaskhals.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av anon5930:

Lucky 7.

Oooh.... det där känns ju riktigt lockande faktiskt. 5GBe onboard är också riktigt tacksamt. Blir nog det moderkort jag kommer titta mest på framöver.

Nu gillar jag Ncase M1 skarpt fortfarande, även om jag nog kört Ghost S1 om jag köpt chassi idag. Ncase M1 är ju ett speciellt chassi som erbjuder förhållandevis unika byggen med liten formfaktor. Kört FlexATX i min (3-slot mATX) med totalt 4 minnen. Inte så jag kör idag dock.

"Fits like a glove", som någon sa på 90-talet.

Wow, hade inte en aning om att man kunde få plats med ett flex-ATX i NCASE M1 haha

På tal om fler mITX kort, ASRock har ett trelivgt X570 Phantom Gaming mITX kort också:

Verkar inte finnas någon fläkt heller till chipset (eller är jag blind?)!

Sen verkar ju alla dessa (well, 2 st - ASUS' och ASRock's) bygga en hel del på höjden. Lär bli problem med att få plats med Noctua NH-L12, d.v.s. den populära kylaren för Ghost S1 MKII...

Skrivet av CubaCola:

Om man kollar den läckta bilden på hwinfo64 som visar den 16kärniga 32thread ryzen-cpun, så ser man ju att cpu package power ligger på 245watt vid 4.1GHz så lite varm borde toppmodellen bli.

edit : samma bild visar iofs att processorn håller nästan 83grader samtidigt, så ja den blir varm.

https://wccftech.com/amd-ryzen-9-16-core-zen-2-cpu-leak-overc...

Höhö, sitter här med min 6-kärniga i7-8700K i stock med en Noctua NH-L12 och den når 80 grader på varje kärna med 1.1V VCORE under icke-AVX load

Visa signatur

12c/24t 4.0GHz (Zen2) • 2x16GiB 3200MHz C14 • RTX 2080 FE 1965MHz 7000MHz • X570 I PW • Ghost S1 MKII

Permalänk
Medlem
Skrivet av Flygplanet:

Lycka till att spela Battlefield.

Majoriteten spelar inte Battlefield. Majoriteten av användare är snarare som min mamma, dom har ett browser fönster öppet, och eventuellt ett kalkylark i ett annat fönster. För dom duger det fint med en APU i dom lägsta prisklasserna.

Permalänk
Medlem

Representanter för MSI säger alltså att minnesöverklockningen ska funka väldigt mycket bättre och att CPU överklockningen ska vara lite bättre?

Visa signatur

Dator: Lian Li O11 Dynamic, R9 5900X, MSI X570 ACE, Corsair H150i Pro, G.Skill TridentZ@3733MhzCL16, ASUS RTX 3090 TUF OC, Firecuda 530 2TB, 990 Pro 2TB, Corsair RM850x.
Skärm: LG OLED 42C2

Permalänk
Datavetare
Skrivet av Ozzed:

Vad ska de annars göra när Intel satt tonen? Om AMD istället skulle börja visa 1080P i låga inställningar skulle säkert många säga att "De döljer något, varför testar de inte i 720P" och så vidare. Det centrala hos de där trollen verkar vara att 720P skall testas, inte att grafikkortet inte skall vara flaskhals.

Det tror jag är totalt felaktig spekulation. Tror många skulle uppskatta tester i 1920x1080 i "low/medium"!

Kan inte tala för andra, men gissar att alla de tester vi ser som körs med "ultra-inställningar" inte heller är super-relevant för den stora massan. Lite svårt att förstå trenden mot 2560x1440 skärmar med väldigt högre uppdateringsfrekvens annars, de flesta köper inte RTX 2080Ti...

Grabben kör men en milt överklockad i7-5775C ihop med ett RTX 2070, CPU-delen börjar allt oftare bli den primära flaskhalsen i 2560x1440. Det då han föredrar hög uppdateringsfrekvens (skärmen fixar 165 Hz) över att köra på "ultra". Ofta är den någon eller några enstaka GPU-inställningar man ta ner en nivå för att FPS ska öka rätt rejält.

En kritik mot att köra vettig upplösning i "medium/low" har varit att det skulle kunna göra att spelet skalar sämre med CPU-kärnor och på så sätt bli missvisande. Har gjorts ett stort test kring detta, och är snarare så att lägre GPU-inställningar (vid en viss upplösning) ger en svag ökning av skalning med CPU-kärnor.

Kan te sig lite ologiskt, men finns nog en hyfsat enkelt tekniskt förklaring: vid höga inställningar skickas med data till GPU och GPUn är en serialiseringspunkt. Även med DX12/Vulkan finns det fortfarande bara en enda grafikkö och all kommunikation till den måste serialiseras! I lägre upplösningar blir GPUn relativt sett en mindre Amndals-lag flaskhals!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer