Skrivet av Aleshi:
Vad menas? De har väl en ståndpunkt att de ska testa produkter enligt stock, och de kör enligt officiella specifikationer på den testade produkten och eventuella jämförelseprodukter. Sedan så testar de vad den aktuella produkten går för genom överklockning och dylikt. Godtyckliga nivåer ser jag inte varför det är okej.
Ja men precis, de kör på lika villkor, det är enklast att definiera vilka villkor som är lika genom att köra allt @ stock. Ska du välja någon annan nivå än just stock så blir det godtyckligt och öppet för bias.
Om tillverkare A kan överklockas till att nå en viss minnesfrekvens ibland, och tillverkare B har det som stock-frekvens. Ska de då jämföras vid den frekvensen? Även om många läsare inte kommer nå prestandan i referenssystemen? Är det rättvis jämförelse? Nu klarar både Intel och AMD 3200MHz, men så har det verkligen inte alltid varit. Och nästa generation kanske den enas stock-frekvens är svåruppnåelig för konkurrenten. Är det inte missvisande då ifall ena systemet kör inställningar som är stock, men ställs mot ett system som vid samma inställningar är nära bristningsgränsen?
Om Intel i framtiden har DDR5 6000MHz som stock men AMD inte klarar mer än DDR5 5200MHz, kommer du då argumentera för att Intel-systemet ska klockas ner? Ja eller nej?
Och att påstå att de inte går längre än att de kör allt stock är ren lögn. De testar överklockning och out-of-spec. Men om de gör det på referenssystemen blir det missvisande om de inte redogör för det arbetet. Och det blir tidsödande om de ska göra varje recension till en överklockningsartikel om varje system som ingår i testsviten. Vilket de behöver om de ska kunna göra det rättvisande genom att redogöra för hur överklockningsbara referenssystemen faktiskt är. Om de är pressade eller inte t.ex.
Man jämför bäst och rättvisast om man jämför i standardinställningar mot konkurrensen. Och sedan så går man in på hur bra den specifika produkten som testat är på att pressas out-of-spec. Vill du veta hur en annan produkt är på att gå out-of-spec så får du läsa en recension om den. Men du kan inte köra en helt testsvit med referensprodukter out-of-spec utan att redogöra i en överklockningssektion för varje referensprodukt hur bra de är på det.
Antingen det eller så får du välja en godtycklig nivå för hur out-of-spec du vill köra referenssystemen. Gäller det bara minnen? Hur gör du då vid nästa produktsläpp om en tillverkare kör frekvenser som den andra inte ens klarar? Vilka fler parametrar ska du ändra? Och hur mycket? Vilka ytterligare specifikationer tycker du ska korrigeras för rättvisans skull?
Inser du att du vill ha kakan och äta den när du vill ha överklockade referenssystem samtidigt som du vill ha rättvisa jämförelser? Om testaren ska välja parametrar out-of-spec så är det öppet för bias och godtycklighet.
Och Z-chipset? Påverkar chipsetvalet prestandan negativt på Intelsystemen menar du?
Håller med dig om att tester av maskinvara självklart ska utföras primärt med de inställningar som officiellt stöds.
Just DDR4 har dock börjat bli rätt svårt att faktiskt hålla sig till vad specifikationen faktiskt säger, i alla fall utanför bärbara och OEM-maskiner.
Specifikationen för DDR4 säger mer än bara frekvens. Bl.a. får inte latens gå under 12,5 ns då det inte verkar gå att garantera stabilitet med utsatt spänning som ska vara 1,2 V för "normala" DDR4 (är lägre för LPDDR4, men inte relevant för desktop).
SweClockers kör samma CAS på alla sina DDR4 minnen. Något som initialt kan kännas rätt helt rätt, men det betyder att latensen faktiskt är olika mellan de olika minneskonfigurationerna. JEDEC specificerar timings i cykler, men de är i praktiken uträknade efter frekvensen och att randvillkoret "latens måste vara minst 12,5 ns". Effekten av detta är att DDR4-2666 CL14 (vilket är vad SweC testar med) är 21 % utanför officiell specifikation medan DDR4-3200 CL14 (vilket man också testar med) är hela 43 % utanför specifikation.
Vem i hela friden kör så pissig CAS som den JEDEC officiellt specificerar då? Kollade två av mina bärbar och två NUC:ar, de kör alla helt enligt specifikation vad det gäller minne, d.v.s. den maximal frekvens CPU stödjer, lägsta CAS-latens JEDEC specificerar för den hastigheten samt de tre enheter som körde "vanliga" DDR4 använde 1,2 V för minne. Det visar att JEDEC specifikation inte är irrelevant.
Min gissning kring varför AMD lyckats skruva upp frekvensen snabbare än Intel gällande RAM är att AMD faktiskt inte garanterar att en Ryzen 3000 klarar DDR4-3200 i det generella fallet. Beroende på hur många stickor man har samt huruvida de är "single-rank" eller "double-rank" så varierar det officiella stödet mellan 2666 MT/s (mer än två stickor används och minst en är DR), 2933 MT/s (mer än två stickor används men alla är SR) samt 3200 MT/s (max två stickor används). Intel använder sig av den hastighet som de garanterar oavsett konfiguration av stickor, vilket faktiskt då blir samma för 9000-serien som AMDs 3000-serie.
Edit: @anon2110 där har du min halvkvalificerade gissning på din fråga
Kör själv fyra stickor på min 3900X, har aldrig strulat men orsaken är med väldigt nära 100 % sannolikhet för att de är 2933 MT/s CL16 (som kräver 1,25 V). Kör dem i 2666 MT/s 1,20 V då det faktiskt gav lite bättre kompileringsprestanda, CPU boostar 50-100 MHz högre med den lägre DRAM spänningen. Kör man tillräckligt nära JEDEC officiella specifikation lär nog alla minnesproblem folk haft med Ryzen helt försvinna, vilket är ännu en indikation på att JEDECs officiella specifikationer kanske är helt tagna ur luften.
Problemet med just RAM är ju att för desktop tror jag det inte ens går att köpa DDR4-3200 som faktiskt följer specifikationen. Och frågan är varför man som testare ens skulle vilja försöka hitta sådana minnen. I grunden handlar det om att testa med vad som är "typiskt" för sina läsare. Det "typiska" för RAM på en desktop är idag med största sannolikhet DDR4-3200 CL14/16, detta då dessa har riktigt bra pris/prestanda.
I slutändan är nog minneshastigheten inte superrelevant för modeller som 3950X/3900X/9900K/9700K. Är ju primärt i spel som snabbare RAM spelar roll och givet att spel normalt testas i "ultra" blir det rätt GPU-bundet med dessa CPU-modeller. För Intels del är det nog mer om modeller som i5-9600K där skillnaden kan vara relevant. TechPowerUp kör DDR4-3200 CL14 rakt av, resultatet är att i5-9600K då kliver förbi 3700X i spel medan den CPUn mer tampas med 3600X i SweClockers mätningar.
Ju mer cache en CPU har, ju mindre relevant blir RAM-hastighet. Därför skalar 2700X och 9900K (båda har ~16 MB "game-cache") bättre med RAM-hastighet än 3900X/3950X (som har hela 32 MB "game-cache"). i7-5775C skalade väldigt lite med RAM p.g.a. sin 128 MB L4$. Vidare krävs ju att CPU-delen faktiskt är flaskhals för att snabbare RAM ska spela roll, de lite enklare CPU-modellerna vinner därför klart mest då de både har mindre "game-cache", har färre kärnor och är lägre klockade. En integrerad minneskontroller gör också att man får något bättre skalning med lägre RAM-latens, ren matematik då minnets latens utgör en större andel av total latens med integrerad minneskontroller.
Så är för de som siktar på Ryzen 5 / i5 där man borde ta sig en funderare på vilken minneshastighet som är mest relevant att testa med. Vad är poängen att strikt hålla sig till utsatt frekvens när man ändå "överklockar" latens och spänning? Kanske lämpligt att höra med Inet, Webbhallen, Komplett etc vilken är den "typiska" minneshastigheten folk köper och använda den. Av praktiska skäl måste man då "frysa" hastigheten efter valet är gjort, för precis som du säger är det inte alls säkert att Ryzen 1000 och Core 7000 fixar de minneshastigheter som är typiska idag, de ska testas med hastigheter som var typiska vid lansering.