Alla fyndtips från mellandagsrean

Inlägg

Inlägg som anon75480 har skrivit i forumet
Av anon75480
Skrivet av HenrikM:

Spännande, är säkert något att r20 även kör avx som gör att de inte kan hålla lika höga frekvenser.

Men också väldigt märkligt/intressant att ryzen slår inteln trots 1ghz skillnad i r15, men är samtidigt knappast så stor skillnad när de är rätt lika klockade i r20.

Edit. Strykt det sista stycket, min matte är kass, kollar man siffrorna så är det inte så jättemärkligt.

Skickades från m.sweclockers.com

Av anon75480
Skrivet av HenrikM:

De 3 högsta resultaten innan AMD kom var 9960x och 7960x på närmare 6 ghz som kört testerna

I vilket av dom? Kollade r20 och där var det inga 6Ghz? 7960x i 5,2ghz.

Skickades från m.sweclockers.com

Av anon75480
Skrivet av gormen:

Ja det blir man ju nyfiken på, kanske så att man inte körde allcore ~6GHz på den i9-9960X, vet inte hur hett det vart med just det i oc-branchen. Då låter det mer rimligt att den får pisk av en processor på lägre klock i ett testfall som cinebench.

Är väl inte konstigare än att de inte körde några benchmarks i 6Ghz, dvs det var i princip bara stabilt nog för att boota in i Windows och öppna CPU-z

Skickades från m.sweclockers.com

Av anon75480
Skrivet av Mocka:

Skulle säga att det kan handla om begränsningar i motorn. Enda exemplet jag kan jämföra med är WoW där många NPCer gjorde att FPS dök även på de kraftfullaste datorerna. Nu har WoW stöd för multi-core vilket förbättrat situationen avsevärt. Men om vi återvänder till Fortnite och tänker att det är många spelare och många byggnader så borde alla dessa saker kräva många pipelines vilket då sköts bäst av många cores. Assassins Creed Odyssey är ett sådant spel, tonvis med saker som händer i den abnormalt stora världen som ska skötas av CPU och ju fler cores desto bättre. GPUn är till viss del inte en faktor (såvida man kör med Vsync).

Detta! Jag förstår heller inte varför man vill ha mer FPS än skärmens uppdateringshastighet, de frames som blir över kastas ju ändå. Eventuellt att det ser fräckt ut när det står 250fps eller att andra ska bli impade när någon streamar.

Nu är detta tyvärr med ett litet svagare grafikkort så kan ju vara GPU-begränsad i detta test, men ser ju inte direkt ut som att att fortnite är speciellt bra optimerat för många trådar

https://img.purch.com/r/711x457/aHR0cDovL21lZGlhLmJlc3RvZm1pY3Jv...

Även denna tyder på att singeltråd prestanda är väldigt avgörande, 9900k är nästan 40% snabbare än 2700X.

https://www.gamersnexus.net/images/media/2018/cpus/9900k/intel-9...

Citat:

Detta! Jag förstår heller inte varför man vill ha mer FPS än skärmens uppdateringshastighet, de frames som blir över kastas ju ändå. Eventuellt att det ser fräckt ut när det står 250fps eller att andra ska bli impade när någon streamar.

Finns väl två anledningar, ligger du över skärmens frekvens i snitt så minskar det ju risken för att hamna under vid fps-drops, samt att latensen sjunker ju högre fps man har (detta är dock marginellt! Vi snackar best case några ental ms).

Av anon75480
Skrivet av Ozzed:

Han kommer säga att de hade massa bra 5Ghz-chip med låg strömörbrukning men att de vaskade dem eftersom Intel inte hade något bra nog att svara med, vilket såklart är jävla bullshit rakt igenom.

Om de hade chiplets med 8c som gjorde 5Ghz+ med OK strömförbrukning så hade de såklart släppt dem. Vi hade gråtit blod över prislappen, men de hade släppt dem. Företag brukar inte ägna sig åt kapitalförstöring i onödan.

Men vet vi klockpotential för dessa chip som lanseras nu? Nu tror jag iof inte att vi kommer se 5ghz + (för jag tror AMD hade gjort PR för överklockning om det var fellet), men det kan helt enkelt vara en fråga om tdp att de inte är specificerade för så höga frekvenser. Ser inte varför så många moderkort skulle satsa på fläskig VRM om man slår i en vägg när man försöker gå över boost iom rätt låg stock tdp. Kan iof vara så enkelt att de drar ganska duktigt om man drar upp all core till boost-värdet på t ex 12c modellen.

Av anon75480
Skrivet av SuperNova:

Om du har räknat ut att 8000:- stämmer med inflation så bekräftar du ju bara det jag säger.
Top of the line för 8000:- men dagens kort kostar ju runt 14.000:- så bara där har vi en rejäl ökning även om vi räknar bort inflation
Om vi tar P4a så hade vi ju ex P4c som man kunde klocka som fan och som inte kostade några 10k. Men visst 10.000 för fetcpun och idag?

Hehe jag förstår att det finns både liknelser och skillnader men det var billigare och roligare förr.

Tänkte mer att det blir lite snett att nämna vad kort med bäst bang for the buck kostade å sen nämna att topkort idag kostar 10-20k.

Sen kan man ju se det på lite olika sätt, de topprodukterna var ju typ mindre prisvärda än de idag då de sällan gav speciellt mycket mer prestanda. Som sagt var det ju det som var lite roligt också, att man kunde köpa billigare produkter och överklocka etc och få likvärdig prestanda med det som var riktigt dyrt. Idag är det iaf ganska ofta rätt rejäl prestandaskillnad när man öppnar lädret.

Men som tur är så håller ju komponenter sitt värde bättre idag iaf, köpte typ ny plattform vartannat år innan. Så personligen tycker jag det inte är speciellt dyrt idag, det här nya "premium" segmentet behöver man ju inte direkt, de flesta spel som lanseras rullar på typ all hårdvara, och maskinerna hänger med länge. Sitter på en snart 7 år gammal plattform (4770k och 16GB RAM) och köper fortfarande bara kort i 3-4k klassen, så för mig har det aldrig varit billigare

Av anon75480
Skrivet av SuperNova:

Håller med om att det var roligare förr.
AT-agg som drev en 12v länspump och en stor hink med is som kylde vattnet. Blocket var självklart en korsborrad kopparbit

Sen upplever jag att det var betydligt humanare priser. Iof 15 år sedan men minns att en 9700pro gick lös på ca 3500:- när det lanserades. Kortet slog ju all konkurrens med hästlängder. Sen hade vi ju 9500 för dryga 2000:- som kunde moddas. Då pratar vi ändå om kort som klarade allt.

Att man idag ska slanta upp 10.000-20.000:- för ett top of the line grafikkort är ju galet. Var ju inte många år sedan man fick en hel topp-spelburk för samma peng. Fan är snart billigare för kidsen att tävla i riktig gokart än att köra simulator.

Edit: Fläktkontroller var något man byggde själv för att kunna se på film och ha datorn på när man sov. Deltor @ 12v när man gejjmade

Skickades från m.sweclockers.com

Fast det du beskriver är väl typ samma sak som t ex 970 som slog Titan för strax över 3500kr och det var ju inte så länge sedan.

Sen släpptes det väldigt mycket dyra komponenter på den tiden också, grejen var ju bara den att utvecklingen gick så fort att priserna sjönk fort och att nästa generations mer prisvärda produkter slog tidigare top-end ordentligt. T ex lanserades 9800 XT för ett pris som motsvarar över 8000kr idag, och en P4 Extreme 3.2Ghz över 10k.

Av anon75480
Skrivet av socsoc:

Vad tycker ni om den här? Klara den integrerade GPU av att spela upp 4K material?

AMD Ryzen 5 2400G 3,6GHz köpes från annat håll då Inet inte säljer det.

https://www.inet.se/kundvagn/visa/12570331/dator-amdhttps://inetimg.se/img/tiny/forum-divider.pnghttps://www.inet.se/kundvagn/bild/12570331/dator-amd

Totalt: 6004 SEK

Eftersom igpu skalar väldigt bra med snabbare minnen, och eftersom det är så liten prisskillnad så hade jag nog iaf köpt lite snabbare ram t ex https://www.inet.se/produkt/5310200/corsair-16gb-2x8gb-ddr4-3... Spelar dock säkert mindre roll för ditt användarscenario.

Med det sagt hade jag aldrig köpt en fullstort ATX chassi för att bara koppla till TVn för film/youtube/surf. Hade köpt en gen8 NUC (8i3 eller 8i5), eller iaf ett itx bygge.

Av anon75480
Skrivet av tvelander:

Apple är det priset som det står om du inte köper enorma mängder så får du tiny tiny tiny % rabbat.

Ja dom har fel gå till HP hemsida, maskinen i Z6 G4 klarar 768GB med 3e part minne och Z8 G4 klarar 3TB.

Apple har bara listpris.

HP allt är förhandling.

Det priset HP visar är bara placeholder inget annat, inget du köper sakerna för.

Exakt.

Vi kör dell workstations (5820, 7920), och priserna vi får ligger nog på halva detta priset för likvärdig specc. Och det med prosupport med allt det innebär.

Med det sagt så kommer dessa sälja bra ändå, betydligt bättre design än soptunnan. Frågan är bara hur mycket workstation enterprise kunder de redan tappat som gått över till PC. Mac är knappast ett självklart val för content creation längre. iMac och mbp är imo fortfarande konkurrenskraftiga trots sitt pris då det inte finns så mycket likvärdiga produkter, och de som finns är faktiskt också rätt dyra och i många fall sämre designade (ljudnivå, kvalitet etc). Men just i detta segment så finns det riktigt bra alternativ betydligt billigare.

Skickades från m.sweclockers.com

Av anon75480

”Se upp med VRM på ditt gamla moderkort ifall du vill använda en 12-16c Ryzen 3000, upp till 8c/16t i stock hastighet är inga problem”

Hur vet du det? Har moderkort problem med 2700x idag? 3900x har ju samma tdp, så innan vi ser tester kan vi ju inte ta för givet att den drar så mycket mer.

Skickades från m.sweclockers.com

Av anon75480
Skrivet av anon298854:

@Fey

Thermal Design Power (TDP) (ung. Termisk avledningseffekt) representerar den maximala värmeeffekt ett kylsystem i exempelvis en dator behöver avleda för att hålla datorkomponenten på en temperatur som inte överstiger komponentens maximala driftstemperatur. Till exempel kan en processor i en dator ha ett TDP-värde på 60 watt. Då måste fläns och fläkt på processorn tillsammans kunna leda bort 60 watt värmeeffekt för att processorn inte ska bli överhettad.

I praktiken är de flesta kylsystem inte byggda för att kontinuerligt kunna kyla ner den maximala värmeeffekten, eftersom normal drift inte utvecklar maximalt med värme och tröghet i kylsystemet kan jämna ut tillfälliga toppar i värmeutvecklingen.

Det finns också olika definitioner på hur man mäter exempelvis en processors TDP-värde [1]. Intel anger ett TDP-värde baserat på hur mycket effekt processorn i praktiken drar då den kör ett program, medan AMD anger ett TDP-värde baserat på den teoretiskt maximala effekt processorn kan utveckla. Det gör att AMD:s värden ligger något över Intels värden.

Stämmer väl inte? Låter inte XFR processorn dra mer än vad TDP-värdet säger.

Även om intel specificerar TDP väldigt komplicerat med turbo frekvenser hit och dit så hamnar oftast TDPn på vad CPUn drar under konstant belastning vid basklock. Det är därför man oftast se intel CPU:er har likvärdig tdp när de lägger på fler trådar (de sänker i princip alltid base clock istället).

Av anon75480
Skrivet av pv2b:

Faktum är att AdoredTV träffade rätt bra ändå om vi tittar på själva specifikationerna och omständigheterna.

Det här är vad AdoredTV publicerade i sin video i december 2018 (OBS: Alltså ett halvår sedan) sammanställt av mig till en tabell.

Ryzen 9 3850X

16C/32T

4,3/5,1 GHz

135W

$499.99

May

I/O + 8C + 8C

Detta om något påvisar ju att han inte har koll. Finns ingen rimlighet att den modellen skulle lyckas ha så hög baskfrekvens med 135W TDP. Han missar med minst 500Mhz. Vi snackar alltså typ nästan dubbel prestanda/w vid frekvenser över 4ghz mot dagens AMD modeller, är det an vettig "gissning"? Hade det vart fallet så snackar vi total KROSS mot intel som håller typ 3Ghz vid 150W vid så många trådar.

Alltså inte för att vara den, han har säkert koll på grejer, men det där är kalle-anka siffror! Men hade det stämt hade jag först ätit upp min hatt, sen direkt efter köpt två.

Av anon75480
Skrivet av Ozzed:

Och hur många höghertz-skärmar med 720P finns det där ute? Inte många. Hade i så fall varit mer relevant att testa i 1080P med lägsta möjliga inställningar

Skrivet av Yoshman:

Det tror jag är totalt felaktig spekulation. Tror många skulle uppskatta tester i 1920x1080 i "low/medium"!

Kan inte tala för andra, men gissar att alla de tester vi ser som körs med "ultra-inställningar" inte heller är super-relevant för den stora massan. Lite svårt att förstå trenden mot 2560x1440 skärmar med väldigt högre uppdateringsfrekvens annars, de flesta köper inte RTX 2080Ti...

Grabben kör men en milt överklockad i7-5775C ihop med ett RTX 2070, CPU-delen börjar allt oftare bli den primära flaskhalsen i 2560x1440. Det då han föredrar hög uppdateringsfrekvens (skärmen fixar 165 Hz) över att köra på "ultra". Ofta är den någon eller några enstaka GPU-inställningar man ta ner en nivå för att FPS ska öka rätt rejält.

En kritik mot att köra vettig upplösning i "medium/low" har varit att det skulle kunna göra att spelet skalar sämre med CPU-kärnor och på så sätt bli missvisande. Har gjorts ett stort test kring detta, och är snarare så att lägre GPU-inställningar (vid en viss upplösning) ger en svag ökning av skalning med CPU-kärnor.

Kan te sig lite ologiskt, men finns nog en hyfsat enkelt tekniskt förklaring: vid höga inställningar skickas med data till GPU och GPUn är en serialiseringspunkt. Även med DX12/Vulkan finns det fortfarande bara en enda grafikkö och all kommunikation till den måste serialiseras! I lägre upplösningar blir GPUn relativt sett en mindre Amndals-lag flaskhals!

Alltså, anledningen att köra 1080p low över 720p ultra skulle imo endast vara för att få tyst på folk som inte förstår varför man använder 720p. Dels så finns så finns det generellt en god ide att behålla samma inställningar över flera upplösningar för att inte skapa massa nya variabler då olika inställningar kan påverka olika arkitekturer olika, t ex hade det inte gått att se hur grafikkort skalar med upplösning etc om man hade sänkt inställningarna för 2160p tester även om det hade blivit ett mer realistiskt scenario. Men framförallt så finns det flera inställningar som även påverkar CPU-last! Så hade man kört low så hade man även sänkt saker som draw distance eller kanske antalet NPC:er etc. 720p tester är ett väldigt smidigt sätt att att hålla testet konsekvent samtidigt som man på ett väldigt pålitligt sätt skalar bort GPU-flaskhalls. Sedan får användaren bestämma själv vart man vill lägga krut och vilka inställningar som är lämpligast att sänka beroende på falskhals och vilken FPS man är ute efter.

Problemet är inte 720p tester, utan när folk som länkar dom som "bevis" för saker som inte nödvändigtvis relevanta för mottagaren och när folk inte förstår datans kontext. Men det är väldigt bra test för att se relativa skillnader mellan modeller i specifika titlar.

Av anon75480
Skrivet av Ozzed:

Så viket märke som "presterar bäst" genom att få bäst siffror på någon graf spelar roll? Jag tror faktiskt inte det, och det vore sorgligt om AMD började jaga "prestanda på papper", utan det viktigaste är väl hur folk upplever sin upplevelse, och där är AMD oftast mest "smooth"

Det är inte bitterhet utan jag försöker bara bemöta det du säger på ett sakligt sätt utan känsloargument. Jag tycker inte prestanda på papper borde spela roll för folk utan det är ju prestanda i verkligheten som är viktigt

Så du tycker alltså inte vi ska använda mätbar data utan gå på anekdotisk upplevelse istället, det om något är väl ett känsloargument. Microstutter och dålig frame pacing (dvs "smooth:het") går alldeles utmärkt att mäta sig fram och presentera på graf.

Nu tycker jag också att spelargumenten kanske får för mycket utrymme ibland, men samtidigt är ett 720p test säkert betydligt mer relevant för många här på forumet än Cinebench siffror (som AMD visar i princip samtliga presentationer, som imo också går in under kategorin "prestanda på papper").

Många spelar spel, och många gör det på skärmar med hög refreshrate, låt dom tycka spelprestanda är viktigt för en CPU, för spel blir i många fall CPU-begränsade när man sänker inställningar för att nå 100+ fps.

Av anon75480
Skrivet av pålis:

Det är väl just det som proffskort är till för...? Och eftersom dom inte bryr sig om pris kan det mycket väl vara värt att dedikera en produktlinje för det.
Menar du hobbyist youtubare som även vill kunna gameza på sina riggar? Vet inte om det är en marknad värd att ta hänsyn till i sammanhanget.

Alltså nästan alla quadro kort som används i clientmaskiner är ju i princip samma kort som deras konsumentlinje, så GTX/RTX/Titan är väldigt populära för content-creation (redigering, 3D-rendering osv) både på hobby nivå och bland professionella användare. Så i nvidias fall så är konsumentkorten även beräkningskort, då det i princip inte ger något mervärde i att köpa proffskortet.

Hur som, nvidias kort är suveräna för gpu-accelerering med CUDA inom rätt många områden, trots att de tydligen inte har något större compute fokus i arkitekturen på samma sätt som GCN. Tycker det låter klokt att AMD tänker om, när de inte har slagit in sig så hårt på den marknaden trots att de haft så mycket rå prestanda.

Av anon75480
Skrivet av Kilroy:

Jag hade gärna velat veta mer om mediablocket och hur det ser ut med 4K-upplösning och bildfrekvens osv.

Jag har funderat på att köpa en ny HTPC inom en relativt snar framtid och frågan är om en Intel- eller AMD-processor gör sig bäst...

Vad är det du saknar idag om man får fråga? T ex NUC:ar från kaby lake och framåt har ju redan stöd för det mesta och funkar imo riktigt bra som HTPC. Finns vissa aspekter som är lite knöliga när det kommer till HDR, men den bristen har alla PC plattformar idag, dels så är det omständligt i mjukvara sen måste man ju tyvärr välja mellan full färgupplösning och 10bit om man vill köra 2160p i 60hz. Rent generellt så tycker jag AMD-hårdvara brukar få lite mindre kärlek när det kommer till mediauppspelningsmjukvara.

Vad jag har sett kommer gen11 inte ha AV1 hw-avkodning, vilket inte är jätteförvånande då inga av de större konsumenttillverkarna har annonserat det i någon specifik kommande produkt än.

Av anon75480
Skrivet av Aleshi:

Cinebench ser väl ingen boost från AVX 512? 15% är inte minimum heller, det är nog mer snitt. AVX hjälper ju andra applikationer också. Så kan andra applikationer dra nytta av andra förbättringar som Cinebench inte drar nytta av, som t.ex. större cache. Ser ju ordentlig skillnad i spel t.ex.

Och räkna på det. Enkelttrådsfrekvens skiljer 2%. Ändå skiljer prestandan 15%, och jag tror som sagt inte AVX512 hjälper Cinebench.

De lade till stöd för AVX och AVX512 i R20 (det som testas), dock såg man väl ingen gigantisk skillnad hos intel när det släpptes så frågan är hur effektivt det används.

Tycker fortfarande det ser märkligt (vågat) ut att skriva "across all applications", det är ju en enorm bragd och ökning! Att de sen bara visar ett cinebench resultat som inte ens når upp till 15% känns sen lite märkligt.

Av anon75480

Är det bara jag som inte får ihop siffrorna? De står 15% all application ipc ökning, men cinebench ser bara 15% extra i singeltrådtest, och det med flyttals/avx ökningen och högre frekvenser.

Skickades från m.sweclockers.com

Av anon75480
Skrivet av Mr[M]:

15% IPC är ju rätt nice

15% kommer det från cinebench siffran? Har inte nya cinebench avx stöd? Dvs något vi visste skulle få ett rejält lyft, mycket eller nästan allt kan ju faktiskt komma därifrån.

Skickades från m.sweclockers.com

Av anon75480
Skrivet av magjoh:

Har tänkt det också, men har lite svårt att förstå vad funktionen heter som väcker förstärkare till liv om tvn går igång.

Skickades från m.sweclockers.com

Du letar nog efter en förstärkare med ”ARC” funktionalitet, kräver också att du har en hdmi-utgång på tv:n som också stödjer det.

Kör själv med 2.1 för tillfället, är mitt 4e system och har faktiskt minskat ner det varje gång jag bytt (började med 5.1 med golvare). Väldigt nöjd för tillfället även om jag kan sakna centern från mitt senaste 3.1. Kör med nya sonos ampen nu, istället för stora hemmabioförstärkare. Tyvärr rätt dyr, men passar som ett 2.1 system för tv och musk perfekt.