Nvidia Geforce RTX 5060 Ti: Mellankort, mellanpris, mellanbra

Permalänk
Hedersmedlem
Skrivet av Yoshman:

Fast här måste man hålla isär: "finns stöd i HW", vilket i Nvidias fall du säger finns sedan Ada (kan mycket väl stämma). Och huruvida spelet/applikationen använder OMM och/eller SER som båda kräver att man explicit stödjer via DX12 APIet.

Detta är långt ifrån den första funktionen i Direct/Vulkan etc där det finns HW-stöd som under en tid inte kan användas. Vulkan/OpenGL har i.o.f.s. möjligheten att exponera sådant via extensioner. DirectX har ett API för att exponera valbara funktioner, vilket både OMM och SER är i DX12 ultimate, men det saknas (så vitt jag vet) möjlighet att exponera propretära 3:e-parts extensioner likt vad som är möjligt i OpenGL/Vulkan.

I.e. OMM/SER kan inte utnyttjas "automagiskt". Det krävs både tillräckligt ny version av DirectX och explicit stöd från titeln.

Vilket API / hur det användes vet jag inte, men enligt Digital Foundry började Cyberpunk använda OMM September 2023:

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Yoshman:

Båda dessa låter väldigt mycket som förändringar på DirectX-nivå, inte på driver/GPU-nivå. Sen kan självklart GPU-mikroarkitektur och drivers dra mer eller mindre nytta av ovan. Men som beskrivet lär alla, inklusive Nvidia, se bra prestandaboost från detta.

Spännande! Hoppas på det bästa 🙂

Permalänk
Datavetare
Skrivet av Thomas:

Vilket API / hur det användes vet jag inte, men enligt Digital Foundry började Cyberpunk använda OMM September 2023:

https://www.youtube.com/watch?v=hhAtN_rRuQo#t=25m18s

Kontrollerar man programvaran på "båda sidor" går det naturligtvis att göra "vad som helst". Och måste vara just det Nvidia gjort i fallet Cyberpunk 2077, har för mig att det inte stödjer Vulkan utan enbart DX12.

Det finns också en propretär SDK från Nvidia lanserad för ca 2 år sedan som gör det möjligt att använda bl.a. OMM. Scannade bara exemplen väldigt snabbt, de såg ut att vara gjorda med Vulkan men dokumentationen säger att DX12+SDK ska också fungera (SDK kan ju anropa APIer utanför DX12 för att uppnå önskad effekt).

Det ändrar inte att man först nu kan använda tekniken via DX12. Givet det lär bredare användning hända framåt, så även Nvidia kommer se en boost av detta för utanför specifika fall där man gjort någon form av tech-preview med propretär teknik (eller extensioner i Vulkan) är stöd för detta väldigt nytt.

Enligt SDK-docs ska det tydligen fungera från Turing och framåt, men Ada och framåt bör se större boost då de har bättre anpassat HW-stöd.

Edit: sökte lite mer på detta. UE5 (Cyberpunk 2077 använder UE5) verkar ännu inte fått stöd för detta. Däremot har Nvidia en (föga oväntat...) egen dev-branch av UE5-repot och där finns stöd (via icke-officiella DX12 APIer som gör anrop som finns i "tillräckligt nya" Nvidia drivers), lär ju vara den varianten Cyberpunk 2077 använder

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av viller2:

Det är väl ofta på som default? Frågan borde väl snarare vara hur många som aktivt slår på det och som faktiskt gillar det.

Läser man vad de som kommenterat på omröstningen skriver så verkar det dock för det mesta handla om ett medvetet val. Att uppskalning ibland är påslaget som standard påverkar förstås hur många som använder det i stort (som Nvidia påstående att 8 av 10 använder DLSS), men jag gissar att de allra flesta som inte är insatta ändå inte märker någon skillnad på om uppskalning används eller inte.

Skrivet av viller2:

Uppskalning blir bara en ursäkt för spelutvecklare att inte optimera sina spel, påhejade av N som tjänar grova pengar på allt vad AI heter.

Det är ett rätt pessimistiskt sätt att se på det, men dåligt optimerade spel har ju alltid funnits och uppskalning förändrar egentligen inte mycket på den fronten. Dåliga spel är dålig spel oavsett om de använder uppskalning eller ej.

Permalänk
Medlem
Skrivet av Icetec:

Jag har missat att framegen presterar annorlunda baserat på om det är ett singleplayer- eller multiplayerspel. Utveckla gärna, jag är väldigt nyfiken då jag trodde att framegen skedde lokalt i datorn och inte påverkades av nätverk.

Han syftar på att låg FPS (som maskeras med interpolerade bildrutor) betyder dålig kontroll. Det betyder att i multispelarspel så blir man smiskad. Personligen anser jag att endast råfps utan framgen räknas.

Permalänk
Medlem
Skrivet av Yoshman:

Edit: sökte lite mer på detta. UE5 (Cyberpunk 2077 använder UE5) verkar ännu inte fått stöd för detta. Däremot har Nvidia en (föga oväntat...) egen dev-branch av UE5-repot och där finns stöd (via icke-officiella DX12 APIer som gör anrop som finns i "tillräckligt nya" Nvidia drivers), lär ju vara den varianten Cyberpunk 2077 använder

CP2077 använder CDPR's egna RedEngine inte UE5, dock så kommer framtida titlar från dem använda UE5.

Permalänk
Redaktion
Teknikredaktör
Skrivet av EvonS:

Nåja.. vi kan säga att Swec ett tag nu varit fullständigt out of touch i sina reviews o betygen. Hyfsat sågad produkt relativt till priset. Inte hos swec dock som gillar Giridia. Ex.. hyfsad produkt hos alla stora reviewers om den kostat som 8gb versionen.. och 8gb versionen är skrattretande enl de flesta. Så.. dags att skärpa sig swec. Er trovärdighet står på spel här.. för många skitreviews helt enkelt.

Hej! Jag har inte varit med om att ge någon Nvidia-produkt ett högre betyg än en AMD-produkt. Nu när du har mitt öra får du gärna utveckla för klassen på vilket sätt jag har förkärlek för Nvidia.

Skrivet av Fenrisulvfan:

RTX 5060 Ti presterar 91% av ett 4070 i 1440p och B570 presterar 57% av ett 4070.
Således är 5060 ti 91/57 = 60% kraftfullare än ett B570, men det kostar 5399/3300 = 63% mer.
(SweClockers egna siffror)

Hur i hela friden kan 5060 Ti få ett bättre betyg än B570, när det är mindre prisvärt?
Vid en snabbkoll går dessutom B570 att köpa för 2990Kr idag (+81%), då kronan har stärkts mot dollarn och skulle man jämföra MSRP mot MSRP så är det $429 (5164Kr) mot $219 (2636Kr) vilket är en hårsmån från dubbla priset (+96%).

Halloj! I min sammanfattning ser du, med fetad stil, att specifikt Asus-kortet hade missat målet. Nu recenserade vi dock inte Asus, utan RTX 5060 Ti som helhet. Det fanns helt enkelt ingen Founders Edition att utgå ifrån. Intel-kortet från Asrock kostade nästan lika mycket som B580, vilket blir långt ifrån prisvärt.

Permalänk
Datavetare
Skrivet av meanh:

CP2077 använder CDPR's egna RedEngine inte UE5, dock så kommer framtida titlar från dem använda UE5.

Du har helt rätt! Frågade ChatGPT om engine, den sa "UE5". Ingen skada skedd för lärde mig en del om senaste utveckling kring UE5 (har jobbat med UE, men bara UE4 så är en hel del nytt i UE5)

Sökte själv och testade sedan med ChatGPT o4-mini, då blev det istället RedEngine. Förvirringen verkar komma från att CDPR officiellt gått ut med att de framåt kommer använda UE5.

Oavsett, lär vara samma story där. OMM har varit tillgängligt ett tag i Nvidias drivers, men har inte gått att nå via officiella DX12 API:et innan senaste uppdateringen. Däremot kunde man använda funktionerna om man hade hjälp direkt från Nvidia.

Sedan: tycka vad man vill om UE5, men en sak SweClockers och andra som testar grafikkort är nog att ha med hyfsat med UE5-spel, för den motorn verkar användas till allt fler stora titlar. Lite trist med monokultur, men vi ser nog lite samma sak som för OS: detta börjar bli ett löst problem och då tenderar det tyvärr bli så att några enstaka stora spelare är de enda som överlever.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yxan:

Han syftar på att låg FPS (som maskeras med interpolerade bildrutor) betyder dålig kontroll. Det betyder att i multispelarspel så blir man smiskad. Personligen anser jag att endast råfps utan framgen räknas.

Ja, och jag menar att det sker oberoende av om man spelar single- eller multiplayer. Sen håller jag ju med att det är rimligt att testa prestanda utan några funktioner på ö.h.t. om man ska jämföra prestanda mellan saker. Men om man ska ta med resultat med frame gen påslaget så är det ju inte som om det är av värde att dela upp det i multiplayer eller singleplayer.

Permalänk
Redaktion
Teknikredaktör
Skrivet av wizzle:

Det här har jag svårt för. Du kan inte ge betyget "Bra produkt" i artikeln för att sedan skriva i ett forum inlägg att du inte hade lagt 6800 kr för den. Du säger ju emot dig själv. Alla som läser artikeln kommer inte läsa din kommentar.

Sedan när började man ge betyg för MSRP modeller när man recenserar toppmodeller? Vill minnas att när 9070 XT Red Devil recenserades så fick den betyget för priset 10700 kr inte för MSRP 8000 kr.

Oavsett hur okomplett ett betygsystem är så måste ni väl ändå vara konsekventa åtminstone.

Ingen fara! Det nämns även i recensionen, samt priser på MSRP kontra Asusmodellen.

Angående RTX 5070-5090 samt RX 9070-serien har de lanseringarna varit märkliga och komplicerade. Ordinarie förfaranden har satts lite ur spel, vilket har gett upphov till flera diskussioner internt om hur vi skall hantera dessa, och eventuella framtida lanseringar. När alla släpp är avklarade för det här kvartalet har vi facit för hur lanseringarna gick, så att vi kan vara väl rustade ifall vi ser mer tokigheter med nästa generations kort. Eller en refresh (som Super-kort).

Permalänk
Medlem
Skrivet av Rosenvik:

Halloj! I min sammanfattning ser du, med fetad stil, att specifikt Asus-kortet hade missat målet. Nu recenserade vi dock inte Asus, utan RTX 5060 Ti som helhet. Det fanns helt enkelt ingen Founders Edition att utgå ifrån.

Det kanske hade varit bättre att dela upp sammanfattningen som ni brukar göra när ni testar flera kort samtidigt. D.v.s. en ruta för 5060 Ti som helhet och en för Asus-kortet specifikt, som om de vore två olika kort. Jag vet inte om det egentligen skulle vara bättre men kanske något att fundera på.

Permalänk
Redaktion
Teknikredaktör

Hm. Ja, jag skall ta upp en liknande fråga på nästa testmöte. Jag kan inte säga bu eller bä om just detta, men jag gillar inspelet. Tack!

Permalänk
Medlem
Skrivet av Yoshman:

Sedan: tycka vad man vill om UE5, men en sak SweClockers och andra som testar grafikkort är nog att ha med hyfsat med UE5-spel, för den motorn verkar användas till allt fler stora titlar. Lite trist med monokultur, men vi ser nog lite samma sak som för OS: detta börjar bli ett löst problem och då tenderar det tyvärr bli så att några enstaka stora spelare är de enda som överlever.

*hötter med käppen*

Det var bättre förr... när alla dev-bolag tävlade om att göra den bästa motorn.

Men skämt åsido man ser att när det snickrats gediget och speciellt till ett/några spel s.a.s. så kan det gå som en skållad råtta, typ Doom / Doom Eternal.

Visa signatur

|[●▪▪●]| #Monster Battle Station(tm)#: Ryzen 3700X >-< GB-X570-AE >-< 32GB RAM >-< RTX 4070S >-< Crucial 2TB SSD |[●▪▪●]|

Permalänk
Medlem
Skrivet av Rosenvik:

Halloj! I min sammanfattning ser du, med fetad stil, att specifikt Asus-kortet hade missat målet. Nu recenserade vi dock inte Asus, utan RTX 5060 Ti som helhet. Det fanns helt enkelt ingen Founders Edition att utgå ifrån. Intel-kortet från Asrock kostade nästan lika mycket som B580, vilket blir långt ifrån prisvärt.

B570 kortet för 3300Kr är mer prisvärt än RTX5060Ti för 5399Kr, det bevisade jag precis matematiskt med SweClockers prestandaindex. Där 5060 Ti får 55/57/57 procent av 4070's prestanda och 5060Ti får 90/91/92 procent.
I upplösningarna 1080p/1440p/2160p. Det blir ett övertag på 64/60/61 eller ett medel på 273/169 = 61,5%.
Med 5399/3300 = 1,636 dvs 5060 Ti är 63,6% dyrare.
Senast jag kollade så är 63,6% mer än 61,5% ergo B570 är mer prisvärt.

Sedan är ju iofs B580 ännu mer prisvärt än dessa två.

Utöver detta så har inga tester presenterats där B570 och RTX4060 jämförs, men när jag extrapolerar via A750, så bör B570 slå 4060 i 2160p men hamna aningen efter i 1440p och 1080p.
Riktpriset för RTX4060 var ju 3899Kr men om vi är generösa och kör med 3490 mot 3300 så är 4060 ändå 6% dyrare, medans det är bara 4% (78/75) snabbare i 1440p och 14% (82/72) snabbare i 1080p.

Visa signatur

*5800X|B550M|64GB|RX7800XT|GX750W|Core V21|280AIO|2TB+2TB|1440p 240Hz

AMD Ryzen 7 @4,95GHz|Gigabyte Aorus Elite(rev1.3)|Corsair 2x32 LPX Vengeance 2666C16 @3600C20|Asus DUAL OC @990mV, 3,2/2,6GHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 4.0x4 Samsung 980 Pro 7000/5100 + 2,5" HDD Toshiba 1TB & Seagate 1TB i RAID 0|Acer Nitro XV272Uz 27" IPS 270Hz @240Hz.

Permalänk
Redaktion
Teknikredaktör
Skrivet av Fenrisulvfan:

B570 kortet för 3300Kr är mer prisvärt än RTX5060Ti för 5399Kr, det bevisade jag precis matematiskt med SweClockers prestandaindex. Där 5060 Ti får 55/57/57 procent av 4070's prestanda och 5060Ti får 90/91/92 procent.
I upplösningarna 1080p/1440p/2160p. Det blir ett övertag på 64/60/61 eller ett medel på 273/169 = 61,5%.
Med 5399/3300 = 1,636 dvs 5060 Ti är 63,6% dyrare.
Senast jag kollade så är 63,6% mer än 61,5% ergo B570 är mer prisvärt.

Sedan är ju iofs B580 ännu mer prisvärt än dessa två.

Utöver detta så har inga tester presenterats där B570 och RTX4060 jämförs, men när jag extrapolerar via A750, så bör B570 slå 4060 i 2160p men hamna aningen efter i 1440p och 1080p.
Riktpriset för RTX4060 var ju 3899Kr men om vi är generösa och kör med 3490 mot 3300 så är 4060 ändå 6% dyrare, medans det är bara 4% (78/75) snabbare i 1440p och 14% (82/72) snabbare i 1080p.

Absolut! Men prisvärdhet är inte den enda faktorn jag beaktar. Om så vore fallet skulle inget flaggskeppskort någonsin få utmärkelser, exempelvis. DLSS 4 är bättre än XeSS och det har mognare drivrutiner som klarar av att köra hela testsviten med mera.

Prisvärdhet handlar dels om PPK, men också vad man annars skulle kunna få för samma pengar. Isolerat i ett vakuum kan kortet i sig kan vara prisvärt, men sett till marknaden blir det dumt att betala 3300 kronor för B570 när du kan få B580 för 3400 kr.

Permalänk
Medlem

Även jag gjorde en PPK där jag slog ihop prestandaindex från Swec och Techpowerup.
Sen tog jag priser som finns på riktigt.

Alla ni som klagar på att Swec är för generösa när de de ger 5060 Ti "Bra Produkt" dricker hatsoppa.

Och kolla energieffektiviteten mot B580, Swec och Techpower up.

Och om vi pratar absolut prestanda så är ju B580 mycket svagare, PPK är inte allt.

Jag tycker det är helt uppenbart att 5060 Ti är en "Bra Produkt" även om hela 5000-serien är en stor besvikelse.

AMD 9000-serie hade varit en riktig höjdare i jämförelse om de faktiskt sålts till MSRP.
Men nu gör de inte det.

Och B580 är ett väldigt prisvärt kort i klassen under 5060 Ti, om än med dålig energieffektivitet.

Och visst, jag är också rejält besviken på den här generationen.

Men att 5060 Ti det bästa, mest pris- och energi-effektiva grafikkortet som finns tillgängligt i klassen är bara enkel fakta.

Att det då inte ens skulle förtjäna "Bra Produkt" är orimligt.

Permalänk
Medlem
Skrivet av Kilroy:

<Uppladdad bildlänk>

Även jag gjorde en PPK där jag slog ihop prestandaindex från Swec och Techpowerup.
Sen tog jag priser som finns på riktigt.

Alla ni som klagar på att Swec är för generösa när de de ger 5060 Ti "Bra Produkt" dricker hatsoppa.

Och kolla energieffektiviteten mot B580, Swec och Techpower up.

<Uppladdad bildlänk>

<Uppladdad bildlänk>

Och om vi pratar absolut prestanda så är ju B580 mycket svagare, PPK är inte allt.

Jag tycker det är helt uppenbart att 5060 Ti är en "Bra Produkt" även om hela 5000-serien är en stor besvikelse.

AMD 9000-serie hade varit en riktig höjdare i jämförelse om de faktiskt sålts till MSRP.
Men nu gör de inte det.

Och B580 är ett väldigt prisvärt kort i klassen under 5060 Ti, om än med dålig energieffektivitet.

Och visst, jag är också rejält besviken på den här generationen.

Men att 5060 Ti det bästa, mest pris- och energi-effektiva grafikkortet som finns tillgängligt i klassen är bara enkel fakta.

Att det då inte ens skulle förtjäna "Bra Produkt" är orimligt.

Sedan jämför man med andra recensioner som inte är ifrån Sverige. Det de missar är att prissituationen vi har idag är unik. Den prisbild vi har i Sverige ser helt annorlunda ut mot för hur den ser ut tex i USA som många recensenter baserar sina reviews på.

Vi har något så unikt som att många kort faktiskt är billigare här än på andra sidan Atlanten, och att vi faktiskt har bättre tillgång på kort än vad de har.

Permalänk
Medlem
Skrivet av Fjädernylle:

Häftig attityd.

Framegen är framegen, det som sker är att multiplayerupplevelsen blir sämre:
1. Kan höja input lateny, skapar en känsla av desynch i snabba spel.
2. Interpolering mellan frames, det du ser är inte del av spelets logik. Det servern ser är inte baserat på vad du ser.
3. Speltillverkare vet detta, därför disablar dom funktionen för att undvika skillnad mellan visuals och gamestate.

Och hur exakt tänker du att detta ska kvantifieras i en recension där du menar på att dina tre punkter skiljer sig beroende på om det är ett singleplayer- eller multiplayerspel? Jag hajar ju att du hatar framegen för att du spelar svettiga ladderspel online men det känns liksom svårt att försöka få recensioner att hata frame generation på ett objektivt sätt baserat på dina upplevelser.

Antingen, vilket är det mest vettiga, så säger man att man ö.h.t. inte ska ta frame generation i beaktande när man recenserar ett grafikkort där man mäter prestanda. Men om man nu ska göra det så spelar det ju så klart ingen roll om det är framegen i ett multiplayerspel eller singleplayerspel.

Permalänk
Medlem
Skrivet av Rosenvik:

Absolut! Men prisvärdhet är inte den enda faktorn jag beaktar. Om så vore fallet skulle inget flaggskeppskort någonsin få utmärkelser, exempelvis. DLSS 4 är bättre än XeSS och det har mognare drivrutiner som klarar av att köra hela testsviten med mera.

Prisvärdhet handlar dels om PPK, men också vad man annars skulle kunna få för samma pengar. Isolerat i ett vakuum kan kortet i sig kan vara prisvärt, men sett till marknaden blir det dumt att betala 3300 kronor för B570 när du kan få B580 för 3400 kr.

Flaggskeppskort som inte är prisvärda bör inte ha fina utmärkelser så länge prisvärdhet är en faktor. (ska man ha sådana klassificeringar av kort så bör man nog vara mer transparent med hur man klassindelar)
Angående testsvit och drivrutiner så är det en fråga om "hönan och ägget".

Jag har dock påpekat i tråden om betygen att prisvärdhet borde inte vara en faktor och det finns många anledningar till det.
1. Priser ändras över tid och extra mycket nu i början av 2025.
2. Är man ekonomiskt oberoende så vill man ha det som uppfyller ens prestandakrav.
3. Har man en låg budget, vill man ha så bra man kan få inom budget.

Prisvärdhet är väl just exakt vad man kan få för samma peng.
Jag har inte påstått att B570 är bättre än B580 utan att B570 placerar sig mellan B580 och 5060Ti och om både B580 & 5060Ti får betyget "bra produkt" så bör B570 också få det, alternativt bör 5060Ti sänkas till "Missar målet" som B570 har fått i betyg.

Visa signatur

*5800X|B550M|64GB|RX7800XT|GX750W|Core V21|280AIO|2TB+2TB|1440p 240Hz

AMD Ryzen 7 @4,95GHz|Gigabyte Aorus Elite(rev1.3)|Corsair 2x32 LPX Vengeance 2666C16 @3600C20|Asus DUAL OC @990mV, 3,2/2,6GHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 4.0x4 Samsung 980 Pro 7000/5100 + 2,5" HDD Toshiba 1TB & Seagate 1TB i RAID 0|Acer Nitro XV272Uz 27" IPS 270Hz @240Hz.

Permalänk
Medlem
Skrivet av Kesse2:

Sedan jämför man med andra recensioner som inte är ifrån Sverige. Det de missar är att prissituationen vi har idag är unik. Den prisbild vi har i Sverige ser helt annorlunda ut mot för hur den ser ut tex i USA som många recensenter baserar sina reviews på.

Vi har något så unikt som att många kort faktiskt är billigare här än på andra sidan Atlanten, och att vi faktiskt har bättre tillgång på kort än vad de har.

Han tog ju enbart prestanda index,inte prisbilden i usa.

Han gjorde Swec index+tpu= X
X/2 = Y
Y/ svenska priset= PPK

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Swedishchef_90:

Han tog ju enbart prestanda index,inte prisbilden i usa.

Han gjorde Swec index+tpu= X
X/2 = Y
Y/ svenska priset= PPK

Jag var kanske lite otydlig. Det var inte menat till posten jag citerade, menade mer att jag höll med och sa det i tillägg.
Min kommentar var mer riktad till vissa andra som kommenterar.

Permalänk
Medlem
Skrivet av Kilroy:

<Uppladdad bildlänk>

Även jag gjorde en PPK där jag slog ihop prestandaindex från Swec och Techpowerup.
Sen tog jag priser som finns på riktigt.

Alla ni som klagar på att Swec är för generösa när de de ger 5060 Ti "Bra Produkt" dricker hatsoppa.

Och kolla energieffektiviteten mot B580, Swec och Techpower up.

<Uppladdad bildlänk>

<Uppladdad bildlänk>

Och om vi pratar absolut prestanda så är ju B580 mycket svagare, PPK är inte allt.

Jag tycker det är helt uppenbart att 5060 Ti är en "Bra Produkt" även om hela 5000-serien är en stor besvikelse.

AMD 9000-serie hade varit en riktig höjdare i jämförelse om de faktiskt sålts till MSRP.
Men nu gör de inte det.

Och B580 är ett väldigt prisvärt kort i klassen under 5060 Ti, om än med dålig energieffektivitet.

Och visst, jag är också rejält besviken på den här generationen.

Men att 5060 Ti det bästa, mest pris- och energi-effektiva grafikkortet som finns tillgängligt i klassen är bara enkel fakta.

Att det då inte ens skulle förtjäna "Bra Produkt" är orimligt.

Det hjälper om man använder rätt priser
5060 Ti 5399: https://www.komplett.se/product/1323042/datorutrustning/dator...
Intel B580 3479: https://alina.se/produkter/intel-arc-b580-limited-edition-gra...
RX9070 8034: https://www.amazon.se/dp/B0DT78YM6P
RX9070 XT 9092: https://www.computersalg.se/i/24108879/sapphire-pulse-radeon-...
5070 7390: https://www.proshop.se/Grafikkort/Palit-GeForce-RTX-5070-Infi...
4070 6799: https://alina.se/produkter/gainward-geforce-rtx-4070-ghost-12...

Det blir inte riktigt lika smickrande för 5060 Ti då, men inget av korten du jämför med är i samma pris- eller prestanda-klass som 5060 Ti med din egna klassificering, så om 5060 Ti är en klass högre än B580 med 37,5% högre PI, så utklassar väl RTX5070, 5060 Ti också med 35,3% högre PI.

RTX4070 är ju det enda kortet som spelar i samma liga som RTX5060Ti i ditt exempel, vilket får 14,2 PPK. Medans B580 faktiskt ligger på 19,5 och 7800XT om det har samma PI som 4070 ramlar in på 18,5PPK, eller varför inte 7700XT på 18,6 PPK, vid PI på 89.

Till och med B570 får ju bättre PPK än 5060Ti med dess PI 58 och recensionspris på 3300Kr (17,6), att den sedan går att få tag på för 2933Kr: https://www.amazon.se/dp/B0DR337DJG blir ju grädde på moset med PPK= 19,8.
Sätter man det i samma klass som RTX4060 som får PI 65 av tpu med SweC saknar data för så får det för 3374Kr: https://www.amazon.se/dp/B0C9YN55GS/ref=asc_df_B0C9YN55GS1745...
en PPK på 19,3.

Men du tycker kanske att absolut prestanda ska ställas i kvadrat vid jämförelsen, eller vilken kurva tycker du är bäst, det gyllene snittet (φ) som inte är lika stegrande?

Visa signatur

*5800X|B550M|64GB|RX7800XT|GX750W|Core V21|280AIO|2TB+2TB|1440p 240Hz

AMD Ryzen 7 @4,95GHz|Gigabyte Aorus Elite(rev1.3)|Corsair 2x32 LPX Vengeance 2666C16 @3600C20|Asus DUAL OC @990mV, 3,2/2,6GHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 4.0x4 Samsung 980 Pro 7000/5100 + 2,5" HDD Toshiba 1TB & Seagate 1TB i RAID 0|Acer Nitro XV272Uz 27" IPS 270Hz @240Hz.

Permalänk
Medlem

Ska man hårddra det så är det enda prisvärda kort i 50-serien: RTX5090 (förutsatt pengar inte spelar någon roll)

4090 är bättre än 5080
RTX 4080 Super är bättre än 5070TI
RX 4070 Ti Super är bättre än 4060TI

Men 5090 är bättre än 4090 och är en ny herre på täppan.

I normala fall brukar ex xx60 vara bättre än förra generationens xx70. xx70 vara bättre än förra generationens xx80 etc

Det är inte första gången Nvidia har problem med Noderna. GTX 600-700-900 körde på samma nod (TSMC 28N). Sen släppte det ordentligt med GTX 1000 serien.

Detta är andra gången det händer... RTX 4000 och 5000 kör på samma nod (TSMC 4N).

Krymper man denna till RTX 6000 på 2 nm. Då kommer vi se ett rejält hopp i prestanda igen. Men finns risk för att det stora hoppet i prestanda inte kommer förrän RTX7000 serien om man kör 4N en vända till, som man gjorde i 3 generationer med 600-700-900

Permalänk
Medlem
Skrivet av Belgaar:

Ska man hårddra det så är det enda prisvärda kort i 50-serien: RTX5090 (förutsatt pengar inte spelar någon roll)

4090 är bättre än 5080
RTX 4080 Super är bättre än 5070TI
RX 4070 Ti Super är bättre än 4060TI

Men 5090 är bättre än 4090 och är en ny herre på täppan.

I normala fall brukar ex xx60 vara bättre än förra generationens xx70. xx70 vara bättre än förra generationens xx80 etc

Det är inte första gången Nvidia har problem med Noderna. GTX 600-700-900 körde på samma nod (TSMC 28N). Sen släppte det ordentligt med GTX 1000 serien.

Detta är andra gången det händer... RTX 4000 och 5000 kör på samma nod (TSMC 4N).

Krymper man denna till RTX 6000 på 2 nm. Då kommer vi se ett rejält hopp i prestanda igen. Men finns risk för att det stora hoppet i prestanda inte kommer förrän RTX7000 serien om man kör 4N en vända till, som man gjorde i 3 generationer med 600-700-900

6000 serien kommer väl på 3nm?
https://hardforum.com/threads/nvidias-next-gen-geforce-rtx-60...

Men vi får se, stor chans även på rename för Nvidia

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Swedishchef_90:

6000 serien kommer väl på 3nm?
https://hardforum.com/threads/nvidias-next-gen-geforce-rtx-60...

Men vi får se, stor chans även på rename för Nvidia

Ja - det kan nog stämma. Gissade på 2 eller 3. Trodde inte att det fanns information ännu om det.
Men bra om det är så. Det innebär att vi kan se en riktig uppgradering och ett stort prestandahopp igen och inte bara en förfining

Anledningen att prestadahoppet är så litet från RTX4000 till RTX5000 är för att båda går på 5nm. Blackwells nya arkitetkur är egentligen bara en förfining av Ada Lovelace på i princip samma nod.

https://en.wikipedia.org/wiki/GeForce_RTX_50_series

Fabrication process TSMC 4NP
5 nm process

https://en.wikipedia.org/wiki/GeForce_RTX_40_series
Fabrication process TSMC 4N
5 nm process

Permalänk
Medlem
Skrivet av Icetec:

Och hur exakt tänker du att detta ska kvantifieras i en recension där du menar på att dina tre punkter skiljer sig beroende på om det är ett singleplayer- eller multiplayerspel? Jag hajar ju att du hatar framegen för att du spelar svettiga ladderspel online men det känns liksom svårt att försöka få recensioner att hata frame generation på ett objektivt sätt baserat på dina upplevelser.

Antingen, vilket är det mest vettiga, så säger man att man ö.h.t. inte ska ta frame generation i beaktande när man recenserar ett grafikkort där man mäter prestanda. Men om man nu ska göra det så spelar det ju så klart ingen roll om det är framegen i ett multiplayerspel eller singleplayerspel.

Det hela är förvånansvärt simpelt, man skiljer på det. Du vet lite som man kan recensera ljud och grafik separat om man vill.

Permalänk
Medlem
Skrivet av Fjädernylle:

Det hela är förvånansvärt simpelt, man skiljer på det. Du vet lite som man kan recensera ljud och grafik separat om man vill.

Och hur ska det här ske rent praktiskt?

Latency, i Black Myth: 50ms

Latency i Fortnite: också 50ms eftersom det sker på hårdvaran. MEN DET ÄR MULTIPLAYER! Okej.

Permalänk
Hedersmedlem
Skrivet av Icetec:

Och hur ska det här ske rent praktiskt?

Latency, i Black Myth: 50ms

Latency i Fortnite: också 50ms eftersom det sker på hårdvaran. MEN DET ÄR MULTIPLAYER! Okej.

Nja, latency med FG beror ju mycket på vilken framerate man har från början. Och en GPU som fixar 40 fps i BM: W fixar nog ganska lätt 120 i fortnite (om inte mer än det dubbla), så det blir en enorm skillnad i latency med FG på också.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

Nja, latency med FG beror ju mycket på vilken framerate man har från början. Och en GPU som fixar 40 fps i BM: W fixar nog ganska lätt 120 i fortnite (om inte mer än det dubbla), så det blir en enorm skillnad i latency med FG på också.

Åter igen, påverkas denna extremt mätbara latency av huruvida spelet är ett multiplayerspel eller singleplayerspel? Är det jag eller ni som är helt jävla galna? Någon måste ju äta medicin och lägga sig i sängen och jag förstår verkligen inte om det är jag eller ni.

Permalänk
Hedersmedlem
Skrivet av Icetec:

Åter igen, påverkas denna extremt mätbara latency av huruvida spelet är ett multiplayerspel eller singleplayerspel? Är det jag eller ni som är helt jävla galna? Någon måste ju äta medicin och lägga sig i sängen och jag förstår verkligen inte om det är jag eller ni.

Nä, men det skrev jag aldrig heller. Att argumentera för en sak och att fullt hålla med någon annan är helt skilda saker.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS