Nvidia Geforce RTX 4070 – energieffektiv och kompakt

Permalänk
Medlem
Skrivet av martincool:

Den som kan gpus bättre än mig får gärna svara. Rtx 4070 blir slagen av rx 6900/6950 xt i nästan alla tester i 1440 p kostar lika mycket men 6900 har 4 gb mer vram. Hur kan detta anses som ett utmärkt val ?

DLSS, RT, strömförbrukning och kvalité.

Jag har sagt det förut och säger det igen: Efter en viss fps blir andra saker viktiga. Såklart svårt att förstå för många men det är ingen större poäng att ha 300 fps i ett spel framför 250. Jag vet att det finns fördelar i fps-spel men den skaran som verkligen får en fördel lär inte vara stor.

Istället får du här ett kort som kan vara mindre och gå tystare med stöd för lite nytt godis.

Se det lite som att köpa en bil - Du kan köpa en trimmad Seat eller så köper du en ny Audi.

Så utifrån där produkten ligger och sin nisch så gör den sig bra/okej.

Permalänk
Medlem
Skrivet av TexasRed:

Lanseras på samma pris som ett 3080. Presterar som ett 3080. Har samma vram som ett 3080 (den något dyrare 12gb versionen). Enda egentligen fördelen är att den inte drar så förbaskat mycket ström, men hur räcker det till för att ge den här produkten bedömningen "utmärkt" en hel gpu generation senare?! Måste tyvärr säga att sådant här allvarligt påverkar det höga anseende jag tidigare haft för sweclockers.

Instämmer i vad du säger.

Visa signatur

Don´t do this, don´t do that. Do this and think that.
Serious, do you really think I give a shit?

Permalänk
Medlem

Presterar samma som mitt 6800xt som jag köpte för samma pris på releasedagen för 2.5 år sen...

Permalänk
Medlem

Gårdagens prestanda till morgondagens pris. Läckert!

Visa signatur

R&D Elektronik & Radioingenjör

Permalänk
Medlem
Skrivet av Dreas89:

Jag har sagt det förut och säger det igen: Efter en viss fps blir andra saker viktiga. Såklart svårt att förstå för många men det är ingen större poäng att ha 300 fps i ett spel framför 250. Jag vet att det finns fördelar i fps-spel men den skaran som verkligen får en fördel lär inte vara stor.

Några år framåt kan ju skillnaden dock snarare bli 100 framför 50 FPS, 1080Ti har ju exempelvis åldrats betydligt bättre än 1070, även om 1080Ti ansågs som något overkill när det var nytt. Man får tänka lite längre än vad näsan räcker.

Skrivet av Dreas89:

Se det lite som att köpa en bil - Du kan köpa en trimmad Seat eller så köper du en ny Audi.

Lite väl fanboyigt, AMD har problem med sin mjukvara (som vanligt av någon anledning), det är ju dock något som kan förbättras, ett kort som helt enkelt har dålig hårdvara förblir dåligt.

Visa signatur

AMD R7 5800X3D | Asus Strix X470-F | 32GB G-Skill @ 3,6GHz | RTX 3090Ti

Permalänk
Redaktion
Redaktör
Skrivet av Saagaa:

Bra recension i övrigt men tål inte riktigt att ni till synes sväljer Nvidias DLSS3 rakt av med raka FPS-jämförelser mot utan frame-gen. Detta bör kompenseras med den andra kanske viktigare halvan av vad fördelen med högre fps är: Latens. Självklart med samma inställningar i övrigt. Det är meningslöst att jämföra DLSS3 frame-gen med native när DLSS2 är den enda rättvisa jämförelsen. Samma sak med Nvidia reflex såklart men det nämns inte i det kapitlet vad jag kan se.

Jag kan se anledningen till att ha dessa frame-gen grafer med, men då ska de kompletteras med latency grafer. Där kommer frame-gen hamna efter sina motsvarigheter (i inställningar). Detta kommer även vara en bra jämförelse punkt i framtiden när FSR3 kommer. Ingen aning om det är sant men vet att någon nämnde att FSR3 ryktas ha bra mycket sämre latency. Om FSR3 då jämförs rakt av mot DLSS3 i endast FPS så blir det också en dålig jämförelse.

Tack så mycket!
Jag vet inte om jag skulle säga att vi/jag sväljer det rakt upp och ner, för med precis allting annat så är en stor portion skepsis på sin plats när en tillverkare presenterar en funktion eller siffror. Jag håller med dig helt och hållet att latens bör redovisas och vi har verktygen att göra detta då vi kan få fram rätt så omfattande mängd data via frameview osv. Miss från min sida att inte ta med det på DLSS 3-sidan i recensionen, Jag får be om att återkomma på den punkten, kan inte garantera att jag hinner uppdatera den här artikeln men om inte det sker nu så kommer jag att redovisa den datan i nästa test vi använder DLSS 3.

Jag valde dock att ha med graferna gällande frame-gen och ha en sektion dedikerad till det då funktionen nu är så pass utbredd att det skulle kännas fel att hoppa över en funktion som får mer och mer betydelse ju mer den implementeras. Trots det jag nyss nämnde så tar jag till mig av feedbacken och får se till att göra just den sektionen mer utförlig framgent.

Gällande FSR 3 vet vi i dagsläget nästintill ingenting mer än att den är under utveckling, mig veterligen har inte AMD presenterat ett konkret verktyg för att minska latenserna men jag utgår ifrån att det ligger i pipen och att vi får se funktionen lanseras på riktigt framåt Q3-Q4(min gissning är Q4)

Permalänk
Redaktion
Redaktör
Skrivet av martincool:

Den som kan gpus bättre än mig får gärna svara. Rtx 4070 blir slagen av rx 6900/6950 xt i nästan alla tester i 1440 p kostar lika mycket men 6900 har 4 gb mer vram. Hur kan detta anses som ett utmärkt val ?

Recensionen vi har skrivit gäller då givetvis FE-modellen som mig veterligen är billigare än 6900 XT. Kollar jag lite snabbt på Prisjakt så verkar de billigaste RX 6900 XT ligga på runt 9k. 6900 XT är absolut snabbare i "vanlig" rastrering och är det ENBART den aspekten som är av intresse så är det självklart så att AMD-korten du nämnde är snabbare. I vår bedmöning tar vi dock in fler aspekter, till exempel så är 4070 väsentligt snabbare i ray-tracing-prestanda vilket i min bok är viktigt då funktionen knappast kommer att få mindre spridning i moderna spel framgent. Vidare drar den nästan 100 W mindre och är ett fysiskt mindre kort. Oavsett om du räknar in DLSS eller inte i bedömningen är ovan nämnda aspekter saker som motiverar utmärkelsen för mig.

Givetvis är jag dock inte döv för feedback som kommer in och jag har full respekt och förståelse för att allas behov och prioriteringar är olika gällande vad man letar efter i ett grafikkort. Men i min subjektiva bedömning baserad på så objektiva siffror jag kan förmå är min slutsats det som jag redovisar i recensionen.

Permalänk
Medlem
Skrivet av Mäki:

Kostar lite mer än 3080 när det släpptes och 5 fps mindre i 4k cyberpunk några år senare. Vem försöker de lura?

Ja inte är det kul för konsumenten. Men i 4000-serien så är kortet hittills mest prisvärt (om vi kan säga det om något kort det vill säga). Får väl se om det finns några Founders Edition på proshop för MSRP, justerat för dollarkursen och svensk moms.

Har man hoppat 3000-serien och sitter på ett 1000-2000-serie kort så tror jag många kollar på just ett 4070, eller varför inte ett RX6950 som går att få nytt för 8500 med mer minne dessutom.

Permalänk
Avstängd
Skrivet av ottoblom:

Yes Nvidia har lyckats sälja ett paket . Med det sagt det är nästan en hel tier upp alltså 6950 xt kostar nu 629 dollar i USA det presterar som ett 4070 ti men kostar som ett 4070 . Hur mycket dlss kontra amd motsvarighet är värt vet jag inte . Men känns som 6700 xt säljer just för att priset liggen en tier under Nvidia .

Jamen RX 6000-serien är kattskit i produktivitet.
7000-serien har en del att komma med, men 6000 är allt för ofta askass utanför råprestanda i spel utan något modernt lullull.

Permalänk
Medlem
Skrivet av CrispVanDahl:

Recensionen vi har skrivit gäller då givetvis FE-modellen som mig veterligen är billigare än 6900 XT. Kollar jag lite snabbt på Prisjakt så verkar de billigaste RX 6900 XT ligga på runt 9k. 6900 XT är absolut snabbare i "vanlig" rastrering och är det ENBART den aspekten som är av intresse så är det självklart så att AMD-korten du nämnde är snabbare. I vår bedmöning tar vi dock in fler aspekter, till exempel så är 4070 väsentligt snabbare i ray-tracing-prestanda vilket i min bok är viktigt då funktionen knappast kommer att få mindre spridning i moderna spel framgent. Vidare drar den nästan 100 W mindre och är ett fysiskt mindre kort. Oavsett om du räknar in DLSS eller inte i bedömningen är ovan nämnda aspekter saker som motiverar utmärkelsen för mig.

Givetvis är jag dock inte döv för feedback som kommer in och jag har full respekt och förståelse för att allas behov och prioriteringar är olika gällande vad man letar efter i ett grafikkort. Men i min subjektiva bedömning baserad på så objektiva siffror jag kan förmå är min slutsats det som jag redovisar i recensionen.

Klart kortet är "UTMÄRKT"...

- Ett "UTMÄRKT" sätt för Nvidia att tjäna massor av pengar genom att råna konsumenterna
- Ett "UTMÄRKT" sätt att komma undan en väldigt dålig prestandaökning mot förra generationen
- Ett "UTMÄRKT" sätt att sälja kort med för lite minne

Permalänk
Redaktion
Redaktör
Skrivet av Almtom:

Klart kortet är "UTMÄRKT"...

- Ett "UTMÄRKT" sätt för Nvidia att tjäna massor av pengar genom att råna konsumenterna
- Ett "UTMÄRKT" sätt att komma undan en väldigt dålig prestandaökning mot förra generationen
- Ett "UTMÄRKT" sätt att sälja kort med för lite minne

Det finns väl inte riktigt något sätt jag kan bemöta det här på, men det är klart vi alla önskar att vår hobby och det vi bryr oss om skulle finnas tillgängligt till lägre priser. Nu försöker jag dock göra en så bra bedömning jag kan efter de förutsättningar som faktiskt existerar och inte de förutsättningar jag önskar var de som gällde.

Permalänk
Medlem
Skrivet av CrispVanDahl:

Det finns väl inte riktigt något sätt jag kan bemöta det här på, men det är klart vi alla önskar att vår hobby och det vi bryr oss om skulle finnas tillgängligt till lägre priser. Nu försöker jag dock göra en så bra bedömning jag kan efter de förutsättningar som faktiskt existerar och inte de förutsättningar jag önskar var de som gällde.

Det är inte lätt . Det visar på hur sjuk marknaden fortfarande är efter mining bommen . Det är ju gärna inte ditt fel att nästan alla andra kostar mer ....

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av Rixxz:

Några år framåt kan ju skillnaden dock snarare bli 100 framför 50 FPS, 1080Ti har ju exempelvis åldrats betydligt bättre än 1070, även om 1080Ti ansågs som något overkill när det var nytt. Man får tänka lite längre än vad näsan räcker.

Lite väl fanboyigt, AMD har problem med sin mjukvara (som vanligt av någon anledning), det är ju dock något som kan förbättras, ett kort som helt enkelt har dålig hårdvara förblir dåligt.

Självklart. Det är en helhet där man bäst vet vad man har nu och vilka spel man spelar. Antingen köper man nu utifrån det man vet eller så köper man för att hoppas på något utifrån tidigare erfarenheter.

Fanboyigt? Att säga att AMD har rå prestanda för att ta dig dit du vill men att Nvidia kommer med stabilitet och kvalité i ett snarlikt paket.

Permalänk
Medlem
Skrivet av Almtom:

Klart kortet är "UTMÄRKT"...

- Ett "UTMÄRKT" sätt för Nvidia att tjäna massor av pengar genom att råna konsumenterna
- Ett "UTMÄRKT" sätt att komma undan en väldigt dålig prestandaökning mot förra generationen
- Ett "UTMÄRKT" sätt att sälja kort med för lite minne

Kanske ska fundera både en och tre gånger innan du kräks ut ditt missnöje genom att citera rescensenten(stavningen?).

Crisp har gjort vad han kan utifrån förutsättningarna och det haglar missnöje över både det ena och det andra. Kom in i verkligheten och bemöt rätt sak på rätt plats.

Börjar bli tröttsamt med angrepp som jag är rädd urholkar sweclockers på sikt. Iofs inte endast här kulturen blir mer negativ.

Permalänk
Medlem

Så, man betalar för mjukvaran DLSS3, för hårdvaran har ju inte blivit bättre förutom strömförbrukningen?

Permalänk
Medlem
Skrivet av Swedishchef_90:

Jag tror många kommer inse att hårdvara inte kommer gå ner i pris närmsta decennium nu när AI skall introduceras. 5000 seriens wafer skall vara 20% dyrare.

Den dimridån om ökande wafer-kostnader har de dock kört med i alla tider.

I verkligheten är det ju så att de antingen får ut fler chip från en wafer med ökad transistordensitet, alternativt färre defekter p.g.a. förbättrad tillverkningsteknik de gånger det inte är nodkrympning. Det finns flera publikationer som visat uträkningar på hur kraftiga ökning i kostnaden per wafer ändå inte påverkar priset per chip nämnvärt.

Som vanligt styrs marknaden och priserna mest av vad folk är villiga att betala. Det kan vi i närtid tacka alla som köpte 30-seriens grafikkort till löjliga överpriser under miningboomen.

Skrivet av Swedishchef_90:

Tiden av billiga gpuer är nog borta för oss svenskar tills riksbanken får bukt på våran valuta

Tyvärr har Riskbankens uppdrag blivit att successivt dumpa den svenska valutan så att exportföretagen kan leva på oss alla som har tillgångar i SEK. Ungefär som att alla svenskar skulle få hem en faktura av Volvo för varje bil de sålt på export. Hur många skulle tycka att det var rimligt?

Permalänk
Medlem
Skrivet av CrispVanDahl:

Det finns väl inte riktigt något sätt jag kan bemöta det här på, men det är klart vi alla önskar att vår hobby och det vi bryr oss om skulle finnas tillgängligt till lägre priser. Nu försöker jag dock göra en så bra bedömning jag kan efter de förutsättningar som faktiskt existerar och inte de förutsättningar jag önskar var de som gällde.

Det kanske går emot Sweclockers ekonomiska intresse att ge ett negativt betyg.

Men det kan bidra till att ge ett budskap till tillverkarna att deras strategi uppfattas som girig och att det kan påverka dem i längden när recensenter ger dem en känga gång på gång tills de får nog. Om det är så gemene man tycker, vilket eran poll antyder.

Och vi gemene men får bidra genom att inte köpa något av dessa nya kort.

Kom igen, våra gamla kort kan användas ett tag till!

Visa signatur

1. Asrock B650 PG Lightning | 7600X | 32GB Kingston Fury 6000MHz | GTX 1070 |

Permalänk
Avstängd
Skrivet av Hembrygd:

Kom igen, våra gamla kort kan användas ett tag till!

Nä, det gör faktiskt inte det.
8GB räcker inte till att köra en del AI-modeller, och AMD är ofta erkänt dåliga (om det alls fungerar) på det området.

Har fått lägga band på mina begär ända sedan Stable Diffusion släpptes, och nu är jag less.
4070 blir det solklart, för det presterar ungefär dubbelt så bra som mitt 2070, och kan över huvud taget köra Vicuna eller vad den hette.

Jag hade gärna köpt ett 4090, men det skulle ta iallafall 4 månader att skrapa ihop till ett, och jag vill börja göra grejer nu.
Dessutom har jag en känsla att vi kan se rätt stora prestandakliv de kommande två generationerna då det börjat bli så stort att använda AI inom utveckling (ja det har funnits ett tag, men industriintresset och kapaciteten har också ökat sedan nyår), så om jag köper ett 4070 behöver jag inte skämmas lika mycket om det blir läge att köpa 5090 eller 6090.

Permalänk
Redaktion
Redaktör
Skrivet av Hembrygd:

Det kanske går emot Sweclockers ekonomiska intresse att ge ett negativt betyg.

Men det kan bidra till att ge ett budskap till tillverkarna att deras strategi uppfattas som girig och att det kan påverka dem i längden när recensenter ger dem en känga gång på gång tills de får nog. Om det är så gemene man tycker, vilket eran poll antyder.

Och vi gemene men får bidra genom att inte köpa något av dessa nya kort.

Kom igen, våra gamla kort kan användas ett tag till!

Nej inte alls faktiskt, Sweclockers ekonomiska intresse ligger i att vi fortsätter vara oberoende av samtliga tillverkare, oavsett vilken färg deras logotyp är.

Däremot så hör det till sakens natur att en recension alltid kommer vara färgad av skribentens subjektiva uppfattning oavsett hur objektiva vi försöker att vara när vi bedömer kvantifierbara aspekter. Skulle vi vilja vara rakt upp och ner objektiva så antar jag att enbart prestandasiffror skulle vara det vi publicerar. Sen är själva omdömet inte heller något som bestäms av en kommitté utan omdömet sätts av huvudansvarige på testet, så det är absolut inte en universal sanning utan snarare baserat på hur väl jag tycker att den matchar kriterierna för respektive utmärkelse.

Jag försöker alltid redogöra så gott jag kan för varför jag tar beslutet jag tar och ibland kan en produkt stå och väga mellan två utmärkelser och då får vi givetvis diskutera gemensamt vad vi själva tycker och ibland är det sunt att få in lite perspektiv utifrån. Nu är ju dock samtidigt varje utmärkelse en produkt av den tid som det sätts i och de förutsättningar som gäller i just det tillfället.

Ska jag däremot prata hur ett helt privat perspektiv så tycker jag givetvis också att det är en ruskigt dyster utveckling på hårdvarusidan när det kommer till priser. Jag sitter också ofta och tänker tillbaka på tiden när jag började bygga system själv och hur det gick att köpa topp-modeller för runt 5k och såklart önskar jag att det vore så nu också.
Realiteten är dock att i min yrkesroll så skulle det bli ganska tråkig läsning om jag fick strunta i utmärkelse eller omdöme på varje produkt som kostar väldigt mycket pengar och att varje recension skulle summeras till att den kostar för mycket, detta oaktat att jag kanske tycker det som privatperson.

Jag hoppas att det jag svarat är ett resonemang som går att följa, annars finns jag givetvis alltid tillgänglig för frågor.
Och som tidigare nämnts, ger jag en utmärkelse eller en positiv recension är det en bedömning av produkten i det sammanhang som råder just nu på marknaden och med gällande priser, det är inte per automatik en uppmaning till samtliga att sära på lädret och springa och handla.

Permalänk
Medlem
Skrivet av CrispVanDahl:

Tack för ett tydligt svar! Det är lite fler parametrar än jag tänkte på.

Visa signatur

1. Asrock B650 PG Lightning | 7600X | 32GB Kingston Fury 6000MHz | GTX 1070 |

Permalänk
Medlem
Skrivet av Ricerunner:

Nä, det gör faktiskt inte det.
8GB räcker inte till att köra en del AI-modeller, och AMD är ofta erkänt dåliga (om det alls fungerar) på det området.

Har fått lägga band på mina begär ända sedan Stable Diffusion släpptes, och nu är jag less.
4070 blir det solklart, för det presterar ungefär dubbelt så bra som mitt 2070, och kan över huvud taget köra Vicuna eller vad den hette.

Jag hade gärna köpt ett 4090, men det skulle ta iallafall 4 månader att skrapa ihop till ett, och jag vill börja göra grejer nu.
Dessutom har jag en känsla att vi kan se rätt stora prestandakliv de kommande två generationerna då det börjat bli så stort att använda AI inom utveckling (ja det har funnits ett tag, men industriintresset och kapaciteten har också ökat sedan nyår), så om jag köper ett 4070 behöver jag inte skämmas lika mycket om det blir läge att köpa 5090 eller 6090.

Ok eran kategori får ett undantag

Visa signatur

1. Asrock B650 PG Lightning | 7600X | 32GB Kingston Fury 6000MHz | GTX 1070 |

Permalänk
Medlem

Tycker att 4070 är okej faktiskt, men med tanke på att Nvidia själva trycker på för RT hårt som kommer kräva mer och mer vram framöver bla så är 12gb för lite för det pris dom begär, borde varit 16gb med nuvarande prislapp, eller 100$ mindre med 12gb.
4070 kommer tyvärr att få ett för kort liv för prislappen.
Därav inte att rekommendera skulle jag säga, förutom om man nöjer sig med nedskruvar grafik och att slå av RT i framtiden trotts att man betalat 8000kr för att kunna köra det.

Visa signatur

Acer Aspire XC-780 (Pentium G4560/8GB ram/Nvidia GTX 1050 2GB/500GB SSD)
Acer spin 513 Chromebook (ARM Qualcomm processor/4GB ram/64 GB lagring)
Raspberry pi 400
(Retrodatorer av div slag, Atari, Amiga, C64, IBM mm…)

Permalänk
Medlem
Skrivet av Billy Joe Bob:

Japp när det kommer till gnäll och negativitet så står SweClockers nästan högst upp på listan nu för tiden.
Enda som har ohotad plats är forumen på Steam, där kan vi snacka cesspit.

Gamers generellt är de gnälligaste men som en brukar säga det är inte en tävling ;). Sedan tillhör jag också skaran som tycker den mesta kritik mot vad man får för priset en betalar för dagens gpuer är befogat. Skulle ej kalla det gnäll. HardwareUnboxed, Swec, GN, LTT verkar ju dessutom hålla med.

Visa signatur

Asus X470 gaming-f, 5800x, 7900xt, g.skill 32gb 3200 cl 14.

Permalänk
Medlem
Skrivet av metalmac:

Tycker att 4070 är okej faktiskt, men med tanke på att Nvidia själva trycker på för RT hårt som kommer kräva mer och mer vram framöver bla så är 12gb för lite för det pris dom begär, borde varit 16gb med nuvarande prislapp, eller 100$ mindre med 12gb.
4070 kommer tyvärr att få ett för kort liv för prislappen.
Därav inte att rekommendera skulle jag säga, förutom om man nöjer sig med nedskruvar grafik och att slå av RT i framtiden trotts att man betalat 8000kr för att kunna köra det.

Precis som diskuteras tidigare, det är omöjligt att sätta mer än 12gb om de inte vill upprepa 3000 seriens dubbelsidiga vram och då ge den 24gb och högre temps.

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av FierceBrosnan:

Gamers generellt är de gnälligaste men som en brukar säga det är inte en tävling ;). Sedan tillhör jag också skaran som tycker den mesta kritik mot vad man får för priset en betalar för dagens gpuer är befogat. Skulle ej kalla det gnäll. HardwareUnboxed, Swec, GN, LTT verkar ju dessutom hålla med.

Fast att gnälla ändrar ju enbart stämningen, till det sämre.

Sen är det väl enbart fåtal saker som sjunkit i pris senaste 2 åren...

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Precis som diskuteras tidigare, det är omöjligt att sätta mer än 12gb om de inte vill upprepa 3000 seriens dubbelsidiga vram och då ge den 24gb och högre temps.

Varför skulle det vara omöjligt AMD gav ju alla deras 6000 kort gått med vram förutom 6500XT men ingen köpte väll ändå det kortet samma sak gäller även AMD 7000 serie.

Anledningen varför nVidia snålar med vram är för att man ska vara mer eller mindre vara tvungen att uppgradera till 5000 serien när den släpps. Ett exempel på detta är nuvarande 3070/3070Ti kort som i vissa nya spel har en jäkla massa porblem med vram allt från stora frame drops till att spelet helt enkelt inte går att köra på hög grafik. Även fast kortet i sig skulle klara det hur bra som helt om de hade haft 12/16GB vram i stället.

Visa signatur

AMD® RYZEN™ 5 5600X
Red Devil Ultimate RX 6900 XT 16GB
Asus Rog Strix F-GAMING B450
HyperX Fury 32GB DDR4 3200 MHZ
Mobil: Google Pixel 9 PRO

Permalänk
Medlem
Skrivet av Felixark:

Varför skulle det vara omöjligt AMD gav ju alla deras 6000 kort gått med vram förutom 6500XT men ingen köpte väll ändå det kortet samma sak gäller även AMD 7000 serie.

Anledningen varför nVidia snålar med vram är för att man ska vara mer eller mindre vara tvungen att uppgradera till 5000 serien när den släpps. Ett exempel på detta är nuvarande 3070/3070Ti kort som i vissa nya spel har en jäkla massa porblem med vram allt från stora frame drops till att spelet helt enkelt inte går att köra på hög grafik. Även fast kortet i sig skulle klara det hur bra som helt om de hade haft 12/16GB vram i stället.

GDDR6X har enbart max 2gb moduler och 192 bus har 6 minnesplatser 6x2gb=12

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

GDDR6X har enbart max 2gb moduler och 192 bus har 6 minnesplatser 6x2gb=12

Eftersom Nvidia vet om detta så har dom ju skapat kortet för att ha 12GB. Det är inte bara något som råkade bli för att det visade sig vara max möjliga.

Permalänk
Medlem
Skrivet av Squallie:

Eftersom Nvidia vet om detta så har dom ju skapat kortet för att ha 12GB. Det är inte bara något som råkade bli för att det var max möjliga.

Nej självklart men prestandan skulle vara för bra enligt nvidia med 256bus och 16gb+

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Skrivet av Dreas89:

DLSS, RT, strömförbrukning och kvalité.

Jag har sagt det förut och säger det igen: Efter en viss fps blir andra saker viktiga. Såklart svårt att förstå för många men det är ingen större poäng att ha 300 fps i ett spel framför 250. Jag vet att det finns fördelar i fps-spel men den skaran som verkligen får en fördel lär inte vara stor.

Istället får du här ett kort som kan vara mindre och gå tystare med stöd för lite nytt godis.

Se det lite som att köpa en bil - Du kan köpa en trimmad Seat eller så köper du en ny Audi.

Så utifrån där produkten ligger och sin nisch så gör den sig bra/okej.

Oavsett vill man ju aldrig ge mer för få mindre. För använda din retorik så är syftet att jag ska köra dragrace å jag kan vinna över dej med min seat som kostar betydligt mindre än din audi.. så köper jag ju hellre seat alla dar i veckan.

Visa signatur

Moderkort:asus prime x570 pro cpu: Amd ryzen 5600x cpucooler: corsair h70 Ramminne: 64 gb corsair vengance Gpu: AMD: rx 6800 16 gb psu: corsair RM1000i