Därför håller Nvidia tyst om RTX 4060 Ti 16GB

Permalänk
Medlem

Förvånade? Kinc varnade för detta för 11 år sen ju, kommer ni inte ihåg? (Vart fan tog all tid vägen?)

"- 2 minnesmoduler per kanal kräver clock skew (för synkning), det innebär mer fördröjning och således något lägre generell minnesbanbredd vid samma klockfrekvens."
#12182992

Gissar jag iaf att det är vad man gjort här också.

Inte samma sak som när 3080 fick en 12GB-variant och ökade bus-bredden i samma veva (eftersom kretsen hade stöd för det).

Visa signatur

i7-2700K 5 GHz | 16 GB DDR3-1600 | ASUS Maximus V Gene Z77 | GTX 980
i7-4790K 4.8 GHz | 32 GB DDR3-2133 | ASUS Maximus VII Gene Z97 | GTX 980

Permalänk
Avstängd

128b bus var för lite 12gb a 192 hade varit perfekt för 4060

Permalänk
Medlem

Alla snackar alltid om att nVidia har för lite minne på grafikkorten och jämför oftast med AMD's grafikkort men i praktiken har det ingen större betydelse. Detta är ytterligare ett bevis på att mängden minne snarare bör balanseras till minneshastigheten!

Det är faktiskt ganska enkelt att förstå för en del av sanningen har att göra med att man hämtar texturer från minnet för varje bildruta som ska beräknas. Hur mycket minne kan grafikkortet hinna hämta ut på en bildruta med den minnesbuss som finns på kortet? En stor buffert är dock bra för att cache:a texturer som inte används för tillfället och är ju bra om man inte optimerar mjukvaran (drivrutinerna/spelmotorn/spelen).

Att lågbudgetkort ofta får för mycket minne är ju bara en del av marknadsföringen. De flesta som köper grafikkort vill ha mätvärden och mängden minne är ju enkelt att jämföra.

Nåja, ett bra budgetalternativ för AI/ML beräkningar.

Permalänk
Moderator
Testpilot
Skrivet av Teddis:

Förvånade? Kinc varnade för detta för 11 år sen ju, kommer ni inte ihåg? (Vart fan tog all tid vägen?)

"- 2 minnesmoduler per kanal kräver clock skew (för synkning), det innebär mer fördröjning och således något lägre generell minnesbanbredd vid samma klockfrekvens."
#12182992

Gissar jag iaf att det är vad man gjort här också.

Inte samma sak som när 3080 fick en 12GB-variant och ökade bus-bredden i samma veva (eftersom kretsen hade stöd för det).

Det var en rejäl necro-referens.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Avstängd
Skrivet av Defender:

Fast 2160p är ju halvt ointressant på detta kortet, på tok för klent för majoriten av spel.

"Mina krav häller för alla spm spelar spel!!!"
Alla eftersträvar inte 120 fps. Något ni på sweclocners glömmer hela tiden.
Och 4k är fullt spelbart för de flesta kort med dlss med ofta bättre än native resultat. Men det jag refererar till är ca 60 i native och man måste inte gama i ultra i 4k. Oavsett är det ett villigt kort för ai.

Permalänk
Avstängd
Skrivet av twit:

Med tanke på att inga tillnärmelsevis pålitliga recensioner ännu finns att tillgå eftersom Nvidia inte skickat ut några kort för recensionsändamål undrar man ju lite var du "sett" detta? Våta drömmar och fantasier räknas inte riktigt.

Det stora problemet i högre upplösningar är, som påtalats gång efter annat, inte enbart minnesmängden utan även den kraftigt begränsade minnesbandbredden - där ingen förändring gjorts i versionen med 16GB. Några större förbättringar i 4K kommer vi inte se, och absolut inga som gör 4060 Ti till ett användbart spelkort i den upplösningen.

Finns hur mycket som helst på youtube?
Bara söka själv. Kortet har funnits till dalu i 3 dagar.

Permalänk
Medlem
Skrivet av Xeonist:

Är det objektiv fakta eller en subjektiv åsikt baserad på din ekonomi?

Objektiv fakta är att RTX 3080 kostade 7k vid lansering..
RTX 4060ti är ett skräpkort som är ett gränsfall om det ens ska få säljas pga att det presterar sämre på äldre system.

Permalänk
Medlem
Skrivet av Novdid:

Ja, och dessutom var 290/290X om jag minns rätt konkurrenskraftiga mot 970/980. Det diffade inte många procent och 390/390X lappade i stort igen det glappet och mängden VRAM skadade verkligen inte. En av mina polare använder fortfarande mitt gamla 390X som jag köpte 2015.

Hawaii var senast AMD faktiskt kunde konkurrera innan RDNA 2 i faktisk prestanda mot Nvidia.

290/290X var rejält prisvärda när de lanserades och gick upp mot 770 och 780, men Maxwell 2.0 - och då framförallt 970 - slog det på fingrarna. En del av detta var Nvidias jävla bullshit (Hairworks genererade trianglar mindre än en pixel för att Maxwell kunde filtrera bort dem tidigt i pipelinen, medan GCN försökte rendera dem och flaskade på geometriprocessorn), men Maxwell var riktigt bra. Visst kunde 390/X nå 970, men 980 stod i särklass. Fiji/Fury var ett försök att kontra, men då gjorde Nvidia i praktiken en prissänkning av Titan Maxwell till 980 Ti och vann ändå. Sedan kom Pascal på TSMCs utmärkta 16nm-process, medan AMD var tvungna att köra GF 14nm. Det är inte förrän de slipper den skitprocessen och kan byta till TSMC 7nm som de börjar komma tillbaka.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Fearnox:

Det här kommer väl ganska olägligt då Direct storage bör ha möjlighet att sänka behovet av VRAM ganska markant?
Första spelet släpps den 26:e!

Fast inte.

Om du har en bytta som rymmer en liter mjölk, men behöver två liter mjölk i byttan, får det ju inte plats med mer mjölk bara för att du kan hälla upp mjölken dubbelt så snabbt.

Permalänk
Medlem
Skrivet av Xeonist:

Är det objektiv fakta eller en subjektiv åsikt baserad på din ekonomi?

1000kr extra för 8gb känns helt rimligt, och helt i linje med vad Apple, Lenovo och andra tillverkare/åf tar, och även om skillnaden i spel möjligtvis är liten, så för en content creator så kan det göra en enorm skillnad.

Om du tror att någon kommersiell verksamhet är altruistisk så är ju det en illusion du får hantera själv.
Varför ens dra in det begreppet här?

Vad det däremot gör är ju att det ger, igen, content creators en ingång till (RTX/CUDA) kort med 16gb, tusenlappar billigare än tidigare.

Ingen seriös content creator köper väl 4060ti?

Permalänk
Medlem
Skrivet av ramlösa:

Objektiv fakta är att RTX 3080 kostade 7k vid lansering..
RTX 4060ti är ett skräpkort som är ett gränsfall om det ens ska få säljas pga att det presterar sämre på äldre system.

Och varför är RTX 3080 för nästan 3 år sedan en relevant jämförelse med 4060TI idag?

Skrivet av Maaxan:

Ingen seriös content creator köper väl 4060ti?

Please do tell, vad ska man ha för att kunna kalla sig en seriös content creator?

Permalänk
Medlem
Skrivet av Xeonist:

1000kr extra för 8gb känns helt rimligt, och helt i linje med vad Apple, Lenovo och andra tillverkare/åf tar, och även om skillnaden i spel möjligtvis är liten, så för en content creator så kan det göra en enorm skillnad.

Jag utgår ifrån att du xeonist köpt flera stycken av dessa attraktiva 4060 ti 16g. En sån chans har du väl inte missat.

Permalänk
Medlem
Skrivet av bopp:

Fast inte.

Om du har en bytta som rymmer en liter mjölk, men behöver två liter mjölk i byttan, får det ju inte plats med mer mjölk bara för att du kan hälla upp mjölken dubbelt så snabbt.

Ett stort problem med den moderna texture-streamingen verkar ju vara att man inte har bytt ut mjölken i byttan tillräckligt fort. Därav behövdes tok-mycket CPU i t.ex Last Of Us. Nu efter ett antal patchar har CPU användningen gått ner betydligt och det är nog en stor del till att texturerna börjar se fina ut i det spelet. Självklart är mängden VRAM viktigt men går det att få in relevanta saker i minnet fortare så är det kanske ungefär lika viktigt.

Har en 3070-8GB laptop med en 8 core intel gen 11 CPU tror jag det är. Launchversionen av Last of US var totalt ospelbart. Mest pga CPU men texturerna såg ju också ut som skit. Men jag tror det visade sig lite att när man väl fått bukt på den skyhöga CPU användningen började texturerna se bättre ut av bara den anledningen, texture-streamingen började fungera. Det kan mycket väl tänkas att Direct Storage har liknande fördelar.

Nu har ju en PC mycket, mycket mer RAM än ett TV-spel så man kan ha stora delar av grafikdatan i RAM som man kopierar in på GPU vid behov. Så kan man ju inte göra på en PS5 t.ex. Och jag vet inte om det är snabbare än Direct Storage i alla lägen. Finns säkert både för och nackdelar.

Permalänk
Medlem
Permalänk
Medlem
Skrivet av Maaxan:

Ingen seriös content creator köper väl 4060ti?

Vet iaf minst en glad programmerare som gärna tar lite billigare och strömsnålare kort och stoppar i portabla DIT/logg-burkar så de kan göra transcript på vad som sägs i inspelad video osv. För LLM/AI är minne ganska viktigt. Blev en del 3060 (12GB för rimlig peng) inköpta förra generationen.

Jag tror det är svårt för gemene att veta hur hela grafikkortsbranschen ser ut och vilka som skaffar vad till vilken anledning vid det här laget. Användarmönster är gravt olika så har man inte frågat sig runt ordentligt så har man inte fått hela bilden.

Visa signatur

i7-2700K 5 GHz | 16 GB DDR3-1600 | ASUS Maximus V Gene Z77 | GTX 980
i7-4790K 4.8 GHz | 32 GB DDR3-2133 | ASUS Maximus VII Gene Z97 | GTX 980

Permalänk
Medlem
Skrivet av mpat:

290/290X var rejält prisvärda när de lanserades och gick upp mot 770 och 780, men Maxwell 2.0 - och då framförallt 970 - slog det på fingrarna. En del av detta var Nvidias jävla bullshit (Hairworks genererade trianglar mindre än en pixel för att Maxwell kunde filtrera bort dem tidigt i pipelinen, medan GCN försökte rendera dem och flaskade på geometriprocessorn), men Maxwell var riktigt bra. Visst kunde 390/X nå 970, men 980 stod i särklass. Fiji/Fury var ett försök att kontra, men då gjorde Nvidia i praktiken en prissänkning av Titan Maxwell till 980 Ti och vann ändå. Sedan kom Pascal på TSMCs utmärkta 16nm-process, medan AMD var tvungna att köra GF 14nm. Det är inte förrän de slipper den skitprocessen och kan byta till TSMC 7nm som de börjar komma tillbaka.

R9 390 kunde inte bara komma upp i nivå med 970,
I de flesta speltester jag tittade innan jag köpte 390 slog det 970 på fingrarna för en billigare peng och mer ram. Glappet dem emellan ökade dessutom över tid. Men du har ju helt rätt i att det inte varit någon konkurrens i toppskiktet förrän rdna 2 kom och rdna 3 har ju skitit i toppskiktet helt.

Visa signatur

Asus X470 gaming-f, 5800x, 7900xt, g.skill 32gb 3200 cl 14.

Permalänk
Medlem

Fattar ej alla som skriver att mer vram höjer prestandan. Det är ingen på Sweclockers som klagat pga den anledning utan snarare att vissa kort i 3 och 2xxx serien börjar få riktigt usla 1% lows och stuttering pga begränsad mängd minne trots att kortet i övrigt är fullt kapabelt än idag. 16gb ger ju inte mer fps men det är nice för det kommer förmodligen hålla 1% lows i schack utan att behöva sänka grafiken drastiskt.

Och som vissa skriver är det ju alltid gött med mer vram för annat än spel.

Visa signatur

Asus X470 gaming-f, 5800x, 7900xt, g.skill 32gb 3200 cl 14.

Permalänk
Medlem
Skrivet av mpat:

290/290X var rejält prisvärda när de lanserades och gick upp mot 770 och 780, men Maxwell 2.0 - och då framförallt 970 - slog det på fingrarna. En del av detta var Nvidias jävla bullshit (Hairworks genererade trianglar mindre än en pixel för att Maxwell kunde filtrera bort dem tidigt i pipelinen, medan GCN försökte rendera dem och flaskade på geometriprocessorn), men Maxwell var riktigt bra. Visst kunde 390/X nå 970, men 980 stod i särklass. Fiji/Fury var ett försök att kontra, men då gjorde Nvidia i praktiken en prissänkning av Titan Maxwell till 980 Ti och vann ändå. Sedan kom Pascal på TSMCs utmärkta 16nm-process, medan AMD var tvungna att köra GF 14nm. Det är inte förrän de slipper den skitprocessen och kan byta till TSMC 7nm som de börjar komma tillbaka.

Hehe. Läs vad jag skrev, och sen läs vad du skrev igen så skriver vi i princip samma sak; "Efter Hawaii var inte AMD konkurrenskraftiga fram till RDNA 2 på 7nm".

Jag skulle dock inte säga att de 10-15% som 980 har över 390X är "särklass". Men ja, just då var 980 bättre och dyrare. Hawaii hade en stor svaghet i tesselering vilket Nvidia nyttjade genom att se till att spel använde Hairworks (ibland i onödan) som du skriver. När Polaris kom var den biten åtgärdad också men för sent.

Förtydligande.
Permalänk
Medlem
Skrivet av dblade:

Alla snackar alltid om att nVidia har för lite minne på grafikkorten och jämför oftast med AMD's grafikkort men i praktiken har det ingen större betydelse. Detta är ytterligare ett bevis på att mängden minne snarare bör balanseras till minneshastigheten!

Det är faktiskt ganska enkelt att förstå för en del av sanningen har att göra med att man hämtar texturer från minnet för varje bildruta som ska beräknas. Hur mycket minne kan grafikkortet hinna hämta ut på en bildruta med den minnesbuss som finns på kortet? En stor buffert är dock bra för att cache:a texturer som inte används för tillfället och är ju bra om man inte optimerar mjukvaran (drivrutinerna/spelmotorn/spelen).

Att lågbudgetkort ofta får för mycket minne är ju bara en del av marknadsföringen. De flesta som köper grafikkort vill ha mätvärden och mängden minne är ju enkelt att jämföra.

Nåja, ett bra budgetalternativ för AI/ML beräkningar.

Klart det har betydelse. Kolla på äldre kort där det finns 4 och 8GV versioner. 8GB har åldrats betydligt bättre. Liknande testar har gjorts med 1060 där 3 och 6GB versionerna vid lansering bara skiljde sig tack vare de 10% lägre kärnorna på 3GB men nu är skillnaden betydligt mer för 3GB inte räcker till det mesta.

Hardware Unboxed visade vissa spel där det fick 25% mer prestanda och i Forspoken blir texturerna betydligt snyggare även om GPS är samma för att med 8GB kan den inte ladda in allt.

Det kommer vara fler och fler spel som kräver mer än 8GB framöver. Även i 1080p.

Visst kommer det finnas lågupplösta texturer att välja i spel så man klarar sig inom 8GB flera år framöver men inte så snyggt när texturerna är lågupplösta.

8GB har precis börjat vara för lite. Om ett år är det fler spel det är för lite på. Om 2 år ännu fler osv.

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem
Skrivet av Xeonist:

Och varför är RTX 3080 för nästan 3 år sedan en relevant jämförelse med 4060TI idag?

Please do tell, vad ska man ha för att kunna kalla sig en seriös content creator?

Inte hobby verksamhet?

Permalänk
Medlem

Kanske redan har postats här, men HU visar tydligt att minnet hjälper en hel del i de scenariorna spel kräver mer minne, även fast minnesbussen är i snålaste laget. Från bildspel till 90 fps, dvs pinsamt att nVidia inte hade mer minne från början. I vilket fall är det en pungspark till alla som inhandlar kortet, oavsett minnesmängd; ena gruppen får kassera kortet inom kort eller köra pinsamt låga inställningar, medans den andra får punga ut betydligt mer kosing. Andra gruppen kan dock behålla kortet ett år eller två längre, samt köra högsta texturinställningarna (samt aktivera RT i vissa fall).

Tänk också på att det handlar om 1080p i vissa fall!

Tittar man på AVG tabellerna så syns inte mestadelen av dessa problem, vilket är lite weird. Vissa spel sket endast i att ladda högupplösta texturer och behöll därav prestandan.

Permalänk
Medlem
Skrivet av dagas:

Hardware Unboxed visade vissa spel där det fick 25% mer prestanda och i Forspoken blir texturerna betydligt snyggare även om GPS är samma för att med 8GB kan den inte ladda in allt.

Det kommer vara fler och fler spel som kräver mer än 8GB framöver. Även i 1080p.

HUB har väl gjort ett 10-tal videos hur det ser ut med ultra settings på 8GB kort i nyare spel, och det blir ju den ena knasigheten efter den andra. Samtidigt tror jag inte dom har visat ett enda screenshot på hur det skulle se ut om man sänker någon setting så man inte VRam-starvar korten och man slipper frimärks-texturer. Eller att 1% blir bra mycket bättre. Jag kan ha missat något och dom kan ha visat något liknande, men bilden man förmedlar är att 8GB är skit i nya spel iallafall.

Följden blir att många tror (du kanske) att man kan inte köpa spelen för det fungerar inte på datorn man har. Och så är det ju inte, spelar ingen roll om det är Nvidias eller AMDs kort. 3070 har dom ju sågat som totalt oanvändbart, och jag kan inte tänka mig att någon av dom här spelen inte fungerar riktigt bra på det kortet i verkligheten.

Jag tycker det är bra att man belyser problematiken runt 8GB och att man absolut inte skall betala 5-6000:- för ett sådant kort idag. Men det är synd att man inte klarar av att visa att spelen faktiskt fungerar riktigt bra även om du sitter på ett 8GB kort idag. HUB är väldigt hårvarufokuserade när det gäller lösningar, köp nytt kort med mer minne.

Permalänk
Avstängd
Skrivet av dagas:

Visst kommer det finnas lågupplösta texturer att välja i spel så man klarar sig inom 8GB flera år framöver men inte så snyggt när texturerna är lågupplösta.

Sweclockers: det finns inget alternativ mellan högupplösta och lågupplösta texturer! Alla spelar dessutom i 8K och pixelpeepar.

Om alternativet är LÅGUPPLÖSTA TEXTURER vad kallas då dagens spel som inte kräver 8gb+ vram för ultra texturer? Lågupplösta?

Eller är det vara bättre spelutvecklare och vi låtsas som att dessa spel inte finns.

Permalänk
Medlem
Skrivet av Dalton Sleeper:

Kanske redan har postats här, men HU visar tydligt att minnet hjälper en hel del i de scenariorna spel kräver mer minne, även fast minnesbussen är i snålaste laget. Från bildspel till 90 fps, dvs pinsamt att nVidia inte hade mer minne från början. I vilket fall är det en pungspark till alla som inhandlar kortet, oavsett minnesmängd; ena gruppen får kassera kortet inom kort eller köra pinsamt låga inställningar, medans den andra får punga ut betydligt mer kosing. Andra gruppen kan dock behålla kortet ett år eller två längre, samt köra högsta texturinställningarna (samt aktivera RT i vissa fall).

Tänk också på att det handlar om 1080p i vissa fall!

Tittar man på AVG tabellerna så syns inte mestadelen av dessa problem, vilket är lite weird. Vissa spel sket endast i att ladda högupplösta texturer och behöll därav prestandan.

https://youtu.be/2_Y3E631ro8

Yep vissa VRAM relaterad problem visas inte alltid i Average FPS grafer. Tycker det är bra att Steve visar fel som annars hade gått obemärkt förbi.

I vissa spel var skillnaden verkligen enorm och nu när vi har ett 4060Ti utan VRAM begränsning så ser man verkligen hur kapabelt kortet är i Ultra settings i de spel som tidigare gav stutterfest.

Att VRAM sätter begränsningar för ett kort någon gång under dess användbara tid är såklart inget konstigt. Däremot vill man aldrig se nya kort direkt bli begränsade av det.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk

Dags för Sweclockers att ta på sig dumstruten. Kan vara en barnsligaste artiklarna jag läst i mitt liv, Kotakunivå.

Hardware Unboxed gör ett bra jobb med att utbilda allmänheten samt försöka hindra Nvidia från att bromsa spelutvecklingen, HUB har nog kostat Nvidia många sålda kort. Hatten av till HUB.

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Medlem
Skrivet av Lussarn:

HUB har väl gjort ett 10-tal videos hur det ser ut med ultra settings på 8GB kort i nyare spel, och det blir ju den ena knasigheten efter den andra. Samtidigt tror jag inte dom har visat ett enda screenshot på hur det skulle se ut om man sänker någon setting så man inte VRam-starvar korten och man slipper frimärks-texturer. Eller att 1% blir bra mycket bättre. Jag kan ha missat något och dom kan ha visat något liknande, men bilden man förmedlar är att 8GB är skit i nya spel iallafall.

Följden blir att många tror (du kanske) att man kan inte köpa spelen för det fungerar inte på datorn man har. Och så är det ju inte, spelar ingen roll om det är Nvidias eller AMDs kort. 3070 har dom ju sågat som totalt oanvändbart, och jag kan inte tänka mig att någon av dom här spelen inte fungerar riktigt bra på det kortet i verkligheten.

Jag tycker det är bra att man belyser problematiken runt 8GB och att man absolut inte skall betala 5-6000:- för ett sådant kort idag. Men det är synd att man inte klarar av att visa att spelen faktiskt fungerar riktigt bra även om du sitter på ett 8GB kort idag. HUB är väldigt hårvarufokuserade när det gäller lösningar, köp nytt kort med mer minne.

Jag kollar på nästan alla deras videos jag får inte alls den bilden av deras resonemang kring 8GB. Steve påpekar ofta att nästan alla 8GB problem kan fixas med sänkta settings (och det säger väl sig självt) men påpekar att det är ganska absurt att nya kort för 400$ 2023 kan få problem med 1080p Ultra. Och ska vi vara helt ärliga bör ett kort för så mycket pengar lira väl med 1440p Ultra också men nu är ju ribban tyvärr sänkt.

3070 på launch blev en stor rekommendation från Steve om jag minns rätt. Det enda negativa var just mängden VRAM som ansågs snålt men absolut inte som en dealbreaker. De rekommenderade exempelvis 3070 över 6700XT ett ganska långt tag, egentligen bara senaste året 3070 har blivit mer och mer tveksamt att rekommendera just för mängden VRAM.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av Clasito:

Jag kollar på nästan alla deras videos jag får inte alls den bilden av deras resonemang kring 8GB. Steve påpekar ofta att nästan alla 8GB problem kan fixas med sänkta settings (och det säger väl sig självt) men påpekar att det är ganska absurt att nya kort för 400$ 2023 kan få problem med 1080p Ultra. Och ska vi vara helt ärliga bör ett kort för så mycket pengar lira väl med 1440p Ultra också men nu är ju ribban tyvärr sänkt.

3070 på launch blev en stor rekommendation från Steve om jag minns rätt. Det enda negativa var just mängden VRAM som ansågs snålt men absolut inte som en dealbreaker. De rekommenderade exempelvis 3070 över 6700XT ett ganska långt tag, egentligen bara senaste året 3070 har blivit mer och mer tveksamt att rekommendera just för mängden VRAM.

Men då återstår ju frågan varför många tror att man måste få frimärks-texturer på ett 8GB kort. Det känns inte som budskapet går fram riktigt om du nu har rätt.

Det hade nog varit bättre om man hade visat det och inte bara "nämnt det i förbifarten".

Alltså HUB har sin journalistik och det fungerar för dom uppenbarligen, så jag vill inte avgöra om det är bra eller inte.

Men för mig kanske det inte riktigt är helhetsbilden att bara visa hela tiden vad som inte fungerar, om man är ut för att hjälpa gamern att hitta en bra balans mellan hård och mjukvara.

Permalänk
Medlem
Skrivet av Lussarn:

Men då återstår ju frågan varför många tror att man måste få frimärks-texturer på ett 8GB kort. Det känns inte som budskapet går fram riktigt om du nu har rätt.

Det hade nog varit bättre om man hade visat det och inte bara "nämnt det i förbifarten".

Är det så många som tror det? Jag får bilden av att många förstår att 8GB duger i vissa spel men inte i andra, om man ska maxa settings, vilket stämmer överens med verkligheten.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem

Jag redigerade mitt inlägg, som sagt. HUB gör som dom vill, men i mina ögon kanske dom inte förmedlar en bra helhetsbild. Men jag vill inte kritisera dom, dom har sin följarskara som älskar dom och tycker dom gör bra grejer.

Permalänk
Medlem
Skrivet av Lussarn:

Jag redigerade mitt inlägg, som sagt. HUB gör som dom vill, men i mina ögon kanske dom inte förmedlar en bra helhetsbild. Men jag vill inte kritisera dom, dom har sin följarskara som älskar dom och tycker dom gör bra grejer.

Det är väl lite som med nyhetsrapportering, att rapportera om det normala är mindre intressant än det onormala. Kritisera på du, det är bra! Jag kan förstå att man tycker deras klagande skapar en förvrängd bild av verkligheten men jag personligen tycker deras budskap går fram mellan raderna i de fall de inte säger det rakt ut.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT