AMD: "Radeon levererar 16 GB grafikminne från 499 dollar"

Permalänk
Skrivet av Chris_Kadaver:

Allt som inte är 4090 är väl typ obsolet redan med tanke på Unreal 5.1? Vram i all ära så är det oavsett pengarna i sjön om gpun inte fixar ray/path tracing mm?

Att helt använda Path Racing kommer inte bli relevant på många många år.

Permalänk
Medlem
Skrivet av superapan:

När jag jobbat med produktframtagning har $1 i komponentpris översatts till $10 hos konsument. Så även med en bra rabatt för AMD/Nvidia lär det behöva synas i plånboken. Men AMD verkar ju kunna fläska på minne utan att det kostar mer så...

Mängden grafikminne är huvudsakligen en segmentering av produkterna man säljer, det mesta av kostnaden i övrigt är för att täcka den mångåriga utvecklingen, precis som för ett stort antal andra produkter i närliggande branscher. Om det inte vore för att priserna trissats upp av kortsiktiga konsumenter så hade det ju varit dags att uppgradera från ett RTX 3080 under vintern/våren, men det är ju sannolikt inte aktuellt längre eftersom alla varit och tömt sparkontot i Nvidias öppna famn utan några som helst förbehåll. I övrigt kan man gissa sig till att när RTX 3080 blev först ut med GDDR6X så handlar det om ett premium för ny minnesteknologi, och där valde Nvidia klokt nog att begränsa minnesmängden för att hålla priset nere vid introduktionen.

Sen är det många i forumet som gnäller om "för lite VRAM" på Nvidia-kort som är flera år gamla och jämför med vad AMD erbjuder idag, vilket blir löjeväckande.

Vill även tillägga att flertalet saknar kompetensen att yttra sig om hur mycket VRAM som "behövs" då det vanligen handlar om ett av två scenarion som ligger till grund för uttalandet; 1) någon som inte vet att vissa spelmotorer allokerar allt tillgängligt minne oavsett vad som behövs och 2) folk som formligen trycker in texturmoddar i gigantiska spelvärldar och undrar varför deras VRAM tar slut. Misslyckade spelreleaser är inte heller ett giltigt argument för "för lite VRAM".

Permalänk
Inaktiv
Skrivet av Chris_Kadaver:

Nä de som köper RX 6000-serien nu och hoppas på att fine wine ska rädda dem känner sig nog rätt brända inom kort.
Det finns inget grafikkort ens i närheten av att vara värt pengarna. E-sport på datorn, AAA singel player på PS5an är det som gäller tillsvidare. Nu har jag ingen aning om det kommer stämma eller ej, men tidiga rykten talar ju om att RTX 5000-serien kommer vara 125% snabbare än dagens kort har jag för mig? Att köpa kort idag blir väl lite som att köpa kort som med nöd och näppe klarade av att ha tesselering påslaget, varpå kommande generationers kort knappt såg någon prestandahit överhuvudtaget oavsett om det var på eller avslaget.

Varför gäller AAA-spel på PS5'an tillsvidare? PS5'an kan inte ens hantera RT, eller high/4K statik i 60-120FPS?

Permalänk
Medlem

Hoppas AMD lyckas tvinga Nvidia till mer minne med detta

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Nä de som köper RX 6000-serien nu och hoppas på att fine wine ska rädda dem känner sig nog rätt brända inom kort.
Det finns inget grafikkort ens i närheten av att vara värt pengarna. E-sport på datorn, AAA singel player på PS5an är det som gäller tillsvidare. Nu har jag ingen aning om det kommer stämma eller ej, men tidiga rykten talar ju om att RTX 5000-serien kommer vara 125% snabbare än dagens kort har jag för mig? Att köpa kort idag blir väl lite som att köpa kort som med nöd och näppe klarade av att ha tesselering påslaget, varpå kommande generationers kort knappt såg någon prestandahit överhuvudtaget oavsett om det var på eller avslaget.

Du är medveten om vad 125% faktiskt innebär?

Man ska alltid läsa källor väldigt kritiskt. 125% kan låta som mer än dubbla hastigheten när det de facto, i enlighet med matematiska regler, bara innebär 1.25 gånger originalhastigheten. Exakt vad källan egentligen menar blir därför väldigt tvetydigt och kan betyda något helt annat än det du vill det ska betyda.

Vad jag med det vill säga är: Det har ryktats om både det ena och det andra förut och verkligheten har visat sig vara något helt annat.

Visa signatur

Phanteks P400A RGB : Asus Prime X570-P : Ryzen 9 5900X : Corsair H100X : 32GB G.Skill Trident Z Neo 3600CL14 : Sapphire Nitro+ 6800 XT : Xiaomi 34" Curved 3440x1440 : Playseat Evolution Alcantara : Thrustmaster T300RS GT / Ferrari SF1000 Edition Add-on : HP Reverb G2

Permalänk
Medlem
Skrivet av Alphahanne:

Du är medveten om vad 125% faktiskt innebär?

Man ska alltid läsa källor väldigt kritiskt. 125% kan låta som mer än dubbla hastigheten när det de facto, i enlighet med matematiska regler, bara innebär 1.25 gånger originalhastigheten.

Med ditt resonemang, vad menar du då är skillnaden på

125% snabbare
och
25% snabbare

Permalänk
Medlem
Skrivet av Eismannen:

Med ditt resonemang, vad menar du då är skillnaden på

125% snabbare
och
25% snabbare

Min poäng är att du inte vet säkert vad skribenten menar då feltolkningar kan ske på ett eller flera platser i ledet.

Visa signatur

Phanteks P400A RGB : Asus Prime X570-P : Ryzen 9 5900X : Corsair H100X : 32GB G.Skill Trident Z Neo 3600CL14 : Sapphire Nitro+ 6800 XT : Xiaomi 34" Curved 3440x1440 : Playseat Evolution Alcantara : Thrustmaster T300RS GT / Ferrari SF1000 Edition Add-on : HP Reverb G2

Permalänk
Avstängd
Skrivet av ottoblom:

Det var kris och man fick bara ta det man fick tag på . Alltså jag förstår att du vill att spelen skall kräva mindre VRAM annars suger dom eller är dåligt optimerade . Men vi har ett skifte snart i spelmotorer + Det faktum om du gör ett spel till konsol och sen portar det till pc vill kunderna ha EXTRA allt . Vi får väl hoppas att 12 GB räcker till 1440 p även om det är just en förhoppning .

Dina argument är ju konstiga.
Du har väl själv lärt dig att både Last of Us och Hogwarts har patchats med tiden så de använder mindre och mindre minne?
Detta är ju bara bevis på att utvecklarna är lata och det är dåligt optimerat från släpp, om det minskas med tiden, eller? Det kan inte ens du argumentera emot.

Och jag hoppas att du inte tycker att Last of Us samt Jedi Survivor är bra optimerade spel trots foruminlägg och artiklar om båda spelen som påstår motsatsen. Men du är ju trotsig och anser ju dessa vara optimerade.

Permalänk
Medlem
Skrivet av Alphahanne:

Du är medveten om vad 125% faktiskt innebär?

Man ska alltid läsa källor väldigt kritiskt. 125% kan låta som mer än dubbla hastigheten när det de facto, i enlighet med matematiska regler, bara innebär 1.25 gånger originalhastigheten. Exakt vad källan egentligen menar blir därför väldigt tvetydigt och kan betyda något helt annat än det du vill det ska betyda.

Vad jag med det vill säga är: Det har ryktats om både det ena och det andra förut och verkligheten har visat sig vara något helt annat.

Ah nä, 1,25 gånger är 25% mer prestanda enligt "matematikens regler". 100% mer, är det dubbla, plus 25% mer ger förändringsfaktorn 2,25 (om jag inte missminner mig). Antagligen är det kanske path tracing-prestanda eller liknande om nu ryktet stämmer. Minns inte exakt. Men ändå. Det lär man vilja köra med när det väl kommer på bredare front. Men när det sker är ju svårt att säga. Å andra sidan, efter att ha sett vad framtiden har att komma med blir åtminstone inte jag sugen på att uppgradera till något av det som finns på marknaden i dagsläget.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem

Intel levererar 16gb vram från 349$

Visa signatur

Acer Aspire XC-780 (Pentium G4560/8GB ram/Nvidia GTX 1050 2GB/500GB SSD)
Acer spin 513 Chromebook (ARM Qualcomm processor/4GB ram/64 GB lagring)
Raspberry pi 400
(Retrodatorer av div slag, Atari, Amiga, C64, IBM mm…)

Permalänk
Medlem

Skulle aldrig handla gpu med mindre än 12 gb vram 2023. Aldrig. Det är en brott mot mänskligheten att nvidia kränger gpuer med 8 gb.

Permalänk
Medlem
Skrivet av 3Dfx Rampage:

Skulle aldrig handla gpu med mindre än 12 gb vram 2023. Aldrig. Det är en brott mot mänskligheten att nvidia kränger gpuer med 8 gb.

AMDs 7600 kommer också med 8gb enligt rykten 😊

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Inaktiv
Skrivet av Sveklockarn:

Sen är det många i forumet som gnäller om "för lite VRAM" på Nvidia-kort som är flera år gamla och jämför med vad AMD erbjuder idag, vilket blir löjeväckande.

8 GB var rimligt för 1070, lite för lite för 2070 och alldeles för lite för 3070. Det är helt uppenbart för alla utom de med störst kärlek till sitt favoritföretag att det handlar om "planned obsolescence" när de ökat mängden VRAM med 50% över 4 generationer mellan 1070 och 4070.

Anledningen till att de kommer undan med det är förstås att AMD ligger två steg efter hela tiden.

Permalänk
Medlem
Skrivet av Dinkefing:

Att helt använda Path Racing kommer inte bli relevant på många många år.

Man hör det är "relevant" väldigt ofta från ett speciellt gäng, vad betyder det för dig egentligen?

Vill man spela de pathtracingspel som finns och kommer behöver GPU vara bra på det. Pathtracing spelen är en blick in i framtiden, det finns effekter i dom du inte ser någon annanstans. Vissa gillar sånt, och det är relevant för oss. Och spelen duggar tätare och tätare.

Permalänk
Medlem

Alla som gapat om att Nvidia måste sälja för skyhöga priser, hur kommer det sig att AMD kan sälja det billigare och ändå gå med vinst på korten?

Permalänk
Medlem
Skrivet av Nozomi:

Dina argument är ju konstiga.
Du har väl själv lärt dig att både Last of Us och Hogwarts har patchats med tiden så de använder mindre och mindre minne?
Detta är ju bara bevis på att utvecklarna är lata och det är dåligt optimerat från släpp, om det minskas med tiden, eller? Det kan inte ens du argumentera emot.

Och jag hoppas att du inte tycker att Last of Us samt Jedi Survivor är bra optimerade spel trots foruminlägg och artiklar om båda spelen som påstår motsatsen. Men du är ju trotsig och anser ju dessa vara optimerade.

Ingen koll på last of us men hogwarts fixen var väl att ändra failure mode från lagg till att texturer helt enkelt inte laddas in. Alltså en försämring av grafiken vilket fortfarande är samma problem.

Permalänk
Medlem

Det skall bli intressant att se hur mitt 3080 Ti med 12 GB kommer att stå sig, då det är precis mittemellan 8 och 16GB. Jag kör i 3440 x 1440. Jag har inte testat så många nya spel ännu men än så länge verkar kortet inte begränsat av sitt minne även med RT på. Men jag har endast testat senaste Tomb Raider samt senaste Witcher 3-patchen. Inte direkt de nyaste spelen på marknaden.

Visa signatur

A flexible hammers allow for more kinetic energy.

Permalänk
Medlem
Skrivet av Nozomi:

Dina argument är ju konstiga.
Du har väl själv lärt dig att både Last of Us och Hogwarts har patchats med tiden så de använder mindre och mindre minne?
Detta är ju bara bevis på att utvecklarna är lata och det är dåligt optimerat från släpp, om det minskas med tiden, eller? Det kan inte ens du argumentera emot.

Och jag hoppas att du inte tycker att Last of Us samt Jedi Survivor är bra optimerade spel trots foruminlägg och artiklar om båda spelen som påstår motsatsen. Men du är ju trotsig och anser ju dessa vara optimerade.

Tycker dina är konstiga visst dom använder mindre minne men det är fortfarande så att dom kräver mer minne annars ser det för jävligt ut . Sen vad gäller spel som kommer och vad dom vill ha i Vram vem skall jag lita spel tillverkare devs ? eller random person på nätet ?

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av Saagaa:

Ingen koll på last of us men hogwarts fixen var väl att ändra failure mode från lagg till att texturer helt enkelt inte laddas in. Alltså en försämring av grafiken vilket fortfarande är samma problem.

Skrivet av ottoblom:

Tycker dina är konstiga visst dom använder mindre minne men det är fortfarande så att dom kräver mer minne annars ser det för jävligt ut .

Ni får gärna förklara vart det inte laddas in, och vart det ser för jävligt ut. Det måste ju gå att verifiera. Det kanske kräver att man kör från slö disk, slö CPU också eftersom det är texture-streaming vi pratar om, eller vad är förutsättnignarna för att det inte skall fungera. Det är väldigt mycket hörsägen och lite konkret, och när man testar själv är det svårt att få dom resultat ni argumenterar för. Eller menar ni att allt under Ultra+RT ser skit ut, för det är lite där vi står? Det är där HUB t.ex har lagt ribban för att 8GB inte duger.

Och det kan mycket väl vara så att det kommer ett spel imorgon där 8GB är ospelbart, så missförstå mig inte.

Permalänk
Medlem
Skrivet av Nozomi:

Någon bör göra en djupdykning under huven i moderna spel och se vad som faktiskt äter allt minne, och även se hur pass mycket man kan komprimera deras texturer och annat. För det går att göra rejält mycket. Känns som att uvecklarna inte längre gör det alls.

Jag är inte insatt, men jag har lyssnat en del på Youtubers som Hardware unboxed etc när de diskuterat detta. En sak de lyfte är att förr så återanvände man väldigt mycket texturer, det fanns kanske 1 sten textur, 2 för träd. Ta en skog som exempel. En ung björk och en gammal björk har inte alls samma typ av bark. Ifall du har samma textur för dessa, och endast gör den unga björken mindre och smalare så kommer det kännas fel. På samma sätt så ser inte alla stenare lika ut, utan är oftast drastiskt olika.

I jakten på mer verklighetstrogna spel så har du därför nu fler texturer. Du har kanske 3 för björkar, men sen också 3 för Asp, 3 för Ek etc. På så vis gick vi från 2 för träd till att istället ha kanske 8-10 texturer för träd. 1 sten blev 8 för sten etc.

Och nu behöver vi mycket mer VRAM för att kunna använda oss av dessa.

Permalänk
Medlem
Skrivet av Lussarn:

Ni får gärna förklara vart det inte laddas in, och vart det ser för jävligt ut. Det måste ju gå att verifiera. Det kanske kräver att man kör från slö disk, slö CPU också eftersom det är texture-streaming vi pratar om, eller vad är förutsättnignarna för att det inte skall fungera. Det är väldigt mycket hörsägen och lite konkret, och när man testar själv är det svårt att få dom resultat ni argumenterar för. Eller menar ni att allt under Ultra+RT ser skit ut, för det är lite där vi står? Det är där HUB t.ex har lagt ribban för att 8GB inte duger.

Och det kan mycket väl vara så att det kommer ett spel imorgon där 8GB är ospelbart, så missförstå mig inte.

Alltså bara gå in på sidor som testar Hub -David Owen osv alla som testar grafikkort ordentligt . Jag är väldigt trött att länka saker och ändå hamna i samma diskussion en vecka senare med samma personer . Det är inget mot dig personligen .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av ottoblom:

Alltså bara gå in på sidor som testar Hub -David Owen osv alla som testar grafikkort ordentligt . Jag är väldigt trött att länka saker och ändå hamna i samma diskussion en vecka senare med samma personer . Det är inget mot dig personligen .

Men då pratar vi egentligen Ultra+RT då, för det är det som iallafall HUB testar. Så klarar man av att sänka lite så är det inte så illa iallafall.

Jag ger verkligen inte mycket för HUB personligen. Steve gör en himla massa videos om att det inte fungerar med <=8GB GPU, när verkligheten är betydligt mer nyanserad. Men han klarar inte av att göra en enda video om vad man egentligen KAN göra med ett 8GB kort, med resultatet att folk tror att man bara kan köra på low/medium i spelen.

Jag ger honom att i senaste Jedi videon klarar han av att köra ett 3070 på ett sätt som faktiskt inte totalt förstör det kortet. Och det visar ju sig också rulla på rätt bra. Jag vet inte varför han inte testar Epic+RT, för det är ju inget problem att visa vad det inte klarar, så länge man också visar vad som fungerar. Jag tror Steve själv fattat vilket monster han skapat, och är på väg att backa lite.

Permalänk
Medlem
Skrivet av Lussarn:

Men då pratar vi egentligen Ultra+RT då, för det är det som iallafall HUB testar. Så klarar man av att sänka lite så är det inte så illa iallafall.

Jag ger verkligen inte mycket för HUB personligen. Steve gör en himla massa videos om att det inte fungerar med <=8GB GPU, när verkligheten är betydligt mer nyanserad. Men han klarar inte av att göra en enda video om vad man egentligen KAN göra med ett 8GB kort, med resultatet att folk tror att man bara kan köra på low/medium i spelen.

Jag ger honom att i senaste Jedi videon klarar han av att köra ett 3070 på ett sätt som faktiskt inte totalt förstör det kortet. Och det visar ju sig också rulla på rätt bra. Jag vet inte varför han inte testar Epic+RT, för det är ju inget problem att visa vad det inte klarar, så länge man också visar vad som fungerar. Jag tror Steve själv fattat vilket monster han skapat, och är på väg att backa lite.

Nej vi pratar inte om Ultra vi pratar High det slår i två spel i taket redan på medium med RT påslaget . Det är många som inte gillar Hub det beror på att folk har olika ingångar när han testade 6000 AMD på raytracing och sågade dom utmed fotknölarna vart han kallad Nvidia fanboy . När han testar V ram blir han kallad AMD fanboy . Man kanske skulle titta rent objektivt vad är det han försöker säga ? Han är jätte noga i varje sådan video citat = To be clear you can change down you settings and you be fine on 8 GB grafikcard .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av Dem8n:

Alla som gapat om att Nvidia måste sälja för skyhöga priser, hur kommer det sig att AMD kan sälja det billigare och ändå gå med vinst på korten?

De använder chiplet, kostnaden är enligt rykten avsevärt lägre då man får högre yield/wafer

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

De använder chiplet

Läser du artikeln handlar det om 6000 serien .....Du har alltid så roliga svar .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av ottoblom:

Läser du artikeln handlar det om 6000 serien .....Du har alltid så roliga svar .

Hans svar är inte specifikt mot 6000 serien?
AMD klagade väl dessutom på vinstmarginalen på kort som rx6800....

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av ottoblom:

Tycker dina är konstiga visst dom använder mindre minne men det är fortfarande så att dom kräver mer minne annars ser det för jävligt ut .

Skrivet av ottoblom:

Man kanske skulle titta rent objektivt vad är det han försöker säga ? Han är jätte noga i varje sådan video citat = To be clear you can change down you settings and you be fine on 8 GB grafikcard .

Ser det för jävligt ut eller inte då, tycker du gfer dubbla budskap nu? Och vart ser det för jävligt ut.

Permalänk
Medlem
Skrivet av Lussarn:

Ser det för jävligt ut eller inte då, tycker du gfer dubbla budskap nu? Och vart ser det för jävligt ut.

Titta på testerna dom skalar av texturerna för och få plats på 8 GB

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av ottoblom:

Titta på testerna dom skalar av texturerna för och få plats på 8 GB

Jag har hårdvaran så jag kan testa själv, och tro mig, jag försöker. Men det är inte lätt att replikera detta. Inte längre iallafall, last of us var ju skit men det är fixat nu. Hogwarts ser bra ut. RE4 ser bra ut.

Permalänk
Medlem
Skrivet av ottoblom:

8 GB kostar ca 30 dollar utan rabatt .Det är priset man får betala vid köp av 64 st moduler . Nvidia och AMD lär ha mängd rabatt .

Kan nog stämma.
HW Unboxed antyder ju det i sin senaste video.
Intels 50USD prispåslag på 16Gb Arc modellerna ger ändå mer vinstmarginal enligt dom än 8GB modellen.

Men det är sjukt hur folk gnälla på att spel ska gå runt på 8GB VRAM, som HW Unbox sa i en tidigare video, VRAM är så jävla billigt att dubbla det är enklaste lösningen på allas VRAM problem, utvecklare och gamers alike.