Följ Black Week på SweClockers

Geforce RTX 3080 rullar för fullt i testlabbet – men recensionsembargot skjuts fram

Permalänk
Medlem

@JonasT kommer vi få en detaljerad recap på de senaste dygnens händelser med framskjuten release?

Permalänk
Medlem
Skrivet av Yoshman:

Om inte algoritmen för Ethereum ändrats sedan sist jag läste på om tekniken så handlar det om en "memory hard" algoritm där man slumpmässigt läser 128 bytes 64 gånger per hash-runda ur ett dataset som är specifikt designat så det är för stort att ge någon relevant hit-rate i cache.

D.v.s. den praktiska begränsningen blir minnesbandbredd och teoretisk maximal MH/s dikteras av
VRAM-bandbredd/8192.
8192=128*64.

Ett RTX2080 borde, vid stockinställningar för RAM, ha ett teoretisk max på ~56 MH/s, verkar ligga på ~45 MH/s i praktiken.

Ett 3080 borde då ha ett teoretiskt max på ~95 MH/s medan 3090 ligger på ~117 MH/s. Ett klart lyft, men mer en fördubbling än 4x. Vi lär få se var man hamnar i praktiken, känns ändå som 3080 och framförallt inte 3090 lär vara speciellt optimala för mining givet deras TDP (fast TDP!=faktiskt förbrukning under last, så faktiskt effekt kvarstår ju också att se i verkliga tester).

Jag såg någon läcka om en bra bit över 100MH/s för 3080, men jag har ingen stark anledning att tro att det du säger inte är rätt. Vi får se helt enkelt, men tror som sagt det borde kunna påverka tillgängligheten bara att ryktet ens existerar... någon skrev att man kan få in 200$ per månad med prestandan som läckan sade, i så fall är de ju högst relevanta

Permalänk
Medlem
Skrivet av Yoshman:

Angående perf/W. Man kan tycka att Nvidia ger missvisande siffror här, men de gör bara exakt det TSMC, Intel, Samsung, AMD, Qualcomm, ARM etc alltid gör och de flesta konsekvent missar.

När man pratar om perf/W i detta kontext är det i princip alltid vid konstant prestanda, typiskt prestanda där den nya kretsen (den man vill framhäva) har sin optimala perf/W punkt.

D.v.s. Nvidia hävdar inte att Ampere har 1,9x högre perf/W vid sin normala frekvens, man säger att om man klockar ned ett 3080 till den nivån att det har samma absoluta prestanda som ett 2080 kommer Ampere-kortet dra ~48 % mindre ström än Turing.

Räknar man ut perf/W vid 2080 resp. 3080 normala frekvens och prestanda kommer man få en betydligt lägre ökning av perf/W, det borde vara helt förväntat!

Ovan är också orsaken till att kretsar tillverkade på TSMC inte går att klocka till >6-7 GHz vid det här laget, trots att man borde vara klart förbi den punkten om man aggregerar de förbättringar som gjorts sedan deras 16 nm process. Däremot har säkert kretsarna tillverkade på 7 nm >2x bättre perf/W än kretsar på 16 nm när de körs i sitt optimala område, kollar man t.ex. på ARM SoC:ar har de klart mer än dubbelt så många transistorer på 7 nm än vad som var fallet på 16 nm utan att total effekt är högre -> det TSMC är sant.

Det trista med krympningarna om man är ute efter maximal peak-prestanda är att W/frekvens kurvan verkar få ett allt kraftigare krökning. D.v.s. man kan röra sig allt längre från optimala punkten frekvenspunkten och ändå ha riktigt bra perf/W, men när man väl når knät ökar effekten allt snabbare per Hz ju mindre nod man går till. Gissningsvis ligger knät för Ampere på Samsung 8 nm runt 1,7 GHz, gissar att vi kommer se överklockning ge extremt stort effektpåslag för väldigt liten extra prestanda.

Verkar ju som att Nvidia gjort en AMD denna gång och klämt ur 10% prestanda för 30% effekt ungefär, lite så brukar det ju se ut på fel sida brytpunkten

Permalänk
Medlem
Skrivet av L'ombra:

Vilka test har du sett då? Embargot lyfts ju inte förrän på onsdag...

Digital foundry till exempel, men finns andra läckor som pekar på liknande siffror

Permalänk
Medlem
Skrivet av orespray:

Att i sista stund flytta fram tyder på lite desperation från Nvidia.

Antingen presterar korten inte som sagts i oberoende tester, eller har de fått vetskap om ngt gällande AMD's kort..
Prissättningen tyder också på en hel del oro...

Skulle gissa att de, som vanligt numera från alla tillverkare, optimerat alla sina egna tester till produkten och att den inte lever upp till det IRL. Ngt de behöver tid till att rätta till. Alternativt har de fått info om prestandan på AMD korten och försöker trimma upp sina egna.

AMD korten blir nog betydligt giftigare än folk tycks tro. Nu när de har/får alla fakta om Nvidias kort har de tid på sig att trimma in sina egna och prissätta dem konkurrenskraftigt.

Eller så kanske det stämmer det de sagt? Står någonstans i tråden att största Tech sidan i Brasilien inte fått kort än. Men gissar att konspirationsteorier baserat på hummbugg är mer vettigt? Hade de flyttat hela releasen två veckor hade man börjat undra, men två dagar? Vad sjutton ska de göra på två dagar?

Av alla läckor som kommit tyder inget på att det är några större fel med prestandan (60-80% över 2080). Utom att något verkar galet med RTX I Shadow of the Tomb Raider, men har fortfarande en 50% ökning. Sedan har ju alla sidor sina egna spelsviter de testar. Menar du att sweclockers nya svit ska vara optimerad för Nvidia eller vad? De behåller ju sviten för att kunna jämföra mot nya kort utan att behöva köra om allt.

AMDs kort är en månad bort, folk kallar Nvidia för dumma och korkade som inte släpper recensioner tidigare. Men AMD är iskalla, modiga och giftiga genom att säga flasklock? Det enda AMD hinner trimma är pris och presentation hur de ska tackla Nvidia. Om man nu har något otroligt att komma med, varför låta Nvidia härja helt fritt?

Permalänk
Medlem
Skrivet av Yoshman:

Det trista med krympningarna om man är ute efter maximal peak-prestanda är att W/frekvens kurvan verkar få ett allt kraftigare krökning. D.v.s. man kan röra sig allt längre från optimala punkten frekvenspunkten och ändå ha riktigt bra perf/W, men när man väl når knät ökar effekten allt snabbare per Hz ju mindre nod man går till. Gissningsvis ligger knät för Ampere på Samsung 8 nm runt 1,7 GHz, gissar att vi kommer se överklockning ge extremt stort effektpåslag för väldigt liten extra prestanda.

Men Turing-korten boostar ju enkelt upp till 1950-2050 MHz så länge kylningen räcker till, trots angivna klockfrekvenser på 1619 (eller nåt annat underligt oavrundat tal). Menar du att Ampere skulle kunna vara sämre här och kanske inte ens boosta över ca 1700 MHz? Det skulle innebära att man "tappar" ca 15 procent prestanda jämfört med Turing.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

Men Turing-korten boostar ju enkelt upp till 1950-2050 MHz så länge kylningen räcker till, trots angivna klockfrekvenser på 1619 (eller nåt annat underligt oavrundat tal). Menar du att Ampere skulle kunna vara sämre här och kanske inte ens boosta över ca 1700 MHz? Det skulle innebära att man "tappar" ca 15 procent prestanda jämfört med Turing.

Det kommer gå att komma över 1700 MHz, men strömförbrukningen kommer sannolikt öka rejält. Det är ju redan tillräckligt illa i stock med Ampere, 320W för 3080 är skyhögt.

Visa signatur

5950X, 3090

Permalänk
Medlem
Skrivet av DasIch:

Jag tänker likadant. 10900K hade ju varit rolig men att lägga flera tusen på en ny plattform nu, som sen kommer vara omodern när spel börjar nyttja PCIe 4, det känns inte som ett bra köp.
AMD skulle i sin tur vara lite långsammare än jag redan och att byta bara för PCIe 4 känns ju som slöseri. Om de skulle kunna utmana 10900K med kommande processorer skulle jag kanske bli lite sugen dock.

Jag hoppas ju annars att nuvarande system ska stå sig bra minst ett år till.

Jag har applicerat en lätt överklockning på min i7-8086K, den presterar ungefär som en i7-9700K vilken fortfarande verkar ligga bland Topp-5 för flertalet av den sortens titlar jag spelar. Det får duga till nästa år när Intel Raketsjön förhoppningsvis tar in Intel-plattformen i samtiden.

Permalänk
Konsolpleb 🕹

Ok nu drar jag ner foliehatten långt ner över öronen men:
https://www.sweclockers.com/nyhet/30388-sony-visar-playstatio...

Känns inte omöjligt att nvidia fick nys om Sonys grej och vill krascha partyt. Har ju ryktats att Nvidia är mer bekymrade om konsolerna än vad AMD har i kikaren.

Sådär, tar av mig foliehatten igen.

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av UndaC:

Ok nu drar jag ner foliehatten långt ner över öronen men:
https://www.sweclockers.com/nyhet/30388-sony-visar-playstatio...

Känns inte omöjligt att nvidia fick nys om Sonys grej och vill krascha partyt. Har ju ryktats att Nvidia är mer bekymrade om konsolerna än vad AMD har i kikaren.

Sådär, tar av mig foliehatten igen.

Samt att Apple har ett event den 15 sept. Det kanske riskerar att ta fokus från nvidia.

Permalänk
Medlem
Skrivet av UndaC:

Ok nu drar jag ner foliehatten långt ner över öronen men:
https://www.sweclockers.com/nyhet/30388-sony-visar-playstatio...

Känns inte omöjligt att nvidia fick nys om Sonys grej och vill krascha partyt. Har ju ryktats att Nvidia är mer bekymrade om konsolerna än vad AMD har i kikaren.

Sådär, tar av mig foliehatten igen.

Jag känner mig ganska övertygad om att om nVidia haft en del av insatsen i konsolmarknaden kommande generation så hade 30-serien varit dyrare. Nu konkurrerar de inte med sig själva och kan sätta priser som istället sätter press på just dessa konsoler.

Kan så klart ha fel, absolut, men det ligger otroligt mycket strategi bakom dessa beslut.

Visa signatur

Rigg: AMD Ryzen 9 7900X3D, ASUS ROG Strix B650E-F Gaming, Kingston 64GB DDR5 (6000 MHz), ASUS TUF RTX 3080, Corsair RM1200x Shift
Tillbehör: LG C2 48" OLED, Razer Kraken V4X, Razer Ornata V2, Razer Basilisk V3

Permalänk
Datavetare
Skrivet av cyklonen:

Men Turing-korten boostar ju enkelt upp till 1950-2050 MHz så länge kylningen räcker till, trots angivna klockfrekvenser på 1619 (eller nåt annat underligt oavrundat tal). Menar du att Ampere skulle kunna vara sämre här och kanske inte ens boosta över ca 1700 MHz? Det skulle innebära att man "tappar" ca 15 procent prestanda jämfört med Turing.

1,7 GHz är vad Nvidia listar som "boostfrekvens" för 3070, 3080 och 3090. Nu är boostfrekvens för GPUer inte riktigt samma sak som för CPUer, har för mig att Nvidia mer listar förväntad genomsnittlig boost frekvens och inte maxfrekvens.

Ändå lite speciellt att alla tre korten ligger så väldigt nära i officiell specificerad frekvens, det kanske är en vink om att Ampere på Samsung 8 nm har sitt "knä" just i det området.

Vilken frekvens man maximalt når och vilken frekvens man når innan perf/W börjar ta rejält med stryk är en funktion av både kretsens design och den nod som används. Dock är kretsens design långt viktigare, lite svårt att se på x86 CPUer och Nvidias/AMDs GPUer då de i praktiken bara använder en nod per mikroarkitektur, men det är rätt vanligt för ARM där t.ex. Cortex A53 och Cortex A72 tillverkats på allt från 40 nm ned till 10 nm. Är primärt skillnad i perf/W, man når hyfsat snarlik frekvens oavsett nod!

Så var vill jag komma med detta? Om nu Ampere faktiskt klockar lägre är det med största sannolikhet för att Nvidia valt en design som fokuserar mer på att skala på bredden än att nå riktig hög frekvens.

Man ska inte se det som att man "tappar X %" bara för att maxfrekvensen råkar vara lite lägre, enda som spelar roll för en är slutprestandan. För en GPU är det i praktiken produkten

IPC * CUDA-kärnor * frekvens

Det är resultatet av denna produkt man ska optimera, är irrelevant hur de tre komponenterna förändras mellan kretsar så länge som produkten är högre.

Är ju rätt vanligt att de högst presterande kretsarna "offrar" frekvens för att kunna få in fler CUDA-kärnor inom effektbudgeten. Ampere verkar avvika lite från detta mönster just då 3090 enligt spec har 1,70 GHz medan 3070 bara ligger marginellt högre på 1,73 GHz. Orsaken till varför lär klarnar vad det lider!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Man ska inte se det som att man "tappar X %" bara för att maxfrekvensen råkar vara lite lägre, enda som spelar roll för en är slutprestandan. För en GPU är det i praktiken produkten

IPC * CUDA-kärnor * frekvens

Det är resultatet av denna produkt man ska optimera, är irrelevant hur de tre komponenterna förändras mellan kretsar så länge som produkten är högre.

Det vet jag, men jag är lite skeptisk till att man faktiskt optimerat åt det hållet. Jag tror det ändå betyder rätt mycket att tappa 250-300 MHz i snitt under belastning. Men vi lär aldrig få veta.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

Men jag tänkte på en sak. När AMD skulle släppa Radeon VII har jag för mig att det läckte att de bara hade 5000 kort. Vad har nVIDIA denna gång? 5000-10000 kort globalt fram till årsskiftet?

Det kanske blir mer betänketid för dem flesta vare sig de vill eller inte. Hur många kort kommer miners kunna paxa redan innan återförsäljarledet? Varför verkar större miners redan sitta på 3000 seriens kort idag och skicka fräcka skrytshots med åtskilliga GTX 3080 lådor från Asus etc.?

Permalänk
Medlem
Skrivet av crion:

Men jag tänkte på en sak. När AMD skulle släppa Radeon VII har jag för mig att det läckte att de bara hade 5000 kort. Vad har nVIDIA denna gång? 5000-10000 kort globalt fram till årsskiftet?

Lite skillnad mellan ett kort som AMD klämde ut i sista perioden och som t.o.m. eventuellt såldes med förlust, och ett av Nvidias nya bulk-kort.

Permalänk
Datavetare
Skrivet av cyklonen:

Det vet jag, men jag är lite skeptisk till att man faktiskt optimerat åt det hållet. Jag tror det ändå betyder rätt mycket att tappa 250-300 MHz i snitt under belastning. Men vi lär aldrig få veta.

1,7 GHz för 3090 är ju ~100 MHz högre än vad 2080Ti är specificerad till. 2080 FE låg på 1,8 GHz enligt specifikation. Märkliga här var att "officiella" frekvensen låg på 1,5 resp 1,7 GHz, FE var "överklockade" med 90 MHz...

Oavsett, ur den synpunkten ligger ju frekvensen rätt mycket där man kan förvänta den att ligga, d.v.s. ingen relevant ändring från tidigare.

Tror däremot just att Ampere kommer se värre effekthöjning för de som vill skruva upp frekvensen ännu lite till ställd mot Turing/Pascal. Möjligen kan det också få avtryck i frekvens hos eventuella framtida "super/ti" modeller. Men det är spekulation i nuläget.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Redaktion
Praktikant ✨
Skrivet av Mocka:

Jonas, hur blir det med 3e parts korten? Kommer recensioner längre fram eller är det samma embargo som FE? (sorry om frågan redan besvarats).

Det enda jag kan uttala mig om är att Founders Edition-recensionen rullar ut på onsdag (om inte datumet ändras igen).

Skrivet av firstofmay:

@JonasT: Testar ni kortet i BFV?

Battlefield V är med i testsviten.

Skrivet av Daemon85:

Nu låter jag störig, men ni skrev ju under ett nda för 14de september, varför skriver ni under ett annat nda för 17de i efterhand?

Nu kan jag inte kommentera på specifika NDA-avtal. Men sättet de är utformade på rent generellt så finns det nästan alltid klausuler om att datumet kan komma att ändras.

Skrivet av Sveklockarn:

@JonasT kommer vi få en detaljerad recap på de senaste dygnens händelser med framskjuten release?

Absolut! Tror dock att du kommer bli besviken sett till de vilda spekulationerna i den här tråden.

Permalänk
Medlem
Skrivet av crion:

Men jag tänkte på en sak. När AMD skulle släppa Radeon VII har jag för mig att det läckte att de bara hade 5000 kort. Vad har nVIDIA denna gång? 5000-10000 kort globalt fram till årsskiftet?

Det kanske blir mer betänketid för dem flesta vare sig de vill eller inte. Hur många kort kommer miners kunna paxa redan innan återförsäljarledet? Varför verkar större miners redan sitta på 3000 seriens kort idag och skicka fräcka skrytshots med åtskilliga GTX 3080 lådor från Asus etc.?

Radeon VII tror jag inte var ett seriöst försök att bygga ett kort för marknaden, mer någon slags halvt genomtänkt pr-grej för att få folk att prata om något annat än att deras roadmap enbart innehöll midrange-kort under en lång period.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Yoshman:

1,7 GHz för 3090 är ju ~100 MHz högre än vad 2080Ti är specificerad till. 2080 FE låg på 1,8 GHz enligt specifikation. Märkliga här var att "officiella" frekvensen låg på 1,5 resp 1,7 GHz, FE var "överklockade" med 90 MHz...

Oavsett, ur den synpunkten ligger ju frekvensen rätt mycket där man kan förvänta den att ligga, d.v.s. ingen relevant ändring från tidigare.

Tror däremot just att Ampere kommer se värre effekthöjning för de som vill skruva upp frekvensen ännu lite till ställd mot Turing/Pascal. Möjligen kan det också få avtryck i frekvens hos eventuella framtida "super/ti" modeller. Men det är spekulation i nuläget.

Ja, vi får väl se vad de faktiskt boostar upp till. Jag har länge tyckt det är konstigt att de anger så låga siffror när alla får 1900+ konstant.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Datavetare
Skrivet av crion:

Men jag tänkte på en sak. När AMD skulle släppa Radeon VII har jag för mig att det läckte att de bara hade 5000 kort. Vad har nVIDIA denna gång? 5000-10000 kort globalt fram till årsskiftet?

Det kanske blir mer betänketid för dem flesta vare sig de vill eller inte. Hur många kort kommer miners kunna paxa redan innan återförsäljarledet? Varför verkar större miners redan sitta på 3000 seriens kort idag och skicka fräcka skrytshots med åtskilliga GTX 3080 lådor från Asus etc.?

Fast är det så väldigt jämförbart? Radeon VII är en krets på strax över 300 mm² som tillverkades på TSMC 7 nm process väldigt snabbt efter dess kommersiella introduktion. Dels lär Apple har gräddfil till varje ny TSMC process (det är väldigt mycket Apples förtjänst att TSMC är där de är just nu), dels var det väldigt tidigt att försöka sig på 300 mm² kretsar så tidigt (telefon SoC:arna är ~100 mm²).

Samsungs 8 nm process är inte helt jämförbar med TSMC 16/12 nm och Intels 14 nm med ett gäng plustecken, i de senare fallen är det ju samma process fast lite optimerad (samma i bemärkelsen samma densitet). Men Samsungs 8 nm har samma designregler som deras 10 nm process och i grunden är det samma process, dock har 8 nm processen lite högre densitet.

Så beroende på hur man ser det är den process Nvidia använder för Ampere 2 år (introduktion av 8 nm) eller 3 år (introduktion av 10 nm) gammal redan. D.v.s. den borde vara rejält inkörd vid det här laget. Sett prat om att det skulle vara dåligt utbyte på Samsungs process, men gissar att folk blandar ihop Samsungs problem på 7 nm (Samsung körde EUV från start här till skillnad från TSMC) med deras 10/8 nm process.

Nu är gissningarna på GA102 storleken runt 600 mm², klart större än Vega VII 300 mm². Men ~600 mm² borde inte vara något gigantiskt problem på en 2-3 år gammal nod. Och definitivt inte för GA104 som spekuleras ligga på ~400 mm².

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av JonasT:

Det enda jag kan uttala mig om är att Founders Edition-recensionen rullar ut på onsdag (om inte datumet ändras igen).

Battlefield V är med i testsviten.

Nu kan jag inte kommentera på specifika NDA-avtal. Men sättet de är utformade på rent generellt så finns det nästan alltid klausuler om att datumet kan komma att ändras.

Absolut! Tror dock att du kommer bli besviken sett till de vilda spekulationerna i den här tråden.

Har ni info om hur mycket kortet väger?
Tänker på att man inte knäcker PCI-e slotten.

Permalänk
Hjälpsam
Skrivet av wargreymon:

Gud vad man älskar folk som bara länkar en video utan någon som helst beskrivning varför.

Här får du det i text i stället.
https://www.mooreslawisdead.com/post/nvidia-s-ultimate-play
Handlar i stort sett om att kylaren på Nvidia FE kort är så påkostad att korten inte kan säljas med god marginal, det handlar snarare om lockvara.
När du väl bestämt dig för ett kort, är chansen liten att få tag på ett FE-kort, de andra korten kommer dock säljas med sämre kylare till ett betydligt högre pris.
Får du tag på ett FE-kort, håll fast i det, du har fått en fantastisk kylare till ett bra pris.
Han säger även att Navi 2 verkar lovande, så om man inte får tag på ett Nvidia-kort, kan det vara god idé att invänta Navi 2, för att se vad de har att erbjuda.
Prestanda för Navi 2, nära 3080, RT mellan 2080 och 3080, svar på DLSS på gång men inte klart ännu vad.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Ok, så hur många 3080 kort tror ni nvidia har tillgång till att släppa under hösten? Det sägs ju hela tiden att det är så ont om kort, vad betyder detta i antal? Radeon VII's 5000st, nvidia 3080 10-15kst?

Permalänk
Medlem
Skrivet av DasIch:

Nja, jag tänker "för dyr" mer som "för dyr för att jag ska kunna motivera ett köp". Det vore ju för all del roligt med ett 3090 men jag spelar inte så mycket och det finns alltid en massa annat att lägga pengar på också.

Det är sant, jag tror att 3080 kommer passa mig bra, får se om jag väntar och ser vad AMD har att erbjuda, dom har chockat förut men det var längesen sist nu.

Visa signatur

Ryzen 9800X3D @ Stock, MSI Suprim X 3080 @ game mode.
YT kanal där jag meckar bilar: https://www.youtube.com/@saab900turbo9

Permalänk
Medlem
Skrivet av crion:

Men jag tänkte på en sak. När AMD skulle släppa Radeon VII har jag för mig att det läckte att de bara hade 5000 kort. Vad har nVIDIA denna gång? 5000-10000 kort globalt fram till årsskiftet?

Det kanske blir mer betänketid för dem flesta vare sig de vill eller inte. Hur många kort kommer miners kunna paxa redan innan återförsäljarledet? Varför verkar större miners redan sitta på 3000 seriens kort idag och skicka fräcka skrytshots med åtskilliga GTX 3080 lådor från Asus etc.?

Om nu butiker i lilla Sverige får in " tiotal till några hundra" så lär det ju finnas ~500 kort bara i Sverige.

Permalänk
Redaktion
Praktikant ✨
Skrivet av Punchboll:

Har ni info om hur mycket kortet väger?
Tänker på att man inte knäcker PCI-e slotten.

Vi har faktiskt inte vägt kortet, men enligt Toms landar det på 1335 gram, det vill säga 30 gram tyngre än RTX 2080 Ti Founders.

Permalänk
Medlem

3090FE ser ut att väga ett par kilo!

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

3090FE ser ut att väga ett par kilo!

Ja det skrämmer mig lite, inte att kortet ska böjas men snarare att för mycket vikt kommer ligga på pci porten

Frågan är om man kan få nvidia att betala ens moderkort om det går sönder eventuellt av deras massiva gpu som hänger från pciporten ?

Permalänk
Medlem
Skrivet av Ratatosk:

Här får du det i text i stället.
https://www.mooreslawisdead.com/post/nvidia-s-ultimate-play
Handlar i stort sett om att kylaren på Nvidia FE kort är så påkostad att korten inte kan säljas med god marginal, det handlar snarare om lockvara.
När du väl bestämt dig för ett kort, är chansen liten att få tag på ett FE-kort, de andra korten kommer dock säljas med sämre kylare till ett betydligt högre pris.
Får du tag på ett FE-kort, håll fast i det, du har fått en fantastisk kylare till ett bra pris.
Han säger även att Navi 2 verkar lovande, så om man inte får tag på ett Nvidia-kort, kan det vara god idé att invänta Navi 2, för att se vad de har att erbjuda.
Prestanda för Navi 2, nära 3080, RT mellan 2080 och 3080, svar på DLSS på gång men inte klart ännu vad.

Rimligen är väl bara 3090-kylaren den dyra om något? Den är ju volymmässigt dubbelt mot 3080 i alla fall.

Sen förstår jag inte riktigt det ryktet att kylaren är så dyr. Det estetiska och metallramen är säkert CNC och special, men kylaren i sig (fläns, fläktar, heatpipes, ångkammare?) är ju som vilket CPU-tower som helst för 200-300kr...

Permalänk
Medlem
Skrivet av dakke:

Ja det skrämmer mig lite, inte att kortet ska böjas men snarare att för mycket vikt kommer ligga på pci porten

Frågan är om man kan få nvidia att betala ens moderkort om det går sönder eventuellt av deras massiva gpu som hänger från pciporten ?

Tror inte det är nåt problem alls. Kortet sitter ju fast i chassit. Sååå klena är inte moderkort.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S