Geforce RTX 4090 får kylare och strömmatning för att klara 600 watt

Permalänk
Medlem
Skrivet av medbor:

Jag blir mest fundersam angående minnesbussen, de kör alltså på 384-bit igen vilket ger 12 moduler. Jag tror inte alla kort kommer få 2GB-chip och alltså blir standard 12GB/24GB en gång till. Känns som att 16GB är en trevligare siffra. De kan nå det genom att klippa bussen såklart, men lite förvånande för mig. Det var ju denna nivå vi hamnade på redan med 1080ti, det är ganska länge sedan nu

Känns som 4090 fortsätter med 24 men 4080 går upp till 20, 4070 16 osv.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av dlq84:

Det hela beror ju på vad man får för prestanda, 600W på dagens prestanda: nej, 600W med fördubblad prestanda: ja, varför inte. Långt ifrån majoriteten kommer köpa 4090 dock, de flesta kommer köra på 4070 som kommer dra som dagens high-end ungefär om jag får göra en kvalificerad gissning.

Jag har svårt för att göra absoluta uttalanden om framtiden, men - 4070 är knappast något som ”de flesta” kommer att köra på. Nvidias egna data som visar att de flesta användarna idag ligger kvar på GTX-kort, Steam-statistik osv, allt indikerar att den förkrossande majoriteten av PC-spelare kommer att använda grafikkort långt, långt under den nivån.

Permalänk
Medlem
Skrivet av dlq84:

Kommer antagligen behöva byta ändå, ATX 3.0 kommer säkert krävas.

Varför ska man behöva byta för atx 3.0?
Kommer att finnas adaptrar för pcie kontakten, som jordar de pinnar som behövs.

Permalänk
Medlem

Hoppas bara priserna börjar gå mot mer det normala. Är riktigt sugen på att uppgradera datorn nu, dock inte med dagens priser.

Permalänk
Medlem

Jag kan se hur priset initialt för en dator förblir fortsatt högt, medan priset för att driva en dator blir ännu dyrare.

Visa signatur

Lightsaber - Black armour - and balls!

Permalänk
Medlem

Jag köpte ett agg på 1000W för jag körde en AMD 1090T med två R9 290 i CF och sex hårddiskar.
Jag kommer inte att köpa mindre igen.

Det är lika dumt att snåla på nätagget som det är att snåla på skärmen.
Vet dina behov några år framöver och lägg dig ett bump över det vid köp.

Med det sagt så är detta en galen utveckling. Kanske oundviklig i dagsläget med nuvarande teknologi, men galet japp.

Angående 4000 serien. Fördelen för mig som jag ser det är att kort i dom lägre segmenten kommer vara bra mycket snabbare än mitt 1080TI och klara RT om jag vill ha det. Så om världen inte går helt åt helvete så kanske jag kan byta till ett sådant när det är dags.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av OSkar000:

600w är perfekt för att värma ett mindre rum på vintern.

Seriöst, sätt en gräns på 150W för grafikkort till vanliga konsumenter. Det är knappast en linjär skala mellan grafikprestanda och effektförbrukning så uppoffringen är inte så illa som det kan låta.

Jag kan nog tycka att 300w är max iaf.

Visa signatur

I7 12700K, Asus RTX 3080 TI, Alienware AW3423DW och annat smått o gott.

Permalänk
Medlem

Ja AMD ska ju också släppa en hungrig zen4 cpu ryktas det. Går lite åt fel håll. offrade väldigt lite fps för att trilla ned från skyhöga fabriks klockade kortets standard inställningar till mer svala och trevliga energi nivåer.

Framtiden stavas nog underklockning för oss som kan och är villiga att göra det.

1080 verkade gå åt rätt håll med sina 180 watt, sedan gick det åt helvete och nu är vi uppe och kikar på 600 watt. Vi ska väll spara på elen som är den finaste energi formen som dessutom inte kan återanvändas.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

Tack för dagens skratt

Permalänk
Medlem
Skrivet av Aka_The_Barf:

1080 verkade gå åt rätt håll med sina 180 watt, sedan gick det åt helvete och nu är vi uppe och kikar på 600 watt. Vi ska väll spara på elen som är den finaste energi formen som dessutom inte kan återanvändas.

GTX 980 menar du nog i så fall, som hade 165W TDP (ner från 250W för GTX 780). Men det är ju bara modellnamn vars betydelse ändras lite i varje ny generation, och både 900- och 10-serien hade grafikkort med 250W TDP.

Permalänk
Medlem
Skrivet av Rico01:

Hur mycket vikt tål egentligen PCI-E slotten?

När du går från 2 till 3 slottar så dubblas ju avståndet mellan de yttre skruvarna, så det bör ju klara dubbelt så mycket vickt där. Och med högre kort så kan man ju ha en mycket starkare "balk" från skruvarna och bakåt som kan förhindra nedböjning. Den den tål ju höjd^3 så det blir nog inget problem där. Frågan är nog mer hur stark plåten i chassit är där man fäster skruvarna.

Visa signatur

i9 12900k, RTX3080, 3600MHz CL15 DDR4 , custom loop

Permalänk
Medlem
Skrivet av OSkar000:

600w är perfekt för att värma ett mindre rum på vintern.

Seriöst, sätt en gräns på 150W för grafikkort till vanliga konsumenter. Det är knappast en linjär skala mellan grafikprestanda och effektförbrukning så uppoffringen är inte så illa som det kan låta.

Jag är inte Miljöpartist, men....

Utvecklingen gynnar inte direkt de långsiktiga miljökraven

Visa signatur

Project: Perfection 2.0
OS: Microsoft Windows 11 Home | CPU: Intel Core i9 11900 | GPU: EVGA 3080 XC3 Ultra Hybrid
MB: ASUS ROG STRIX B560-I | RAM: Corsair Dominator Platinum 32GB | PSU: Corsair SF750
Chassi: Louqe Ghost S1 MK3 | SSD: Samsung 980 Pro | CPU-Kylare: Fractal Design Celsius+ S24
Bildskärm: Sony 65AG9 | Mus: Logitech G603 | Tangentbord: Corsair K63 Wireless

Permalänk
Medlem

Nvidias nya slogan "Super Size Me"

Permalänk
Medlem

Följer det med en minireaktor för att driva allt?

Visa signatur

Fractal Design Meshify 2 Compact / Solid | Noctua NH-D15 chromax.black | Kingston Fury Beast Black 64GB (2x16GB) Expo DDR5 / 6000 MHz| ASUS TUF Gaming 1000W Gold - ATX 3.0 | Noctua NF-A14 / PWM / 140mm |Palit GeForce RTX 4090 GameRock 24GB | Kingston Fury Renegade 1TB | Kingston NV2 2TB | ASUS PRIME X670-P WIFI | AMD Ryzen 7 7800X3D | Xiaomi Mi Curved Gaming Monitor 34" | Windows 11 Home Svensk

Permalänk
Medlem
Skrivet av olga32:

Är det ett tecken på att vi börjar närma oss vägs ände för prestandautvecklingen även för GPUs när både pris och effektuttag ökar exponentiellt?

Skulle tro det, måste finnas en effekt gräns som inte går att spränga i ett vanlig konsument chassi, och det känns som vi är nära nu. Tekniken måste helt enkelt bli energieffektivare, men ju mindre vi krymper desto svårare blir det, och man trycker in mer effekt för att få ur mer prestanda.

Visa signatur

EVGA 3080 FTW3 ULTRA | x570 Strix F-gaming | 5800x3D | 16 GB Ballistix 3200 Mhz c16 | Noctua DH-15 | EVGA G2 750 | Fractal Design R5
Acer 27" Predator XB271HU 165 Hz G-sync

Permalänk
Medlem
Skrivet av dlq84:

Det är väl bara att du köper 4050? Den lär inte dra mer än 150W. Så låter du andra göra vad de vill.

150W är hälften av vad high-end drar idag. Vill du verkligen att ingen ska kunna lira moderna spel längre?

Precis. Vill man inte ha ett 600W kort så behöver man inte köpa ett 600W kort. Då får man nöja sig med 4050.

Visa signatur

Ryzen 7800X3D, be quiet! pure rock 2, RTX 4070 Ti Super, Corsair 32GB 6000MHz CL36, Corsair TX850M

Permalänk
Medlem

sjukt hur grafikkort idag är snart som ett mindre kärnkraftverk.. hur är detta ok utveckling ??

Permalänk
Medlem

Känns som det är dags för EU eller liknande att sätta lite krav på dessa utsugande bolag.

Visa signatur

7800X3D - 4090 FE

Permalänk
Medlem

Varför klaga? Köp nått som drar mindre. Ser det som ett lyxproblem.

Man får tex en laptop som drar totalt 230w med full tillräcklig prestanda för alla spel som finns och släpps om man vill. Hela systemet då!

Så ser verkligen inte bekymret. :

Visa signatur

|Asus Rog Strix Scar 16|i9 13980HX|32GB DDR5|1TB| RTX 4080|

Permalänk
Hedersmedlem
Skrivet av palusa:

Så ser verkligen inte bekymret. :

Utöver att det blir varmt i datorn (och rummet) och blir mer högljutt/svårkylt så är ju ett rätt stort problem att vi måste ner till noll CO2-utsläpp inom 30 år för att ha en chans till en rimlig framtid. Att på bara 2 år (eller EN generation) nästan dubbla effekten för en GPU är ju inte direkt att gå åt rätt håll då.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem

Ogillar att flera i tråden klagar över den påstådda förbrukningen, låt bli att köpa det helt enkelt

Först och främst så är det RTX 4090, dvs prislappen kommer antagligen ligga mellan 21 000 - 35 000 kr, det är överlägset Top of the Line, Best of the Best, gemene man kommer aldrig behöva eller lägga pengarna på detta kort.

För det andra så har generellt arkitekturerna blivit effektivare över tid och Lovelace kommer antagligen fortsätta på samma spår. Detta innebär att kort i mellanklass och insteg kommer ligga på betydligt lägre energiförbrukning för samma eller bättre prestanda än vad vi har tillgång till idag.

Jag ser fram emot dessa nya produkter från AMD och Nvidia, särskilt om ryktet stämmer gällande AMDs 2-3 ggr prestandan av ett 6900XT, kommer vara ett monster.

Mvh

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Medlem
Skrivet av Thomas:

Utöver att det blir varmt i datorn (och rummet) och blir mer högljutt/svårkylt så är ju ett rätt stort problem att vi måste ner till noll CO2-utsläpp inom 30 år för att ha en chans till en rimlig framtid. Att på bara 2 år (eller EN generation) nästan dubbla effekten för en GPU är ju inte direkt att gå åt rätt håll då.

Hypotetiskt så måste vi ner till noll co2 utsläpp, ju längre tidshorisont på prognosen desto svårare blir det att kalkylera utfallet.

Al Gore skrek sig hes om att snön på Kilimanjaro skulle smälta bort, men ack så fel han hade, tillsammans med en massa andra hysteriska människor - https://www.thetimes.co.uk/article/staying-power-of-kilimanja...

I övrigt så är knappast RTX 4090 det som kommer hjälpa eller stjälpa miljön. Jag hade hellre sett begränsningar av utlandsresor, förbrukning av engångsplaster, längre livslängd på vitvaror etc än tandlösa åtgärder som att begränsa effekten på grafikkort.

Mvh

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Medlem
Skrivet av Thomas:

Utöver att det blir varmt i datorn (och rummet) och blir mer högljutt/svårkylt så är ju ett rätt stort problem att vi måste ner till noll CO2-utsläpp inom 30 år för att ha en chans till en rimlig framtid. Att på bara 2 år (eller EN generation) nästan dubbla effekten för en GPU är ju inte direkt att gå åt rätt håll då.

Problemet med C02-utsläpp ligger inte hos gemene man som köper ett 600W grafikkort utan det ligger högre upp i kedjan.

Visa signatur

5800X3D @Kombo Strike 3 / 32GB DR RAM @3800MHz,CL16 / 3090 Turbo @1695MHz,0.750V

Permalänk
Skrivet av Aeig:

I övrigt så är knappast RTX 4090 det som kommer hjälpa eller stjälpa miljön. Jag hade hellre sett begränsningar av utlandsresor, förbrukning av engångsplaster, längre livslängd på vitvaror etc än tandlösa åtgärder som att begränsa effekten på grafikkort.

Att begränsa-maxeffekten på de dyraste mest kraftfulla grafikkort är exakt samma sak som begränsa maxeffekten på lastbilar, tåg, grävmaskiner, fartyg och annat. Och sedan slänga ut sig påstående att begräsning handlar om miljö. Utan det minsta fundera på vad kausalitet är.

Däremot går vi helt naturligt emot att folk använder allt mer strömsnål datorutrustning av många anledningar. Det hade varit ett miljöproblem om folk istället hade gjort ett annat val. Listan med problem med värmeutveckling på en dator går att göra oändlig, långt ner i listan finns problemet med att den höjer temperaturen i rummet.

Permalänk
Medlem

Och jag som tyckte jag tog i för eventuellt dubbla grafikkort när jag köpte mitt 750w nätagg en gång i tiden.

Visa signatur

Nybörjare på Linux? Se hit! #15665841

Permalänk
Medlem

Hoppas det ingår en voucher för elbidrag också

Permalänk
Hedersmedlem
Skrivet av Exydia:

Problemet med C02-utsläpp ligger inte hos gemene man som köper ett 600W grafikkort utan det ligger högre upp i kedjan.

Yes, men med tanke på att Hopper drar upp till 700 W så lär kommande superdatorer potentiellt sluka en hel del. Samt proffsutrustning.
Och om det stämmer att 4090 ligger på 450-600 W så lär det ju innebära att mer mainstream-riktade kort (som väl rimligtvis är de som har sådan volym att de är de viktigaste) också ökar i effekt en hel del.
Har två kompisar som spelar på kort som enbart får ström från PCIe-kontakten (GTX 1050 Ti), dvs max 75 W. Det lär vara ett minne blott för "RTX 4050" om top of the line-kortet går från 250 W (1080 Ti) till 600 W.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av jawik:

xx90 korten ska ju vara lite extremare, så det gör ju inget om just de modellerna har extremare krav. Blir mer intressant att se vad xx80 och lägre ligger på

Finns väl risk att även den drar betydligt mer än tidigare. RTX 3080 drar 320W medan 2080 drog 215W och GTX 1080 bara 165W. Så det börjar dra iväg även i lägre segmenten.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem
Skrivet av Pepsin:

Finns väl risk att även den drar betydligt mer än tidigare. RTX 3080 drar 320W medan 2080 drog 215W och GTX 1080 bara 165W. Så det börjar dra iväg även i lägre segmenten.

Fortfarande bara små potatis i effekt.
De flesta datorer kommer fortfarande fungera på en 600-850W psu. Vi är ju fortfarande en ganska billig hobby per timme även inkluderat hårdvara och el.

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Detta kommer att kosta driva... Min elräkning är redan lite mer än dubbelt upp dyrare än vad det var för ett år sen...

Visa signatur

i9-12900K | Z690 HERO | RTX 3080 | PG279QM 240Hz | 32GB DDR5 | H150i ELITE | PSU 1200W | SN850 2TB | SSD 1TB | HDD 1TB | WIN 11 | Meshify 2 Black | Kringutrustning: Logitech MX Keys | Razer Naga Pro | Razer Nari Ultimate
TV: LG 65" OLED65C8 | PS5 & Pulse 3D Wireless Headset, Series X & Xbox Wireless Headset & Elite Series 2