Detaljer om RTX 5070 Ti läcker – fler kärnor och högre effekt

Permalänk
Medlem
Skrivet av heatm:

Jag som även tycker om att skruva bilar, och har det billigaste projektet man kan ha; en gammal 245:a, kan säga att DET är dyrt. 30 000 kr är en droppe i havet. Jag behöver en press, en motorlyft och ett motorstativ nu... det är 10000 kr. Lägg till värme i verkstan som är 500 - 1000 kr i månaden nu på vintern. Bara sexkantsskruv i 10.9-kvalité som man gärna har ett sortiment av, men bara behöver någon då och då är tusentals kronor om man vill vara säkrad. Man kan alltså utan att blinka lägga 1500 kr på SKRUV som bara ligger där... Nu finns det oändligt med begagnade saker man kan komma över, och en 60 år gammal hylsnyckel är lika bra som en ny, om inte bättre.

Dom 19000 kronorna jag la ut på ett RTX 4090 är glömda för länge sen! Och det var bara en investering för att slippa sitta och fundera om jag ska uppgradera på 4-5 år. Min hjärna är en projektorienterad sak, så är saker inte färdiga så kan jag inte sluta fundera kring dom. Nu är den tyst på datorfronten i några år. Värt det!

Och det är detta Nvidia och AMD fattat, även om den sistnämnda inte är i en position att göra precis som dom vill. Nvidia vet att dom är bäst just nu och att $2000 - $3000 dollar inte är mycket pengar för folk när hela deras liv tillbringas framför burken. Annat var det förr för då var datorn bara ett verktyg som alla andra. Man kunde spela på dom såklart men det var inte en underhållningscentral som den är idag. Vuxna människor gjorde annat med sin tid. Nu... fan, om jag hade tillbringat min fritid framför datorn och bott i lägenhet fortfarande så hade jag lätt kunnat köpt en burk för 100000 kr som nyanländ i medelåldern.

Problemet är inte att dom dyraste korten är dyra, det är att mellanklassen suger och prestandagapet är för stort så folk känner att dom inte får rät värde för $800 dollar just nu.

Förlåt för långt inlägg... sitter och dricker lunchkaffet och svävar iväg i tankarna.

Du är nog beviset på att man ska balansera sin tid framför skärmar. 😉 Promenera lite i naturen typ. 🙂

Permalänk
Medlem
Skrivet av Bagarbosse:

Den processorn släpptes för 14 år sedan. Tänkte du vänta 14 år med att byta grafikkort nästa gång också? Om 14 år kanske det inte spelar så jättestor roll om du sitter på ett 4000- eller 5000-serie grafikkort?

Jag har lite svårt att förstå när folk med 7+ år gamla grejer gnäller över priset på sprillans nya prylar. Köp det som har funnits 1-2 år istället och du har uppgraderat prestandan med 100-200% till ungefär samma pris som du betalade för din nuvarande (retro)PC.

Jag har svårt att förstå att folk inte kan se det alldeles uppenbara. En gång i tiden kostade en värsting 13500 spänn. Förutom skärm , tagenbord och sånt.
2013 det var tider det. Då ska kan komma ihåg att prestandahoppen mellan processorgenerationerna då på den tiden var abnorm så man fick verkligen nått för pengen.
https://web.archive.org/web/20060426223256/http://www.inet.se...

Visa signatur

Dualbot, w10, Ubuntu, 2600k

Permalänk
Skrivet av Modellören:

Jag har svårt att förstå att folk inte kan se det alldeles uppenbara. En gång i tiden kostade en värsting 13500 spänn. Förutom skärm , tagenbord och sånt.

https://web.archive.org/web/20060426223256/http://www.inet.se...

En värsting dator som klarade 1080p i 60fps.... Med typ 1/10 med transistorer etc

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

En värsting dator som klarade 1080p i 60fps.... Med typ 1/10 med transistorer etc

Wow ja mer än så Kan ha vart ATi radeon 200 serien.

Förövrigt så brukade det ju vara med mer som office, Viruset-Norton. tagenbord, mus, musmatta och några fler CD skivor med liknade samma skräp som Norton.

Visa signatur

Dualbot, w10, Ubuntu, 2600k

Permalänk
Medlem
Skrivet av ZaaphodBleebronx:

Förstår inte 5080 med den specifikationen på 5070Ti, nästan ingen skillnad, med ett jättehopp till 5090.
De måste klämma in lite kort emellan 5090 och 5080.
Skulle avvakta med att köpa ett 5080 för det kommer att kännas som ett 5070 när Nvidia har lekt färdigt.

För att förstå, nvidia har döpt om gaming-segmentet i resultrapporten till "gaming and ai".

5090 kommer att primärt vara ett ai-kort, till för de som tjänar pengar på att använda ai. Vill någon sedan även använda det till spela, så går det ju också men det är mest för de som inte har råd med deras riktiga ai-kort. Och priset kommer att avspegla det, för de som använder deras kort för att tjäna pengar är också villiga att betala mer (precis som det var med de som var redo att betala en hel del för att få tag på en dgpu för att gräva kryptovalutor med.)

Permalänk
Medlem
Skrivet av forumtroll1:

Rösta med plånboken om ni inte är nöjda.

Jag håller med och vist har jag krigat bra med 2600k, 1070 länge nu. Men SSD är full och spelen blir allt större och med det så känns det felinvesterande med över 1T SATA och 32GB DDR3 i dag.

Att hoppa över ett par generationer mellan köp är lösningen och för mig så blir det ju kanske ett köp av RTX4-5060ti kanske eller något motsvarande AMD tror jag.

Visa signatur

Dualbot, w10, Ubuntu, 2600k

Permalänk
Medlem
Skrivet av hasseb64:

För höga effektuttag, blir inte intressant alls med denna generation verkar det som

Skrivet av heatm:

Hmm... 400 W för 5080 är saftigt. Men å andra sidan så skulle 4090 dra 600 W enligt läckor förra rundan.

Jag skulle inte palla med en GPU som spottade ut 400 W om jag satt och spelade under långa perioder... 4090 mitt drar ~380 W (nedställt från 450 W) och det, tillsammans med en CPU, gör det rätt så mysigt i kontoret efter ett tag. Takfläkt rekommenderas! 400 W är samma effekt som en kupévärmare på "lågeffekt". Lägg till en CPU som drar 100 W, 20 W övrigt och ett nätagg som är 85 % effektivt och du har ett 600 W värmeelement bredvid dig.

Håller helt med er båda och mycket bra samt informativt @heatm

Permalänk
Medlem
Skrivet av heatm:

Hmm... 400 W för 5080 är saftigt. Men å andra sidan så skulle 4090 dra 600 W enligt läckor förra rundan.

Jag skulle inte palla med en GPU som spottade ut 400 W om jag satt och spelade under långa perioder... 4090 mitt drar ~380 W (nedställt från 450 W) och det, tillsammans med en CPU, gör det rätt så mysigt i kontoret efter ett tag. Takfläkt rekommenderas! 400 W är samma effekt som en kupévärmare på "lågeffekt". Lägg till en CPU som drar 100 W, 20 W övrigt och ett nätagg som är 85 % effektivt och du har ett 600 W värmeelement bredvid dig.

Men, är prestandan där kan man alltid dra ner kortet. 4090 förlorar knappt någon prestanda man märker med ~10-15 % mindre strömbudget.

Oavsett så hoppas jag mellansegmentet (där räknar jag idag in xx60-serien) ökar rejält i prestanda. Med dagens spel så kommer det behövas framöver! Hoppas även Nvidia inte snålar med VRAM av rädsla att AI-folk inte ska köpa det värsta. För det kommer dom såklart göra. Inte ens hobbyister vill ha mindre än dom 24 GB 4090 redan har.

Precis! Sitter med 150W GPU idag, satt max 200W som gräns, kanske lägger på undervoltage.
Tycker det ändå blir extremt varmt i rummet efter ett tag, har ändå Platinum PSU och relativt gammal svag CPU. 400W enbart på GPU, skoja!!

Permalänk
Medlem
Skrivet av hasseb64:

Precis! Sitter med 150W GPU idag, satt max 200W som gräns, kanske lägger på undervoltage.
Tycker det ändå blir extremt varmt i rummet efter ett tag, har ändå Platinum PSU och relativt gammal svag CPU. 400W enbart på GPU, skoja!!

Håller med.

Nu har jag visserligen "underspänt" min 3090 med i genomsnitt 20% lägre strömförbrukning som resultat, men den drar ändå åt skogen för mycket och det blir fort varmt trots att rummet jag sitter i är stort.

Nästa gpu får väl bli en med ungefär samma prestanda, men med markant lägre strömförbrukning. Under 200W, tack.

(Och det är alltså inte för att spara pengar på elräkningen, utan för att slippa den förbannade värmen - och som välkommen bonus även hålla ned kylningens fläktoljud.)

Visa signatur

5950X, 3090

Permalänk
Medlem

Ser inte ut att behövas nån SLi med kort i den storleken iaf

Visa signatur

60 datorer, 18 Tv-spel, Inget sönderslaget ännu. Vad i helve..e hände med förbrukningsådran från tonåren!? 🥳

Permalänk
Medlem
Skrivet av A1200:

Du är nog beviset på att man ska balansera sin tid framför skärmar. 😉 Promenera lite i naturen typ. 🙂

Jo, mitt träningsintresse kostar runt 6000 kr/år, 3500 kr gymkort och resten en uppskattning av extra mat, kosttillskott och kläder. Med tanke på att det är den bästa investeringen man kan göra i sitt liv så är det rena rama REA:an!

Skrivet av Dawelio:

Håller helt med er båda och mycket bra samt informativt @heatm

Tackar. Jag klarar mig för att jag inte använder GPU'n kontinuerligt nå mycket längre, utan det är mest lek med AI-bilder. Då belastas ju inte CPU'n heller och såg nu att GPUn drar 350 - 370 W under dom få sekunderna när bilder genereras... som mest, när man fått ett bra resultat och vill ha ut en högupplöst bild så kan det ta 3-4 minuter. Dock, när ungen eller damen lirar så är det takfläkt och öppna dörrar som gäller! Datorrummet har dock två dörrar så man kan få till ett flöde. Men hur andra gör det vet jag inte. Sitter och svettas är min gissning!

Skrivet av hasseb64:

Precis! Sitter med 150W GPU idag, satt max 200W som gräns, kanske lägger på undervoltage.
Tycker det ändå blir extremt varmt i rummet efter ett tag, har ändå Platinum PSU och relativt gammal svag CPU. 400W enbart på GPU, skoja!!

Jo, du kan se lite mer om mina erfarenheter ovan. Sett till att man inte har några förluster av värme i rummet så är det som sagt bara tiden till en viss temperatur som skiljer. 200 W och 600 W blir båda oändligt varmt efter ett tag. Men ja, man har ju värmeledning via konvektion, konduktion o.s.v. så beroende på hur rummet ser ut, så skiljer erfarenheterna sig. Har man englasfönster och oisolerade timmerväggar och eldar med ved så är nog 600 W inge problem vare sig på sommaren eller vintern. Sitter man i ett modernt isolerat hus med treglas och FTX-ventilation och golvvärme så är det lite mer känsligt.

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
#ryssjävlar

Permalänk
Medlem
Skrivet av hasseb64:

Precis! Sitter med 150W GPU idag, satt max 200W som gräns, kanske lägger på undervoltage.
Tycker det ändå blir extremt varmt i rummet efter ett tag, har ändå Platinum PSU och relativt gammal svag CPU. 400W enbart på GPU, skoja!!

Skrivet av backfeed:

Håller med.

Nu har jag visserligen "underspänt" min 3090 med i genomsnitt 20% lägre strömförbrukning som resultat, men den drar ändå åt skogen för mycket och det blir fort varmt trots att rummet jag sitter i är stort.

Nästa gpu får väl bli en med ungefär samma prestanda, men med markant lägre strömförbrukning. Under 200W, tack.

(Och det är alltså inte för att spara pengar på elräkningen, utan för att slippa den förbannade värmen - och som välkommen bonus även hålla ned kylningens fläktoljud.)

Skrivet av heatm:

Tackar. Jag klarar mig för att jag inte använder GPU'n kontinuerligt nå mycket längre, utan det är mest lek med AI-bilder. Då belastas ju inte CPU'n heller och såg nu att GPUn drar 350 - 370 W under dom få sekunderna när bilder genereras... som mest, när man fått ett bra resultat och vill ha ut en högupplöst bild så kan det ta 3-4 minuter. Dock, när ungen eller damen lirar så är det takfläkt och öppna dörrar som gäller! Datorrummet har dock två dörrar så man kan få till ett flöde. Men hur andra gör det vet jag inte. Sitter och svettas är min gissning!

Jo, du kan se lite mer om mina erfarenheter ovan. Sett till att man inte har några förluster av värme i rummet så är det som sagt bara tiden till en viss temperatur som skiljer. 200 W och 600 W blir båda oändligt varmt efter ett tag. Men ja, man har ju värmeledning via konvektion, konduktion o.s.v. så beroende på hur rummet ser ut, så skiljer erfarenheterna sig. Har man englasfönster och oisolerade timmerväggar och eldar med ved så är nog 600 W inge problem vare sig på sommaren eller vintern. Sitter man i ett modernt isolerat hus med treglas och FTX-ventilation och golvvärme så är det lite mer känsligt.

Håller helt med er och speciellt det du säger @backfeed kring att det inte för att nödvändigtvis spara pengar på elräkningen, utan pga värmeutvecklingen som den skapar i rummet man sitter i.

Av någon anledning så har jag typ fått någon stroke på senare år, då undrade varför rummet blev sjukt mycket varmare numera än för några år sedan... troligtvis för att ett 4080S drar mer än vad ett 1080 Ti gjorde då. Lite av ett "No shit Sherlock" ögonblick man fick för sig själv haha!

Har numera själv börjat tänka om kring GPUs osv, där <200W är det som gäller. Särskilt när klimatet bara verkar bli varmare och varmare för varje år som går... Då vill man inte sitta med en GPU som själv drar 300W+ i 30+ graders värme.

Permalänk
Medlem

Som sagt, jag har svårt att fatta hur folk överlever sina riggar.

Som jag ser det finns det två vägar att lösa ovan:
1. Minimera värmebelastningen in i rummet (dator, belysning, drickakyl etc, vad man nu har).
Allt över 100W i ett normalrum kommer påverka rummets temp negativt
2. Öka värmeavgivningen från rummet

Två lösningar för andra punkten. Ventilation eller aktiv kyla
Ventilation - Forcerad ventilation/naturlig (öppna fönster)
Begränsas av ute-temp/inblåsningstemp på årets varmare dagar, normalt behövs minst 5-8 graders skillnad (intemp/rumstemp) för att det skall ge någon effekt.
Aktiv kyla skall helst göras med cirkulerande luftkonditionering, portabla aggregat tar normalt luft utifrån för sin kondensorvärme varför nettot blir mycket mindre än vad som anges.

200WGPU-värme är för mig redan too much, då har jag ändå frånluft i rummet, högt i tak och fönster som jag kan öppna.

Permalänk
Medlem
Skrivet av Dawelio:

Håller helt med er och speciellt det du säger @backfeed kring att det inte för att nödvändigtvis spara pengar på elräkningen, utan pga värmeutvecklingen som den skapar i rummet man sitter i.

Av någon anledning så har jag typ fått någon stroke på senare år, då undrade varför rummet blev sjukt mycket varmare numera än för några år sedan... troligtvis för att ett 4080S drar mer än vad ett 1080 Ti gjorde då. Lite av ett "No shit Sherlock" ögonblick man fick för sig själv haha!

Har numera själv börjat tänka om kring GPUs osv, där <200W är det som gäller. Särskilt när klimatet bara verkar bli varmare och varmare för varje år som går... Då vill man inte sitta med en GPU som själv drar 300W+ i 30+ graders värme.

Denna generation är det väl främst RTX 4070 som ligger där vid 200W
Har för mig att den officiellt är specad till 200W, kan få toppar en bit högre, men kanske snittar runt 180W eller så vid spelande.

Annars om man kan gå upp lite grann finns RTX 4070 Super.
Har lite högre strömförbrukning än vanliga 4070, men också högre prestanda.
Faktiskt såpass att 4070 Super har bättre prestanda/watt förhållande än vanliga 4070. Även om totala förbrukning är lite högre.

Föresten är detta det första inlägg jag skriver på en Risc V dator.
En Milk V Jupiter.
Har inte mätt strömförbrukningen själv,
men såg någon annan som skrev att de drar mellan 4W - 10W

Permalänk
Skrivet av GuessWho:

Denna generation är det väl främst RTX 4070 som ligger där vid 200W
Har för mig att den officiellt är specad till 200W, kan få toppar en bit högre, men kanske snittar runt 180W eller så vid spelande.

Annars om man kan gå upp lite grann finns RTX 4070 Super.
Har lite högre strömförbrukning än vanliga 4070, men också högre prestanda.
Faktiskt såpass att 4070 Super har bättre prestanda/watt förhållande än vanliga 4070. Även om totala förbrukning är lite högre.

Föresten är detta det första inlägg jag skriver på en Risc V dator.
En Milk V Jupiter.
Har inte mätt strömförbrukningen själv,
men såg någon annan som skrev att de drar mellan 4W - 10W

Mitt 4070ti har 180-220W när jag kör 4k med lite undervolt. Snittar runt 185W har ca 7% högre prestanda än stock 😉

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av GuessWho:

Denna generation är det väl främst RTX 4070 som ligger där vid 200W
Har för mig att den officiellt är specad till 200W, kan få toppar en bit högre, men kanske snittar runt 180W eller så vid spelande.

Annars om man kan gå upp lite grann finns RTX 4070 Super.
Har lite högre strömförbrukning än vanliga 4070, men också högre prestanda.
Faktiskt såpass att 4070 Super har bättre prestanda/watt förhållande än vanliga 4070. Även om totala förbrukning är lite högre.

Föresten är detta det första inlägg jag skriver på en Risc V dator.
En Milk V Jupiter.
Har inte mätt strömförbrukningen själv,
men såg någon annan som skrev att de drar mellan 4W - 10W

Det stämmer att 4070 är officiellt specad på 200W. Angående 4070 Super osv så absolut, dock över 4070 så används dessvärre nya 12V kontakten. Vissa 4070 kör fortfarande med gamla hederliga 8 pin PCIE kontakten fortfarande, vilket är lite det man varit ute efter på sistone.

Skrivet av Swedishchef_90:

Mitt 4070ti har 180-220W när jag kör 4k med lite undervolt. Snittar runt 185W har ca 7% högre prestanda än stock 😉

Najs! Vilket 4070 Ti specifikt kör du med?

Permalänk
Skrivet av Dawelio:

Det stämmer att 4070 är officiellt specad på 200W. Angående 4070 Super osv så absolut, dock över 4070 så används dessvärre nya 12V kontakten. Vissa 4070 kör fortfarande med gamla hederliga 8 pin PCIE kontakten fortfarande, vilket är lite det man varit ute efter på sistone.

Najs! Vilket 4070 Ti specifikt kör du med?

Asus tuf den som gick för msrp 😀 så inte "OC"

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25