AMD: "Mer effekthungriga grafikkort en oundviklig trend"

Permalänk
Medlem
Skrivet av pv2b:

Nej? Det finns inte nödvändigtvis ett motsatsförhållande mellan topp-prestanda och maximerad perf/watt inom en generation.

Topp-produkten behöver inte vara (och är oftast inte) den mest energieffektiva.

Nu lutar det dock åt att det blir sämre utveckling vad gäller energieffektivitet och då blir det ett problem ifall man vill ha bättre prestanda vid liknande strömförbrukning.

Permalänk
Medlem

Näe, man kan faktiskt satsa på billigare tillverkning också för att vinna marknadsandelar. Måste inte vara snabbast för att sälja mest. Och spel utvecklas för den mest populära hårdvaran så...

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Hedersmedlem
Skrivet av talonmas:

Näe, man kan faktiskt satsa på billigare tillverkning också för att vinna marknadsandelar. Måste inte vara snabbast för att sälja mest. Och spel utvecklas för den mest populära hårdvaran så...

Köpare i allmänhet fungerar inte så.

I en perfekt värld hade köpare utvärderat vad som finns på marknaden inom det prisspann köparen hade tänkt sig, och sedan välja en produkt utifrån det. Beroende på prisspann och dagspriser så vinner olika tillverkare från tid till tid.

I verkligheten är det varumärke som styr mångas köpebeslut. Man tittar på två grafikkort inom samma prisspann och köper sedan baserat på vilket märke man föredrar. Är man lite extra bra konsument letar man upp ett test som stödjer ens förutfattade mening om vilket kort som är bättre.

Bilden av vilket märke som är bäst bildas delvis av vem som upplevs vara marknadsledande, vilket i sin tur bildas delvis av vem som har de snabbaste toppkorten.

Detta blir extra tydligt bland de som inte bygger sina egna datorer, utan väljer mellan olika färdigbyggda datorer. Det är betydligt lättare att sälja en färdigbyggd dator med Intel och Nvidia, än med AMD-grejer i. (Konsumenterna börjar lära sig att AMD:s processorer inte är skit, men länge så förknippas AMD av gemene man med kassa grejer från Bulldozertiden...)

Permalänk
Medlem

Det är väl bara att acceptera såvida det inte kommer någon ny teknik snart... Tvivlar!

Permalänk
Medlem
Skrivet av PatrickP:

Är också bra att förstå att man inte får sämre absolut prestanda bara för att ett annat kort har högre absolut prestanda

Förvisso inte, men mjukvara följer hårdvarans kapacitet. Det betyder att den som vill ha ett mer strömsnålt kort kommer få svårt att utnyttja modern mjukvara på ett tillfredställande sätt.

Permalänk
Medlem
Skrivet av BMac:

Att lägga på fler vedträn på ett problem är enkelt och kräver ingen investering från tillverkarens sida.

Att utveckla bättre algoritmer som får jobbet gjort utan att behöva fler transistorer eller mer ström hade varit att föredra, men det kräver en vilja och lite mer seriös utveckling.

Vem vet, det kanske hade resulterat i en riktig teknikrelaterad nyhet?

Problemet är väl att om endera AMD eller Nvidia släpper på mer effekt till kommande generation så kan inte den andra sidan säga "det är lugnt, vi tar andraplatsen ett par generationer för att sedan återkomma med en supereffektiv produkt i toppsegmentet och krossa motståndet". Det går inte att släppa marknaden hur som helst. Att AMD gjorde det tidigare var nödvändigt för kunskap och/eller pengar att hänga med inte fanns. En sådan utveckling måste ske antingen vid sidan av den snabba enkla "fullt ös-metoden" eller iaf med samma nivå av fokus som konkurrenten lägger på det.

Permalänk
Medlem
Skrivet av pv2b:

Så länge frågan "vilken tillverkare är bäst" besvaras av vilken tillverkare som har det snabbaste toppkortet av en betydande mängd av allmänheten så kommer trenden att kvarstå, och vi har redan passerat vad som är rimlig effektförbrukning för ett grafikkort i toppklassen i standardutförande.

Jag önskar att svaret vore "den tillverkare som får ut mest prestanda vid 250W TDP"

Visa signatur

h170i-plus i5 6600 2x8gb ddr3l 850 pro 256gb
Don't argue with an idiot. He will drag you down to his level, and beat you with experience.

Permalänk
Medlem

Tråkigt. hoppas ett rejält upplyft i "mellanklassen". Har man inte råd med klimatanläggning så är high end inte å tala på längre

Permalänk
Inaktiv
Skrivet av DasIch:

Det blir ett problem om man vill ha bättre prestanda vid samma eller lägre strömförbrukning.

Då blir du illa tvungen att vänta några år till tills tekniken är där och du får den prestanda du vill ha relativt till din strömbudget

Permalänk
Inaktiv
Skrivet av deppan:

Jag önskar att svaret vore "den tillverkare som får ut mest prestanda vid 250W TDP"

Det är det ju, båda tillverkarna har ju kort med den effekten som sakta men säkert får bättre prestanda varje år

Permalänk
Medlem
Skrivet av DasIch:

Ah, så köpa ett sämre kort så jag får samma prestanda som jag redan har?

Problemet ligger väl i att vi konsumenter vill både ha kakan och äta den.

Som siffror visar så har ju energieffektiviteten ökat.
Utgå från att du har en 250w strömbudget till GPU
Om vi tidigare fick 100fps i 1920x1080p med ett 1080Ti.
Men idag så får du 150fps i 1920x1080p med ett 3050 med samma strömbudget på 250w strömbudget.
Så problemet ligger i konsumenternas önskat om att ligga kvar i exakt samma prestandasegment (1080, 2080, 3080, 4080) med samma strömbudget.

Kan ta mig själv som ett exempel.
Min PSU är på 750w, det är ca 8år gammalt. När jag köpte det hade jag ett GTX 980Ti. Idag kör jag ett 3080Ti med samma PSU.
Det är väldigt stor skillnad i prestanda mellan ett 980Ti och ett 3080Ti trots samma strömbudget. Vist det har varit trevligt och bra för plånboken. Men det har kanske kommit till vägs ände?

Om nu fysikens lagar och tillverkningsteknik gör att jag inte längre kan uppgradera till ett 4080Ti utan får "nöja" mig med ett 4070 utan att ändra min PSU. Så fine jag får ett "sämre kort" men som ändå presterar bättre än mitt 3080Ti.

Disclamer: Obs siffrorna är bara höftade som exempel och jag tog nVidia kort eftersom jag har bättre koll på nVidia historiken.

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem

Man får väl nästan hoppas att EU går in och bestämmer hur mycket ett grafikkort får förbruka...

Permalänk

Det är ju självklart att de snabbaste datorkomponenterna går emot att bli mer strömkrävande så länge som man kan få ur rejält mycket extra prestanda för denna effekt.

Men folk behöver inte köpa de mest kraftfulla grafikkortet och många som klagar kommer säkerligen inte ha råd med detta heller, Jag själv tänker såklart inte lägga 15000kr på ett grafikkort som jag knappt använder.

Till miljöpopulisterna så fokusera erat klagomål emot gamers och speltillverkare, det är de som kör onödiga laster på deras datorer som förbrukar en massa energi, När en speltillverkare lanserar ett nytt spel och visar upp grafiken, börjar då klaga att denna grafik drar mycket energi och spelet kunde ha sämre grafik.

Permalänk
Medlem

Ugh. Vill ha ett regelverk som kan begränsa strömbudgeten för grafikkort. Max 150w sen kan Bästa effektivitet vinna.

Permalänk
Medlem
Skrivet av Lordsqueak:

Låter som du säger att mer W = bättre.

I verkligheten så är mer W = sämre.

Mer W och mer prestanda per W = mer prestanda. Du vill att de ska göra klenare grafikkort, men då kan du ju bara köpa ett klenare grafikkort.

Skrivet av DasIch:

Ah, så köpa ett sämre kort så jag får samma prestanda som jag redan har?

Fast mer prestanda per W så får du ju endå ett bättre kort med samma strömförbrukning. Om du inte vill öka din strömförbrukning köp ett kort som drar mindre och också ger lite mindre prestanda då.

Folk verkar ju vilja köpa kort som drar mindre ström, men de lever ju in någon sorts fantasivärld där de tycker att alla topkort borde dra mindre ström än förra generationen och samtidigt på något sätt ge minst 50% mer prestanda. Vill du inte ha ett strömtörstigt kort så finns det många alternativ.

Permalänk
Medlem
Skrivet av anon201296:

Det är det ju, båda tillverkarna har ju kort med den effekten som sakta men säkert får bättre prestanda varje år

Njae det är inte alls samma sak när produkten är mer energieffektiv runt 150w och amd/nvidia skruvar upp effekten till 250w för runt 20% mer prestanda. Det är klart att om ena parten tänjer på gränserna måste den andra göra det för att hänga med i prestandan pga konsumenter kollar på FPS mestadels. Om de skulle ha ett tak att förhålla sig till skulle produkten från början vara mer energieffektiv runt strömbudget-taket och vi skulle inte behöva se de här väldigt ineffektiva kretsarna släppas.

Permalänk
Medlem
Skrivet av Querth:

Njae det är inte alls samma sak när produkten är mer energieffektiv runt 150w och amd/nvidia skruvar upp effekten till 250w för runt 20% mer prestanda. Det är klart att om ena parten tänjer på gränserna måste den andra göra det för att hänga med i prestandan pga konsumenter kollar på FPS mestadels. Om de skulle ha ett tak att förhålla sig till skulle produkten från början vara mer energieffektiv runt strömbudget-taket och vi skulle inte behöva se de här väldigt ineffektiva kretsarna släppas.

Hade de haft ett tak hade inte fått de här högpresterande kretsarna alls. Det som skulle vara ett 4080 hade helt enkelt fått namnet 4080 Ti och så hade vi inte fått något riktigt 4080 ti. Istället kan du som konsument göra det valet själv. Du kan ju alltid välja ett mer strömsnålt grafikkort.

Permalänk
Medlem
Skrivet av hakro807:

Förvisso inte, men mjukvara följer hårdvarans kapacitet. Det betyder att den som vill ha ett mer strömsnålt kort kommer få svårt att utnyttja modern mjukvara på ett tillfredställande sätt.

Både ja och nej. Finns det mer prestanda tillgängligt kommer såklart mjukvaruutvecklarna försöka utnyttja det genom att t.ex. i spel möjliggöra fler grafiska effekter osv. Men det ligger även i mjukvaruutvecklarnas intresse att så många som möjligt kan använda deras mjukvaror, även om man sitter på en dator som presterar som en potatis

Permalänk
Datavetare

Den bild som AMD visade i ursprungsartikeln är tyvärr rätt målande för vad vi som är att vänta framöver

Den del som utelämnas här är egentligen ännu värre, "death of Dennard scaling" som började ta fart redan runt 45-65 nm.

Så länge som både Moores "lag" och "lagen" om Dennard-skalning (ingen är egentligen en lag, utan en observation kring något som råkade gälla under flera decennier) fungerade så vi enorm prestandaförbättring, både via högre IPC och högre frekvens, vid varje ny generation.

Moores lag såg till att det gick att bygga större och mer avancerade kretsar utan att priset drog iväg medan Dennard scaling såg till att effekten per transistor minskade ungefär i samma takt som densiteten ökade (effekt per area var ungefär konstant).

Utan Dennard scaling har det forfarande gått att öka IPC, framförallt genom att lägga transistorbudget på allt mer specialiserade funktioner. Men nu får man endera acceptera en högre total effekt alt. designa kretsar like hur systemkretsarna allt mer designas: i praktiken kommer aldrig hela kretsen användas samtidigt för ett enskilt fall, men det finns kisel för att specifikt accelerera de viktigaste och/eller tyngsta uppgifterna. D.v.s. man designar för att ha "dark silicon", delar av kretsens förväntas vara inaktiv i normalfallet.

Den riktigt stora gemensamma trenden just nu, öka cache storlek: AMD har det i alla RDNA2, man har sin 3D-cache för CPU, Apple har brutalt stor cache till sina CPUer på varje nivå (Max har 48 MB L3$ och Ultra 96 MB), Nvidia verkar också dra till med väsentligt större cache i Lovlace (ryktas om 96 MB i toppmodellen, jämför det mot 6 MB i toppmodellen av Ampere), enda relevanta nyheten i Raptor Lake verkar vara uppskruvad cache (L2$ ökar med 60 % i P-cores och 100 % i E-cores, medan L3$ ökar ~20 %).

Tittar man på bilden AMD visar ovan känns det egentligen helt bakvänt, SRAM är en av de saker som skalar allt sämre med varje krypning (används för cache) medan logikceller (används t.ex. för att öka IPC samt designa specialfunktioner) fortfarande skalar.

Problemet är nära nog total avsaknad av Dennard scaling numera. Effekten på transistor minskar långt mindre än densiteten ökar numera, d.v.s. effekten per area-enhet och därmed effekten per krets, om man bygger ungefär lika stora kretsar, ökar.

Valet man har då är att öka effekten så mycket som man anser "rimligt", sen får man göra det bästa av situationen. Utdelningen i prestanda är rätt dålig, räknat per area-enhet, på att öka mängden cache. Men det är trots allt något man kan göra utan att effekten går i taket. Tvärtom kan mer SRAM minska effekten då det kostar långt mer att läsa/skriva från RAM än från cache. Och är också gigantisk mängd cache som gör "chiplets" konkurrenskraftiga mot monolitiska kretsar.

Massiv mängd cache "döljer" nackdelarna med flera kretsar (som är att kommunikation utanför en krets drar betydligt mer effekt och har högre latens än kommunikation inom en krets).

Man kan se det på flera sätt.

Positiva synsättet är att industrin visar åter igen att man är otroligt bra på att anpassa sig till hårda begränsningar. Än så länge ökar trots allt prestanda per Watt för varje generation, både AMD och Nvidia har haft rätt stora ökning på GPU-sidan trots ökning av totaleffekt!

Negativa synsättet är att vi kommer få se en långsammare utveckling med avseende på prestandaökning per år. Lär tyvärr också komma med en generell ökning i pris på toppkorten då det vi nu går mot möjliggör mer komplicerade produkter (går att bygga mer komplicerade saker nu när man effektivt kan kombinera flera kretsar till att lösa en viss uppgift).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare

Angående att man kan välja att stanna på kort med lägre effekt. Skulle säga: delvis sant.

På GPU-marknaden kan man inte hamna allt för långt efter i absolut prestanda, i alla fall inte om man aspirera på att göra grafikkort för spelmarknaden.

Trippel-A titlarna med gigantiska budgetar kommer försöka flytta gränserna. Det betyder att man kommer testa sina produkter på de absolut snabbaste "gaming-korten" som finns och på något sätt försöka utnyttja dessa.

Det betyder rimligen att om toppkorten drar iväg i effekt så kommer även skillnaden i upplevelse med "kort med rimligt effekt kontra toppkort" öka.

Även om inte AMD/Nvidias toppkort för konsumeter vinner några prestanda/krona jämförelser så kräver även de funktioner som DLSS/FSR för att på något sätt kunna dra runt de tyngsta titlarna i 4k.

Accepterar man lägre kvalité går det ändå att konstatera att kort som 970 (använder som exempel då det är det äldsta kort jag själv har kvar) fortfarande kan köra nästan allt i 1920x1080, även om det är på typ "low" idag. Den fantastiska skalningen gör ju ändå att man kan spela de senaste spelen med de kort som har "vettig" effekt.

Skrivet av pv2b:

Köpare i allmänhet fungerar inte så.

I en perfekt värld hade köpare utvärderat vad som finns på marknaden inom det prisspann köparen hade tänkt sig, och sedan välja en produkt utifrån det. Beroende på prisspann och dagspriser så vinner olika tillverkare från tid till tid.

Skulle säga att majoriteten av köparna fungerar exakt så. På väldigt många marknader finns en eller ett par "teknikledare" som gör det bästa som är möjligt för tillfället, men det med en prislapp som lägger det utanför möjlig eller i alla fall rationellt försvarbar nivå.

Det fungerar uppenbarligen även på marknader där det bara finns två helt dominerade spelare, mobilmarknaden är ett väl det närmaste exemplet (Android har den klart större marknadsandelen trots att Apple har klar teknisk ledning sett till systemkretsen).

Givet den strategi AMD valt med Lisa Su vid rodret, d.v.s. AMD ska inte konkurrera med lägre pris (där har man ju lyckas, vi har aldrig haft den här prisnivå vare sig på CPU- eller GPU-marknaden), så blir ju Sam Naffziger uttalande helt logiskt. Då allt pekar på att Nvidia (just nu odiskutabel marknadsledare för GPU) tänker skruva upp effekten för att vinna topprestanda har AMD två alternativ: ändra sin strategi eller följa efter.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Lordsqueak:

Låter som du säger att mer W = bättre.

I verkligheten så är mer W = sämre.

Nej, personen skrev Så länge effektiviteten ökar så tycker jag inte vi har något att klaga på.
Så högre W vid högre effektivitet = bättre.
Exempel: 60 fps i ditt nuvarande spel till 80% av effekten (W) = bättre.
OnT: Håller med om effektiviteten.
Blir det för högljutt/varmt när man spelar på maxinställningar med ett grafikkort som är mer effektivt än föregående generation (FPS per W) så får jag väl skruva ner inställningarna. Alternativet hade ju varit att köpa ett kort med mindre strömbudget som antagligen inte hade kunnat köra med de inställningarna som gör att det nya kortet (och jag ) svettas ändå.
Ingen större entusiast av denna utveckling men samtidigt spelar jag mest MMO och äldre titlar så 2070 super-prestanda räcker bra för min del.

Visa signatur

Att förespråka Mac på Swec är som att förespråka hybridbilar på en raggarträff i Mora.

Nuvarande stationär: 7800X3D, 128Gb ram, 4Tb nvme, 3x8Tb sata-ssd, 4070 Ti S

Permalänk
Medlem
Skrivet av AMD:

"Mer effekthungriga grafikkort en oundviklig trend"

Skitsnack, bara för att Nvidia går åt det hållet, behöver det inte betyda att man måste haka på den...

Permalänk
Medlem
Skrivet av Nautilus011:

Problemet ligger väl i att vi konsumenter vill både ha kakan och äta den.

Som siffror visar så har ju energieffektiviteten ökat.
Utgå från att du har en 250w strömbudget till GPU
Om vi tidigare fick 100fps i 1920x1080p med ett 1080Ti.
Men idag så får du 150fps i 1920x1080p med ett 3050 med samma strömbudget på 250w strömbudget.
Så problemet ligger i konsumenternas önskat om att ligga kvar i exakt samma prestandasegment (1080, 2080, 3080, 4080) med samma strömbudget.

Kan ta mig själv som ett exempel.
Min PSU är på 750w, det är ca 8år gammalt. När jag köpte det hade jag ett GTX 980Ti. Idag kör jag ett 3080Ti med samma PSU.
Det är väldigt stor skillnad i prestanda mellan ett 980Ti och ett 3080Ti trots samma strömbudget. Vist det har varit trevligt och bra för plånboken. Men det har kanske kommit till vägs ände?

Om nu fysikens lagar och tillverkningsteknik gör att jag inte längre kan uppgradera till ett 4080Ti utan får "nöja" mig med ett 4070 utan att ändra min PSU. Så fine jag får ett "sämre kort" men som ändå presterar bättre än mitt 3080Ti.

Disclamer: Obs siffrorna är bara höftade som exempel och jag tog nVidia kort eftersom jag har bättre koll på nVidia historiken.

Hela poängen här är att förbättringarna i energieffektivitet minskar. Vi kommer framöver se allt mer att prestandan bara ökar genom högre effektuttag. Det är liksom kärnan till problemet här. Vill du som konsument ha bättre prestanda vid samma strömbudget kan du förvänta dig högst mediokra förbättringar, samtidigt som mjukvara kommer designas för toppkorten.

Problemet är inte att konsumenter vill ha kakan och äta den. Problemet är att det är en ohållbar utveckling.

Skrivet av lille7:

Mer W och mer prestanda per W = mer prestanda. Du vill att de ska göra klenare grafikkort, men då kan du ju bara köpa ett klenare grafikkort.

Fast mer prestanda per W så får du ju endå ett bättre kort med samma strömförbrukning. Om du inte vill öka din strömförbrukning köp ett kort som drar mindre och också ger lite mindre prestanda då.

Folk verkar ju vilja köpa kort som drar mindre ström, men de lever ju in någon sorts fantasivärld där de tycker att alla topkort borde dra mindre ström än förra generationen och samtidigt på något sätt ge minst 50% mer prestanda. Vill du inte ha ett strömtörstigt kort så finns det många alternativ.

Vi kommer dock inte se några större förbättringar i energieffektivitet. Det är hela poängen med artikeln. Dennard-skalning funkar inte längre. Det blir dyrare och svårare att öka transistortätheten och det ger allt mindre fördelar i energieffektivitet.
Om ryktena kring Ada stämmer kommer strömbudgeten öka med 30% från Ampere. Ifall strömbudgeten ska ökas med 30% per generation når vi 1000W inom tre generationer. Förmodligen tidigare då jag inte räknat med Ti-kort.

Permalänk
Medlem
Skrivet av loefet:

Skitsnack, bara för att Nvidia går åt det hållet, behöver det inte betyda att man måste haka på den...

Skynda dig att söka jobb hos AMD så du kan berätta för dem hur de ökar energieffektiviteten.

Permalänk
Inaktiv
Skrivet av Querth:

Njae det är inte alls samma sak när produkten är mer energieffektiv runt 150w och amd/nvidia skruvar upp effekten till 250w för runt 20% mer prestanda. Det är klart att om ena parten tänjer på gränserna måste den andra göra det för att hänga med i prestandan pga konsumenter kollar på FPS mestadels. Om de skulle ha ett tak att förhålla sig till skulle produkten från början vara mer energieffektiv runt strömbudget-taket och vi skulle inte behöva se de här väldigt ineffektiva kretsarna släppas.

Vi skulle heller inte se den prestanda vi har idag om de varit tvungna att strypa sina kort

Edit. Jag föredrar altså att det är idag och man har möjlighet att köpa topp prestanda om man vill och så finns 150W kort etc. För de som är oroade över varma gamingrum eller vad det nu kan vara som är problemet

Permalänk
Medlem
Skrivet av DasIch:

Hela poängen här är att förbättringarna i energieffektivitet minskar. Vi kommer framöver se allt mer att prestandan bara ökar genom högre effektuttag. Det är liksom kärnan till problemet här. Vill du som konsument ha bättre prestanda vid samma strömbudget kan du förvänta dig högst mediokra förbättringar, samtidigt som mjukvara kommer designas för toppkorten.

Problemet är inte att konsumenter vill ha kakan och äta den. Problemet är att det är en ohållbar utveckling.

Vi kommer dock inte se några större förbättringar i energieffektivitet. Det är hela poängen med artikeln. Dennard-skalning funkar inte längre. Det blir dyrare och svårare att öka transistortätheten och det ger allt mindre fördelar i energieffektivitet.
Om ryktena kring Ada stämmer kommer strömbudgeten öka med 30% från Ampere. Ifall strömbudgeten ska ökas med 30% per generation når vi 1000W inom tre generationer. Förmodligen tidigare då jag inte räknat med Ti-kort.

Det här gäller ju både stationärt och laptop det blir lättare och hantera på stationärt med större PSU och större kylning men laptops kommer bli tjockare om de ska få plats med större strömbudget kraftigare batteri och större fläktar. Det kommer också bli tyngre eller så kommer skillnaden mellan laptop och stationär öka mer vilket jag hoppas vi slipper.

Permalänk
Medlem

Superviktigt numera att recensenter fokuserar mer på pris/prestanda och prestanda/watt.

Permalänk
Medlem
Skrivet av Sorten:

Det här gäller ju både stationärt och laptop det blir lättare och hantera på stationärt med större PSU och större kylning men laptops kommer bli tjockare om de ska få plats med större strömbudget kraftigare batteri och större fläktar. Det kommer också bli tyngre eller så kommer skillnaden mellan laptop och stationär öka mer vilket jag hoppas vi slipper.

Problemet för stationära är även att värmen ska ta vägen någonstans. Annars är det ju bara elda på med 2KW, så länge nätdel och kylning är dimensionerad därefter. Blir dock jobbigt med all värme i rummet.

Själv kan jag inte riktigt använda datorn såhär års. 30 grader varmt inomhus. Blåsa ut en massa varm luft från datorn känns inte aktuellt.

Permalänk
Medlem
Skrivet av DasIch:

Skynda dig att söka jobb hos AMD så du kan berätta för dem hur de ökar energieffektiviteten.

He's onto something

Permalänk
Medlem
Skrivet av DasIch:

Skynda dig att söka jobb hos AMD så du kan berätta för dem hur de ökar energieffektiviteten.

nVidia låg på på 28nm i tre generationer (6-7-9 serien).
Och varje generation blev betydligt snabbare med betydligt bättre prestanda per watt.
T.ex. så är ju ett GTX980 snabbare än ett 780 TI, men drar typ 70% av effekten.
Så nog 17 går det att effektivisera processer om man vill.
Men den enkla vägen är ju såklart att mata på med mer ström.