AMD: Temperaturen på processorer kommer fortsatt att vara hög

Permalänk
Datavetare
Skrivet av twit:

Om systemet för värmeavledning inte kan hantera processorns effekt kommer processorns temperatur fortsätta öka tills processorn tvingas klocka ner sig för att inte överhettas. Är värmeavledningen tillräcklig kommer processorn nå en viss jämviktstemperatur, som baseras på hur snabbt värmen kan ledas bort. Kravet på värmeavledningsförmåga beror i sig egentligen inte på vilken temperatur processorn klarar av - det som avgör är alltid den effekt processorn förbrukar, alltså omvandlar till värme.

En processor som kan hantera högre temperaturer innebär dock att värmeavledningen inte behöver vara lika reaktiv. En kylfläns med hög termisk massa kan exempelvis absorbera mer värme än en liten kylfläns, och den förstnämnda är då bättre på att hantera temperaturspikar utan att direkt tvingas öka varvtalet på fläkten.

Det stora fördelen med att skruva upp maximala temperaturen CPUn tål är att kyleffekten växer linjärt med temperatur-delta mellan det man vill kyla (CPUn i detta fall) och kylmediet (luften/vattnet man kör genom CPU-kylaren).

Så att gå från säg 100°C max till 120°C gör att samma kylare vid samma luftflöde kommer öka sin kapacitet med ~30 % (om nu 40°C är en rimligt genomsnittlig temperatur för kylmediet under last).

En sådan höjning ger realistiskt ett tystare system då ökning i effekt från den högre temperaturen kommer vara mindre än kylarens kapacitetsökning tack vare ökningen i temperaturdelta.

Som flera varit inne på: frågan är hur mycket detta påverkar livslängden. Historiskt har livslängden på CPUer varit på nivån "du behöver definitivt inte bry dig", finns väldigt många inbyggda-system som varit i drift i decennier och 25-30 år verkar inte vara något problem alls för en genomsnittlig CPU att leva (inbyggda-system är inte samma sak som mikrokontrollers utan det är bara en delmängd av dessa, finns många sådana system med i praktiken rätt traditionella PC-komponenter).

Skrivet av CrispVanDahl:

Har inte något bättre svar egentligen än att riggen vi mäter i är rätt nedskalad jämfört med en ”normal” hemmsetup.
Inga chassifläktar då det är en öppen rigg, inga tillbehör mer än mus och tangentbord. Enbart en lagringsenhet. Standardinställningar för prestanda i Windows så CPU tillåts klocka ned, samt inga program installerade mer än testmjukvaran så väldigt få bakgrundsprocesser.
Jag antar att alla småsaker sammantaget gör att idle blir lägre än vad man kanske skulle ha hemma.

Kanske har @JonasT några insikter jag inte har tänkt på?

Fläktar förklarar nog en del, tydligen drar varje 120/140 mm fläkt ett par watt och börjar ju bli rätt många sådana i moderna datorer om det ska fungera (det är direkt löjlig peak-effekt i min dator då det är en factory-overklock GPU ).

Vidare får man tydligen räkna med ~3 W per 8 GB DDR4 RAM, DDR5 drar lite mindre (fast det är under last).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Don_Tomaso:

Jag är lite konfunderad. Hög temperatur är väl inget problem alls såvida kretsen står pall för det? Och om tillverkaren designar för det så är det ju egentligen bara bra då det innebär enklare och tystare kylning.

Ex: Att leda bort 100W från en processor är betydligt lättare om den klarar 110C jämfört med om den bara klarar 70C.

Skulle komponenterna klara 200C så skulle alla här på Sweclockers njuta av nästintill passivt kylda processorer.

Eller är det något jag inte förstår?

Du tänker fel vid ditt mätande.

Den första och viktigaste mätpunkten är där man sitter och det är det man ska utgå från först innan man köper delar till en dator.

Själv har jag runt 28 varma dagar i datorrummet innan jag ens startat datorn. Förra lägenheten snittade 38 och efter det så hatar jag värme i alla former. Dator på höjer ju tempen ett par grader och man vill kunna ha tempen under 29 i alla fall för måendet skull.

Att köra AC vet jag inte om man ens ska tänka på då elpriset bara kommer gå åt ett enda håll, Upp upp och upp.

Visa signatur

Kraschfield

Permalänk
Medlem
Skrivet av Modellören:

Att köra AC vet jag inte om man ens ska tänka på då elpriset bara kommer gå åt ett enda håll, Upp upp och upp.

Under sommaren är elpriset ändå inte särskilt högt så jag valde själv att köra ac i datorrummet dom få dagar det behövs.

Permalänk
Medlem
Skrivet av Modellören:

Jag är ändå helt säker på att det går att få ner strömförbrukningen radikalt.

Finns absolut ingen anledning att strömförbrukningen konstant ska ligga på på 65-85 watt med tillägg på 20 watt för ett grafikkort så där är vi uppe i 105 Watt i värsta fall. Alltså när datorn bara står där och inte gör något. Det är möjligt att göra så att hela systemet växlar över till nån lite krets som drar få watt när datorn inte gör så mycket eller om man bara surfar lite på nätet.

Det finns ju redan små datorer som bara drar några få watt och som inte kan dra mer än runt 13 watt för hela systemet ja förutom skärm och annat så klart. Rent teknisk så är det möjligt. Jag kör med en lite äldre Intel NUC när det är varma dagar mitt i sommaren. Vist den är inte riktigt lika rapp alla dagar men miljön i hemmet blir mycket behaglig.

Sant. Spelande är väl boven i dramat i många fall.
Jag vill ha bra flyt när jag gejmar.
Själv spelar jag på sin höjd Candy crush på min iPhone och är såklart inte målgruppen.

Min Mac mini M2 Pro har nog aldrig nått över 35w även under extrem last med filmrendering och batch-editering av tunga RAW-foton.
Tempen ligger runt 27-35 grader som mest.

M e n när jag gejmade och köpte/byggde en (i mina mått mätt) värstingdator för nästan 100 lax så var det just för en seamless gejming/editeringsupplevelse.

Så det går inte jämföra.

ARM/Silicone är en målgrupp.
Gejmers en annan.

Så ser jag det

Visa signatur

Mac Mini M2 Pro
5K

Permalänk
Medlem
Skrivet av Xermalk:

Problemet är väll att ingen självmant kommer köpa gaming/top end processorer som är exakt lika snabba men effektivare än föregående generation :/

Inte förrän elpriserna är helt vansinniga.

Alternativ

  1. dubbel prestanda, dubbel effekt

  2. samma prestanda, halverad effekt

Jag skulle gladeligen ta alternativ 2. Att slippa ha en burk som spyr ut värme i kontoret vore ju mumma!

Visa signatur

Att förespråka Mac på Swec är som att förespråka hybridbilar på en raggarträff i Mora.

Permalänk
Medlem
Skrivet av Laggzor:

kan ju aldrig vara hälsosamt för grejerna att gå så varmt?

med den här utvecklingen får man väl snart stänga av elementen innan man tar sig en spelkväll

Fast nu tänker du galet!
Att en processor utvecklar mycket effekt vid last är en sak, som då påtagligt värmer dutt rum.
Att en processor på chipnivå är mycket varm och på grund av transistor densitet är svår att kyla till under 100 grader vid last är en annan.

Här pratas det om att processorn är svår att kyla, inte att de utvecklar mycket effekt. Sedan så drar moderna cpuer hög effekt i tex cinebench, men inte "onormalt"mycket i spel. Kolla AMD 7600, ganska effektsnål, men likväl varm.

Visa signatur

Min Dator: AMD 3600 | GTX 680 | 16 GB RAM | Asus X570 Prime | Fractal Design Arc R2 | Thermalright Silver Arrow | Dell U2412M | Ibm Model M

Permalänk
Medlem
Skrivet av Trihxeem:

Alternativ

  1. dubbel prestanda, dubbel effekt

  2. samma prestanda, halverad effekt

Jag skulle gladeligen ta alternativ 2. Att slippa ha en burk som spyr ut värme i kontoret vore ju mumma!

Finns ju redan... Ändra PL 2 till önskad effekt och voila tappa 5% med 1/10 effekt

Stavning
Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

7600 not-x verkar vara en sweetspot för effekt / temperatur / prestanda

Permalänk
Medlem
Skrivet av DevilsDad:

Problemet med detta är att det inte går att avgöra om den är utsliten av värme utan specialutrustning. Har du aldrig hört talas om en cpu som lagt av utan tydlig anledning? Aldrig varit med om konstiga krasher eller mjukvarubuggar som inte går att replikera på en annan dator? Allt detta _kan_ vara en utsliten cpu, eller så beror det på något helt annat.

Min förra GPU misstänker jag att jag slet ut pga hög värme/många temperaturcykler när jag körde folding@home på den så fort jag inte var hemma. Symptomet var att den plötsligt började prestera sämmre om jag lämnade den på 100% power target. Sänkte jag power target började den då prestera _bättre_. Utöver det började fläktarna hoppa till 100% så fort den blev lite varm. I dessa fallen ignorerade den min inställda fläktkurva.

Nej, jag har aldrig hört talats om en CPU som dött av sig själv utan tydlig anledning. Alla som jag sett dött har gjort så pga mekaniskt slitage, att de använts felaktigt eller av olycka.
Din GPU låter som att något runt omkring tagit skada av värme. När en cpu eller gpu dör så är det sällan de blir sämre och sämre utan de brukar antingen bli ordentligt instabila eller dör rakt av. När det gäller GPU så är det oftast BGA-kulorna som spruckit eller liknande.

Faran med värme och elektronik är att olika material utvidgas olika mycket i temperatur. Går då temperaturen upp och ner många gånger så kommer två material som är fästa vid varandra att börja få utmattningsskador. BGA-kulor är det vanligaste men också limmet som håller kislet fast i substratet eller paddarna på substratet kan börja lossna.
Jag har själv designat temperaturcyklande långtidstester som går i flera månader för accelererat temperaturåldrande och det har aldrig hänt att något kisel gett upp. Det vi oftast ser är substratförändringar runt kislet, BGA-kulor som spricker eller höga temperaturer på kontakteringspunkter mellan kretskort som rört på sig för mycket.

Det som ger minst slitage är jämn temperatur oavsett om den är hög eller låg så vill ni hålla era elektronikprylar hela så länge som möjligt så försök att hålla dem i så jämn temperatur som möjligt.

Visa signatur

R&D Elektronikingenjör

Permalänk
Datavetare
Skrivet av Swedishchef_90:

Finns ju redan... Ändra PL 2 till önskad effekt och voila tappa 5% med 1/10 effekt

Riktigt så rosigt är det inte, men visst ökar perf/W rejält om man bara skruvar ned effekt-taket en del.

Man får ändå ha förståelse för att AMD/Intel bara fortsätter pusha effekten uppåt. PR-värdet att ligga överst i benchmarks är enormt, väldigt många ser inget annat än "X ligger före Y" även om det handlar om <5 % och i praktiken totalt irrelevant.

TechPowerUp har ju rätt nyligen postat en artikel där man kör 14900K med PL2 på 253 W, 125 W, 95 W, 65 W och 35 W.

Att gå från 253 W (default) till 125 W ökar perf/W med ~80 %, vilket kanske skvallrar att de 90-125 W desktop CPUer historisk höll sig kring nog var betydligt mer välavvägt än dagens nivåer...

Trots att prestanda bara minskar 8-9 % är det tillräckligt för att den modellen ska "förlora" en hel del förstaplaceringar i populära benchmarks som man idag "vinner".

Än värre kanske det är för Intel/AMD att om de bara skruvar ned peak-prestanda 10-20 % så finns det ju bärbara enheter som då är snabbare!

Sen må 14900K imponera om man enbart tittar på perf/W när man kör den i 35 W och jämför med andra x86-modeller i deras "stock" konfiguration.

Klicka för mer information
Visa mer

Men i det läget är absolut prestanda nere på 57 % av "stock-nivån" och tampas med CPU-modeller som 3700X och 10400F... Vidare är 35 W inte jätte-imponerande ställt mot CPU-modeller designade för ultratunna och dessa presterar bättre (framförallt de från Apple, men även de från AMD/Intel).

Vid 35 W är effekten ~1/7-del av stock medan prestanda är 57 %, en ökning av perf/W med 4x (vilket tyvärr mest säger hur brutalt usel den är i stock) men med icke-försumbar påverkan på absolut prestanda.

Låsning till 95-125 W är väldigt vettigt, halvering av effekt mot ~10 % lägre peak-prestanda (i stort sätt ingen prestandapåverkan på spel då spel ändå inte lastar alla kärnor, men enligt TPU testar minskar ändå CPU-effekten i spel en del).

Fast egentligen är ovan en separat sak från det AMD säger här: värmedensiteten kommer bara fortsätta öka, den kommer i.o.f.s. ställa till det mest för de högpresterande desktop-kretsarna, men fysiken säger att alla kommer drabbas allt mer av detta för varje ny nod framåt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Riktigt så rosigt är det inte, men visst ökar perf/W rejält om man bara skruvar ned effekt-taket en del.

Man får ändå ha förståelse för att AMD/Intel bara fortsätter pusha effekten uppåt. PR-värdet att ligga överst i benchmarks är enormt, väldigt många ser inget annat än "X ligger före Y" även om det handlar om <5 % och i praktiken totalt irrelevant.

TechPowerUp har ju rätt nyligen postat en artikel där man kör 14900K med PL2 på 253 W, 125 W, 95 W, 65 W och 35 W.

Att gå från 253 W (default) till 125 W ökar perf/W med ~80 %, vilket kanske skvallrar att de 90-125 W desktop CPUer historisk höll sig kring nog var betydligt mer välavvägt än dagens nivåer...

Trots att prestanda bara minskar 8-9 % är det tillräckligt för att den modellen ska "förlora" en hel del förstaplaceringar i populära benchmarks som man idag "vinner".

Än värre kanske det är för Intel/AMD att om de bara skruvar ned peak-prestanda 10-20 % så finns det ju bärbara enheter som då är snabbare!

Sen må 14900K imponera om man enbart tittar på perf/W när man kör den i 35 W och jämför med andra x86-modeller i deras "stock" konfiguration.

Men i det läget är absolut prestanda nere på 57 % av "stock-nivån" och tampas med CPU-modeller som 3700X och 10400F... Vidare är 35 W inte jätte-imponerande ställt mot CPU-modeller designade för ultratunna och dessa presterar bättre (framförallt de från Apple, men även de från AMD/Intel).

Vid 35 W är effekten ~1/7-del av stock medan prestanda är 57 %, en ökning av perf/W med 4x (vilket tyvärr mest säger hur brutalt usel den är i stock) men med icke-försumbar påverkan på absolut prestanda.

Låsning till 95-125 W är väldigt vettigt, halvering av effekt mot ~10 % lägre peak-prestanda (i stort sätt ingen prestandapåverkan på spel då spel ändå inte lastar alla kärnor, men enligt TPU testar minskar ändå CPU-effekten i spel en del).

Fast egentligen är ovan en separat sak från det AMD säger här: värmedensiteten kommer bara fortsätta öka, den kommer i.o.f.s. ställa till det mest för de högpresterande desktop-kretsarna, men fysiken säger att alla kommer drabbas allt mer av detta för varje ny nod framåt.

Nu summerar du det kanon. Och självklart är inget så enkelt.
Jag menade för spel med 90-125W PL2. Sen skulle man säkert kunna ta bort e cores och trycka upp P cores frekvens högre för mer prestanda och samma 125W PL2 😊

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Yoshman:

Riktigt så rosigt är det inte, men visst ökar perf/W rejält om man bara skruvar ned effekt-taket en del.

Man får ändå ha förståelse för att AMD/Intel bara fortsätter pusha effekten uppåt. PR-värdet att ligga överst i benchmarks är enormt, väldigt många ser inget annat än "X ligger före Y" även om det handlar om <5 % och i praktiken totalt irrelevant.

TechPowerUp har ju rätt nyligen postat en artikel där man kör 14900K med PL2 på 253 W, 125 W, 95 W, 65 W och 35 W.

Att gå från 253 W (default) till 125 W ökar perf/W med ~80 %, vilket kanske skvallrar att de 90-125 W desktop CPUer historisk höll sig kring nog var betydligt mer välavvägt än dagens nivåer...

Trots att prestanda bara minskar 8-9 % är det tillräckligt för att den modellen ska "förlora" en hel del förstaplaceringar i populära benchmarks som man idag "vinner".

Än värre kanske det är för Intel/AMD att om de bara skruvar ned peak-prestanda 10-20 % så finns det ju bärbara enheter som då är snabbare!

Sen må 14900K imponera om man enbart tittar på perf/W när man kör den i 35 W och jämför med andra x86-modeller i deras "stock" konfiguration.

Men i det läget är absolut prestanda nere på 57 % av "stock-nivån" och tampas med CPU-modeller som 3700X och 10400F... Vidare är 35 W inte jätte-imponerande ställt mot CPU-modeller designade för ultratunna och dessa presterar bättre (framförallt de från Apple, men även de från AMD/Intel).

Vid 35 W är effekten ~1/7-del av stock medan prestanda är 57 %, en ökning av perf/W med 4x (vilket tyvärr mest säger hur brutalt usel den är i stock) men med icke-försumbar påverkan på absolut prestanda.

Låsning till 95-125 W är väldigt vettigt, halvering av effekt mot ~10 % lägre peak-prestanda (i stort sätt ingen prestandapåverkan på spel då spel ändå inte lastar alla kärnor, men enligt TPU testar minskar ändå CPU-effekten i spel en del).

Fast egentligen är ovan en separat sak från det AMD säger här: värmedensiteten kommer bara fortsätta öka, den kommer i.o.f.s. ställa till det mest för de högpresterande desktop-kretsarna, men fysiken säger att alla kommer drabbas allt mer av detta för varje ny nod framåt.

Givet det du skriver så känns det ju ändå som att det skulle kunna vara ganska vettigt att sätta PL2 till 125W eller 95W.
Eller möjligtvis något mellanting om det inte bara är de fasta stegen.

Att det kan vara en vettig nivå av sänkning av effekt och ökning av prestanda/watt medan prestandan ändå i de flesta fall är tillräckligt bra.

35W känns onödigt låg för en desktop.
Eller ja kanske bra för en NUC eller dylikt.
Alternativt att kanske köra det varma sommardagar även på ett ATX bygge.
Men säg dagar då utomhustemperaturen är lägre än 20-25 C så känns det onödigt att gå så lågt på ett ATX bygge.

Om jag förstått det rätt är default beteendet för senaste generationen att PL1 = PL2 ?

Men att det tidigare varit olika nivåer och med en timeout ?
Om detta går att ändra även på senaste generationen?

För säg om man skulle kunna ha exempelvis PL1 = 95W, PL2 = 253W och en timeout tillräckligt kort att den största delen av tiden kör PL1 nivå.
Men att den kan gå upp i PL2 nivå i fall där det är hög belastning ett fåtal sekunder (exempelvis 5 sekunder).

Om det kan ge bättre respons i interaktiva laster än att permanent skruva ner PL2 nivå.
Men samtidigt ge en betydande sänkning av genomsnittseffekt jämfört att konstant tillåta en hög PL2 nivå utan timeout.

Permalänk
Redaktion
Praktikant ✨
Skrivet av CrispVanDahl:

Har inte något bättre svar egentligen än att riggen vi mäter i är rätt nedskalad jämfört med en ”normal” hemmsetup.
Inga chassifläktar då det är en öppen rigg, inga tillbehör mer än mus och tangentbord. Enbart en lagringsenhet. Standardinställningar för prestanda i Windows så CPU tillåts klocka ned, samt inga program installerade mer än testmjukvaran så väldigt få bakgrundsprocesser.
Jag antar att alla småsaker sammantaget gör att idle blir lägre än vad man kanske skulle ha hemma.

Kanske har @JonasT några insikter jag inte har tänkt på?

Skrivet av Yoshman:

Det stora fördelen med att skruva upp maximala temperaturen CPUn tål är att kyleffekten växer linjärt med temperatur-delta mellan det man vill kyla (CPUn i detta fall) och kylmediet (luften/vattnet man kör genom CPU-kylaren).

Så att gå från säg 100°C max till 120°C gör att samma kylare vid samma luftflöde kommer öka sin kapacitet med ~30 % (om nu 40°C är en rimligt genomsnittlig temperatur för kylmediet under last).

En sådan höjning ger realistiskt ett tystare system då ökning i effekt från den högre temperaturen kommer vara mindre än kylarens kapacitetsökning tack vare ökningen i temperaturdelta.

Som flera varit inne på: frågan är hur mycket detta påverkar livslängden. Historiskt har livslängden på CPUer varit på nivån "du behöver definitivt inte bry dig", finns väldigt många inbyggda-system som varit i drift i decennier och 25-30 år verkar inte vara något problem alls för en genomsnittlig CPU att leva (inbyggda-system är inte samma sak som mikrokontrollers utan det är bara en delmängd av dessa, finns många sådana system med i praktiken rätt traditionella PC-komponenter).

Fläktar förklarar nog en del, tydligen drar varje 120/140 mm fläkt ett par watt och börjar ju bli rätt många sådana i moderna datorer om det ska fungera (det är direkt löjlig peak-effekt i min dator då det är en factory-overklock GPU ).

Vidare får man tydligen räkna med ~3 W per 8 GB DDR4 RAM, DDR5 drar lite mindre (fast det är under last).

Jo, det är definitivt ”många bäckar små” som påverkar idle-värdet, där vi då har skalat bort allt till minimum. En sista parameter är nätaggregatet, där Seasonic-agget vi använder har riktigt hög verkningsgrad vid låga laster – något som även det kan skala av en del när man mäter vid vägguttaget inklusive omvandlingsförluster.

Permalänk
Medlem
Skrivet av Modellören:

Du tänker fel vid ditt mätande.

Den första och viktigaste mätpunkten är där man sitter och det är det man ska utgå från först innan man köper delar till en dator.

Själv har jag runt 28 varma dagar i datorrummet innan jag ens startat datorn. Förra lägenheten snittade 38 och efter det så hatar jag värme i alla former. Dator på höjer ju tempen ett par grader och man vill kunna ha tempen under 29 i alla fall för måendet skull.

Att köra AC vet jag inte om man ens ska tänka på då elpriset bara kommer gå åt ett enda håll, Upp upp och upp.

Datorn kommer värma ditt rum exakt lika mycket oavsett om din kylare kan hålla CPUn på 40 grader eller 120.

Visa signatur

Core i7 7700K | Titan X (Pascal) | MSI 270I Gaming Pro Carbon | 32 GiB Corsair Vengeance LPX @3000MHz | Samsung 960 EVO 1TB

Permalänk
Medlem
Skrivet av Rebben:

Nej, jag har aldrig hört talats om en CPU som dött av sig själv utan tydlig anledning. Alla som jag sett dött har gjort så pga mekaniskt slitage, att de använts felaktigt eller av olycka.
Din GPU låter som att något runt omkring tagit skada av värme. När en cpu eller gpu dör så är det sällan de blir sämre och sämre utan de brukar antingen bli ordentligt instabila eller dör rakt av. När det gäller GPU så är det oftast BGA-kulorna som spruckit eller liknande.

Faran med värme och elektronik är att olika material utvidgas olika mycket i temperatur. Går då temperaturen upp och ner många gånger så kommer två material som är fästa vid varandra att börja få utmattningsskador. BGA-kulor är det vanligaste men också limmet som håller kislet fast i substratet eller paddarna på substratet kan börja lossna.
Jag har själv designat temperaturcyklande långtidstester som går i flera månader för accelererat temperaturåldrande och det har aldrig hänt att något kisel gett upp. Det vi oftast ser är substratförändringar runt kislet, BGA-kulor som spricker eller höga temperaturer på kontakteringspunkter mellan kretskort som rört på sig för mycket.

Det som ger minst slitage är jämn temperatur oavsett om den är hög eller låg så vill ni hålla era elektronikprylar hela så länge som möjligt så försök att hålla dem i så jämn temperatur som möjligt.

Ja, det skulle absolut kunna vara något runt omkring som tagit skada av värmecykler. Men att kisel kan ta skada av kontinuerligt hög temperatur kombinerat med stor ström är väldokumenterat. Det är en av anledningarna att ESD-skadade kretsar kan dö månader eller år efter de utsattes för ESD. Dessa omständigheterna får atomkärnor att röra på sig i materialet, vilket till slut kan förstöra kopplingar. Hur vanligt det är att detta händer pga variationer i tillverkningen snarare än extern åverkan kan jag inte svara på.

För övrigt, varför skulle kretsen inte kunna gå sönder på mindre kritiska ställen? Det är ju långt ifrån alla delar av CPUn som är kritiskt majoriteten av det man gör med datorn.

Edit: för skador på grejer runt omkring, tex kontakterna, så är det helt klart som du säger att temperaturcykler är värst. Men som jag förstått det är det inte nödvändigtvis det som är värst för själva kiselkretsen.

Permalänk
Hedersmedlem
Skrivet av Modellören:

Energi kan bara omvandlas och aldrig förloras. !!! https://sv.wikipedia.org/wiki/Energiomvandling
Hur kyler du din dator tror du ? magi eller trolleri.

Det är väl just därför det du citerar är sant?
Om datorn genererar 400 W så kommer rummet värmas lika mycket som om man hade ett värmeelement på 400 W. Om sedan processorn är 50 grader eller 150 grader spelar ingen som helst roll, all värme som genereras kommer i slutändan ut i rummet oavsett.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av Thomas:

Det är väl just därför det du citerar är sant?
Om datorn genererar 400 W så kommer rummet värmas lika mycket som om man hade ett värmeelement på 400 W. Om sedan processorn är 50 grader eller 150 grader spelar ingen som helst roll, all värme som genereras kommer i slutändan ut i rummet oavsett.

Ja fast du använder fel benämning. Det handlar om wattoch det var det jag skrev, det du nämner är något missvisade och blir en tankevurpa. Vi kan klura till det lite. Det är nämligen så att en processor arbetar ineffektivare per utfört arbete om kylaren är sämmre och då blir ju energiåtgången lite högre per utfört arbete. Så faktiskt kan datorn dra lite mer energi om den har sämmre kylning (klockas ner) och då blir kanske det du säger lite felaktigt om man är petig och går in på detaljer. man behöver inte gå in på såna detaljer allt för mycket. Det kommer inte påverka temperaturen i rummet så mycket vilket var poängen med det jag skrev.

Men per watt är det som det är. Man skickar in en mängd energi i processorn och exakt den energin ska ut till rummet. Det blir väldigt varmt.

Poängen är ju att man vill inte sitta mitt i en abnorm värmeproducerare med en höfläktfläkt som blåser ut värme där man sitter mitt i högsommaren. Det ska man tänka på nu när det är det som kommer hända som vi ju ser klart och tydligt.

Man har ju i princip inte gjort mer med dom här senaste genrationerna processorer än att du får en i förväg befängt överklockad processor och det är allt. Nästan.

Visa signatur

Kraschfield

Permalänk
Hedersmedlem
Skrivet av Modellören:

Ja fast du använder fel benämning. Det handlar om wattoch det var det jag skrev, det du nämner är något missvisade och blir en tankevurpa. Vi kan klura till det lite. Det är nämligen så att en processor arbetar ineffektivare per utfört arbete om kylaren är sämmre och då blir ju energiåtgången lite högre per utfört arbete. Så faktiskt kan datorn dra lite energi mer om den har sämmre kylning och då blir kanske det du säger lite felaktigt om man är petig och går in på detaljer. man behöver inte gå in på såna detaljer allt för mycket. Det kommer inte påverka temperaturen i rummet så mycket vilket var poängen med det jag skrev.

Jo, den diskussionen har vi redan haft i tråden (sida 2). Det var dock inte mig du citerade förut.

Men att CPU-temperaturen inte påverkar temperaturen i rummet är ju exakt vad inlägget du tidigare citerade sa.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem

Snart kan man slänga sin ugn och bygga en gamingdator. Varmluftsugn med 10 fläktar LFG.

Permalänk
Medlem
Skrivet av Nioreh83:

Datorn kommer värma ditt rum exakt lika mycket oavsett om din kylare kan hålla CPUn på 40 grader eller 120.

Jag vill inte riktigt hålla med om det då du får ta hänsyn till Intel Turbo Boost eller AMD Turbo Core. Det blir ineffektiviare och det kommer gå åt mer watt per utfört arbete.

Det kommer inte påverka så mycket för enstaka datorer men om det handlar om många så kan det bli viktigt med såna petitesser till detaljer.

Visa signatur

Kraschfield

Permalänk
Medlem
Skrivet av Thomas:

Jo, den diskussionen har vi redan haft i tråden (sida 2). Det var dock inte mig du citerade förut.

Men att CPU-temperaturen inte påverkar temperaturen i rummet är ju exakt vad inlägget du tidigare citerade sa.

Aja det var så du menade. Ja.

jajaja.

Det är ju konstigt att folk inte förstår det och märker av det. Man borde märka av att det kan bli bra varmt i bland eller om man har AC i hela huset så ska man fört diva en värsting till dator som drar sina watt och sen ska det kylas.

Det bör ju som dubba kostnaden och nån gång måste det ju böra märkas av på elräkningen att ojdå. Eller så borde det ju låta en del när AC börjar dra på stort.

Nu kanske inte alla bryr sig men jag gör det i alla fall. jag tycker att det mer och mer liknar nått vansinne rent ut sagt. jag kör fortfarande på en Intel 2600K och ett gtx1070 och det är ju inte förns nu som man börjar tycka att det kanske är dags att uppdatera trotts allt men när man ser hur det ligger till så tappar jag sugen.

Snart måste jag nog köpa nytt.

Det jag får är som nyare som jag har nytta av är

nyare typ av USB port.
Plats för M2
Högre hastighet på nätverkskortet.
Stöd för WIN11

Sen vet jag inte om jag har nån särskild nytta egentligen men jag vet vad jag får.
lite högre minneshastigheter och "Stöd för"
några fler kärnor

Men en sån värsting med den vämepaket som är ett sort skämt och vansinne kommer jag aldrig ens titta på så det blir bara nått mindre strömsnålare alternativ.

Visa signatur

Kraschfield

Permalänk
Medlem
Skrivet av Golvspaden:

Snart kan man slänga sin ugn och bygga en gamingdator. Varmluftsugn med 10 fläktar LFG.

Hahaha trefas , fläkt med kupa sitter ju där redan:

Fenomenalt.

Kanske kan man leda värmen mot en liten yta som en stekpanna så kan man steka sig ett par ägg.-

Visa signatur

Kraschfield

Permalänk
Medlem
Skrivet av Modellören:

Jag vill inte riktigt hålla med om det då du får ta hänsyn till Intel Turbo Boost eller AMD Turbo Core. Det blir ineffektiviare och det kommer gå åt mer watt per utfört arbete.

Det kommer inte påverka så mycket för enstaka datorer men om det handlar om många så kan det bli viktigt med såna petitesser till detaljer.

På moderna cpuer fungerar de inte likadant som på äldre, så de kan ge full prestanda även vid de höga temperaturerna.

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av DevilsDad:

Ja, det skulle absolut kunna vara något runt omkring som tagit skada av värmecykler. Men att kisel kan ta skada av kontinuerligt hög temperatur kombinerat med stor ström är väldokumenterat. Det är en av anledningarna att ESD-skadade kretsar kan dö månader eller år efter de utsattes för ESD. Dessa omständigheterna får atomkärnor att röra på sig i materialet, vilket till slut kan förstöra kopplingar. Hur vanligt det är att detta händer pga variationer i tillverkningen snarare än extern åverkan kan jag inte svara på.

För övrigt, varför skulle kretsen inte kunna gå sönder på mindre kritiska ställen? Det är ju långt ifrån alla delar av CPUn som är kritiskt majoriteten av det man gör med datorn.

Edit: för skador på grejer runt omkring, tex kontakterna, så är det helt klart som du säger att temperaturcykler är värst. Men som jag förstått det är det inte nödvändigtvis det som är värst för själva kiselkretsen.

Ja elektromigration existerar men tidsrymderna är så långa att produkten kommer vara omodern långt innan det är en faktor, om kretsen är designad med rätt toleranser dvs.
När vi börjar prata ESD-skador så kan de tunna ut eller bränna av kopparbanorna i chipet så det är klart att en uttunnad bana har mindre material att elektromigrera bort. Ju smalare banan blir ju större blir skadeverkan för det blir som en flaskhals för strömmen vilket ökar strömdensiteten och även punkttemperaturen vilket i sig ökar elektromigrationen. Så en oskadad krets tar mindre skada av elektromigrationän en redan skadad krets.

Det händer dock ibland att produkter släpps på marknaden med felaktigt designade chip och då brukar det bli stora recalls efter ett par år.

Visa signatur

R&D Elektronikingenjör

Permalänk
Medlem

ARM känns mer och mer lockande, för mig iaf...