Inlägg

Inlägg som lincoln har skrivit i forumet
Av lincoln
Skrivet av Maximo:

Det är solklart att ångkammaren inte fungerar som den ska i Der Bauers video oavsett om man kan alla tekniska betydelser eller inte.

Är det verkligen solklart?

Om jag minns rätt, är det bara två saker han baserar det på - att kylningen funkar bättre stående än liggande, och att ändring från liggande till stående inte återställer kylförmågan inom rimlig tid (9 minuter testade han).

Det är ganska lätt att komma på andra, åtminstone *hyfsat* troliga, teorier som kan förklara samma sak.

Ex: Mjukvarufel. VRM-modulerna arbetar mindre effektivt när de är varma. Det betyder att de omvandlar mer ström till värme, än om de körs vid lägre temperatur. Mjukvaran tar inte hänsyn till detta, utan vid trottling, sänker den bara effektuttaget för att få ner *chippets* arbetstemperatur till under gränsen, men effektuttaget är fortfarande för högt för att VRMerna ska kylas av snabbt. När Der 8auer ställer kortet upp igen, väntar han bara 9 minuter, vilket är för kort för VRMerna att komma ner i temperatur och börja jobba mer effektivt igen. Skulle han testa längre, skulle de komma igång igen.

Bara ett exempel, och oavsett det finns det ytterligare en sak, som Der 8auer (och exemplet) helt missar att förklara:
Kylaren funkar för vissa.

Det gör att det är svårare att påstå att det är en feldesign. Det *kan* fortfarande vara det - som nVidia Bumpgate - men utan mer bevis är det svårt att uttala sig kategoriskt.

Vi vet heller inte hur många som faktiskt är drabbade. Vi vet att Der 8auer säger att det är många, men av mängden väsen på forumen, lät det som det var väldigt många som drabbats av problemet med 12-pins-kontakten också, och det säger han istället att det är ganska få. Mycket väsen = många, i ena fallet, och mycket väsen = få, i andra fallet?

Så även om jag efter Der 8auers video tycker det pekar *starkt* mot att torrkokning av kylmediet är problemet, gör osäkerheten kring mängden drabbade, att jag fortfarande håller ögonen öppna för andra underliggande orsaker, än feldesign.

* Har QC testat korten eller kylarna under fel förutsättningar? T.ex. missat vissa testscenarier?
* Har värmeprofilen ändrats efter att QC började testningen, så att QC i början har godkänt kylare som inte skulle fått godkänt med den senare testprofilen?
* Gör man bara stickprover, inte individtestning, och har skattat fördelningen fel? En sån miss skulle kunna släppa igenom stora mängder kort/kylare med tillverkningsfel.
* Kan det ha kommit in en förorening i kylmediet på vissa kort?
* Är det skador som uppstått efter testning? Klarar kylaren t.ex. inte undertryck, så de kort som flygtransporterats löper risk att ha fått kylmediet kontaminerat av luft?

osv.

Av lincoln
Skrivet av pa1983:

Problemet med dit resonemang är att det tyvärr blir uppenbart att du inte förstod videon och vad debu8er kom fram till, inget illa menat med det utan det var nog inte helt uppenbart heller. Tror han tänkt sig en del 2 där han går djupare på det.

Så han kunde sagt det tydligare i videon men testet där han flyttar tillbaks ett överhettat kort från horisontellt till vertikalt läge och problemet kvarstår tyder på "dry out" i "vapor cahmbern".
Detta beror på att kortet och kylaren redan är för varm mest troligen och vätskan kan aldrig kondensera sig ordentligt igen.

En vapor chamber är bara ett platt och stort heatpipe och alla heatpipes har en maximal kapacitet, sedan dunstar all vätskan och kondensarer inte igen och då tappar heatpipet sin förmåga att flytta värme.
Vi ser även detta som debu8er visar där effekten sjunker, för kylaren har nu reducerad termisk ledningsförmåga då vapor cahmbern (heatpipen) inte lägre gör sitt jobb då allt eller mycket av vätskan är i gas form och så förblir.

Troligen är det fråga om lokala dry outs, alltså hela ytan kislet täcker på kylarens bas är inte torr på insidan men vissa delar är det och Hotspot är just varmaste delen.

Så nej kylaren är trasig för den klarar inte effekten kortet drar när det boostar och när dry out sker så återställs inte kyleffekten när kortet throttlar ner.

Lite som du har en 300W kylar men när du behöver 300W så får du bara 200W efter en stund när den kommit upp i stabil tempratur och den stannar där tills du drar avsevärt mindre, tex stänger av spelet och går idle så vätskan kondenseras i heatpipet igen.

Så nej detta är inte frågan om normalt boost beteende, normalt sett klarar kylare en viss effekt och den reduceras inte för att GPU/CPU når max temperatur.

Denna videon har jag timestampat men där pratar Nvidias ingenjör om just dry out i vapor chambern som orsakar hotspots på GPU'n OM kylaren är feldesignad.
https://youtu.be/g4lHgSMBf80?t=384

Värt att kolla hela videon men det faktum att AMDs referenskylare beter sig olika vertikalt och horisontell och att delar av GPU'n går 30-40C varmare och når 110C vilket dessutom är högsta du kan då pga throttling så teoretiskt skulle deltat kunna vara högre.

Men faktum kvarstår att allt tyder på att delar av Vapor chambern torkar ut permanent ovanför GPU'n och då fungerar ett heatpipe/vapor chamber inte lägre och tempraturerna skenar för förmågan att leda bort värme energin reduceras i princip till materialet heatpipen eller vapor chambern är gjord av och dessa leder värme mycket sämre än en konstant kokande och åt återcirkulerande vätska.
Nvidia ingenjören förklarar rätt tydligt i videon jag länkade hur dom motverkat dry outs som kan påverka en mycket liten del av GPU'n, men självklart bestämmer varmaste delen prestandan då man inte kan köra ens en liten del för varmt, tex över 110C.

Så nej dit argument håller tyvärr inte då kylaren inte klarar lasten utan att lider av dry out som orsakar hotspots så det är inte GPU'n som har sådana extrema skillnader i effekt från ett område till ett annat för att skapa temperaturskillnaden, det är kylaren som har en extrem skillnad i hur väl den kyler ett område från ett annat pga dry outs.
Hade GPU'n nåt sin max temperatur utan dry out i vapor chambern så hade man argumenterat att kylaren fungerade normalt men så är inte fallet, bara en del av GPU'n överhettar och det tyder på lokala dry outs (se GN video).

Dry out är nåt heatpipes kan råka ut för, tex vid extrem OC, men också om man designa kylaren fel.
Du kan också ha motsatta effekt, extremt kallt inne och låg last kan göra att vätskan aldrig dunstar så heatpipes är inte bra när det är för kallt heller.

En kylare ska normalt sett inte lida av dry out så detta beteende är inte normalt.

I en varm låda på sommaren är nog risken ännu högre för att detta problem uppstår då kyleffekten reduceras ännu mer då förmågan att kondensera gasen tillbaks till vätska rimligen sjunker.
Detta var ju öppen testbänk och jag tror han har AC, i alla fall har han inte sommar temperaturer.

Ville bara komma in och säga att det här med 'dry outs' är *absolut nödvändigt* att känna till innan man ser Der 8auers video. Annars *är* det verkligen som att Der 8auer hoppar rakt på en konstig slutsats.

Han eliminerar ett antal olika problem med mountingen, men förklarar inte överhuvudtaget varför det sedan måste vara vapor chambern, med mer än att det råkade vara den sista teorin han hade kvar.

Uppmanar alla som tycker @SuperNova är (insert korkad/AMD-fanboy/whatever) att testa att se om Der 8auers video och föreställa sig att man inte känner till dry-outs. Den blir obegriplig.

Av lincoln

Imponerande, även om obekräftade siffran '157W' i effektbudget känns mer som det tillhör stationära, än bärbara datorer.

Det gör ju att alla kringliggande saker måste beefas upp också. Inte bara kylflänsar och fläktar, utan även strömmatning, och t.o.m. i viss mån batterier.

Av lincoln

Sitter på en Thinkpad T14, och har alltid med mig en separat, bärbar 15.6"-skärm.
Med laddare, mus, sladdar blir det ganska mycket att släpa. Så lägre vikt är prioriterat.
Med lägre vikt skulle jag gå upp i skärmstorlek till 15.6" el 16", eller lägga till ytterligare en bärbar skärm.

Kör RDP/Citrix in till utvecklingsmaskiner och beräkningsmaskiner, så CPU, grafik och lagring i laptoppen är i nästan oväsentligt.
Skulle jag köpa en laptop privat, skulle det dock vara prioriterat.

Av lincoln

Snygg front! Men verkar tveksamt i övrigt. Skulle vilja ha med fläktfilter, och solida sidor.

Av lincoln
Skrivet av Herr Kantarell:

Sedan undrar man hur energieffektivt det är också.

Personligen vill jag ligga på under 250W vid spel på GPU.

Vill varken ha dyra elräkningar eller bastu i spelrummet

Oväsendet för att kyla det blir också en faktor, när effekten sticker iväg.

När man gamear sitter man oftast med lurar på, men om man kör Stable Diffusion eller nån egen modell, gör man (iaf jag) oftast inte det.

Av lincoln
Skrivet av ipac:

Var det första jag tänkte på. Ingen kommer köpa ett XT pm mam kan få XTX för bara en 100-ing till.

Lite hål i huvudet av AMD där...

55W lägre förbrukning spelar in för mig, så jag är nog mest sugen på ett 7900XT. Eller möjligen en ännu lägre modell.

Får se hur landet ligger när riktiga tester kommer ut.

Av lincoln
Skrivet av Gambit_2K:

Haha tack för info! Jag har hela tiden gått runt och trott att det refererat till hur man uttalar den nordiska guden Lokes namn på engelska.

Skrivet av RVX:

Har jag också hela tiden trott...

'American Gods' av Neil Gaiman är annars ganska bra...

Av lincoln
Skrivet av Yatagarasu:

Själv är jag på andra sidan träsket rakt av nästan, aktivt undviker allt utom det där lilla "N":et när jag skrollar Netflix, heh..

Enligt mig är deras originella innehåll det enda sevärda på plattformen. Detta då merparten som bajsas ut utöver (och på andra tjänster) är amerikanskt dravel som inte innoverats eller uppdaterat sitt skådespeleri sedan 1976

Sedan kollar jag nästan uteslutande på serier idag med, detta igen då jag anser film som format inte håller måttet när det kommer varken till världs- eller karaktärsuppbyggnad. Tiden räcker helt enkelt inte till om det inte rör sig om minst en trilogi likt Sagan om Ringen, där varje film är sådär 3-4 timmar lång.

Jag brände mig på några filmer med 'N' på. Black Kaiser kommer jag ihåg att jag såg, t.ex. Sedan dess har jag undvikit dem, så jag vet inte om det är bättre nu.

Vad gäller serier så håller jag med om att det är den upplevelsen man vill ha, men tycker inte Netflix serier uppfyller det. Vad jag upplevt, är för många serier som bara är episodiska ('Brooklyn 99'), eller rullar på utan mål så länge det finns tittare.

Man vill ha True Detective säsong 1, som är en sammanhållen historia, men får ... 'Stranger Things' säsong 1-...? Inget ont om Stranger things i början. Jag kollade på den då också, men det verkar som de runt typ näst sista avsnittet av säsong 1, kom på att de ville att den skulle fortsätta *ett tag* till. Och det är just det där '*ett tag*' som sabbar berättelsen.

Av lincoln

Delar inte konto med någon, så jag har ingen aning om hur utbrett det är.

Däremot funderar jag på att avsluta prenumerationen med hänsyn till prisuppgång och dåligt innehåll.

Jag kollar inte alls på serier, och ser inte på de filmer som har ett litet rött 'N' på sig (Netflix egna). Och det är tyvärr åt precis det hållet Netflix gått/går samtidigt som de höjt priserna.

Av lincoln

Svarade '3-4', men har ju programmerat i *långt* fler genom åren.

Problemet är egentligen inte att kunna språket, utan att klassbiblioteken är sån extrem färskvara. Skrev t.ex. en del C++ på 90-talet. Då var det WFC som gällde. Det tror jag inte ens finns i 64-bitarsversion.

Liknande med Java, som verkar _extremt_ tungt att komma in i nuförtiden.

Raka motsatsen gällde Objective-C. Det var ett nischspråk med extremt rudimentärt klassbibliotek. Sen kom neXt-maskinerna, och 10-15 år senare iOS-programmering i det, men då hade jag redan gått vidare.

En del av språken kanske finns kvar, men har blivit ifrånsprungna. T.ex. Eiffel, Smalltalk.

Andra programmeringsspråk, som t.ex. Visual Basic, finns inte ens kvar längre. Den '.NET'-variant som finns nu är så annorlunda att den inte kan räknas som samma språk. Samma gäller väl TurboPascal, som blev Delphi.

Eller är så specialiserade att man måste ha ett väldigt speciellt jobb för att stöta på dem; V+, AutoLISP, FAME4GL. (alla dessa har jag byggt stora program i)

Och jag vet inte vad man ska säga om de där åtskilliga tusen timmarna assembler man knådat ihop. På CPUer som inte finns längre.

Hälsningar
/Nackskägg

Av lincoln
Skrivet av yessiri:

Undrar om detta var en deal för att intel ska börja bygga fabriker i europa.

Tror du satte huvudet på spiken här...

Av lincoln
Skrivet av RitchieHellmore:

Fick förresten det här svaret från Lenovo, men utgår ifrån att de flesta i det här forumet vet bättre än Lenovos support ärligt talat. Men då kanske ni kan se om det verkar vettigt eller struntprat:


"AMD erbjuder Ryzen Balanced Power Plan för Windows-användare för att få ut så mycket som möjligt av sin Ryzen CPU. Denna energiplan kan enkelt vinnas mot Windows standardbalanserade plan. Vissa säger att för att få Ryzen Balanced-plan måste du installera den senaste CPU-drivrutinen och Ryzen Master-mjukvaran

Hur aktiverar jag Ryzen High Performance Power Plan?

För att aktivera den nya AMD Ryzen Balanced-strömplanen, installera först de senaste AMD-chipset-drivrutinerna på din Windows 10 64-bitarsmaskin. Öppna sedan kontrollpanelen, klicka på Energialternativ och välj sedan planen från listan med alternativ."

Länken till senaste CPU-drivrutinen: https://download.lenovo.com/consumer/mobiles/wesc03af40wga0.e...

Ryzen Master länk: https://www.amd.com/en/technologies/ryzen-master”

Gammal fråga, men provar svara i alla fall;
Jag kan inget om Windows Power Plans (de brukar inte funka som man vill i alla fall). Jag byter prestande med att trycka [Fn]+[Q].

Det visas overlay-symboler som indikerar vilken plan som aktiveras. Symbolerna är inte glasklara, men man märker vilken som är extra snål, på att skärmen dimmas.

Av lincoln
Skrivet av kelthar:

Har två stycken QNAP. Ångrar att jag köpte dem. Apparna för synk är många de är så jävla dåliga. Det är precis som de vet det själva och försökt gång på gång... Tittar avundsjukt på mina vänner som har ett konkurrerande märke =\

Skrivet av pålis:

Jag har Synology och har givit upp på mobilsynk. Dom har tre olika appar/lösningar för fotosynk och alla har helt jävla usla reviews på Play Store (av god anledning). Nu senast bytte jag till Synology Moments från DS Photo. Uppladdning av nya foton fryser varje gång. Kontaktar support, efter fyra vändor med felsök så konstateras att appen endast stödjer Android 10 och uppåt (trots att det stod Android 8 i Play Store). Samma gäller deras tredje och senaste tjänst Synology Photos. Man kan inte heller fritt välja vilken folder man vill spara sina foton i, vilket är ett generellt störningsmoment med Synology och deras tjänster. *end rant*

Nu har jag som sagt givit upp på och är tillbaka på OneDrive och använder endast NAS:en som storage för filmer/serier och backup.

Jag har en Synology, men använder inte heller deras programvara för att synka foton från mobilen till NASen. Använder istället Photosync (av Touchbyte Gmbh) på familjens telefoner. Den borde funka oavsett om man kör Synology eller QNap.

Har ingen relation till varken QNap, Synology eller Touchbyte Gmbh.

Av lincoln

Skulle vara intressant att se hur den står sig mot Lenovo Ideapad Pro 16
https://classic.prisjakt.nu/produkt.php?p=5840882

Av lincoln
Skrivet av JonasT:

kan det köra Crysis!

Av lincoln
Skrivet av mrqaffe:

Självklart ... Och lika självklart är den avstängd
Är bara dioden vid nätverksporten som blinkar och nån led som visar att strömmen är på.
Men eftersom det går att slå på discobelysningen och bli bländad av allt trams så röstade jag ändå ja även om jag inte vill ha några onödiga ledar i gång.

Samma här.

Frågan är felställd. Även om man HAR, kanske man helst skulle ha den avstängd.

EDIT: Äsch. Skulle läst anvisningarna till frågan. Men jag vidhåller att frågan är felställd, och kommer generera massor av felträffar på RGB-sidan. /EDIT

Av lincoln

Tragiskt. Har känslan av att de faller på att de har för bra kvalitet och inte så varierad design.
Dels formspråk, och dels passform.

Vet många, plus att jag ser många inlägg i tråden, om folk som sitter på urgamla Sennheiser-lurar.

Av lincoln
Skrivet av Samsung:

Jag tar helt klart med den synpunkten vidare inom Samsung. Jag förstår vad du menar!

Tack för förståelsen, och för att du tar det vidare.

Av lincoln
Skrivet av talonmas:

Ok, säg att de samlat lite data i sitt eget program. Hur kan det vara skäligt att betala 40 miljarder för en sån sak?? Var är rimligheten?

De ska inte göra så här, och de ska inte frestas att göra så i fortsättningen.

Sätter man böterna till några miljoner, skiter de i det och kör på i alla fall.

Men sätter man böterna till 40 miljarder, då börjar det svida litet.