Inlägg

Inlägg som Yoshman har skrivit i forumet
Av Yoshman
Skrivet av 0cool:

Det skulle man kunna tro men det är inte riktigt så det fungerar i praktiken, Tbw-siffrorna är inte direkt översättningsbara till "process som skriver 10 gig per dag" kan man säga.

Tbw förutsätter exempelvis att datat kan fördelas jämnt på cellerna, vilket de inte kan om disken redan har en massa annat data.

Om inte SSD-kontrollern är totalt vansinnigt designad kommer det i praktiken bli väldigt jämn fördelning av skrivning av cellar. En av huvudfunktionerna för en kontroller är att göra om logisk<->fysisk mappning av lagringen så att cellerna lastas jämt.

Har för mig att detta bollande med vilka celler som skrivs är orsaken till att skrivprestanda kan bli lidande om disken har väldigt lite ledigt utrymme.

Skrivet av 0cool:

Ett annat uttryck för hållbarheten är garantitiden och "disk writes per day". KC3000 förutsätter 0.4 DWPD för att ge en garanti på 5 år, men om du skriver 10 gig i timmen till en disk som nästan är full så kan det leda till en belastning som liknar 12 DWPD på en liten del av disken. Då är den beräknade hållbarheten istället ca 60 dagar.

Detta hanterar SSD'er genom att flytta data (så gott det går, vilket påverkar prestandan också), så disken ryker inte garanterat inom 60 dagar även i det här scenariot. Men summa kardemumma är det ändå värdelöst att inte kunna byta eller uppgradera sin SSD.

Det är helt onödigt att baka in en förbrukningsvara i SOC'n på själva datorn, det är som att bygga bilen så att man behöver byta den när bromsskivorna är utslitna. Det är fel rent principiellt och kan alltså även bli ett problem i praktiken.

Minnet är däremot okej, det är en klar fördel att ha enhetligt minne på processorn, men disken är helt onödig.

Fördelarna för Apple är att disken kommer vara den vanligaste orsaken till att någon skrotar sin macbook air med 128 gig disk om några år och tvingas köpa en ny. Fördelarna för användaren är precis inga alls.

Gjorde misstaget att inte öka storleken på disken på min M1 MacMini. Lite var det en orsak att jag i det läget var lite skeptisk att "Apple Silicon" skulle vara speciellt bra (så här i efterhand, den datorn är det köp som överraskat mest positivt någonsin för min del).

Använder fortfarande den datorn en del och den var min primära hemmadator från november 2020 till november 2023. Den har använts till surf, programutveckling, den har ett gäng docker-containers, används till bildredigering samt enklare spel. Har i.o.f.s. en 1 TB SDD disk via USB3 kopplad till den, men den interna 256 GB disken används av de flesta program samt systemet.

Den står på 24/7 så den går att nå via SSH.

Kollade precis disken SMART-status, har använt 5 % skrivcyklerna så här långt. Tror disken med råge kommer överleva datorn!

M3 Max laptop:en som tog över som primär dator november 2023 (och där körs betydligt tyngre saker, den kör Windows 11 via Parallell desktop etc). Där står det att 0 % av skrivcyklerna använts, så minder än 0,5 % så här lång (är en 2 TB disk).

Första SSD-disken jag köpte (har för mig att det var början av 2009), en Intel X25 160 GB, lever fortfarande (gav den till svärfarsan som kör den i sin surfdator).

Det skrivet: även om disken med råge kommer hålla datorns livslängd ut går det inte att komma ifrån att Apple tar ohemult mycket för uppgradering av SSD och RAM uppgraderingar. Så klart positivt att vissa Snapdragon X Elite datorer verkar ha M.2 kontakt.

Att RAM är fastlödat tycker man få ta då det finns klara tekniska fördelar med LP-DDR5X/LP-DDR6 över "vanliga" DDR5 moduler

Av Yoshman
Skrivet av Fenrisulvfan:

Jag upplever fortfarande avbrott, samma kväll som pizzerian brann ner så var det 2-3 timmar avbrott både på Internet och TV, troligen för något arbete. Jag kan dock få avbrott varje 2-3 månader på cirka 5 minuter, troligen för någon uppdatering, vilket är överkomligt men jag tror 99% är ganska talande för det.
Stadsnätet har 2-3 timmar varje 2-3 månader verkar det som från folk som har det, men enligt min erfarenhet kan det vara nere längre än så om man råkar sitta längst ut på myselet, vid hög trafik som på helger, då dom erkänner fullt ut att dom bara har IP-adresser till 90% av kunderna, sedan har ju vissa leverantörer i sig bara 90% också, så det blir då 19% av kunderna som får längre avbrott om fler än 81% av kunderna begär en IP-adress samtidigt.

Om IP-adresserna tar slut har man ett stort problem. Det är inte ett problem för mina två nät, har i praktiken haft statisk IP (de är egentligen dynamiska) då adressen inte ändrats på flera år (har AWS Route 53 DNS bundet mot adresserna utan dynamisk uppdatering).

Avsaknad av internet 2-3 timmar per månad skulle vara extremt irriterande för egen del då jag har hemmakontor!

Av Yoshman
Skrivet av lillaankan_i_dammen:

Angående nätverkskort så är detta som är lite tragisk. Att det är så få som använder deras laptop till tekniska arbeten emot hårdvaror.
Men man får se på den hela skaran konsumenter och sedan fungerar ett par usb nätverkskort ofta bra. De flesta tekniker/elektriker som sysslar med konfiguration/programmering av hårdvara klarar sig inte med ett enda nätverkskort, så även om laptoppen redan har en nätverksport så får de ändå ha en extra usb nätverkskort. Ett nätverkskort för att komma åt nätverket, ett annat för att programmera hårdvaran. Det är omständligt att byta nätverkskabel fram och tillbaka, byte Ip hela tiden och få de slå igenom till all mjukvara som hypervisors.

Men jag håller med att det är mainstream vi går emot. Och vi går samtidigt åt ett håll att allt fler inte bryr sig så mycket om vad för laptop de har. Såklart vikt och klumphet påverkar. Men när de tar upp laptoppen på jobbet hemmet så använder de externa skärmar och tangentbord +mus. Programvaror de kör så är ligger de ofta på en server någon annanstans. Det gör att när det flaskar så är det inte deras lokala dator som flaskar.

Jag är för övrigt nyfiken på att de som inte har deras laptop kopplad till ethernet för jämnan, sitter på moderna platser superbra wifi eller om de har superlåga krav? Med superlåga krav så när man jobbar en dator som man fjärrstyr så vill man få en känsla som om man jobbar lokalt. Inte det att man trycker på en tangent och får

Måste bara fråga: givet att du ofta kommer tillbaka till att "mycket stöds bara på Windows" samt att man behöver Ethernet för konfigurering gissar jag att för dig betyder "tekniska arbeten mot hårdvaror" arbete mot PLC:er. Right?

För mig där "inbyggda system" har likhetstecken med mikrokontrollers på enda sidan och Linux-datorer med olika former av fältbussar på andra sidan blir kraven rätt annorlunda. Inbyggda system har en långt större spännvidd i hur de kan tänkas fungera jämfört med "vanliga datorer".

Moderna microkontrollers har, bortsett från de minsta/enklaste varianterna, nästan alltid en USB/TTL-krets som gör att man kan får information och ladda upp programvara via USB. ESP-kretsarna har blivit extremt populära i alla möjliga former av IoT-applikationer, där går det att ladda upp programvara via USB (default) men också fixa over-the-air uppdateringar via WiFi. Så Ethernet är egentligen helt irrelevant här.

För de lite större systemet används ofta Ethernet för drift. Men då dessa idag nästan uteslutande kör Linux är de ju mer lik vilken headless server som helst när det kommer till hantering av programvara. Även allt fler hemmarouters är ju Linux-baserad. Här kan man använda Ethernet, men fungerar väldigt ofta precis lika bra med Wifi (förutsatt att det finns en AP på nätverket).

Det lilla jag kommit i kontakt med PLCer har det i praktiken handlat om att interagera med redan installerade sådana. Så möjligen behövs Ethernet här, men då de kör TCP/UDP måste det ju rent logiskt fungera lika bra med Wifi.

Finns ingeting som hindrar att man kör flera logiska nät över samma fysiska Ethernet/Wifi-nät. Sen kan det finnas orsaker till varför man inte vill/kan göra det. Oavsett, hårt krav på Ethernet är ett rätt nischat use-case.

Angående stabiliteten: innan Wifi-6 fungerade väl det sådär på stora flygplatser med tusentals klienter. I mer "normal" hemmamiljö borde det vara hur stabilt som helst om man nu inte byggt sitt Wifi-nätverk med APs som består av 5 kr mikrokontrollers från Aliexpress...

Vad det gäller hastighet är den naturligtvis sämre via Wifi än vad som är möjligt via Ethernet. Wifi verkar också vara optimerat så att AP->klient ger högre bandbredd än klient->AP, får så i båda mina Wifi-nätverk i alla fall. Redan med Wifi-5 ligger man på 500 Mbit/s eller mer, med Wifi-6 ökar det med 100-150 Mbit/s. Det mot laptops med 2x2 radio, grabbens stationära med 3x3 radio tar sig över 1 Gbit/s med Wifi-6.

Sen angående att kolla in allt möjligt i en laptop. Vi är på en site för datorentusiaster, för oss är det inte något konstigt att koppla in skärmar, tangentbord, etc. Rätt säker att frugan och dottern aldrig kopplat in något annat än en sladd för att ladda deras mobiler via datorn till deras MacBooks. Innan "Apple-silicon eran" där jag droppade separat stationär kopplade jag inte heller in något mer än möjligen en extern skärm/projektor för att köra presentationer i mina laptops då de just bara användes som laptops (och hade separat stationär).

Men är nog också vanligt att många använder sina bärbara som stationära på jobbet. D.v.s. de är konstant kopplade till skärm, tangentbord, skärm och mus. Fast är det ett problem då det enkelt görs med en kabel via en rätt simpel USB-docka? Rätt mycket så jag idag använder min bärbara när jag jobbar.

Av Yoshman
Skrivet av Fenrisulvfan:

Jag tycker det snackas för mycket om hastigheten och alldeles för lite om stabiliteten, 99% stabilitet är värt mycket mer än 95%.
Att vara utan internet 2 timmar någon gång i månaden är oftast överkomligt, men att tappa 1 minut varje timme är inte okej och att det ligger nere i 2 veckor ibland är inte okej på någon karta alls.

Själv betalar jag 699Kr/Mån för 600/50 koax, men nu kikade jag att det går faktiskt att gå ner till 150/10 för 539Kr/Mån, problemet är väl att man måste krabba med att byta router och övertala borgenären att det är viktigt, så det får nog bli att vara kvar.
539Kr/månad är fortfarande väldigt dyrt mot stadsnätet som kostar 190Kr + leverantör, vilket den billigaste(ordinarie pris) är 95Kr, så 285Kr/månad för 100/10mbps.
Problemet är att stadsnätet är instabilare och kräver avtal med 2 parter som gärna pekar finger på varandra om vems felet är.

Så för min del ändrar jag nog hellre till 1200/100 för 899Kr om jag verkligen vill ha valuta för pengarna, så snabbt går det inte ens att få på stadsnätet. Där är det 1000/100 för 190+ 575 = 765Kr som billigast.

Bästa mobila alternativet är nog 4G för 329Kr/månad för 10mbps (nej det är en lucka i 5G där jag bor), men då får man räkna med avbrott 1 minut varje timme ungefär, vilket är helt värdelöst för mig även om 10 mbps säkert skulle räcka för mina behov.

ADSL var ju snabbare än 4G med 30/8mbps och jäkligt stabilt, men den kabeln är tyvärr klippt.

Håller helt med om vikten av stabilitet, men är det ett problem i praktiken?
Både med gammalt coax (internet hemma) och med fiberanslutningen (sommarhuset) skulle jag säga att tiden för otillgänglighet under ett år understiger 1 timme, d.v.s. en tillgänglighet på 99,99%

I sommarhuset som är lite mer på vischan är det egentligen bara vid strömavbrott man tappar anslutningen, men i det läget handlar det ju mest om att den lokala utrustningen inte kör då. Och sedan de grävde ner elledningarna är det ytterst sällan strömavbrott där heller.

Av Yoshman

ca 150 kr/mån för Tele2 250/50 (gruppavtal) som sedan uppgraderats till 600/50 för 50 kr/mån till, så totalt ca 200 kr/månad.
Har 500/500 för 540 kr/månad via öppen fiber till sommarhuset (Bahnhof)

Priserna för gruppavtal är på en helt annan nivå än de man är utelämnade till med "öppen" fiber (skiljer i praktiken nästan ingenting i pris mellan de olika valen).

Av Yoshman
Skrivet av rasmuslian:

Väldigt utförlig jämförelse, tusen tack för det. Men om jag förstår dig rätt så skulle en M3 Air 16gb slå min nuvarande dator på i princip alla punkter? (Bortse från spel)

Den lär slå din dator på alla punkter och för spel handlar det mest om att många spel inte finns till MacOS. Skulle gissa att GPU-delen i M3 är på 1060 nivå.

Verkar som jag hade fel kring video-encoding-engines för M3, krävs numera att man går upp till M3 Max för att få dubbla video-engines-engines (rätt säker att M1/M2 Pro/Max båda hade dubbla medan standard hade en).
https://forums.appleinsider.com/discussion/234231/m3-vs-m3-pr...

Sen har du det där med externa skärmar. M3 Pro kan driva 2 externa skärma + den interna, M3 kan driva två skärma totalt (Air kan driva två externa om locket är stängt, annars 1 extern + den interna).

Det jag inte vet är hur mycket/lite M3 i Air kommer trottla vid "tung last". Dottern och frugan har båda M1 MBA, där är det nästan ingen skillnad mot min MacMini (som har fläkt, har dock aldrig hört den...). Läst att M2 och M3 i Air har mer problem med throttling jämfört med MBP med M2/M3 där det finns en fläkt.

Av Yoshman
Skrivet av rasmuslian:

Hej,
Har länge kikat på att skaffa mig en bärbar dator som tillägg till min stationära, se nuvarande specs här:

Intel(R) Core(TM) i7-5820K CPU @ 3.30GHz
MSI X99A Raider
NVIDIA GeForce GTX 1060 3GB
Corsair 16GB (2x8GB) DDR4 3000Mhz
OCZ TR150 480GB SSD
Fractal Design Define R4

Jag är definitivt inne på en MacBook, och var först inne på en prisvärd M1 Air. Men när jag har funderat mer och mer har tanken poppat upp: Kanske jag kan köpa en MacBook M3 och ersätta min stationära fullt ut, så jag slipper ha två olika datorer.

Då är min fråga egentligen, skulle en MacBook M3 nå upp (eller kanske tillochmed överträffa) min nuvarande stationära? Och skulle jag "klara" mig på en MacBook Air M3 eller måste jag isåfall upp till MacBook Pro M3? Det jag gör mest är programmering, tung multitasking, en del bild och videoredigering. Så jag är väl en väldigt heavy productivity user. Inte så mycket spel eller 3D-rendering dock.

Nyfiken på att höra era tankar. Fördelen i mitt huvud är att jag inte behöver byta mellan två olika datorer utan jag har allt på samma. Det är i jobbsyfte, så att kunna jobba på samma station hemma såväl som ute är ett stort plus.

Tack!

Kollade lite snabbt hur hur en i7-5820K står sig mot M3 och M3 Pro. TL;DR är att du lär knappast vilja använda din gamla dator till något alls utom möjligen spel som inte går att köra på Mac:en...

M3 är ca 2,7 gånger snabbare i ST. Sen skriver du att du jobbar med programmering (vilket även jag gör) och en sak M-serien är exceptionellt snabb på är kompilering med GCC (C/C++) och LLVM (en lång rad språk, bl.a. C/C++/Rust/Swift). Där är M3 ~30 % snabbare än 14900K/7950X per kärna P-kärna. Intressanta här är att 5820K klarar sig relativt sett bättre i GB6 kompileringstestet mot M3 än vad moderna x86 gör, verkar som Intel/AMD mest jobbat på högre GB poäng, men är ju liknande faktor x2,7 även där.

I MT är Pro ca 3x gånger snabbare än din nuvarande CPU medan M3 är ca 2x snabbare.

Har dålig koll på videoredigering. En fördel hos Pro mot standard är högre bandbredd mot RAM. De flesta fall påverkas inte av detta, t.ex. så verkar kompileringshastighet vara rätt likgiltig mot RAM-bandbredd. Däremot skalar många AI-laster väldigt väl med RAM-bandbredd, om det även gäller videoredigering kan det tala för att Pro är värd en hel del (men svårt att se varför videoredigering skulle ha någon gigantisk skalning med RAM-bandbredd).

Skulle du vilja spela är det rejäl fördel för Pro. Har både en M1 (MacMini) och en M1 Pro (jobbdator, MBP 16), spel fungerar långt bättre med GPUn i Pro. GPU-delen i M1 Pro är snabbare än den i M3.

Här säger jag att det för mig är mindre skillnad i de flesta fall att sitta på M1 mot att sitta på M1 Pro än vad det är att växla mellan M1 Pro till M3 Max datorn. Högre ST prestanda "känns" mer än högre MT prestanda när man jobbar interaktivt.

Åter igen, har ingen koll på videoredigering så där kanske fler kärnor är mer värt. Å andra sidan är accelerationen för video-encode snabbare i M3 och har för mig att det också är något som är snabbare i Pro/Max jämfört med standard.

Av Yoshman
Skrivet av hakro807:

Kollar vi på Cinebench:S single thread topplista så får M3 inte fullt 2000 poäng och X Elite 1800 poäng. Sedan tycker jag att det är en icke-fråga huruvida den ena eller den andra är några procent snabbare eftersom dessa processorer inte kommer användas i datorer med extremt höga krav på prestanda pga integrerat grafikkort och avsaknad av anpassad mjukvara.

Vad det gäller GPU för Snapdragon X Elite/Pro lär den knappast slå några rekord. Det man kan förvänta sig är liknande nivå som 10 Core GPU i M3, Radeon 780M (t.ex. Ryzen 8840U) och 8 core Arc-LPG (t.ex. Core i7-155H). Succé här är om man i praktiken slår dessa i genomsnitt.

Men "integrerat grafikkort" betyder inte lägre "superlåg prestand". En av anledningarna att M3 Max kan vara väl värd 70-80k SEK är att dessa GPU kan prestera i nivå med Radeon 7900XT

Blender

Cinebench 2024

samtidigt som man har access till väldigt mycket RAM. Det är guld värd för många "AI-laster", vilket gör att M3 Max i många fall i praktiken är bättre än RTX4090. Den senare är betydligt snabbare, men den har "bara" 24 GB VRAM medan man kan använda ~100 GB "VRAM" i en 128 GB M3 Max.

Så det finns absolut anpassad programvara för vissa väldigt smala use-case (specifikt för Apple Silicon finns ju även videoredigering och programutveckling där de i många fall är det snabbaste man kan köpa). Qualcomm och Microsoft trummar ju AI-spåret för Snapdragon X Elite, det specifikt ihop med väldigt ny samt kommande "anpassad mjukvara" för det man nu kalla "AI PC".

Men absolut: att Nvidia så totalt dominerar just beror på att de, bättre än någon annan just nu, är så extremt duktiga på att skapa "anpassad mjukvara" för saker där en GPU är ett perfekt val.

PC marknaden blir allt mer heterogen, så framåt kommer vi nog få se allt fler exempel på där designade kretsar + erforderlig programvara kan ge enorma prestandavinster över vad rent CPU-tuggande ger idag.

Av Yoshman

Rykte: Lunar Lake och Skymont

Intel ska tydligen ha haft en stängd presentation för några inbjudna externa där man primärt pratade om Lunar Lake
https://www.notebookcheck.net/Lunar-Lake-Skymont-E-cores-coul...

Vad som påstås vara bilder från denna presentation läckte, de har tyvärr rätt dålig upplösning men om det stämmer borde rimligen samma information presenteras på Computex nästa vecka.

De lite mer anmärkningsvärda sakerna som sades (återigen, detta är inte officiell information) är att både SoC tile men även CPU/GPU tile tillverkas hos TSMC. Det skulle i så fall vara första gången Intel tillverkar CPU-kärnor hos någon annan.

Om det stämmer är det intressant ur en annan aspekt, det bli i så fall första gången sedan AMD lanserade Zen 3 på TSMC 7 nm som Intel släpper en CPU där man har fördel av nyare nod, CPU-tile verkar tillverkas på TSMC N3B nod (och SoC tile på TSMC 6 nm).

Vidare pratade man om Skymont och de flesta rapporterar om "double-digit IPC increase". Efter liter mer grävande verkar det handla om 38 % högre IPC för heltal och 68 % högre IPC för SIMD/flyttal.

Hade det varit MILD eller någon annan som sagt ovan har det känts som totalt svammel. Det som gör detta spännande är att Chips and Cheese kikade på detta (det är en webbplats som riktat in sig på extremt detaljerade analyser av GPU/CPU-mikroarkitekturer, de har väldigt bra koll) och de avfärdade inte dessa siffror som orimliga givet vad som påstås gjorts med Skymont.

Stämmer 38 % handlar det inte om IPC på Zen 3 nivå, i det läget är det rätt nära Golden Cove / Zen 4 (fast Skymont kommer vara lägre klockad jämfört med dessa). 68 % för flyttal är rimligt då E-kärnorna har så här långt varit väldigt svaga på det.

Exempel på vad man gjort: 3x3 bred decode (+50 %), 8 st integer ALUs (+100 %) och 4 st SIMD/FP ALUs (+100 %).

OBS: Skymont är E-kärnan i Arrow Lake / Lunar Lake, P-kärnan kallas Lion Cove.

Av Yoshman
Skrivet av lillaankan_i_dammen:

Liknande övergång har redan skett bland laptops. Jag med flera vill ha en basic laptop som har minst 2st nvme ssd platser, 2st utbytbara ramplatser med stöd för 64GB moduler. Ethernetkontakt, minst en hdmi, många usb c och enkelt utbytbar batteri, där man kan ha med ett i reserv.
Absolut inga extrema krav egentligen. Men ser man på vad den stora marknaden vill ha idag så är det extremt.
Där min poäng är att det är den stora skaran som kommer styra vilka operativsystem m.m som blir populärt.

Seriöst: för 95+ % av alla användare är det mesta, med möjligt undantag för HDMI, av det du räknande upp helt irrelevant. Så ur ett affärsperspektiv för datortillverkarna är det väldigt extrema krav.

Att köra något annat än Wifi till en laptop är en extrem nisch. Förstår att det finns sådana use-case (har en USB-dongel med bl.a. Ethernet just för det fallet), men det är för fall de flesta inte ens kommit nära.

Att kunna utöka RAM/disk är i teorin väldigt användbart. Men är väldigt förvånad om det är något normalanvändaren i praktiken skulle använda ens i 1 % av fallen (har uppgraderat RAM ett par gånger genom åren, men trots att det varit möjligt kanske det hänt på 1 av 10 datorer).

Så full rationellt att standardlaptop:en är väldigt tunn med allt fastlödat. För bara marginellt lägre vikt är långt mer värt för den typiska användaren än ett släpbart monster som har massor med möjligheter nästan ingen kommer utnyttja.

Det som suger är att framförallt Apple utnyttjar det faktum att man inte kan ändra på något i efterhand. Deras priser på grundmodellerna är egentligen väldigt konkurrenskraftiga sett till vad man faktist får kontra vad konkurrenterna erbjuder. Deras priser på uppgraderingar över basmodellen är direkt löjliga!

Får se hur bra/dåliga Dell, Lenovo, HP m.fl. blir på den punkten med Snapdragon X. För blir ju samma begränsade möjligheter till uppgraderingar där.

Av Yoshman
Skrivet av lillaankan_i_dammen:

Jag är fundersam på vilken plattform som kommer bli the shit för tekniker i framtiden? Just nu idag så utvecklas mycket enbart för windows, det kostar väldigt mycket att underhålla för flera system. Och tillverkarna klarar ofta inte ens av att ge tillräckligt bra support för några få versioner av windows som de supportar.

Jag skulle säga att vilken plattform som är dominant beror väldigt mycket på vilket område man jobbar inom. Jobbade med inbyggda-system under två decennium och finns helt klart fall där Windows dominerar, men i allt större utsträckning så går detta allt mer mot Linux. Och detta är något som rätt mycket gick från primärt PowerPC/propretära OS (med IDE typiskt i Windows) till ARM64/Linux med VS Code (där det ofta finns klara fördelar att köra med desktop Linux).

För egen del var Windows helt irrelevant under de åren, Linux var det tekniskt bättre (inte billigare, utan bättre) alternativet på skrivbordet.

"Molnet" är ur alla praktiska hänseenden nästan uteslutande Linux.

Svårt att se hur WSL är något Microsoft gjorde för de absolut ville. De gjorde det för att minska utflödet av utvecklare från Windows då "molnet" blir allt viktigare och det är "Linux native". Men som något som föredrar *NIX är WSL2 för mig en av de bästa saker som hänt i Windows senaste 10-15 åren!!!

Linux + allt mer krav på datacenter kring energieffektivitet lär vara dåliga nyheter för Intel/AMD. Linux gör det i stort sätt trivialt att gå till ARM64 medan de ökande kraven på energieffektivitet gör ARM64 till det vettigare valet.

Det skrivet: självklart kommer Windows vara ett stort och viktigt OS under lång tid framöver. Och är definitivt ingen självklarhet att ARM64/Windows blir en succé. Enda man kan säga att det Microsoft har gjort med ARM64 i Windows 11 är långt mer och bättre än man någonsin gjort med någon annan icke-x86 satsning i Windows.

Av Yoshman
Skrivet av Dinkefing:

Hur ska AMD då kontra m4 med Zen 5? AMD's 28W mobial modellen som egentligen drar 50-60 w drar nästan dubbelt upp mot m3 och m4. Det är inget de kommer ta in med Zen 5.

AMD ligger långt efter i singeltrådat. De kan ju inte höja frekvensen. Den optimala prestanda per watt ratio har ju redan passerats för längensedan.

Samma gäller Intel.

U-modellerna drar nödvändigtvis inte 50-60 W, bara titta på de handhållna spelkonsolerna.

Men för Intel/AMD handlar det om: väldigt hög prestanda eller bra perf/W, välj en.

Det ARM64 tillverkarna nu visar upp är att de kan göra båda, vilket då gör stora skrymmande stationära ännu mer en nisch för man kan uppenbarligen få in riktigt topp-prestanda i ett laptop-chassi (t.ex. M3 Max).

Ska bli spännande att se hur nära 20-25 W bärbara i praktiken hamnar Qualcomms 80 W devkit. Och om det skiljer, hur mycket samt för vad?

Det vi inte sett är bl.a. hur mycket begränsning 20-25 W är i fall där GPU och CPU jobbar, t.ex. spel (M3 Max använder fläkten i krävande spel, medan den knappt gör det i applikationer som lastar alla CPU-kärnor och inte heller i "rena" GPGPU-fall som 3D-rendering med Blender).

Edit:
Det wildcard som finns för x86_64 skulle jag säga är Intels APX. De som hävdar att ISA inte spelar roll borde börja omvärdera sin ståndpunkt.

Senast någon visade hur viktigt det kan vara skulle jag säga .NET 8 är. Microsoft har i flera steg förbättrat ARM64 stödet i .NET Core. Det man gjorde i .NET 8 är att fullt ut börja använda funktioner i ARM64 som kan eliminera många hopp i koden (conditional branches).

Det är något ARM64 kan göra i långt större utsträckning jämfört med x86, men specifikt något Intel försöker "kopiera" till x86 med deras APX.

Microsoft säger detta:

"As indicated in this, this and this reports, we have observed nearly a 50% improvement in such scenarios."

Coola är, .NET 6/7 hade redan riktigt bra prestanda på ARM64. Med .NET 8 har det blivit ännu bättre

Svårt att se vad de 30-50 % högre perf/MHz vi nu ser Apple, Qualcomm och även Arm (Cortex X4/X925) har mot x86_64 kan förklaras med mycket annat än överlägsen ISA för vad moderna applikationer faktiskt behöver.

Av Yoshman
Skrivet av DasIch:

Något jag skulle vilja se och som kan skynda på utvecklingen är att Qualcom börjar sälja systemkretsarna separat, som AMD och Intel gör.

Tror det finns många entusiaster som skulle börja bygga små kompakta system. Tänk en sånhär krets kombinerat med en dGPU i minsta möjliga formfaktor. Även om det inte skulle ersätta många skrivbordsdatorer i nuläget tror jag det skulle sätta bollen i rullning.

Ryktet att Nvidia ger sig in i ARM64/Windows marknaden verkar vara långt mer än ett rykte numera. Nvidia borde rimligen ha med stöd för dGPU, även om det i förstaläget mer verkar handla om en systemkrets även där.

Qualcomm har sagt något att datorer med PCIe-slottar kan bli verklighet längre fram. Är i första läget fullt rimligt att koncentrera sig på bärbara då det är ~3/4 av PC-marknande (och en växande andel, var 2/3 för något år sedan).

Sen vet jag inte hur "separat" det behöver vara. Tar hellre ett moderkort med fastlödd CPU om det ger fördelar över en socket. Det kritiska är att enheten ska kommer med PCIe-slottar och NVMe-slottat då det ger långt större flexibilitet i att bygga en dator för rätt nischade användarfall.

Av Yoshman
Skrivet av Dinkefing:

Du är ingen tung användare. Du är en sådan som bara bläddrar lite på webben och använder några mediaappar. Det går att göra så mycket mer på en dator än vad man kan göra på en platta. Du har mycket större skärmyta vilket ger mycket mer information på skärmen och du har en mus.

Ska du hålla på med minst ett dussin tabbar eller mer så är en dator oslagbar.

Apple Silicon används även för datorer. Grejen är, trots att dessa (nästan helt) används i rätt kompakta datorer finns idag varianter, MBP med M3 Max, som presterar helt i nivå med det snabbast som Intel/AMD överhuvudtaget har på desktop.

Finns naturligtvis specialfall, t.ex. går det inte matcha prestanda hos Nvidias GPUer i vissa "AI workloads". Men finns också rätt vanliga specialfall åt andra hållet. Apple Silicon CPUerna (och ser ut att Qualcomms Oryon uppför sig likartat) är exceptionellt snabba på kompilering, där är typiskt M3-serien ~30 % snabbare än det snabbaste Intel/AMD har idag.

Håller inte på med videoredigering. Men där är ett annat fall där Apple Silicon har speciell HW som accelerera vissa krävande moment. Snapdragon X Elite har ju också sådan, bl.a. för "AI".

Så förklara för mig: hur är jag begränsad i de "tunga fallen" med en M3 Max när den, i absoluta tal, är snabbare än stationära x86_64 för det jag primärt jobbar med? Kan fatta att man inte vill tro att det kan vara så, hört flera utvecklare som för första gången testar Apple Silicon Mac bli helt tagna på sängen att prestandan kan vara på den nivån den är. Men inte så konstigt att förstå om enda tidigare referens är x86 laptop-spisarna.

Det skrivet: för att ARM64 ska ta fart på Windows tror jag man behöver denna fördel under en tid om det ska lyckas på sikt. Det måste finnas en klar fördel att byta, för det går inte att sticka under stolen med att det under en tid kommer vara extra strul att köra ARM64 på en plattform som Windows där x86 i praktiken varit enda relevanta ISA under årtionden.

Av Yoshman
Skrivet av Dinkefing:

Intressant att Qualcomm jämför deras 12-core modell mot Apples M3 med 8 kärnor och inte mot M3 Pro. Och de visar så klart MT poängen från GB6 men inte ST poängen? Jag tror M3 smiskar Elite X på singeltrådat så därför visar de inte den.

Det är också irrelevant så länge inte Qualcomm visar vilken TDP de kör på.

Intressant att se om AMD komma in i matchen med Zen 5. Tror inte de kommer smiska Apple på singeltrådat med efterföljaren till åttakärniga 8840U som har en TDP på 28W.

Vad det gäller TDP är det upp till varje datortillverkare, Snapdragon X Pro/Elite har en konfigurerbar TDP mellan ~20 W till som mest ~80 W.

Många av de benchmark-resultat som visats har gjorts vid 20 W, vissa har även körts på 80 W. Det man sett där är att det är mest multicore prestanda som ökar vid 80 W, men är inte någon gigantisk skillnad (så perf/W är rätt mycket sämre vid 80 W).

Gissningsvis kommer därför de flesta laptops vara betydligt närmare 20 W än 80 W. Enda enhet som i nuläget officiellt nämnts med 80 W nivå är Qualcomms devkit som är en stationär dator i "NUC" stil.

Vad det gäller jämförelsen mot Apple: helt klart att de undviker single-thread jämförelser, Apple är starkare där. Snapdragon X Elite verkar hamna precis under 3000 poäng sträcket i GB6, M3 ligger strax över och M4 är i nuläget med marginal världens snabbaste CPU-kärna med 3600-3700 poäng (det i en Ipad, lär öka något när M4 Pro/Max kommer).

Till Qualcomms försvar här kan man se det så här: prismässigt verkar Snapdragon X Elite bärbara vara betydligt mer jämförbara med Apples M3 modeller än deras M3 Pro modeller. Så ur den aspekten är det "Äpplen mot Äpplen". Vidare har Qualcomm tryckt på att 20-30 W kommer vara "normalnivån", å andra sidan lär inte M3 Pro ligga speciellt ovanför 30 W givet att M3 Max (12+4 kärnor och 40 GPU-kärnor) inte drar mer än ~30 W "all-core" och upp mot 70-75 W när både CPU och GPU går för fullt (Snapdragon X Elites GPU är definitivt inte i närheten av M3 Max, den är i bästa fall bättre än M3).

Sättet Intel/AMD använder "TDP" för bärbara är i praktiken inte alls jämförbar med "Watt siffror" från Apple och Qualcomm. Tar vi 8840U så drar den 50-60 W (peak CPU-all core) och den kan hålla den effekten givet tillräckligt kylning. Intel/AMDs H-modeller peakar normalt på >100 W, trots sin "35-45 W TDP".

D.v.s. sett till perf/W går det inte att jämföra Intel/AMD med Apple/Qualcomm, det är klasskillnad. Peak-nivåerna är inte i närheten lika extrema för ARM64 CPUerna då de inte är pressade att klocka till 5-5,5 GHz. All-core prestandan är därför inte heller jämförbar, den är betydligt mer "desktop-like" för ARM64 då de faktiskt kan hålla sina frekvenser (M3 Max är ju snabbare i ST och rätt jämbördig i MT med 7950X/14900K, men är en ocean mellan dessa i perf/W).

Av Yoshman
Skrivet av Bozzeta:

Men hur fungerar ARM med Windows.
Kan jag köra alla 64 och 32bit program?

Till skillnad från MacOS som sedan ett par år tillbaka är 64-bit only, vilket även inkluderar Rosetta 2 (x86_64 emulering), så stödjer ARM64/Windows både 32-bit x86 och 64-bit x86.

Så här kan det se ut, värt att notera att för en typisk "developer setup" eller "office setup" går det förvånansvärt bra att köra ARM64 native redan nu. MS Office, Visual Studio, Edge, Chrome, Photoshop, etc finns redan för ARM64.

Klicka för mer information
Visa mer

Senaste Windows 11 uppdateringen fick en hyfsad prestandaboost i sin x86 emulering. Har inte hunnit testa den än, men stämmer Microsofts egna siffror borde man nu ligga i nivå med Rosetta 2 sett till effektivitet.

Givet hur snabba Apples och Qualcomms (och nu också just lanserade Arms Cortex X925) betyder det i praktiken att bärbara med dessa CPUer är i praktiken lika snabb eller snabbare än de flesta aktuella Intel/AMD även när de emulerar x86_64. Däremot får sig ofta perf/W en törn när man kör emulering, ett exempel är Baldurs Gate 3 på MacOS: spelprestanda är i stort sett densamma med Rosetta 2 (x86_64 binär) eller ARM64-native, men det drar mindre ström i det senare fallet.

Av Yoshman

Idag avtäckte Arm 2024 års lineup av deras CPU-kärnor som används primärt i mobiltelefoner.

https://images.anandtech.com/doci/21399/Arm%20Client%20Tech%20Da...

Som vanligt designar Arm inga CPUer själv, så faktiska produkter med dessa lär hitta ut från kanske Q4 2024 (t.ex. MediaTek Dimensity i Q4).

Namnet på den mest högrpresterande kärnan, kodnamn Blackhawk, och efterföljare till Cortex X4 blev Cortex X925. Tar man Arms påstående om prestanda som gospel borde denna matcha eller precis slå Qualcomms Oryon i Snapdragon X Elite i single-thread när Cortex X925 klockas till 3,8 GHz (vilket var hastigheten man använda som referens).

https://images.anandtech.com/doci/21399/Arm%20Client%20Tech%20Da...

Arms påstående om prestanda har historiskt varit rätt korrekta, men som alltid med sådana siffror varierar de med specifikt fall. Stämmer +36 % borde GB6 ST hamna runt 2900-3000 poäng, i nivå med AMD 7950X och Intel 14900K.

Utöver att denna CPU-kärna, ihop med Cortex A725 och Cortex A520 som också avtäcktes, kommer dyka upp en i rad Android-telefoner ryktas det också att bl.a. Nvidia ger sig in i PC-marknaden med en Blackwell / Cortex A725 (Blackwell/Blackhawk) krets under 2025.

Det är en brutalt "bred" design!

https://images.anandtech.com/doci/21399/Arm%20Client%20Tech%20Da...

Av Yoshman

Då inte äldre kort än Ampere testades, här är RTX2070. Tycker den hänger med oväntat bra ställt mot 3060/4060...

Av Yoshman
Skrivet av Pepperflame:

Hur ofta kommer man hem med tomt batteri och behöver ladda fullt på 3 h ala 22 kW? 😅 4 kW eller 11 kW kommer man långt på hemma. Hög effekt vid snabbladdare fattar jag, där tycker jag allt under 100 kW är segt

Finns en tekniskt högst relevant anledning varför 11 kW är långt bättre jämfört med 4 kW, framförallt i ett land som Sverige.

På sommaren spelar det inte så stor roll, växelriktaren i bilen lär vara mer effektiv vid 11 kW än vid 4 kW, men det lär handla om kanske 85-90 % effektivitet mot 90-95 % (dessa tenderar vara som mest effektiva nära sin kapacitetsgräns som är 11 kW för de flesta av dagens elbilar).

På vintern kommer dock skillnaden i effektivitet vara rejäl om det är kallt om bilen laddas utomhus. Detta då upp mot ~1 kW kan behövas användas för värme, det är 25 % av totala effekten vid 4 kW (så klart signifikant), men strax under 10 % vid 11 kW.

Av Yoshman

Ser ut som ryktena från januari kring Cortex X5 var sanna. Stämmer dessa benchmark-resultat tar ju sig Cortex X5 upp på samma nivå som Qualcomm Oryon, vilket i sin tur är i nivå med Apple M2.

Nu kommer AMD släppa Zen 5 och Intel släppa Lion Cove och Skymont i år. Men en observation blir ändå att Zen 4 och Raptor Cove (som ur alla praktiska hänseenden har samma perf/MHz i genomsnitt) kommer först på plats X, efter Apple M1, M2, M3 och M4 (som i nuläget innehar titels som världens snabbaste CPU-kärna), Qualcomm Oryon och Arm Cortex X2, X3, X4 och snart X5 (den förväntas officiellt lanseras inom kort, produkter som använder den förväntas komma från oktober).

D.v.s. det bästa Intel/AMD har just nu kommer först på plats 8 (9 om man räknar med X5) sett till perf/Mhz (och gissningsvis även sett till perf/W). Även om de mest galna ryktena kring IPC ökning hos Zen 5 och Lion Cove slår in kommer de ändå knappast nå topp 3 sett till perf/MHz (men de kan återta bäst absolut perf givet att de kan klockas >5,5 GHz).

Blir väldigt spännande att följa lanseringen av Lunar Lake och Strix Point (laptop-marknaden är långt större än desktop), om dessa inte rejält lyfter sig från dagens nivå kanske vi (äntligen?) ser x86_64s svansång.