Följ Black Week på SweClockers

Apple M1 – vi synar Apples första ARM-processor i sömmarna

Permalänk
Medlem
Skrivet av carlhblomqvist:

Också viktigt att nämna är att Apple M1 har en DSP (Digital Signal Processor) vilket är perfekt för accelerera VST3/AU pluginer för mjukvarusynth:ar och effekter vid musikproduktion med en DAW. Samt också viktigt att påpeka hårdvaruacceleration av h.265 encoding/decoding samt transcoded Apple ProRes för att hantera 8K RAW video like butter.

Kontrollen för SSD finns också med i Apple M1 SoC och den är ruskigt snabb... därav att man klarar sig rätt bra med mindre mängd RAM.

Samt vill också nämna det att Motorola 68000 hanterar 32-bitar (long word), men det kostar i klockcykel. Som gammal Amiga hardware coder så känner jag att det behöver nämnas.

Källa på det eller är det dina egna teorier? Tror många enklare ljudkortskretsar har DSP också men då handlar det om enklare funktionalitet än "processing power".

Jag har dock märkt att https://juce.com/ verkar ha övergett Windows helt iom ver 6. Var sugen på att testa att göra en VST men där går inte tutorial att bygga för windows ens (enligt deras instruktioner (kanske har de uppdaterat nyligen men gick inte för några månader sen)). Demon går att bygga och köra i windows dock.

Amiga var otroligt stor på sin tid. Mycket nostalgi med demos och musik. Tyvärr var jag lite för ung på den tiden

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Sysop:

Mycket bra artikel, jag får mina Air imorgon och är sjukt spänd på vad de har att erbjuda.

Blir lite förvirrad bara, ARM64 och Aarch64 är samma sak, eller? Första stycket på sidan två använder sig av båda namnen?

Vill inte svära på det men har för mig att ARM64 och aarch64 är egentligen samma sak, ARMv8 introducerade 64 bitars arkitektur för ARM processorer, när verktyg utvecklades för att kompilera kod valde Apple att kalla kompilations målet i LLVM (Som de utvecklade och sedan opensourcade) ARM64 medans GCC körde på aarch64 (det egentliga namnet). De här verktygen fick sedan aarch64 backenden mergad så idag ska det här vara synonymer.

Missade att det här redan var besvarat så ursäkta.

Kan inte läsa trådar och missade svaret
Permalänk
Skrivet av Herr Kantarell:

Källa på det eller är det dina egna teorier? Tror många enklare ljudkortskretsar har DSP också men då handlar det om enklare funktionalitet än "processing power".

Apple kallar den för "high-efficiency audio processor", vilket är Apple marketing speak för DSP.

Finns även med från WWDC keynote... https://youtu.be/GEZhD3J89ZE?t=5508

wwdc keynote
Permalänk
Medlem

Numer har det visst blivit standard att mäta Mac vs PC-prestanda med Geekbench, enkeltrådat och flertrådat och spelen med Tombraider. Jag tror inte detta säger ens en bråkdel av hela sanningen men framtiden lär utvisa den reella skillnaden. Visst är M1 en lyckad krets men alla tester känns fortfarande lite väl vinklade, tillrättalagda och anpassade för att förhöja M1-kretsens förträfflighet.

Permalänk
Skrivet av Ceji:

Numer har det visst blivit standard att mäta Mac vs PC-prestanda med Geekbench, enkeltrådat och flertrådat och spelen med Tombraider. Jag tror inte detta säger ens en bråkdel av hela sanningen men framtiden lär utvisa den reella skillnaden. Visst är M1 en lyckad krets men alla tester känns fortfarande lite väl vinklade, tillrättalagda och anpassade för att förhöja M1-kretsens förträfflighet.

Håller med om att kliniska tester säger inget... samt eftersom Apple M1 har både Neural Engine, DSP, ISP m.fl. och dessa användes inte i testerna.

Däremot delar jag inte att testet är vinklat, tillrättalagd, anpassad eller på något vis att det handlar om att förhöja Apple M1 SoC förträfflighet. Detta av just den anledningen jag nämnt ovan. Apple M1 SoC innehåller så mycket mer än bara CPU och GPU kärnor. Det är helheten man vill se. Varför inte testa SIMD för x86 också.

Det är också intressant att se vad Apple M1x/M2 kommer att prestera. Apple M1 är helt klart en mycket väl presterande baseline.

Apple M1x/M2
Permalänk
Medlem

Är förvirrad.

Skrivet av Artikeln:

Utöver enhetlig minnesmodell har Apple också dubblerat minnesgränssnittets kapacitet. Där konventionella x86-processorer för bärbara ansluter mot primärminnet över 64-bitars gränssnitt mot exempelvis LPDDR4X använder M1 ett 128-bitars gränssnitt. Det innebär att en x86-baserad PC vars LPDDR4X-minne är högre klockat än Apples M1-diton ändå får avsevärt lägre minnesprestanda på grund av dubblerad bussbandbredd i M1-kretsar.

128 bitar är väl så gott som standard i allt x86 som normala människor nånsin kommer i kontakt med? Bara HEDT som har mer, men allt annat har två kanaler på 64 bitar vardera.

Permalänk
Medlem
Skrivet av ajp_anton:

Är förvirrad.

128 bitar är väl så gott som standard i allt x86 som normala människor nånsin kommer i kontakt med? Bara HEDT som har mer, men allt annat har två kanaler på 64 bitar vardera.

Jag gissar att han menar 2x128 bit i så fall, motsvarande quad channel

Permalänk
Lyxfällan 🎮
Skrivet av ajp_anton:

Är förvirrad.

128 bitar är väl så gott som standard i allt x86 som normala människor nånsin kommer i kontakt med? Bara HEDT som har mer, men allt annat har två kanaler på 64 bitar vardera.

Apple har bara angivit 128-bitars minnesbuss, men granskningar av kretsen tyder på att det handlar om åtta 16-bitars minneskanaler som totalt ger bandbredd om 68,25 GB/s. Jämförelsevis ger en Core i9-10900K med två minneskanaler om 64-bit vardera 45,8 GB/s, och Xeon-processorer med fyra minneskanaler kan ge uppåt 94 GB/s.

Det intressanta med M1 är inte minnesbussens bredd eller den högsta bandbredden det ger, utan den enhetliga minnesmodellen. I och med att RAM-modulerna paketeras i samma kretspaket och att alla komponenter i SoC:n har enhetlig åtkomst till minnet nås betydligt lägre latens och energiförbrukning ställt mot det konventionella upplägget. Att CPU, GPU, NPU och andra komponenter som tillkommer längre fram kan arbeta direkt mot minnet med hög bandbredd gör att användaren får bättre prestanda per gigabyte med M1 ställt mot andra bärbara x86-processorer.

När jag pratade med Apples representanter om M1 i samband med att vi skulle låna in en Macbook Pro M1 pratade de om att de designar processorerna efter produkten. Jag misstänker att det innebär att de kommer öka antalet minneskanaler för Mac Pro-datorer med Apple Silicon, så att de där kan använda exempelvis sexton 16-bitars minneskanaler till snabbare minnestyper än det LPDDR4X-4266 som används i M1.

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Datavetare
Skrivet av ajp_anton:

Är förvirrad.

128 bitar är väl så gott som standard i allt x86 som normala människor nånsin kommer i kontakt med? Bara HEDT som har mer, men allt annat har två kanaler på 64 bitar vardera.

Jag hade länge fått för mig att M1 hade högre teoretisk kapacitet mot RAM än andra PC. Nu när fler detaljer börjar komma fram (då folk själv kan testa/analysera M1) har det framkommit ät det "bara" handlar om dual-channel LPDDR4X-4266 MT/s. Det är som du korrekt påpekar totalt 128-bitars minnesbuss (x2 64-bitar per kanal).

Men finns ändå unika delar i M1. Dels har du det @loevet nämner ovan, M1 består av flera xPU-kretsar som alla delar samma minnespool. Att dela minne på detta sätt har naturligtvis uppenbara nackdelar i att alla delar bandbredden, dual-channel LPDDR4X-4266 MT/s ger ändå mer bandbredd än de flesta PC-system (finns ett par Tiger Lake U och Zen2 baserade bärbara som också använder sådant RAM).

Den stora vinsten är att delat minne mellan flera xPU-kretsar betyder att ingen I/O behövs för att flytta data mellan dessa, det sparar ström och framförallt minskar det kraftigt latensen att accelerera specifika jobb på den krets mest lämpad för uppgiften. MacOS har nu både ramverken och kislet för att utnyttja homogena system, något som gör att de flesta traditionella benchmarks underskattar prestanda hos M1 för benchmarks är typiskt designade för Windows som saknar både ramverken och HW.

Fast även om man enbart zoomar in på CPU-delen finns unika delar runt bandbredd mot RAM, något som bl.a. Anandtech nämnt

One aspect we’ve never really had the opportunity to test is exactly how good Apple’s cores are in terms of memory bandwidth. Inside of the M1, the results are ground-breaking: A single Firestorm achieves memory reads up to around 58GB/s, with memory writes coming in at 33-36GB/s. Most importantly, memory copies land in at 60 to 62GB/s depending if you’re using scalar or vector instructions. The fact that a single Firestorm core can almost saturate the memory controllers is astounding and something we’ve never seen in a design before.

Testade min 3900X lite snabbt, den kan också utnyttja hela RAM-bandbredden från CPU-delen. Skillnaden är att det krävs 6-7 kärnor för att man riktigt ska kunna maxa, en kärnan utnyttjar i fallet jag testade (minnestestet i Sysbench, där handlar det också om rå minneskopiering) mindre än 10 GB/s och det skalade i princip linjärt till två kärnor (efter det faller ökningen av allt mer per kärna till man når maxkapacitet).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Lyxfällan 🎮
Skrivet av Yoshman:

Jag hade länge fått för mig att M1 hade högre teoretisk kapacitet mot RAM än andra PC. Nu när fler detaljer börjar komma fram (då folk själv kan testa/analysera M1) har det framkommit ät det "bara" handlar om dual-channel LPDDR4X-4266 MT/s. Det är som du korrekt påpekar totalt 128-bitars minnesbuss (x2 64-bitar per kanal).

Men finns ändå unika delar i M1. Dels har du det @loevet nämner ovan, M1 består av flera xPU-kretsar som alla delar samma minnespool. Att dela minne på detta sätt har naturligtvis uppenbara nackdelar i att alla delar bandbredden, dual-channel LPDDR4X-4266 MT/s ger ändå mer bandbredd än de flesta PC-system (finns ett par Tiger Lake U och Zen2 baserade bärbara som också använder sådant RAM).

Den stora vinsten är att delat minne mellan flera xPU-kretsar betyder att ingen I/O behövs för att flytta data mellan dessa, det sparar ström och framförallt minskar det kraftigt latensen att accelerera specifika jobb på den krets mest lämpad för uppgiften. MacOS har nu både ramverken och kislet för att utnyttja homogena system, något som gör att de flesta traditionella benchmarks underskattar prestanda hos M1 för benchmarks är typiskt designade för Windows som saknar både ramverken och HW.

Fast även om man enbart zoomar in på CPU-delen finns unika delar runt bandbredd mot RAM, något som bl.a. Anandtech nämnt

One aspect we’ve never really had the opportunity to test is exactly how good Apple’s cores are in terms of memory bandwidth. Inside of the M1, the results are ground-breaking: A single Firestorm achieves memory reads up to around 58GB/s, with memory writes coming in at 33-36GB/s. Most importantly, memory copies land in at 60 to 62GB/s depending if you’re using scalar or vector instructions. The fact that a single Firestorm core can almost saturate the memory controllers is astounding and something we’ve never seen in a design before.

Testade min 3900X lite snabbt, den kan också utnyttja hela RAM-bandbredden från CPU-delen. Skillnaden är att det krävs 6-7 kärnor för att man riktigt ska kunna maxa, en kärnan utnyttjar i fallet jag testade (minnestestet i Sysbench, där handlar det också om rå minneskopiering) mindre än 10 GB/s och det skalade i princip linjärt till två kärnor (efter det faller ökningen av allt mer per kärna till man når maxkapacitet).

Just det där om nackdelen i att alla komponenter delar samma bandbredd stämmer ju, men där finns också en potential för utvecklare som tokoptimerar för det upplägget. Det ser vi ju i konsolvärlden där utvecklare lyckas klämma ut imponerande kapacitet ur begränsade komponenter på en SoC, och utvecklare som optimerar sin kod för att utnyttja xPU-komponenternas enhetliga tillgång till minnet kan ge liknande vinster när M1 börjar bli gammal i gemet. Vi kan bara hoppas att liknande ARM-satsningar från Qualcomm och andra på PC-sidan blir lyckade, Mac OS i all ära men utvecklare behöver anamma den utvecklarmodellen på Windows för att utveckling i allmänhet ska optimeras för det upplägget.

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Skrivet av loevet:

Det intressanta med M1 är inte minnesbussens bredd eller den högsta bandbredden det ger, utan den enhetliga minnesmodellen. I och med att RAM-modulerna paketeras i samma kretspaket och att alla komponenter i SoC:n har enhetlig åtkomst till minnet nås betydligt lägre latens och energiförbrukning ställt mot det konventionella upplägget. Att CPU, GPU, NPU och andra komponenter som tillkommer längre fram kan arbeta direkt mot minnet med hög bandbredd gör att användaren får bättre prestanda per gigabyte med M1 ställt mot andra bärbara x86-processorer.

Problemet med denna lösning är att det bara fungerar emot de enklaste klienterna. Och jag är nyfiken på hur Apple löser det på deras workstations. Blir det en Minneshierarki till kanske? Jag tänker såklart vanligt externt ram förutom det som redan finns inbyggt.
Tar vi Appples 64 core som kanske kommer, så lär den vilja ha minne om den ej ska flaska, jag själv skulle vilja ha minst 512 GB gärna 2TB ram på en sådan. Om ryktarna kring prestandan stämmer så va tusan 4TB ram och sedan in med exsi.
Visst ssd genom pci 4.0 är snabba, men vill man utföra beräkningar på dessa och använda den som arbetsminne och slita dem så hårt?

*edit*
När ssd pcie 5.0 kommer så kan man argumentera för att ramminnesbehovet minskas när det är så snabbt, men som jag skrev ovanför så gäller det även få upp antalet skrivningar som de håller för. Annars kommer man snabbt förstöra dessa om man jobbar med Big data om använder ssd som arbetsminne.

Permalänk
Medlem
Skrivet av loevet:

Apple har bara angivit 128-bitars minnesbuss, men granskningar av kretsen tyder på att det handlar om åtta 16-bitars minneskanaler som totalt ger bandbredd om 68,25 GB/s. Jämförelsevis ger en Core i9-10900K med två minneskanaler om 64-bit vardera 45,8 GB/s, och Xeon-processorer med fyra minneskanaler kan ge uppåt 94 GB/s.

Men åtta 16-bitars minneskanaler ger fortfarande just 128 bitar, vilket är samma som 10900K du jämför med. M1 har då högre maximala bandbredd bara för att LPDDR4X är högre klockat än vanliga DDR4 som används i desktop. Om Apple nu faktiskt har 128 bitar som ni nu bekräftar, så är ju det som står i artikeln fel. Om x86 nu skulle ha högre klockat minne, som i exemplet ni drog, så har ju den isåfall högre (maximala, teoretiska) minnesbandbredd, inte lägre.

Skrivet av lillaankan_i_dammen:

*edit*
När ssd pcie 5.0 kommer så kan man argumentera för att ramminnesbehovet minskas när det är så snabbt, men som jag skrev ovanför så gäller det även få upp antalet skrivningar som de håller för. Annars kommer man snabbt förstöra dessa om man jobbar med Big data om använder ssd som arbetsminne.

Nu jämför du bara maximal sekventiell dataöverföringshastighet. Finns annat där RAM är bättre än SSD, så länge det är flash/NAND vi menar.

Permalänk
Medlem

@loevet

Var anger ni källorna till denna artikel? Känns tveksamt att ni inte har använt någon källa för en 'djupdykning'. Att ange källor är något jag saknar överlag på Sweclockers. Det borde vara ett obligatoriskt fält i ert CMS att ange minst två källor innan ni kan publicera något.

Permalänk
Lyxfällan 🎮
Skrivet av ajp_anton:

Men åtta 16-bitars minneskanaler ger fortfarande just 128 bitar, vilket är samma som 10900K du jämför med. M1 har då högre maximala bandbredd bara för att LPDDR4X är högre klockat än vanliga DDR4 som används i desktop. Om Apple nu faktiskt har 128 bitar som ni nu bekräftar, så är ju det som står i artikeln fel. Om x86 nu skulle ha högre klockat minne, som i exemplet ni drog, så har ju den isåfall högre (maximala, teoretiska) minnesbandbredd, inte lägre.

Nu jämför du bara maximal sekventiell dataöverföringshastighet. Finns annat där RAM är bättre än SSD, så länge det är flash/NAND vi menar.

När jag skrev på artikeln i december var jag under intrycket att Apple körde på ett annat upplägg med det enhetliga minnet, baserade det på en granskning Anandtech gjort, men precis som @yoshman inser jag efter en närmare granskning att så inte verkar vara fallet. Precis som du är inne på har M1 högre minnesbandbredd på grund av den högre minneshastigheten, vilket Tiger Lake-processorer också kan nå om de kör LPDDR4X-4266. Det är dock fortfarande vanligt att de använder lägre klockade minnen, men jag har reviderat den sektionen för att mer korrekt återge minnesfrågan. Tack för att du påpekade detta!

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Lyxfällan 🎮
Skrivet av johan4:

@loevet

Var anger ni källorna till denna artikel? Känns tveksamt att ni inte har använt någon källa för en 'djupdykning'. Att ange källor är något jag saknar överlag på Sweclockers. Det borde vara ett obligatoriskt fält i ert CMS att ange minst två källor innan ni kan publicera något.

Innehållet här baseras dels på Apples officiella uppgifter om M1, dels egen kunskap om historiken runt processorer och dels egna tester av prestanda, värmenivåer, ljudnivåer och allmän användarupplevelse. Sidorna om historiken och förklaringen av x86 vs RISC skulle kunna peppras med länkar, men då jag baserat innehållet på egen kunskap som verifierats med källor och den mästerlige @yoshman kändes det inte nödvändigt att länka till källor jag inte använt under författandets gång. Om något av innehållet jag författat inte stämmer uppskattas nyttjande av rättelsefunktionen, som t.ex. med minnesfrågan ovan

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Datavetare
Skrivet av loevet:

Just det där om nackdelen i att alla komponenter delar samma bandbredd stämmer ju, men där finns också en potential för utvecklare som tokoptimerar för det upplägget. Det ser vi ju i konsolvärlden där utvecklare lyckas klämma ut imponerande kapacitet ur begränsade komponenter på en SoC, och utvecklare som optimerar sin kod för att utnyttja xPU-komponenternas enhetliga tillgång till minnet kan ge liknande vinster när M1 börjar bli gammal i gemet. Vi kan bara hoppas att liknande ARM-satsningar från Qualcomm och andra på PC-sidan blir lyckade, Mac OS i all ära men utvecklare behöver anamma den utvecklarmodellen på Windows för att utveckling i allmänhet ska optimeras för det upplägget.

Exakt, och en stor del av den potentialen sett till HW kommer av att delat RAM betyder noll I/O-overhead och väldigt låg latens i att involvera specialdesignade kretsar i delar av en större beräkning.

Huvudproblemet man brottas med när CUDA används för GPGPU är att grafikkortet har sitt eget RAM och GPUn sitter i latensmått mätt rätt långt bort från CPU. Finns massor mer mindre problem som rent krasst bättre kan hanteras av GPUn än av CPUn, men som ändå inte lönar sig köra via CUDA då kostanden för I/O kommer dominera totalkostnaden -> totalt sett går det snabbare att utföra beräkningen på CPU.

Intel är väl medveten om detta, SSE/AVX och framförallt AVX-512 vore rätt poänglöst om så inte var fallet (nåja, går inte heller riktigt att förutsätta att alla system är CUDA-kompatibla). Intel är också medveten om värdet i vad Apple åstadkommit med M1, och kanske ännu viktigare hur man åstadkommit detta.

HW är en nödvändigt del i ekvationen, men egentligen den enklare delen. Vore inte speciellt svårt för Intel att stoppa i alla möjliga acceleratorer i deras CPUer. Redan idag finns ju saker för videavkodning och en allt mer kapabel iGPU. Huvudproblemet är ramverk så att applikationer faktiskt kan använda de acceleratorer man stoppar in, det på ett sätt så man som programmerare inte direkt behöver bry sig om huruvida något HW-accelereras (och om det gör det, inte behöva bry sig om det sker via SIMD, GPGPU eller xPU).

Här är Apple i en unik position då de kontrollerar allt och de har också varit väldigt förutseende att designat dessa ramverk för länge sedan, många existerande applikationer använder redan erforderliga ramverk, t.ex. Apples Accelerate, som gör övergången från x86 SSE/AVX till Arms Neon trivialt samt gör att vissa funktioner kan flyttas från SSE/AVX till den integrerade DSP i M1. Det egentligen utan att kräva något mer än att applikationen kompileras om för aktuell MacOS version!

Windows världen saknar helt motsvarande helhetslösning. Nvidia har väldigt brett GPGPU stöd via CUDA (här ligger Apple klart efter, deras Metal Compute har inte alls samma bredd, än) och Intel lägger massor med resurser på deras OneAPI som nog är det närmaste man kommer vad Apple redan har. OneAPI täcker inte bara in GPGPU, den täcker också in SIMD och vissa former av xPU.

Sett många pekat på att Geekbench ger en felaktig bild av M1 prestanda. Det är helt korrekt, men nog inte på det sättet de flesta tror. GB5 underskattar prestanda hos M1 då det enbart testar CPU-delen. GB5 överskattar också prestanda hos bärbar x86_64 enheter då det är en race-to-sleep så dessa enheter kör med högre frekvens i GB5 än vad de kommer göra i praktiken, samtidigt som M1 (likt desktop x86) kan hålla sin maxfrekvens hur länge som helst och till och med oavsett hur många kärnor som lastas (så till och med bättre än desktop x86).

Men GB5, Cinebench R23 och de flesta benchmarks som finns till M1 missar helt att testa fall som på något sätt utnyttjar alla acceleratorer i M1. Framtiden är heterogen, Apples konkurrenter bör riktigt sätta fart att jobba på ramverken för att möjliggöra heterogen HW för annars lär de hamna rejält på efterkälken.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

GB5 överskattar också prestanda hos bärbar x86_64 enheter då det är en race-to-sleep så dessa enheter kör med högre frekvens i GB5 än vad de kommer göra i praktiken, samtidigt som M1 (likt desktop x86) kan hålla sin maxfrekvens hur länge som helst och till och med oavsett hur många kärnor som lastas (så till och med bättre än desktop x86).

Jag gjorde ett mer "rättvist" test i Geekbench mellan min Dell XPS 13 och min MacBook Air M1. Med rättvist menar jag den faktiska prestandan som min dator har vid normal användning. Dvs inte "race-to-sleep", då i7:an inte får använda burst samt att klockfrekvensen har ett fast maxvärde:

https://browser.geekbench.com/v5/cpu/compare/5104986?baseline...
"Quiet"-läget är det jag använder till normalt när jag slösurfar under Linux på min XPS. Detta läget är dock helt användbart och systemet laggar inte nämnvärt.

Kör jag däremot "Energy saver" som är enda sättet att närma sig M1:an i batteriprestanda, så kryper datorn bokstavligen fram:

https://browser.geekbench.com/v5/cpu/compare/5105218?baseline...

Om jag kör min XPS 13 i max hastighet, så funkar den bäst som värmefilt:

https://browser.geekbench.com/v5/cpu/compare/4723059?baseline...

Prestandan ovan är dock omöjlig att nå utan diverse tweaks (undervoltning etc.) och normala användare har betydligt sämre prestanda. Intel är däremot experter på att ljuga i benchmarks och verkar enbart visa siffror från optimala förhållanden.

Kan även tillägga att webb-appar som exempelvis Pixlr E ( https://pixlr.com/e/ ) har fått ett nytt liv med M1:an. Känns som att jag hittat min ersättare till Photoshop