Räcker Windows egna defrag eller finns det bättre för stora hårddiskar?

Permalänk

Räcker Windows egna defrag eller finns det bättre för stora hårddiskar?

Om man har en 10TB Enterprisedisk eller större vilka defragprogram rekommenderas då? Räcker verkligen Windows egna defrag? Jag vill helst ha ett defragprogram som sätter alla filer efter varandra så läshuvudet används så lite som möjligt.

Permalänk
Keeper of the Bamse

Den lär räcka. Den görs ju till och med automatiskt löpande. Blir dina diskar fragmenterade idag?

Visa signatur

i7 10770K, NH-D15. 16GB corsair. RTX 3080. 3TB nvme. Samsung G9. Fractal Torrent Compact. Corsair RM850.
Logitech G pro wireless mouse. Logitech TKL915 wireless. Logitech Pro X Wireless.
Macbook pro M1 (16GB, 512GB). HP Reverb G2.
www.bamseclockers.com

Permalänk
Medlem
Skrivet av Dinkefing:

Om man har en 10TB disk eller större vilka defragprogram rekommenderas då? Räcker verkligen Windows egna defrag?

Snackar vi SSD så är det inte något man alls gör då den typen av lagring inte har nån nytta av det, det ända som händer är att man sliter på SSDn i onödan.

Det där gäller bara mekaniska diskar men det var kanske det du menade med "disk" ? i sådan fall så fungerar Windows eget defrag så där är svaret ja och normalt så behöver du inte göra något, det sker automatiskt.

I alla fall på den disk där OS ligger, om Windows också gör det på lagringsdiskar har jag faktiskt inte kollat upp men det är ju enkelt att bara göra det med högerklick på roten.

Visa signatur

Dualbot, w10, Ubuntu, 2600k

Permalänk
Skrivet av Printscreen:

Den lär räcka. Den görs ju till och med automatiskt löpande. Blir dina diskar fragmenterade idag?

Görs den verkligen löpande? Eller du menar om man ställer in den att göra det?

Skrivet av Modellören:

Snackar vi SSD så är det inte något man alls gör då den typen av lagring inte har nån nytta av det, det ända som händer är att man sliter på SSDn i onödan.

Det där gäller bara mekaniska diskar men det var kanske det du menade med "disk" ? i sådan fall så fungerar Windows eget defrag så där är svaret ja.

Men nu skrev jag hårddiskar i rubriken.

Permalänk
Medlem
Skrivet av Dinkefing:

Görs den verkligen löpande? Eller du menar om man ställer in den att göra det?

Men nu skrev jag hårddiskar i rubriken.

Folk i allmänhet kan ha dålig koll.

Ja den kör vid nått intervall och du behöver inte göra nått. Man du kan köra den manuellt och i sådan fall kan du göra det om du raderat och sparat mycket på HDD

Visa signatur

Dualbot, w10, Ubuntu, 2600k

Permalänk
Medlem

Windows eget verktyg fungerar bra. Processen är ju i grunden exakt samma oberoende av storlek på hårddisken.

Visa signatur

Antec P280 | Corsair RM750x | ASUS ROG Crosshair VIII Dark Hero | Ryzen 9 5900X | G.Skill Trident Z RGB 3200MHz CL14 @3600MHz CL16 2x16GB | ASUS RTX 3080 TUF OC | WD SN850 1TB | Samsung 970 Pro 1TB | Samsung 860 Pro 1TB | Samsung 850 Pro 1TB | Samsung PM863a 3.84TB | Sound Blaster Z | 2x ASUS PG279Q

Permalänk
Rekordmedlem
Skrivet av Modellören:

Snackar vi SSD så är det inte något man alls gör då den typen av lagring inte har nån nytta av det, det ända som händer är att man sliter på SSDn i onödan.

Det där gäller bara mekaniska diskar men det var kanske det du menade med "disk" ? i sådan fall så fungerar Windows eget defrag så där är svaret ja och normalt så behöver du inte göra något, det sker automatiskt.

I alla fall på den disk där OS ligger, om Windows också gör det på lagringsdiskar har jag faktiskt inte kollat upp men det är ju enkelt att bara göra det med högerklick på roten.

NTFS måste defragmenteras oavsett om det används på HDD eller SSD och win kör optimering som innebär både trim och defragmentering av ssder, man bör absolut inte stänga av optimeringen av ssder för då kommer NTFS för eller senare att bli korrupt och det blir dataförluster.
Men man behöver inte heller manuellt köra defrag på en ssd utan låt bara optimeringen sköta sitt automatiskt.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem

Man vill helst inte lagra stora datamängder på en extern USB-disk med NTFS, om man inte gillar att spela rysk roulette med sin data med en viss risk för total filsystemhaveri och förlorad data... om man ändå måste ha det på NTFS, se till att det fins backup eller att det är en kopia från en master....

Permalänk
Medlem
Skrivet av Dinkefing:

Görs den verkligen löpande? Eller du menar om man ställer in den att göra det?

Standardinställningen i Windows defrag är att köras 1 gång/veckan

Visa signatur

Stationär PC: Chassi: Phanteks Enthoo EVOLV ATX MB: MSI B550 Gaming Plus CPU: AMD Ryzen 7 5700X Kylning: Noctua NH-U12S GPU: MSI GeForce GTX 1060 Gaming X 6 GB RAM: Corsair Vengeance LPX Black 32GB 3600MHz NVMe: 2st Kingston A2000 SSD: Intel 520 180GB och Intel 530 240GB HDD: WD Green 1TB, Toshiba 640GB samt fler HDD PSU: Corsair RM750X. Mobila enheter Mina Androidenheter och Dell Latitude 5400. Citera om du vill ha ett garanterat svar från mig

Permalänk
Medlem

När jag fortfarande hade mekaniska diskar lokalt i arbetsstationen körde jag Ultimatedefrag. Inbillade mig i alla fall att det gav bäst prestanda, vilket ju på något vis bör vara proportionellt mot mängden läsarmsrörelser.

Oklart om det kunde schemaläggas, körde alltid manuellt. Det var på tiden då det fortfarande var kul att dona och tweaka datorn, blev något av en rutin när det började kännas slött.

Innan Ultimatedefrag körde jag Diskeeper. Väldigt bra, men tyckte det blev för bloatat med åren. Det kunde definitivt schemaläggas med "set it and forget it"-funktionen.

Med reservationen att jag kört den sortens lagring som kräver mekaniska diskar på en server med Debian, där det där med fragmentering är något av ett ickeproblem, åtminstone de senaste 10-15 åren. Det kanske finns andra program som är bättre idag.

Visa signatur

Nu lurade jag dig att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!

Permalänk
Medlem
Skrivet av xxargs:

Man vill helst inte lagra stora datamängder på en extern USB-disk med NTFS, om man inte gillar att spela rysk roulette med sin data med en viss risk för total filsystemhaveri och förlorad data... om man ändå måste ha det på NTFS, se till att det fins backup eller att det är en kopia från en master....

Vad ska man köra istället för NTFS då?

Permalänk
Medlem
Skrivet av mrqaffe:

NTFS måste defragmenteras oavsett om det används på HDD eller SSD och win kör optimering som innebär både trim och defragmentering av ssder, man bör absolut inte stänga av optimeringen av ssder för då kommer NTFS för eller senare att bli korrupt och det blir dataförluster.
Men man behöver inte heller manuellt köra defrag på en ssd utan låt bara optimeringen sköta sitt automatiskt.

Ja.
https://www.hanselman.com/blog/the-real-and-complete-story-do... är lite gammal men en läsvärd sammanställning gällande hur SSDer hanteras i moderna Windowsversioner.

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem

Det som är spöket i NTFS-världen är att en fil får för många fragment och går över gränsen - och när det går över gränsen så hanteras det inte snyggt.

Därför måste man närmast desperat köra en defragmentering på de mest fragmenterade filerna och mappfilerna (de specialfiler som håller namnlistan för filerna inom en mapp) tillräckligt ofta för att situationen inte skall hända och det blir systemkrasch - forceringen av utvecklingen av ReFS under WIN8-tiden berodde på detta när MS ville konkurrera på 'big data'-sidan på winservrar och NTFS som filsystem höll inte för det och kunderna började komma tillbaka med fullständiga systemkrascher som när tex. thumbnails skapades och lades i en mapp av tex. stora mängder bildfiler i en lagring - och där var problemet att det var själva mappfilen som hade alla filnamnen för thumbnailen som kraschade då den blev väldigt defragmenterad eftersom filen växte långsamt över tid när indexeringen gick i bakgrunden och inte skrevs sekventiellt då det kom en massa andra skrivningar mellan hela tiden.

windows har inte någon mer intelligent strategi att allokera sekventiell diskutrymme när det gäller att skriva mot sakta växande filer eller i situationer med många öppnade filer samtidigt (som torrentnedtagning av filer) och man skriver på de olika filerna i olika ordningar allt annat än sekventiellt och det som sedan lagrades på diskens sektorer blev sedan i zebarordning blandat i varandra efter när sektorerna skrevs och därmed stort sett ett fragment för varenda block som skrevs.

det som också lider av fragmentering är filsystemkomprimerade filer då var kompressionsblock på 64 kByte är en fragment och det 3' som kan fragmentera väldigt mycket är sparsefiler när grupper av data skrivs på olika ställen inom filen hela tiden - något jag tror jag råkade på med virtualbox körd på en windows på en imagefil där jag försökte använda klientens TRIM när den raderade filer för att göra unmap (och därmed skapa en sparse-segment) på motsvarnde dataplats på VM-filen för dess raderade data och den vägen minska dess avtryck på den fysiska disken - det gick ett tag... sedan var det fetkrasch. medans kör man samma sak med QEMU/KVM under linux så är det inga alls problem och man slipper problem med VM-image som blåser upp sig över tiden.

Ext3/4 i linux tog läxa av misstagen som gjorts med NTFS, som framförallt blev väldigt uppenbar när man började tanka torrents och ser till att den typen av fragmentering inte händer, men även linux har en numerisk begränsning i max antal filer i en mapp (men inte för att det är för att det är fragmenterat) men får inte samma katastrofala verkan som det kan bli i NTFS.

Sist jag så något om det så klarar ext4 10 miljoner filer i en mapp men inte 20 miljoner - var gränsen går var inte utforskat av den som testade det hela och kan också bero på hur stor volymen är totalt då ext4 har en fixt antal möjliga inoder som bestäms av volymstorleken i samband när filsystemet skapas, medans tex. BTRFS har ingen begränsning på just den delen utan skapas dynamiskt efter behov.

Permalänk
Medlem

Varför har Windows fortfarande diskdefragmentering på som standard?
https://www.sweclockers.com/forum/trad/1719147-varfor-har-win...

Visa signatur

"The following statement is false: The previous statement is true! Welcome to our corner of the universe"

Permalänk
Medlem
Skrivet av mrqaffe:

NTFS måste defragmenteras oavsett om det används på HDD eller SSD och win kör optimering som innebär både trim och defragmentering av ssder, man bör absolut inte stänga av optimeringen av ssder för då kommer NTFS för eller senare att bli korrupt och det blir dataförluster.
Men man behöver inte heller manuellt köra defrag på en ssd utan låt bara optimeringen sköta sitt automatiskt.

Det ska dock väldigt mycket till för att NTFS ska bli så fragmenterat att det leder till dataförlust. Det är inte troligt att det händer under datorns livstid, om man inte har ett väldigt unikt användarmönster där man konstant modifierar ett stort antal filer.

Men ja, man behöver inte bry sig om att manuellt konfigurera defragmentering, trim o.s.v. på moderna versioner av Windows, utan man kan köra med default-inställningarna både med HDD och SSD.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem
Skrivet av Dinkefing:

Om man har en 10TB Enterprisedisk eller större vilka defragprogram rekommenderas då? Räcker verkligen Windows egna defrag? Jag vill helst ha ett defragprogram som sätter alla filer efter varandra så läshuvudet används så lite som möjligt.

Problemet med NTFS är just ... NTFS. Det externa program gör mer eller mindre är att dom går igenom $MFT och $MFT_mirr som håller reda på filstrukturen. Vilket ger snabbare access att läsa filsystemet. Dessutom kan man i vissa fall framtvinga en sortering av filer så dom hamnar i ordningsföljd av namn / katalogstruktur och sedan sorteras i namn / datum / storlek och sedan lägger allt oanvänt utrymme sist på disken.

Detta gör att filer som ändras sällan (beroende på logik (katalogstrukturen), inte datum) sällan eller aldrig ändras minimerar risken för att fragmenteras igen. Filer som ligger under samma katalog kan då läsas snabbare (alla Windows filer kan läsa i ett svep då dom ligger nära varandra). Risken är dock över tid att filer som ändras ofta väldigt snabbt fragmenteras då dom sprids ut mot slutet av disken.

Ett annat alternativ är att sortera helt efter datum (senast ändrad). Det här ger minimal risk för fragmentering, men gör systemet långsammare då alla filer som ändras ofta hamnar sist, vilket inte är optimalt ur prestandasynpunkt och kataloger (mot sig själva) blir utspridda över disken. Idén här är att filer som ändras ofta antagligen ändras igen. Vilket gör att statiska filer håller sig i ett svep. Systemet kan kännas slött här då väldigt mycket access genomförs och diskar med hög prestanda tenderar att låta extra mycket då läsarmen rör sig ideligen.

Sedan beroende på program också, vissa gör sorteringen bara i $MFT andra göra det även på disken.

I Ext4 och BTRFS så finns viss expansion inräknat i logiken och även metadata om hur filer används vilket gör att fragmenteringen kan minimeras. Det finns en myt om att just BTRFS i sig själv är fragmenterande just pga COW. Vilket till viss del kan stämma om man stirrar sig blind på prestandasiffror, men i praktiken inte upplevs skulle jag säga. Jämfört med NTFS är det som att jämföra 1:a och 3:e plats med sist i Vasaloppet.

Du ser inte så stor skillnad på just att läsa en fil, det är när du gör serverförfrågningar med 10 000-tals filer du upplever prestandan. Då blir en hårddisk en SSD i prestanda.

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon