Skrivet av Gorgonzola:
Hej, har för mig att jag läst någon artikel på sweclockers där de testat livslängden på olika ssd. Någon som vet var den finns?
Skrivet av guos89:
Den generella slutsatsen man kan dra är väl att livslängden på dagens SSD-enheter är så pass god så att det aldrig blir ett problem för vanliga användare. Det är klart att om man medvetet misshandlar sin SSD enhet genom att skriva filer konstant till den så kan det såklart bli ett problem men då är man nog också ganska medveten om detta och torde vara en ganska liten minoritet.
Att sedan SSD enheten eventuellt kommer att skrivas sönder även för vanliga användare såvida man använder disken i typ 10+ år äv väll inte heller speciellt relevant då folk knappast kommer nyttja sin SSD i 10+ år.
Skrivet av backfeed:
Värt att känna till är även att ssd:er tydligen kan förlora data ganska snabbt om de inte är strömsatta (t.ex. om man använder dem för arkivering och lägger dem på hyllan).
Skrivet av sniglom:
Min Intel G2 80GB är 7 år nu och jag ser ingen anledning att byta den då utrymmet räcker i datorn där den sitter.
Ang SSDer så finns det faktiskt flera olika faktorer som påverkar "livslängden", då syftat inte bara på enheten i sig, utan även data i den.
Ena är det som tester som tex Nordichardware gjort och div andra siter gör, vilket är att medvetet skriva till diskarna, tills de går sönder. Problemet är att detta säger inte hela historien, utan är lite som att jämföra vilken som är den mest pålitligaste bilen genom att trycka plattan i mattan tills motorn och växellådan havererar. Inte direkt så man gör, eller hur?
Idag är det mest vanligaste felet faktiskt läsfel... inte fysiskt NAND skrivfel, som brickar dessa diskar. Varför? Jo för sk META data som ligger på disken, som tex LBA adress översättningar, ligger på samma NAND som din vanliga data ligger på. Och varje gång du skriver något, måste dessa också uppdateras. Så om strömmen går i exakt fel tidpunkt, så kan en disk som är känslig för det, få fel.
Tillverkarna löser dessa risken på olika sätt, och på olika nivåer, där vissa gör reserv data, vissa har kondensatorer för att hinna säkert skriva det och vissa har andra lösningar. Billigaste budgetdiskarna kan dock ha betydligt sämre skydd i dessa fall, och där är faran.
Sen har du problemet som @backfeed tog upp, nämligen volt-drift, där cellerna helt enkelt laddas ur väldigt fort (vissa diskar verkar det vara så illa som dagar innan de får sämre läsprestanda, och nån månad innan de måste använda kraftig ECC för att korrekt läsa data).
Detta påverkar definitiv SSDer idag med 2D NAND av små nm storlekar, och det är också något som olika tillverkare har löst på olika bra sätt, allt från inte löst det, till löst det så man inte märker det alls så länge disken används en dag i månaden iaf. Detta problem finns faktiskt även i så tidiga diskar som @sniglom Intel G2 disk... men eftersom storleken på NANDet då var enormt (jämfört med idag), så har det toleransen att läcka, utan att förvandla 1:or till 0:or.
I teorin är MLC här också mindre känsligt för dessa fel än TLC, inte pga felet inte sker, utan pga du har mer marginal. Men å andra sidan så har du ofta sämre ECC nivå, så när det väl sker... så kan disken lätt brickas. Detta kan lätt ses på de billigaste Sandforce diskarna som tex Adata, Kingston och lite andra släpte mot slutet. De är MLC, men de har stenåldersteknik i ECC nivå jämfört med en modern TLC (som ju måste ha bättre ECC). Här hänger också mycket på kvalitén och typ av NAND som används, och detta ska förhoppningsvis nya och bättre 3D NAND tekniker hjälpa mot.
Så här ligger nästa fara, för denna volt-drift kan göra kritiska delar som partitionstabeller eller filsystem oläsbara, bara genom att någon enstaka sektor inte går att läsa (som inte har skrivits om på länge), och resultatet är allt från en disk som inte svarar på kommandon (då den konstant försöker läsa, eller firmware inte kan hantera felet), till en disk som en dag plötsligt är tom...
Så om du inte ska skriva hutlösa mängder data så är dagens NAND på 1000-2000 P/E på en 500GB disk mer än nog... 1500x500GB ca 750TB data. WA påverkar också hur snabbt du skriver sönder en disk. Men så länge det räcker för hur mycket du kommer att skriva, och disken har bra WA, så det inte lönt att ha mer för sakens skull. Men om du inte kan läsa data:n om 6 månader... vad hjälper bättre P/E nivå?
Och slut resultatet är att, NAND slitage tålighet i all ära... det är inte det viktigaste idag.