Vad nyttigt göra med gammal SSD?

Permalänk
Medlem

Vad nyttigt göra med gammal SSD?

Hej, jag har köpt en större SSD och funderar på vad jag kan göra med den gamla.
jag har annars ingen nytta med den, då jag kör lagring på klassiska hårddiskar.
http://www.prisjakt.nu/produkt.php?p=885131

Kanske någon slags mellanlagring, buffert eller så?

Kom med tips

Permalänk
Medlem

Sätt i den i PS/Xbox/PC/Laptop, sälj eller ge bort till någon du vet behöver den?

Visa signatur

Citera för svar!

Permalänk
Medlem

Lagra spel på den?

Visa signatur

Alla mina leksaker får inte plats här, så här jag listar istället mina favoritinlägg:
1 2 3 4 5 6 7 8 9 10 11 12

Utelåst hobbymoderator

Permalänk
Medlem

Installera några spel på den.

Visa signatur

Moderkort: Asus P8P67 PRO REV B3 | CPU: Intel Core i5 2500K | GPU: GTX 980 DirectCU II 4GB |
PSU: 850W Gold

Permalänk
Medlem

Finns det inte nån i din närhet med en slö gammal laptop med mekanisk HD? Perfekt med 120GB SSD i en surf-laptop.

Permalänk
Medlem

Skänk den till mig

Men skämt åsido, så håller jag med övriga talare

Skickades från m.sweclockers.com

Visa signatur

~Du lever ända tills du dör~

Stationära: 1TB HDD + SSD 120gb/ Aerocool strike x advanced / Hyper 212 Evo /24gb ddr3@1600mhz / Evga 600w / Intel core i5 4690k@stock Evga gtx 970 /asus z97a
Laptop: Dell xps 13 9370 fhd/i5/8gb

Permalänk
Medlem

Jag går mot strömmen, och tycker att man ska använda den i det befintliga systemet om det överhuvudtaget är möjligt.
Jag har min gamla 120gB Samsung 830, och en nyare 240gB Samsung 840 Evo, och det ligger fortfarande i planerna att köpa en 1tB tillsammans med grafikkortet, som inte heller har blivit köpt än. Till våren kanske... I alla fall. Ny disk blir systemdisk, gammal disk blir dedikerad till det där skräpet man inte vill vara utan, men som fort äter en massa utrymme på systemdisken. I mitt fall spel, och virtuella maskiner.

B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Medlem

Använd som en snabb extern SSD via USB 3.0 (UASP):

http://www.misco.se/product/product.aspx?P_ItemId=10962871

Permalänk
Medlem
Skrivet av ElvisP:

Använd som en snabb extern SSD via USB 3.0 (UASP):

http://www.misco.se/product/product.aspx?P_ItemId=10962871

Den var bra, tack

Permalänk
Medlem
Skrivet av ElvisP:

Använd som en snabb extern SSD via USB 3.0 (UASP):

http://www.misco.se/product/product.aspx?P_ItemId=10962871

http://www.webhallen.com/se-sv/datorkomponenter/176626-deltac... Varför inte likt detta?

Visa signatur

It’s more fun to compute.

Permalänk
Medlem

Använd inte SSD som ej spänningssatt långtidslager av data - dom är inte gjorda för detta, för den typen av lagring är snurrdiskar betydligt bättre val. SSD behöver vara strömsatta med ganska täta mellanrum för att behålla sin data intakt, speciellt om de förvaras varmt, då att kontrollera och skriva om otydliga minneceller kräver energi.

Snurrdiskar bör förvisso också kontrolleras då och då - men där skulle jag säga att marginalerna är betydligt större och en liggetid på 3-6 år utan kontroll är ingen större fara för datainnehållet.

SSD skall användas strömsatta - i roll som diskcache ( i tex. en NAS) eller systemdisk som används hyfsat regelbundet.

Permalänk
Skrivet av xxargs:

Använd inte SSD som ej spänningssatt långtidslager av data - dom är inte gjorda för detta, för den typen av lagring är snurrdiskar betydligt bättre val. SSD behöver vara strömsatta med ganska täta mellanrum för att behålla sin data intakt, speciellt om de förvaras varmt, då att kontrollera och skriva om otydliga minneceller kräver energi.

Snurrdiskar bör förvisso också kontrolleras då och då - men där skulle jag säga att marginalerna är betydligt större och en liggetid på 3-6 år utan kontroll är ingen större fara för datainnehållet.

SSD skall användas strömsatta - i roll som diskcache ( i tex. en NAS) eller systemdisk som används hyfsat regelbundet.

Ursäkta, men detta är helt tvärt om mot hur det funkar.

Visa signatur

[4790k@4.6]+[RTX 3070 OC]+[16GB]+[4x SSD]+[NZXT+700W Gold]+[Win7]+[2x Samsung SA27950D <3]+[Topre TKL]+[G403 Hero wired]+[HyperX Cloud Alpha S]+[KingKong 2 Pro]. ZBook 17 G5, Quadro P3200, Win11.

Permalänk
Medlem
Skrivet av HolyFather:

Ursäkta, men detta är helt tvärt om mot hur det funkar.

Vad gafflar du om? Det han skriver stämmer ju.

Visa signatur

Spela Swemantle! Du vet att du vill.

Ibland har jag fel, men då är det någon annans fel.

Permalänk
Medlem
Skrivet av HolyFather:

Ursäkta, men detta är helt tvärt om mot hur det funkar.

Nja, tvärt om skulle jag inte säga, det är känt att SSDer kan tappa data relativt snabbt. Tekniskt sett kan en SSD tappa data efter bara några dagar strömlös, men under mer normala förutsättningar så är det troligtvis inget att oroa sig över. Även mekaniska diskar kan tappa data om de är strömlösa under en lång tid, något år är siffror jag hört.

Men det kan väl inte vara särskilt vanligt med att lägga data på en disk och låta den ligga strömlös i flera år? Det kan inte vara särskilt viktig data i så fall, för hade den varit viktig hade man haft backup på datan. Och om disken i sig är backupen så bör man ju regelbundet kontrollera sin backup så att det går att återställa data från den.

Permalänk

IRST utnyttja 64G för att snabba upp ditt system

IRST utnyttja 64G för att snabba upp ditt system med din pensionär SSD, integrera inte utan bara snabba upp din HD du vill snabb upp.

Permalänk
Inaktiv

Varför inte bygga upp en Storage Pool (som ingår in Windows) och använda den som Cache för att liva upp dina mekaniska? På detta sätt utnyttjar du SSDn bäst imho.

Alternativt om ditt moderkort stödjer Intel SRT kan du använda det.

Permalänk
Medlem

Ha kvar den i systemet och kör Linux på den! Ta ut den nya när du installerar. Sen väljer du bootdisk via bios. Kul att leka med linux tycker jag.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem

Skulle använda den för att installera de spel jag spelar mest.
Planerar köpa en dator och tänkte då flytta över min gamla 256 gb SSD och använda den för främst spel, men eventuellt även arbetsyta för GIS och bildbehandling.

Permalänk
Medlem
Skrivet av perost:

Även mekaniska diskar kan tappa data om de är strömlösa under en lång tid, något år är siffror jag hört.

Gick igenom en trave antika PATA-diskar nyligen och den äldsta disken som legat orörd i 17 år hade inte en enda läsfel eller ens antydan till omläsningsförsök, den som hade några läsfel var 19 år men där vet jag inte om disken var undanlagd av just anledningen att den hade problem (har väldigt svagt minne att det kan vara så).

Med detta så verkar (äldre) HD vara säkrare än tex. CD-R som jag tycker mig se börja ha problem efter 10 års ålders lagring medans DVD+/-R verkar hålla ett tag till - och de som åldrats minst i avseende ökande bit-error med tiden är CD-RW och DVD+RW (dom som ansågs knappt ha runt hörnet garanti i avseende att behålla data) - där är bitfelen så låga att de är i stort sett på nivå nyköpta pressade skivor i antal bitfel - efter 10-15 års lagring!! , långt bättre än motsvarande de med färg som skrivlager där 'bruset' med korrekterbara bitfel klart blir högre för varje år.

För mer modernare diskar (tex. 2TB wd green och seagate i externa USB-lådor) så är 3-5 år liggetid inga som helst problem - inte en antydan till läsproblem eller omläsningsförsök (jag har provat...).

Det jag har sett (förvisso baserat bara på ett enda exemplar) är en styck HGST på 300GB som var riktig dålig efter ca 5-6 år liggetid med många läsfel var det än läste över diskytan och väldig klickande och klingande ala Deathstar och jag är ganska säker på att den var helt OK när den lades undan för 5-6 år sedan (helt enkelt för att den var för liten i storlek)

testade sist nu också 2 styck diskar på 750 GB (samsung) resp 1 TB (WD-green) som legat orörd och oanslutet i diskchassie i ca 3 år och dessförinnan ca 40000 tusen timmars drift-tid dygnet runt - inga som helst problem att läsa av innehållet från första till sista sektorn, inga märkbara omläsningsförsök eller annat som indikerar läsproblem eller ljud som indikerar att disken närmar sig slutet av sin livstid.

---

Man får skilja mellan backupdiskar och arkivdiskar - de senare vill man helst inte behöva kolla allt för ofta och för min del agerar sekundärkopia till DVD-skivorna som har samma data men i hd är lättare att leta i och överföra till nyare media när det så blir dags.

Långtidslagring av data är annars ett förbaskat svårt kapitel för alla som håller på med detta - förutom att media riskera att bli oläsbara eller att det inte finns fungerande avläsare längre även om mediat är friskt (gäller främst bandbackups-arkiv) då det finns en inte allt för liten risk att det blir fel eller misstag görs vid överföring till ny media...

Data som är bränd på optomedia har en fördel som är svårmatchat med andra lagringsmetoder - de kan inte ändras/raderas av användarmisstag, några virus eller av ransomware...

Permalänk
Medlem

Bra förslag har redan givits så har inget extra att tillägga, ledsen.

Dock en liten OT fråga men ändå relaterad om än avlägset, det togs upp tidigare i tråden om långtidslagring så nyfiken vad man ska använda för den typen av lagring om man inte vill sitta och skyffla på skivor och liknande?

Permalänk
Medlem

Lös det och du kanske blir rik - detta är riktig huvudvärk för alla som hanterar massiva mängder med data, inklusive google, amazon, Facebook mfl. - på sina håll har man också krav på att data inte kan manipuleras i efterhand när datat väl är skrivet en gång på mediat tex. inom finans, ekonomisk bokföring, journaler inom hälsovård, loggar inom säkerhetssystem etc. och enda alternativet mot bränd optomedia är i stort sett bara matrisskrivare och pyjamas-papper eller att det handskrivs på papper...

Min rekommendation för närvarande efter att ha gått igenom ett stort antal brända DVD-R av olika slag brända i början och mitten av 2000-talet är att bränna på DVD+RW och en sekundärkopia på en snurrdisk av Seagate eller WD:s tillverkning.

Bluray (BR) vet jag ännu inte - men förhoppningsvis är den mer tålig än DVD+/-R för tidens tand då denna skriver också mot metall (koppar) precis som DVD+/-RW men sådant tar ju minst 10 år att kolla... BR-RW kör med faskiftande metall precis som DVD+/-RW och bör potentiellt vara lika bra över tiden som DVD+/-RW har visat sig vara här i Norden (vi har ganska låg fuktighet i luften större delen av åren inomhus, vilket inte gäller i tex. tropikerna och fasskiftande metall i DVD+/-RW är känslig för hög fuktnivå och hög fukthalt långa tider tar fukten sig sakta genom plasten och kanske är därför den fick dåligt rykte som opålitlig lagringsmedia)

Problemet är också att optisk media har sjunkit i kvalitet över åren allt eftersom japanska skivpressare har lagt ned verksamheten - och det som förr ansågs som skräpkvalitet typ Ritek-pressade skivor på den tiden - ligger i den övre halvan i kvalitetsligan idag tillsammans med CMC och några få fler och det kommit en klunga ännu sämre pressare som indiska moser baer (som köpte upp Philips diskpressar och flyttade hela klabbet till indien) som TDK mfl. har som underleverantör batchmässigt (man vet aldrig vad man får när man köper - det är olika gång till gång) som är sådan skräpkvalitet att Ritek-skivor framstår som av yppersta kvalitet när man råkar på en sådan batch...

Permalänk
Medlem
Skrivet av xxargs:

Använd inte SSD som ej spänningssatt långtidslager av data - dom är inte gjorda för detta, för den typen av lagring är snurrdiskar betydligt bättre val. SSD behöver vara strömsatta med ganska täta mellanrum för att behålla sin data intakt, speciellt om de förvaras varmt, då att kontrollera och skriva om otydliga minneceller kräver energi.

Snurrdiskar bör förvisso också kontrolleras då och då - men där skulle jag säga att marginalerna är betydligt större och en liggetid på 3-6 år utan kontroll är ingen större fara för datainnehållet.

SSD skall användas strömsatta - i roll som diskcache ( i tex. en NAS) eller systemdisk som används hyfsat regelbundet.

Helt ärligt så har både du och @HolyFather delvis rätt och delvis fel.

Att anta att HDD idag är så felfria att de kan ligga 3 år utan "kontroll" är vårdslöst. Rent ut. Men jag håller med att moderna SSDer inte klarar av att ligga vidare länge heller.

Med det sagt, jag testade min egen 840 EVO, med data liggande i 9 mån, utan ström i rumstemp. Visst hade hastigheten trillat ner men den läste ändå allt 100% korrekt, vilket är det viktiga här. SSDer har ofta idag enorma mängder ECC nivåer, där en HDD har väldigt lite. En HDDs feltolerans har faktiskt inte direkt ökat på 20 år, snarare minskat. Så en SSD som 840 EVO, som trots allt har erkänt voltdrift fel, kan ändå ligga så pass många månader utan problem. Så en gammal SSD som den TS har, med 25nm MLC kretsar har ganska enorma marginaler jämfört. Den kan troligen ligga 1-2 år, utan problem.

Ang HDD så är din hypotes ovan korrekt om du tänker på gamla 40-80GB HDD. De kunde lagra i många år, innan de började lagra data på djupet. Men numera med 1-10TB är marginalerna så pass tajta att nästan alla HDD faktiskt visar tecken på att de också har någon form av "drift" och ojämnhet. Normalt tar det långt över 1 år för det att bli ett problem, men poängen här är att när det väl blir det, så har de stenålders ECC för att rädda det. De äldre diskarna med annan lagringsteknik kan dock hålla 5+ år, precis som du säger, men vi använder inte den tekniken längre.

Ang DVD... så är DVD-RAM det enda som är lagrings klassat, och med ECC skydd. De är både återskrivningsbara, och åldersbeständiga. Long life — without physical damage, data is retained for an estimated 30 years. For this reason, it is used for archival storage of data. (Wiki, som även länkar till tillverkarnas egna specs som säger just detta)

Så att blint tro på att det är säkert för att det är en HDD... tänk om. Vill du ha det åldersbeständigt måste du ha ett media som är klassat som sådant och har ECC nivåer att backup upp det. Annars sitter du där med läsfel, eller värre... bitröta, på dina favorit bilder.

Permalänk
Medlem

SSD'er har åtminstone fördelen att de utför kontinuerligt underhåll när de är strömsatta, HD's... man anser att behovet inte finns, så det är ytterst marginellt. OS'ett defragmenterar lite då och då, men det räcker bara så långt, långtidslagrade data kan ligga i åratal utan att behöva defragmenteras på nytt, och om disken inte har några interna rutiner för att "titta till" data, kommer vi alla med större diskar få överraskningar med tiden...
B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Medlem
Skrivet av -=Mr_B=-:

SSD'er har åtminstone fördelen att de utför kontinuerligt underhåll när de är strömsatta, HD's... man anser att behovet inte finns, så det är ytterst marginellt. OS'ett defragmenterar lite då och då, men det räcker bara så långt, långtidslagrade data kan ligga i åratal utan att behöva defragmenteras på nytt, och om disken inte har några interna rutiner för att "titta till" data, kommer vi alla med större diskar få överraskningar med tiden...
B!

Detta märks ofta med att diskarna får svårlästa filer/sektorer som tex partitionstabeller, filsystem, sällan uppdaterade Windows system filer osv. Vill det sig illa så får tom HDD sk uncorrectable sektorer, som sen när den testar visar sig vara okej ändå (den får ingen re-allocation). Detta är för att magnetiska datan är förstörd och inte fysiska sektorn, och den inte vet om det förrän ny data skrivs. Om du inte själv sköter det så kommer resultatet en dag bli läsfel/BSOD eller värre (total krasch av partitionen), och sen får du aldrig rätta på den skadade datan. Detta trots att disken är igång, eftersom en HDD inte gör något underhåll som kan fixa det själv.

En modern SSD dock, som är driftsatt, ska om kontrollern gör det den ska, rotera runt dessa statiska celler, och märker den läsproblem så skriver den om datan eller voltjusterar, och sen är allt okej igen. Helt genomskinligt för system och användare och behövs inget TRIM (även om det hjälper så klart), ingen AHCI, inga drivare, utan allt ska ske på kontrollernivå helt själv. Tex den 840 EVOn som jag nämnde ovan behövde ca 15 timmar IDLE för att helt reda upp ca 50% fylld 1TB SSD, till perfekt 500MB/s+ på alla filer efter att ha legat i 9 månader.

Så Diskfresh är att rekommendera på HDD också... då den skriver om gammal statisk data (utan att förstöra den), även där, och ger då HDDns kontroller en chans att hitta dessa fel innan de leder till dataförlust. 1 gång om året räcker normalt, men äldre än 2 år hade jag nog kört var 3:e-6:e månad beroende på dens SMART-status.

Permalänk
Skrivet av Paddanx:

Helt ärligt så har både du och @HolyFather delvis rätt och delvis fel.

Att anta att HDD idag är så felfria att de kan ligga 3 år utan "kontroll" är vårdslöst. Rent ut. Men jag håller med att moderna SSDer inte klarar av att ligga vidare länge heller.

Med det sagt, jag testade min egen 840 EVO, med data liggande i 9 mån, utan ström i rumstemp. Visst hade hastigheten trillat ner men den läste ändå allt 100% korrekt, vilket är det viktiga här. SSDer har ofta idag enorma mängder ECC nivåer, där en HDD har väldigt lite. En HDDs feltolerans har faktiskt inte direkt ökat på 20 år, snarare minskat. Så en SSD som 840 EVO, som trots allt har erkänt voltdrift fel, kan ändå ligga så pass många månader utan problem. Så en gammal SSD som den TS har, med 25nm MLC kretsar har ganska enorma marginaler jämfört. Den kan troligen ligga 1-2 år, utan problem.

Ang HDD så är din hypotes ovan korrekt om du tänker på gamla 40-80GB HDD. De kunde lagra i många år, innan de började lagra data på djupet. Men numera med 1-10TB är marginalerna så pass tajta att nästan alla HDD faktiskt visar tecken på att de också har någon form av "drift" och ojämnhet. Normalt tar det långt över 1 år för det att bli ett problem, men poängen här är att när det väl blir det, så har de stenålders ECC för att rädda det. De äldre diskarna med annan lagringsteknik kan dock hålla 5+ år, precis som du säger, men vi använder inte den tekniken längre.

Ang DVD... så är DVD-RAM det enda som är lagrings klassat, och med ECC skydd. De är både återskrivningsbara, och åldersbeständiga. Long life — without physical damage, data is retained for an estimated 30 years. For this reason, it is used for archival storage of data. (Wiki, som även länkar till tillverkarnas egna specs som säger just detta)

Så att blint tro på att det är säkert för att det är en HDD... tänk om. Vill du ha det åldersbeständigt måste du ha ett media som är klassat som sådant och har ECC nivåer att backup upp det. Annars sitter du där med läsfel, eller värre... bitröta, på dina favorit bilder.

Har man nu råd att lagra på SSD så finns det Enterprise-klassade SSD som kostar ännu mer och uppfyller hårdare krav. Jag menade spontant den här vanliga referensen till de misstolkade JEDEC-specs som har skrivits om men debunkats.

Samtidigt så finns goda råd för att undvika bit flip på bägge vg högkapacitet - för de som har viktig data att lagra. Man brukar prata om dataset istf vad det lagras på (eller vem det lagras hos, i fallet med molnet). Några av de tar han upp.

Stämmer in i högkapacitet (som betyder olika saker för mig, för SSD börjar det kring 1TB och HDD 4TB). HDD är definitivt mer kostnadseffektivt för lagring, tills 3D-chip blir billiga.

Men det känns som att man betat av det här med lagring och rewrites för några år sen, och att SSD bara blir bättre när kapaciteten ökar och att jag inte tror man kan göra samma case för HDD längre.

Visa signatur

[4790k@4.6]+[RTX 3070 OC]+[16GB]+[4x SSD]+[NZXT+700W Gold]+[Win7]+[2x Samsung SA27950D <3]+[Topre TKL]+[G403 Hero wired]+[HyperX Cloud Alpha S]+[KingKong 2 Pro]. ZBook 17 G5, Quadro P3200, Win11.

Permalänk
Medlem

Moderna hårddiskar och SSD har liknande felrättningsalgoritmer - numera LDPC. innan dess Viterbi tillsammans med Reed-Solomo och innan dess bara Reed-Solomo på liknande sätt som DVD-skivors felrättning fungerar (dock inte med lika mycket marginal som DVD). Det man också har gjort är att de fysiska blocken som skrivs/läses är betydligt större än sektorstorleken som visas på SATA-gränssnittet.

Viterbi-avkodning för att förbättra S/N har kommit in i Bluray-skivorna.

När SSD börja bli trög att läsa på 'gamla sektorer' som tex. Samsung 840EVO (där man inte skyfflade om datat i bakgrunden som alla trodde till en början) så är det indikation att LDPC-algoritmen börja snurra någon eller några varv i avkodningen tills datat blir rätt. Förbättringen av 'suddiga' datat sker mest dom första varven när LDPC-algoritmen arbetar och når den uppemot 20 varv innan rätt 'svar' så är datat i stort sett ej räddningsbart.

frågan att ställa är om avläsningshastigheten mer än halveras efter ett halvår på tex. sagda 840EVO, hur är det då efter 1 år, 2 år - trots att SSD har ström över hela tiden, hur nära gränsen är det när datat inte är räddningsbart längre.

har själv sagda SSD och det blev rejäl skillnad i läshastighet när man äntligen kom ut med firmware som löste problemet med att inte flytta runt 'gammal' data och den vägen fräsha upp 'datat' i flashcellerna.

En snurr-hårddiskspår är idag ca 50 nm brett och längden på varje bit i spåret är runt 10-11 nm. för en dagens 8 TB-disk, att gå ned till 25 nm spårbredd är inom räckhåll i närtid och man tror att man kan komma så lågt som 10 * 10 nm per bit på hårddiskar

Inom IC jobbar man för fullt på att få feature-upplösningen under 10 nm (siktar på 7 nm) men det är inget som är i produktion idag, featureupplösningen berättar hur smal den minsta ledaren kan blir, vilket innebär att strukturerna som tex. bygger upp en flashcell är betydligt större än 10 nm och tillverkarna räddar sig på att cellen kan hålla flera analoga nivåer (MLC och TLC-celler) och nu börja man bygga i 3D med lager efter lager (man är väl uppe i 48 lager idag) på varandra.

Men att bygga lager efter lager är inte felfri process och dyrt då samma kiselbit skall läggas på fotoresist och belysas, etsas och joninplantera/lägga på metall/amorft kisel varv efter varv kanske uppemot 200 gånger för en 48 lagers 3D-flashminne - det blir fel på olika delar i varje lager och måste kompensera med reservminne och logik som kan ersätta de trasiga delarna och detta kan lätt växa exponentiellt med antal lager om man inte har väldigt lågt felutfall redan från början. - man räddar sig ett tag med 3D-byggande, men det går inte att göra det hur länge som helst då kostnaden per bit kisel skenar ju fler lager som läggs på i tillverkningen.

---

Visst moderna snurrdiskar har allt mindre marginaler - men tittar man på 2 och 4 TB diskarna som funnits ett tag så verkar inte risken för dataförlust vara överhängande även om man bara 'tittar till' diskarna vartannat år eller så.

och är det viktig data så har man data ändå på minst två fysiskt olika ställen vilket gör att den ena kan täcka upp för den andre om det börja vara läsproblem.

Jag skulle säga att problemen är större på tex. USB/SATA-konvertern på 3.5" externa diskar att det är dom delarna som går sönder före innan själva den fysiska snurrdisken börja uppvisa problem.

Problemet är att USB/SATA-konvertrarna i färdiga externa diskar börja ha dels sektoromvandling mellan 512 Byte - 4kB för att hantera 2TB som många BIOS begränsar sig vid om disken 'bara' har 512-bytes sektorer - alla vill/kan inte köra UFEI-läge på sina bios.., vilket kan knöla till det rejält om man plockar ur den fysiska disken för att USB-gränssnittet inte fungerar. och filsystemet antar 4 kB sektorer när den pratar med USB-konvertern men själva disken använder bara 512 bytes-sektorer, själva HD går att använda länge än - men datat som skrevs medans den satt i externdisk-kapslingen kanske inte är enkel att läsa ut när man läser disken ensam.

Det som också kommit på senare tid är att datat också krypteras när det passerar USB-gränssnittet in mot disken (gäller främst 2.5" diskar) vilket gör att när USB-interfacet av någon anledning går sönder så kan man inte läsa ut någon begriplig data när man läser direkt från snurrdisken i en diskvagga fast det inte är något fel på denna - däremot kan an använda denna i en diskvagga och senare att lagra ny data på disken utan problem.

Permalänk
Medlem
Skrivet av HolyFather:

Men det känns som att man betat av det här med lagring och rewrites för några år sen, och att SSD bara blir bättre när kapaciteten ökar och att jag inte tror man kan göra samma case för HDD längre.

Tyvärr är det inte så enkelt. Allt eftersom SSDerna har blivit större, eller rättare sagt, NAND kretsarna har blivit större, så har kvaliten på dem faktiskt blivit sämre och sämre. Man har kompenserat det genom att ha bättre ECC och större diskar (så att lägre P/E inte spelar roll).

Skrivet av xxargs:

Moderna hårddiskar och SSD har liknande felrättningsalgoritmer - numera LDPC. innan dess Viterbi tillsammans med Reed-Solomo och innan dess bara Reed-Solomo på liknande sätt som DVD-skivors felrättning fungerar (dock inte med lika mycket marginal som DVD). Det man också har gjort är att de fysiska blocken som skrivs/läses är betydligt större än sektorstorleken som visas på SATA-gränssnittet.

Hmm. Jag det vore ju logiskt att de borde få bättre nivå med tiden, men problemet är att LDPC fungerar bra i teorin, men det ger prestandaförluster rätt fort om det behövs så ofta som det verkar göras idag.

Problemet är dock fortfarande att en HDD kan inte flytta om en defekt sektor, tills du som användare skriver till sektorn, vilket en modern SSD kan och gör med sin GC rutin. Så trots samma ECC nivå, så rättar SSD själv sina fel med GC, medan HDD gör inte det. Det enda LDPC gör på en HDD är att ger dig "20 extra försök" (som du själv säger)...

Skrivet av xxargs:

När SSD börja bli trög att läsa på 'gamla sektorer' som tex. Samsung 840EVO (där man inte skyfflade om datat i bakgrunden som alla trodde till en början) så är det indikation att LDPC-algoritmen börja snurra någon eller några varv i avkodningen tills datat blir rätt. Förbättringen av 'suddiga' datat sker mest dom första varven när LDPC-algoritmen arbetar och når den uppemot 20 varv innan rätt 'svar' så är datat i stort sett ej räddningsbart.

frågan att ställa är om avläsningshastigheten mer än halveras efter ett halvår på tex. sagda 840EVO, hur är det då efter 1 år, 2 år - trots att SSD har ström över hela tiden, hur nära gränsen är det när datat inte är räddningsbart längre.

Även om i teorin så kan detta stämma generellt på LDPC SSDer, så är 840 EVO inte en av dem, då den inte har LDPC. 750 EVO har dock...
Det kan mycket väl vara så att de har kodat in det i den nya FW, det vågar jag inte svara på, men ursprungliga 840 EVO hade inte denna ECC nivå. 850 EVO har den inte heller, då den behöver den inte dock... för sina 2000 P/E, vilket säger en hel del om det NANDet vs tex Intel/Microns nya 3D NAND som hade 500 P/E utan LDPC och ca 1500 med. (Och varför MX300 och 600p är lika mycket skräp diskar som många 2D NAND TLC diskar)

Skrivet av xxargs:

har själv sagda SSD och det blev rejäl skillnad i läshastighet när man äntligen kom ut med firmware som löste problemet med att inte flytta runt 'gammal' data och den vägen fräsha upp 'datat' i flashcellerna.

Disken hade faktiskt denna funktion sedan tidigare, men det krävdes att man nådde nära oläslighet för att trigga det, och den var verkligen inte effektiv. Tittar man dock på en modern SSD med liknande problem som trots detta har LDPC, tex MX200, så verkar den förlita sig hårt på att justera och låta LDPC jobba nästan konstant, innan den skriver om, vilket gör att du kan lätt nå ca 100MB/s snitt läshastighet, snabbt.

Så LDPC är en bra teknik, men den är sin egen värsta fiende då den används på dumt sätt. Den ska användas för att hantera få och små fel så att ingen data korrupteras, men istället så används den till att göra billigt skräp NAND till "okej", med krafig prestanda dropp som resultat, samt att när den väl blir äldre lär den ha enorma faror med att ligga strömlös länge, då felen kommer accelerera.

Skrivet av xxargs:

Inom IC jobbar man för fullt på att få feature-upplösningen under 10 nm (siktar på 7 nm) men det är inget som är i produktion idag, featureupplösningen berättar hur smal den minsta ledaren kan blir, vilket innebär att strukturerna som tex. bygger upp en flashcell är betydligt större än 10 nm och tillverkarna räddar sig på att cellen kan hålla flera analoga nivåer (MLC och TLC-celler) och nu börja man bygga i 3D med lager efter lager (man är väl uppe i 48 lager idag) på varandra.

Men att bygga lager efter lager är inte felfri process och dyrt då samma kiselbit skall läggas på fotoresist och belysas, etsas och joninplantera/lägga på metall/amorft kisel varv efter varv kanske uppemot 200 gånger för en 48 lagers 3D-flashminne - det blir fel på olika delar i varje lager och måste kompensera med reservminne och logik som kan ersätta de trasiga delarna och detta kan lätt växa exponentiellt med antal lager om man inte har väldigt lågt felutfall redan från början. - man räddar sig ett tag med 3D-byggande, men det går inte att göra det hur länge som helst då kostnaden per bit kisel skenar ju fler lager som läggs på i tillverkningen.

Du borde titta på Toshibas/Sandisk(WD) nya 3D NAND. De har löst en hel del problem med staplingen, och verkar utan problem "börja" med 64-lager, och har inget tak i sikte.

Skrivet av xxargs:

Visst moderna snurrdiskar har allt mindre marginaler - men tittar man på 2 och 4 TB diskarna som funnits ett tag så verkar inte risken för dataförlust vara överhängande även om man bara 'tittar till' diskarna vartannat år eller så.

Du säger det, men som sagt, faran med tex LDPC ECC nivå är att tillverkarna kan pressa gränserna hårdare, och större diskar som 6-8TB har bara fler plattor. Det är dock samma lagringsteknik under huven, och samma marginaler sett till lagringstäthet och fel.

Så jag tror dig när jag sett dem ligga 4+ år. Har en 3TB disk som legat över 1 år nu, som jag tänkte vänta lite till på, innan jag själv läs testar den.

Skrivet av xxargs:

och är det viktig data så har man data ändå på minst två fysiskt olika ställen vilket gör att den ena kan täcka upp för den andre om det börja vara läsproblem.

Det gäller ju all data och alla typer av enheter. Problemet är att om datan som ligger på dem är lika gammal, på likadana enheter, så har båda risk för samma problem. Så detta är relativt irrelevant i denna diskussion imho, då det är rätt självklart och opåverkat av mediet.

Skrivet av xxargs:

Jag skulle säga att problemen är större på tex. USB/SATA-konvertern på 3.5" externa diskar att det är dom delarna som går sönder före innan själva den fysiska snurrdisken börja uppvisa problem.

Det håller jag helt med om. Men det går ofta att antingen ordna en ersättnings strömadapter eller ta ut disken i sätta i dem direkt i datorn. Finns undantag dock, med de som har USB kontrollern direkt löddad på HDDn...

Skrivet av xxargs:

Problemet är att USB/SATA-konvertrarna i färdiga externa diskar börja ha dels sektoromvandling mellan 512 Byte - 4kB för att hantera 2TB som många BIOS begränsar sig vid om disken 'bara' har 512-bytes sektorer - alla vill/kan inte köra UFEI-läge på sina bios.., vilket kan knöla till det rejält om man plockar ur den fysiska disken för att USB-gränssnittet inte fungerar. och filsystemet antar 4 kB sektorer när den pratar med USB-konvertern men själva disken använder bara 512 bytes-sektorer, själva HD går att använda länge än - men datat som skrevs medans den satt i externdisk-kapslingen kanske inte är enkel att läsa ut när man läser disken ensam.

...och som du säger, de är inte alltid standardiserade, vilket kan ställa till det som F.

Skrivet av xxargs:

Det som också kommit på senare tid är att datat också krypteras när det passerar USB-gränssnittet in mot disken (gäller främst 2.5" diskar) vilket gör att när USB-interfacet av någon anledning går sönder så kan man inte läsa ut någon begriplig data när man läser direkt från snurrdisken i en diskvagga fast det inte är något fel på denna - däremot kan an använda denna i en diskvagga och senare att lagra ny data på disken utan problem.

Detta var nytt för mig dock. Låter lite idiotiskt att kryptera det då enheten själv avkrypterar allt ändå.

Permalänk
Medlem
Skrivet av svampbob:

Hej, jag har köpt en större SSD och funderar på vad jag kan göra med den gamla.
jag har annars ingen nytta med den, då jag kör lagring på klassiska hårddiskar.
http://www.prisjakt.nu/produkt.php?p=885131

Kanske någon slags mellanlagring, buffert eller så?

Kom med tips

Har själv precis den modellen och den sitter fortfarande inkopplad och används trots att jag även har en 480 GB och en 500 GB SSD. Visst är 120 GB inte så mycket idag, men det räcker ju till att installera några spel eller program. En SSD drar knappt någon ström och låter inget, så ingen skada skedd av att ha den inkopplad.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD