Tävla om valfri Komplett-PC!

någon som använder Xpenology ? (NAS)

Permalänk
Medlem

någon som använder Xpenology ? (NAS)

Det verkar vara en intressant lösning, men är den stabil i praktiken?

Permalänk
Medlem
Skrivet av Patrik356b:

Det verkar vara en intressant lösning, men är den stabil i praktiken?

körde det på en HP Microserver N54L under ca 10 år utan större anmärkning. uppdaterade det med jämna mellanrum med nya bootloaders osv.

Permalänk
Medlem

Jodå, jag har kört med Xpenology sedan långt innan Redpill loadern blev en grej. Det finns förstås några gotchas med att göra detta. För det första så gäller det att ha kompatibel hårdvara, speciellt om du vill kunna köra uppdateringar utan behöva göra en massa handpåläggning för att bibehålla funktion. Jag tappade exempelvis mitt 10Gbe nätverkskort under senaste uppdateringen då "all modules" tillägget inte var kompatibelt med senaste DSM:en, turs nog så hade jag Intel Gigabit nätverkskort som hade officiellt stöd i DSM så jag tappade inte kontakten helt med NAS:en.

För övrigt så kör jag dubbla Xpenology-instanser, en på ett Supermicro X10 moderkort med SC825 rack-chassi som primär lagring, och den andra kör jag på en gammal Dell PowerEdge R230 server som jag har som backup-destination för XCP-NG på mina servrar. Jag körde tidigare LSI SAS2008-baserade HBA-kontrollers, men stödet för detta är mindre än optimalt, så jag har gått över till att jag kör Dell Perc H330-kort som jag har flashat om i IT-läge vilket fungerar out-of-out med SAS3-drivrutinerna på exempelvis DS3617/DS3622. Om du bara har SATA-anslutna hårddiskar så behöver du inte tänka på det utan då kommer det fungera direkt.

Tack vare TCRP Loader och ARPL så är det numera lättare än någonsin att installera och köra Xpenology.
https://github.com/pocopico/tinycore-redpill
https://github.com/fbelavenuto/arpl

Därtill hittar du mycket matnyttig information i Xpenology forum:et.
https://xpenology.com

Visa signatur

Also found as @piteball@mastodon.rockhost.se
vSphere Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD

Permalänk
Medlem
Skrivet av Patrik356b:

Det verkar vara en intressant lösning, men är den stabil i praktiken?

Samma som ovan, körde länge på en Microserver som numera fortfarande tuffar på hos en släkting.
Hemma nu har jag ett gammalt (sandy bridge) ITX moderkort med 8 diskar som enbart fungerar som backup target till min "riktiga" synology NAS.

Permalänk
Medlem

Fungerar funktioner som quickconnect även med detta?

Permalänk
Medlem
Skrivet av jope84:

Fungerar funktioner som quickconnect även med detta?

QuickConnect är en molntjänst hos Synology och kräver äkta serienummer för att utnyttja. Så om du bara genererar ett fejk-serienummer kommer det inte att fungera, men om du använder dig utav ett äkta serienummer så bör tjänsterna rent teoretiskt fungera.

Så om du har oturen att hamna hos en internet-operatör som placerar dig bakom CGNAT och vägrar ge dig publik IPv4 så bör du kanske satsa på att köpa äkta Synology, alternativt att du använder någon av dessa mesh VPN-tjänster för extern åtkomst.

Visa signatur

Also found as @piteball@mastodon.rockhost.se
vSphere Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD

Permalänk
Skrivet av Pitr-:

QuickConnect är en molntjänst hos Synology och kräver äkta serienummer för att utnyttja. Så om du bara genererar ett fejk-serienummer kommer det inte att fungera, men om du använder dig utav ett äkta serienummer så bör tjänsterna rent teoretiskt fungera.

Så om du har oturen att hamna hos en internet-operatör som placerar dig bakom CGNAT och vägrar ge dig publik IPv4 så bör du kanske satsa på att köpa äkta Synology, alternativt att du använder någon av dessa mesh VPN-tjänster för extern åtkomst.

Kan intyga att så var fallet förut med Xpenology, att Synologys tjänster inte fungerade med random serienummer. Nu verkar de flesta loaders som finns tillgängliga för Xpenology ha fixat det. Jag kör Xpenology på två HP Microservrar (ena som backup för den andra) och på båda fungerar Quickconnect osv numera. Tidigare var det inte så, men numera går det finemang. 🙂

Ska i dagarna försöka hitta en controller så jag kan köra med ett par SAS-diskar jag kommit över istället för vanliga SATA. En sådan sak kan bli meckigt just pga stöd för drivrutiner osv i Xpenology, men det är ju ett problem jag själv satt mig i.

Men till TS, ja Xpenology fungerar utmärkt. Har kört det flera år här själv. Mycket trevlig lösning.

Visa signatur

Surf:: FD Define R3 | W10 Pro | Corsair TX650W | MSI P67A-GD65 B3 | i5-2500K@4.2GHz | 16GB Corsair Vengeance 1600MHz | GTX1060 | Be Quiet Pure Rock |
Htpc:: FD Node 304 | W10 Pro | CM Silent Pro M2 420W | ASRock H77M-ITX | Intel i5 2400 | Asus GT 630 | 8GB Corsair Vengeance 1600MHz | Arctic Cooling Alpine 11+
Server:: HP Proliant N54L | ESXI | XPEnology | 1SSD + 6HDD | 6Gb RAM

Permalänk
Medlem
Skrivet av marmeladov:

Ska i dagarna försöka hitta en controller så jag kan köra med ett par SAS-diskar jag kommit över istället för vanliga SATA. En sådan sak kan bli meckigt just pga stöd för drivrutiner osv i Xpenology, men det är ju ett problem jag själv satt mig i.

Jag kör med Dell Perc H330 flashade till IT-mode i två Xpenology burkar, en som DS3617 och en som DS3622xs+ vilket fungerar klockrent även med uppdateringar eftersom SAS3-drivrutinerna finns i kerneln på dessa och inte kräver några extra moduler. Så jag kan rekommendera dessa.

Visa signatur

Also found as @piteball@mastodon.rockhost.se
vSphere Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD

Permalänk
Skrivet av Pitr-:

Jag kör med Dell Perc H330 flashade till IT-mode i två Xpenology burkar, en som DS3617 och en som DS3622xs+ vilket fungerar klockrent även med uppdateringar eftersom SAS3-drivrutinerna finns i kerneln på dessa och inte kräver några extra moduler. Så jag kan rekommendera dessa.

Åh spännande!
Jag är total novis på hela SAS-grejen med separata controllers osv, så jag har en del att sätta mig in i.
Jag tänkte sätta kortet i en Hp Microserver Gen8, men det kanske borde gå med samma Dell Perc H330 som du kör med ändå? Ganska köttig prislapp såg jag dock.

Jag hade annars spanat in HP P222, HP P420 eller kanske LSI 9211-4i som samtliga verkar ska fungera skapligt för Xpenology. Nackdelen är att HP-korten verkar gå varma så in i helskotta och leva rövare, vilket jag inte är så sugen på att veta av. Men det är ett jäkla meck att läsa sin in i då man börjar på noll

Visa signatur

Surf:: FD Define R3 | W10 Pro | Corsair TX650W | MSI P67A-GD65 B3 | i5-2500K@4.2GHz | 16GB Corsair Vengeance 1600MHz | GTX1060 | Be Quiet Pure Rock |
Htpc:: FD Node 304 | W10 Pro | CM Silent Pro M2 420W | ASRock H77M-ITX | Intel i5 2400 | Asus GT 630 | 8GB Corsair Vengeance 1600MHz | Arctic Cooling Alpine 11+
Server:: HP Proliant N54L | ESXI | XPEnology | 1SSD + 6HDD | 6Gb RAM

Permalänk
Medlem
Skrivet av marmeladov:

Åh spännande!
Jag är total novis på hela SAS-grejen med separata controllers osv, så jag har en del att sätta mig in i.
Jag tänkte sätta kortet i en Hp Microserver Gen8, men det kanske borde gå med samma Dell Perc H330 som du kör med ändå? Ganska köttig prislapp såg jag dock.

Ja det är inga problem, eller egentligen vilket LSI 9300-kort som helst flashad med IT-firmware.

Citat:

Jag hade annars spanat in HP P222, HP P420 eller kanske LSI 9211-4i som samtliga verkar ska fungera skapligt för Xpenology. Nackdelen är att HP-korten verkar gå varma så in i helskotta och leva rövare, vilket jag inte är så sugen på att veta av. Men det är ett jäkla meck att läsa sin in i då man börjar på noll

Jag försökte mig på P420 och jag har haft LSI 9211-4i tidigare, men i och med att SAS2-drivrutinen slogs samman med SAS3-drivrutinen så fick jag gigantiska problem med att få igång kontrollern, så jag gav upp tillslut då det var så jobbigt när NAS:en alltid gick ner vid uppgraderingar och krävde handpåläggning för att komma igång igen trots TCRP friend-addonet. Så jag skulle inte råda dig att gå den vägen. Den bättre vägen är att köpa ett IBM M1215 som är ett LSI 9300-8i kort. Se länkar här nedan.

Ebay-listning IBM M1215
https://s.rhz.se/BfCkN

IT-mode flash guide på STH Forum
https://s.rhz.se/LIiUx

Visa signatur

Also found as @piteball@mastodon.rockhost.se
vSphere Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD

Permalänk
Skrivet av Pitr-:

Ja det är inga problem, eller egentligen vilket LSI 9300-kort som helst flashad med IT-firmware.

Jag försökte mig på P420 och jag har haft LSI 9211-4i tidigare, men i och med att SAS2-drivrutinen slogs samman med SAS3-drivrutinen så fick jag gigantiska problem med att få igång kontrollern, så jag gav upp tillslut då det var så jobbigt när NAS:en alltid gick ner vid uppgraderingar och krävde handpåläggning för att komma igång igen trots TCRP friend-addonet. Så jag skulle inte råda dig att gå den vägen. Den bättre vägen är att köpa ett IBM M1215 som är ett LSI 9300-8i kort. Se länkar här nedan.

Ebay-listning IBM M1215
https://s.rhz.se/BfCkN

IT-mode flash guide på STH Forum
https://s.rhz.se/LIiUx

Det där låter ju super-intressant och jag tackar väldigt mycket för tips om att undvika de där korten du nämner. Vad jag läst i xpenology-forum och annat har det varit en bitvis skumpig resa för de som kör med de korten, men inte så många andra alternativ nämndes. Därför blir jag väldigt nyfiken på det där IBM-kortet du länkar till. Rimlig kostnad med!

Det skulle alltså gå finemang att köra ett sådant kort på en hp microserver gen8 och kunna köra xpenology på den med två sas och två sata-diskar?

Visa signatur

Surf:: FD Define R3 | W10 Pro | Corsair TX650W | MSI P67A-GD65 B3 | i5-2500K@4.2GHz | 16GB Corsair Vengeance 1600MHz | GTX1060 | Be Quiet Pure Rock |
Htpc:: FD Node 304 | W10 Pro | CM Silent Pro M2 420W | ASRock H77M-ITX | Intel i5 2400 | Asus GT 630 | 8GB Corsair Vengeance 1600MHz | Arctic Cooling Alpine 11+
Server:: HP Proliant N54L | ESXI | XPEnology | 1SSD + 6HDD | 6Gb RAM

Permalänk
Medlem
Skrivet av marmeladov:

Det där låter ju super-intressant och jag tackar väldigt mycket för tips om att undvika de där korten du nämner. Vad jag läst i xpenology-forum och annat har det varit en bitvis skumpig resa för de som kör med de korten, men inte så många andra alternativ nämndes. Därför blir jag väldigt nyfiken på det där IBM-kortet du länkar till. Rimlig kostnad med!

Ja IBM-korten är väldigt prisvärda av någon anledning, men det är ju grund och botten samma LSI 9300-chipset som sitter på det, och när man dessutom programmerar in IT-firmware och stänger av alla hårdvaru-RAID-funktioner eftersom dessa är rätt dumt att använda sig utav när man kör Xpenology och SHR med BTRFS som ju är en smidig lösning vid byten till större hårddiskar då du kan få tillgång till det utökade diskutrymmet direkt redan efter första disk-bytet, i stället för som med RAID-5/6 där du inte får tillgång till mer diskutrymme förens alla diskarna är utbytta och RAID-volymen ombyggd.

Citat:

Det skulle alltså gå finemang att köra ett sådant kort på en hp microserver gen8 och kunna köra xpenology på den med två sas och två sata-diskar?

Ja utan problem, docks så kommer du behöva ha en SFF-8643 till SFF-8087 adapter eftersom disk-hållaren har SFF-8087 kontakt och SAS3-kontrollern har SFF-8643 mikro-kontakter. Du hittar exempel på rak och vinklad SFF-8643 till SFF-8087 här nedan beroende på hur trångt det är vid kontakten för disk-hållaren, jag hittade inga vettiga bilder på detta.

https://s.rhz.se/7OUXr
https://s.rhz.se/lQwTn

Visa signatur

Also found as @piteball@mastodon.rockhost.se
vSphere Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD

Permalänk
Skrivet av Pitr-:

Ja IBM-korten är väldigt prisvärda av någon anledning, men det är ju grund och botten samma LSI 9300-chipset som sitter på det, och när man dessutom programmerar in IT-firmware och stänger av alla hårdvaru-RAID-funktioner eftersom dessa är rätt dumt att använda sig utav när man kör Xpenology och SHR med BTRFS som ju är en smidig lösning vid byten till större hårddiskar då du kan få tillgång till det utökade diskutrymmet direkt redan efter första disk-bytet, i stället för som med RAID-5/6 där du inte får tillgång till mer diskutrymme förens alla diskarna är utbytta och RAID-volymen ombyggd.
Ja utan problem, docks så kommer du behöva ha en SFF-8643 till SFF-8087 adapter eftersom disk-hållaren har SFF-8087 kontakt och SAS3-kontrollern har SFF-8643 mikro-kontakter. Du hittar exempel på rak och vinklad SFF-8643 till SFF-8087 här nedan beroende på hur trångt det är vid kontakten för disk-hållaren, jag hittade inga vettiga bilder på detta.

https://s.rhz.se/7OUXr
https://s.rhz.se/lQwTn

Men OJ så bra info du ger mig, uppskattas massor verkligen!

Jag ska sätta mig ned och beställa ett kort då på momangen, samt kika i chassit om en vinklad eller rak kabel blir bäst och besätlla en sådan med.

Tusen tack!

Visa signatur

Surf:: FD Define R3 | W10 Pro | Corsair TX650W | MSI P67A-GD65 B3 | i5-2500K@4.2GHz | 16GB Corsair Vengeance 1600MHz | GTX1060 | Be Quiet Pure Rock |
Htpc:: FD Node 304 | W10 Pro | CM Silent Pro M2 420W | ASRock H77M-ITX | Intel i5 2400 | Asus GT 630 | 8GB Corsair Vengeance 1600MHz | Arctic Cooling Alpine 11+
Server:: HP Proliant N54L | ESXI | XPEnology | 1SSD + 6HDD | 6Gb RAM

Permalänk
Medlem

Jag kan dela med mig av min erfarenhet.
2015 bestämde jag mig för att bygga en filserver med stöd för 16 diskar. Jag köpte:

  • Supermicro X10SL7 (med inbyggd LSI-kontroller med 8 SATA-portar)

  • Ett extra LSI 9240-8i PCIe-kort med två kablar av typen sff-8087 to 4x sata, dvs stöd för ytterligare 8 diskar

  • 3 st bakplan Supermicro Cse-M35t för hotswap

  • Xeon E3-1265Lv3 2.50GHz

  • 32 GB ECC minne

  • Diskar har jag köpt efterhand som plats har behövts

Allt monterat i ett towerchassi. Xpenology installerat som en virtuell maskin under ESXi 5.5. Båda LSI-kontrollerna i Passthrough och IT mode.

Allt har rullat på felfritt sedan dess, förutom, när jag uppdaterade DSM från 5.2 till 6.1 (tror jag det var), vilket inkluderade även byte av bootloader. Jag var motvillig till att uppgradera pga en del foruminlägg med folk som fick problem, så jag väntade in det längsta, men till sist blev jag tvungen, pga PLEX tror jag, minns inte detaljerna exakt varför dock.
Jag minns att jag testade att uppgradera på en annan virtuell burk innan för att öva, men jag hade ju inga motsvarande kontrollerkort så övningen blev inte så skarp som jag ville. Men till slut blev jag som sagt tvungen att testa. Jag såg till att jag hade fräsch backup på data jag inte ville skiljas från, och tryckte sen på Knappen.

Kat-a-strof. Allt havererade, såklart. Min array var inte längre synlig, och orken fanns inte för att mecka med det och jag sköt upp det i nästan ett år innan jag gjorde något åt det. Diskarna valde jag låta snurra under denna tiden. Till slut fick jag igång det och jag kunde se min array. Till min förfäran var diskarrayen i krashat state och två diskar var även de markerade som krashade. Snabbt beställde jag nya diskar och började bygga om arrayen. Om ytterligare en disk krashade under denna diskintensiva procedur så var det ju garanterat finito med hela arrayen. Det tog nog 2-3 dygn för diskarna att mala igenom sin procedur och magiskt nog så var all min data intakt. Fantastiskt!

Efter detta missöde så har allt rullat på som det ska igen, men jag har inte vågat uppdatera mer.
Allt som allt så har jag varit extremt nöjd med Xpenology.

Men, hur gör ni andra för att uppgradera DSM?

Permalänk
Skrivet av Bosendorfer:

Jag kan dela med mig av min erfarenhet.
2015 bestämde jag mig för att bygga en filserver med stöd för 16 diskar. Jag köpte:

  • Supermicro X10SL7 (med inbyggd LSI-kontroller med 8 SATA-portar)

  • Ett extra LSI 9240-8i PCIe-kort med med 2 kablar av typen sff-8087 to 4x sata, dvs stöd för ytterligare 8 diskar

  • 3 st bakplan Supermicro Cse-M35t för hotswap

  • Xeon E3-1265Lv3 2.50GHz

  • 32 GB ECC minne

  • Diskar har jag köpt efterhand som plats har behövts

Allt monterat i ett towerchassi. Xpenology installerat som en virtuell maskin under ESXi 5.5. Båda LSI-kontrollerna i Passthrough och IT mode.

Allt har rullat på felfritt sedan dess, förutom när jag uppdaterade DSM från 5.2 till 6.1 (tror jag det var), vilket inkluderade även byte av bootloader. Jag var motvillig till att uppgradera pga en del foruminlägg med folk som fick problem, så jag väntade in det längsta, men till sist blev jag tvungen, pga PLEX tror jag, minns inte detaljerna exakt varför dock.
Jag minns att jag testade att uppgradera på en annan virtuell burk innan för att öva, men jag hade ju inga motsvarande kontrollerkort så övningen blev inte så skarp som jag ville. Men till slut blev jag som sagt tvungen att testa. Jag såg till att jag hade fräsch backup på data jag inte ville skiljas från, och tryckte sen på Knappen.

Kat-a-strof. Allt havererade, såklart. Min array var inte längre synlig, och orken fanns inte för att mecka med det och jag sköt upp det i nästan ett år innan jag gjorde något åt det. Diskarna valde jag låta snurra under denna tiden. Till slut fick jag igång det och jag kunde se min array. Till min förfäran var diskarrayen i krashat state och två diskar var även de markerade som krashade. Snabbt beställde jag nya diskar och började bygga om arrayen. Ger ytterligare en disk upp under denna diskintensiva procedur så var det ju garanterat finito med hela arrayen. Det tog nog 2-3 dygn för diskarna att mala igenom sin procedur och magiskt nog så var all min data intakt. Fantastiskt!

Efter detta missöde så har allt rullat på som det ska igen, men jag har inte vågat uppdatera mer.
Allt som allt så har jag varit extremt nöjd med Xpenology.

Men, hur gör ni andra för att uppgradera DSM?

Usch, läskigt!

Jag har två HP Microservrar som jag kört Xpenology under rätt många år på. Den ena går bara som backup av den andra.

Rent generellt tycker jag att Xpenology är riktigt stabilt men problem kan uppstå med jämna mellanrum varje gång en större uppdatering av DSM släppts och man då kan behöva byta loader. Alltid nojjigt som fan och därför kan man ibland dra sig lite för detta. Numera då flera loaders kan uppdatera sig själva så tycker jag det fungerar bättre.

Jag brukar alltid kolla här https://xpenology.com/forum/forum/78-dsm-updates-reporting/ och kika igenom tråden för respektive DSM-release för att läsa lite hur smidigt och problemfritt det verkar gå för folk med liknande hårdvara (enklare i mitt fall än i ditt då jag kör på native HP-microservrar än mer custom hårdvara med esxi). Men det är en start iaf, att spana in den tråden innan man uppdaterar DSM samt om loader behöver pillas med också, eller om det sköter sig själv.

Rent generellt brukar det väl vara att en stor DSM uppgradering från typ 6.0 till 7.0 kan ta lite tid och man får avvakta till folk börjar rapportera success. De mindre uppdateringarna brukar fungera att bara ladda ned rätt dsm-fil och så köra "manual update" inifrån settings i DSM. Det är min erfarenhet iaf. Men det är alltid lite med hjärtat i halsgropen man uppdaterar...

Visa signatur

Surf:: FD Define R3 | W10 Pro | Corsair TX650W | MSI P67A-GD65 B3 | i5-2500K@4.2GHz | 16GB Corsair Vengeance 1600MHz | GTX1060 | Be Quiet Pure Rock |
Htpc:: FD Node 304 | W10 Pro | CM Silent Pro M2 420W | ASRock H77M-ITX | Intel i5 2400 | Asus GT 630 | 8GB Corsair Vengeance 1600MHz | Arctic Cooling Alpine 11+
Server:: HP Proliant N54L | ESXI | XPEnology | 1SSD + 6HDD | 6Gb RAM

Permalänk
Hedersmedlem

Hade en liten idé om att jag skulle köra Xpenology på en HP EliteDesk 800 G2 Mini som jag har liggande. Jag har en annan Synology NAS (DS412+) som jag varit mycket nöjd med, men tyvärr är den begränsad när det kommer till CPU och minne. Så min tanke var att köra HP'n som en liten hemmaserver med Docker mm.
För de som inte känner till datorn i fråga så är det typ en NUC med möjlighet att montera en 2.5" SATA enhet och en NVME internt.

Min initiala tanke var att skippa USB-booten och boota Xpenology från en 120GB SATA SSD och ha lagring på en 1TB NVME, men det verkar inte flyga initialt. Det gick bra att få in RedPill på SATA-disken, och den startar, men jag kan inte installera DSM då den inte hittar några diskar.
Är det någon som vet om det finns en lösning på detta?

Visa signatur

Använd gilla för att markera nyttiga inlägg!

Permalänk
Medlem
Skrivet av giplet:

Hade en liten idé om att jag skulle köra Xpenology på en HP EliteDesk 800 G2 Mini som jag har liggande. Jag har en annan Synology NAS (DS412+) som jag varit mycket nöjd med, men tyvärr är den begränsad när det kommer till CPU och minne. Så min tanke var att köra HP'n som en liten hemmaserver med Docker mm.
För de som inte känner till datorn i fråga så är det typ en NUC med möjlighet att montera en 2.5" SATA enhet och en NVME internt.

Min initiala tanke var att skippa USB-booten och boota Xpenology från en 120GB SATA SSD och ha lagring på en 1TB NVME, men det verkar inte flyga initialt. Det gick bra att få in RedPill på SATA-disken, och den startar, men jag kan inte installera DSM då den inte hittar några diskar.
Är det någon som vet om det finns en lösning på detta?

Problemet med Xpenology med Redpill är att NVME-diskar per default inte går att använda för lagring, utan endast som cache. Så det krävs en del trixande för att gå runt det och tvinga DSM att använda NVME-disken som lagring, jag har inte själv gett mig in på det utan jag satte in vanliga SATA SSD-diskar i min Xpenology som då snappas upp och kan användas rakt av. Se till att ställa in SATA-kontrollern i vanligt AHCI-läge bara i BIOS så den inte står inställd på Intel Rapid Storage SoftRaid, annars kommer den garanterat inte att identifiera SATA-disken.

Visa signatur

Also found as @piteball@mastodon.rockhost.se
vSphere Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD

Permalänk
Hedersmedlem
Skrivet av Pitr-:

Problemet med Xpenology med Redpill är att NVME-diskar per default inte går att använda för lagring, utan endast som cache. Så det krävs en del trixande för att gå runt det och tvinga DSM att använda NVME-disken som lagring, jag har inte själv gett mig in på det utan jag satte in vanliga SATA SSD-diskar i min Xpenology som då snappas upp och kan användas rakt av. Se till att ställa in SATA-kontrollern i vanligt AHCI-läge bara i BIOS så den inte står inställd på Intel Rapid Storage SoftRaid, annars kommer den garanterat inte att identifiera SATA-disken.

Jag gillar inte riktigt att ha en USB-sticka för boot. I min värld ska man inte vara beroende av en USB-enhet för drift. Men samtidigt har jag ju bara plats till två diskar i denna NUC'en, en SATA och en NVME.

Har jag förstått det rätt att jag måste slutföra hela installationen av DSM för att kunna tvinga den att använda NVME för lagring? Dvs jag måste ändå boota från USB, installera DSM på SATA disken och sedan lägga till NVME-disken? Inte vad jag ville, men om det är det enda alternativet...

Får labba vidare.

Visa signatur

Använd gilla för att markera nyttiga inlägg!

Permalänk
Skrivet av giplet:

Jag gillar inte riktigt att ha en USB-sticka för boot. I min värld ska man inte vara beroende av en USB-enhet för drift. Men samtidigt har jag ju bara plats till två diskar i denna NUC'en, en SATA och en NVME.

Har jag förstått det rätt att jag måste slutföra hela installationen av DSM för att kunna tvinga den att använda NVME för lagring? Dvs jag måste ändå boota från USB, installera DSM på SATA disken och sedan lägga till NVME-disken? Inte vad jag ville, men om det är det enda alternativet...

Får labba vidare.

Vad är det du stör dig på så mycket med att låta en usb-sticka sitta i enheten? Jag har haft samma Kingston-usb i båda mina xpenology-servrar i över 10år och allt fungerar utmärkt. Det är ändå mindre usb-stickor 8-16Gb som inte skulle använda annars.

Dessutom kommer du med säkerhet behöva uppgradera din loader emellanåt och den ligger just på usb-stickan. Klart lättare att slita ut den och uppgradera loader via en annan dator, än att slita i oc ur en hårddisk för samma uppgift. Ett USB är klart det smidigaste alternativet och i stort sett alla xpenology-guider utgår från detta, vilket även ger en bra grund för att felsöka problem då du har samma setup som övriga istället för något hemmasnickrat.

Visa signatur

Surf:: FD Define R3 | W10 Pro | Corsair TX650W | MSI P67A-GD65 B3 | i5-2500K@4.2GHz | 16GB Corsair Vengeance 1600MHz | GTX1060 | Be Quiet Pure Rock |
Htpc:: FD Node 304 | W10 Pro | CM Silent Pro M2 420W | ASRock H77M-ITX | Intel i5 2400 | Asus GT 630 | 8GB Corsair Vengeance 1600MHz | Arctic Cooling Alpine 11+
Server:: HP Proliant N54L | ESXI | XPEnology | 1SSD + 6HDD | 6Gb RAM

Permalänk
Hedersmedlem
Skrivet av marmeladov:

Vad är det du stör dig på så mycket med att låta en usb-sticka sitta i enheten? Jag har haft samma Kingston-usb i båda mina xpenology-servrar i över 10år och allt fungerar utmärkt. Det är ändå mindre usb-stickor 8-16Gb som inte skulle använda annars.

Dessutom kommer du med säkerhet behöva uppgradera din loader emellanåt och den ligger just på usb-stickan. Klart lättare att slita ut den och uppgradera loader via en annan dator, än att slita i oc ur en hårddisk för samma uppgift. Ett USB är klart det smidigaste alternativet och i stort sett alla xpenology-guider utgår från detta, vilket även ger en bra grund för att felsöka problem då du har samma setup som övriga istället för något hemmasnickrat.

Jag ser inte ett USB-minne som en långsiktig lösning bara. Ett USB-minne är sällan tillverkat för att användas 24/7.
Men min tanke nu är att prova med ett USB-minne så får vi se. Har även kollat på UnRAID som kör samma lösning. Om denna datorn ska fortsätta användas som tänkt så får jag se om jag kan få till det på något annat sätt sen.

Visa signatur

Använd gilla för att markera nyttiga inlägg!

Permalänk
Skrivet av giplet:

Jag ser inte ett USB-minne som en långsiktig lösning bara. Ett USB-minne är sällan tillverkat för att användas 24/7.
Men min tanke nu är att prova med ett USB-minne så får vi se. Har även kollat på UnRAID som kör samma lösning. Om denna datorn ska fortsätta användas som tänkt så får jag se om jag kan få till det på något annat sätt sen.

Jag vet inte hur långsiktig lösning du tänkt dig. Jag köpte min ena microserver 2014 och den andra 4 år senare. Båda rullar med sina ursprungliga Kingston USB-minnen och står på 24/7 undantaget kortare avbrott. Bror har en microserver som snurrat sedan 2016, med samma minne. Valet är ju ditt såklart, men jag är rätt säker på att du löper större risk att få problem att dribbla med att kringgå USB, istället att efter några år, om du har otur, kanske behöva lägga ut 69kr på ett nytt usb-minne

Visa signatur

Surf:: FD Define R3 | W10 Pro | Corsair TX650W | MSI P67A-GD65 B3 | i5-2500K@4.2GHz | 16GB Corsair Vengeance 1600MHz | GTX1060 | Be Quiet Pure Rock |
Htpc:: FD Node 304 | W10 Pro | CM Silent Pro M2 420W | ASRock H77M-ITX | Intel i5 2400 | Asus GT 630 | 8GB Corsair Vengeance 1600MHz | Arctic Cooling Alpine 11+
Server:: HP Proliant N54L | ESXI | XPEnology | 1SSD + 6HDD | 6Gb RAM

Permalänk
Medlem
Skrivet av giplet:

Jag gillar inte riktigt att ha en USB-sticka för boot. I min värld ska man inte vara beroende av en USB-enhet för drift. Men samtidigt har jag ju bara plats till två diskar i denna NUC'en, en SATA och en NVME.

Har jag förstått det rätt att jag måste slutföra hela installationen av DSM för att kunna tvinga den att använda NVME för lagring? Dvs jag måste ändå boota från USB, installera DSM på SATA disken och sedan lägga till NVME-disken? Inte vad jag ville, men om det är det enda alternativet...

Får labba vidare.

Du ska kunna köra Synology HDD-patchen för att flagga upp NVME-disken som kompatibel och skapa upp en volym redan i installationsprogrammet, förutsatt att du kan få till seriell access till Xpenology. Inget jag har provat mig på själv så kan inte svara för huruvida det fungerar stabilt eller ej, nackdelen med det upplägget är förstås att risken är större att du råkar på patrull vid eventuell uppdatering av DSM.

https://www.reddit.com/r/synology/comments/13swjo6/installing...
https://github.com/007revad/Synology_HDD_db

Visa signatur

Also found as @piteball@mastodon.rockhost.se
vSphere Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD