Xcp-ng, tankar och funderingar om lagring och HA? Eller bara en tråd där vi kan diskutera våra erfarenheter om Xen.

Permalänk

Xcp-ng, tankar och funderingar om lagring och HA? Eller bara en tråd där vi kan diskutera våra erfarenheter om Xen.

Finns det fler som leker med Xcp-ng?
Jag har tidigare lekt lite med proxmox, och blev helt såld på hela ideen med Virtuella maskiner.. Men kände ändå att Pve hade lite att önska, Det kändes mycket som en helt vanlig Linux dist där man lagt på ett web-gui (vilket det ju förvisso också är)
Xcp-ng känns betydligt mer polerat hypervisor i det fallet. Om än betydligt mer komplicerat och svårjobbat.
Med pve gjorde man ju typ allt via web gui, medans Xcp sitter man lika mycket med ssh och cli.

Nåväl...
Har satt upp ett litet cluster om 3 noder med Xcp-ng, och börjat labba lite.. Har ännu inte bestämt all hårdvara eller configuration på det än.

Ungefär så här ser varje nod ut iaf nu medans jag labbar med det.
Local vdi-sr 150gb nvme
Local iso-sr 120gb ssd
Xostor shared storage 1tb
ceph diskar 2st 1tb hdd
1gbit nätverk
64gb ram
amd 5600g
asus prime b450

--ceph--
I nuläget kör jag en ceph host från varje nvme disk med hdd i passthrough. Dvs inte HA via xostor.
Det fungerar okej, om än lite långsamt. replication 3 kanske inte var smartaste valet? ca 30-40Mbyte/s är väl inte det roligaste..
Borde jag sätta upp en replication 2 som ett andra test? och vad kan jag förvänta mig av detta?

Är det ens värt att köra ceph för hemmabruk, med så få hostar som 3, och om inte, Finns det bättre alternativ?

----Lagring--
Att en modern hemmaserver behöver seriösare o snabbare lagring än mina tråkiga hdd från 2008 (enterprise köpta från ggsp.se) begriper tillomed jag!

Men vad kan va rimligt, prismässigt/prestandamässigt, att köpa?
Tanken efter att ha googlat runt allt för länge, så tänker jag mig wd red sa500, ex 3x500gb till Xostor (dvs 9st 4,5tb totalt replication 2 betyder ca 2tb för vm) Prismässigt okej, men frågan är om det finns billigare som ändå skulle funka?

Efter att ha testat några billiga Pny i zfs mirror, men även raidz1 så är jag långt ifrån impad, varken av Pny eller för den delen av Zfs på ssd.. Xostor "borde" va snällare mot ssd tänker jag?

För ceph är jag osäker? köra ssd där med vore ju det allra roligaste, men fy farao va dyrt per Gbyte!!!
3-4st mekaniska per host? (om jag ens ska köra ceph sedan?)

--Övrigt--
Har även börjat fundera på om man skulle köra Opnsense i en vm? HA naturligtvis.
Nån som testat om det fungerar?
Tanken var att lägga till ett nätverkskort i varje maskin, koppla mot en dum switch och mot wan. Sen antar jag att man bara skapar ett "shared network" över hela clustret?

Tror det var allt för denna gången?
Diskussioner om Xcp-ng, oavsett dom är OT är välkomna.

Må väl //

Permalänk
Medlem

Ceph är inte byggd för att köras i liten skala. Den är inte heller byggd för att användas med konsumenthårddiskar. Speciellt konsument SSD är i princip värdelösa med den workload som ceph kräver, vilket är synkroniserade writes som inte får cachas på vägen, då cachen påverkas driftsäkerheten. Eftersom alla snabbhet i konsumentSSD ofta sitter i cache blir resultatet jättelåg prestanda med ceph.

Och du behöver även många diskar för att få upp parallela skrivningar. Ju fler diskar, desto fler samtidiga skrivningar då minsken att samma disk brhöver jobba i bpda skrivningarna är lägre.

TL;DR: Ceph är inte tänkt att fungera för hemmabruk.

Jag har aldrig testat xcp-ng, har dock kört proxmox i många år och varit otroligt nöjd med det.

Visa signatur

CCNP R/S + SPCOR, NSE7 (emeritus)

Permalänk
Medlem
Skrivet av Datorbiten:

Har även börjat fundera på om man skulle köra Opnsense i en vm? HA naturligtvis.
Nån som testat om det fungerar?
Tanken var att lägga till ett nätverkskort i varje maskin, koppla mot en dum switch och mot wan. Sen antar jag att man bara skapar ett "shared network" över hela clustret?

Det låter som något som absolut bör gå att göra. Om det är en bra idé kan bero på, och folk kommer definitivt ha olika tankar om det...

Något jag skulle påpeka rent generellt angående att virtualisera infrastruktur på det där viset är väl egentligen bara att man får tänka efter så man inte (utan att märka det) målar in sig i ett hörn med en omöjlig dependency-kedja som inte märks när allt är uppe och snurrar men som sedan tydliggörs efter något avbrott.
Typ att alla hypervisor-hosts beror av en viss VM eller liknande, så att man om *allt* varit nedstängt samtidigt (strömavbrott, vad vet jag) sedan inte kan starta igen.

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || MSI Ventus 3x 5080 || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem

Tjena, vad kul att höra att det är fler som labbar med XCP-ng än mig.

Jag har under en längre tid migrerat från VMWare över till Vates, och tog precis steget och migrerade bort den sista VMWare hypervisorn så nu kör jag två Dell PowerEdge-noder med XCP-ng 8.3.

Lagringsmässigt så kör jag med lokal SSD SR, vilket ju inte är helt optimalt om man vill få till smidig failover eller flytt av VM:s då jag nu måste flytta hela VM:ar mellan dessa två SR:s. Men jag har faktiskt tänkt att komplettera upp med min egna hobby-klon av Dell PowerStore i form av en separat server-nod med NVMe-lagring som exponeras via iSCSI in mot XCP-ng noderna. Jag labbar även med LLM:s och har Tesla-kort i ena servern, men eftersom det inte går att få till vGPU riktigt stabilt ännu så måste jag knyta in grafikkkortet till den VM där jag vill använda det, vilket kräver omstart av hosten... drygt som sagt då jag måste manuellt migrera alla VM:s alternativt stänga av dem. Nu håller jag inte på och flippar grafikkort fram och tillbaks så mycket, men ändå.

Vad gäller ceph som vSAN-lösning så ställer jag mig lite tveksam, har testat lite med det men som sagt så är det inte optimalt för projekt i mindre skala. Då är det nog bättre att köra en SAN-lösning med iSCSI eller fiberchannel-anslutning mot HV-noderna.

Visa signatur

Also found as @piteball@mastodon.rockhost.se
vSphere Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD

Permalänk
Skrivet av vipers:

Ceph är inte byggd för att köras i liten skala. Den är inte heller byggd för att användas med konsumenthårddiskar. Speciellt konsument SSD är i princip värdelösa med den workload som ceph kräver, vilket är synkroniserade writes som inte får cachas på vägen, då cachen påverkas driftsäkerheten. Eftersom alla snabbhet i konsumentSSD ofta sitter i cache blir resultatet jättelåg prestanda med ceph.

Jag har läst typ detsamma, samtidigt som vissa personer säger att det funkar jättebra även i mindre skala.. Dock talas det inte om i "hur" liten skala det funkar för just dom..

Skrivet av vipers:

Och du behöver även många diskar för att få upp parallela skrivningar. Ju fler diskar, desto fler samtidiga skrivningar då minsken att samma disk behöver jobba i bpda skrivningarna är lägre.

Hmm, meningen var ju att jag skulle minska antalet diskar i hemmet! inte öka dom.. får se hur man gör då.
Det bästa är ju om jag kunde få loss ett tillräckligt stort antal diskar, bygga färdigt nätverket, och sedan testa på nytt?

Jag håller på o planera 10gbit i huset, men jag är inte riktigt där än.. som jag förstår det så gillar ceph snabba nätverk?
Förövrigt tycker jag det låter som ideen om ssd och ceph är lika kasst som Zfs?

Skrivet av vipers:

TL;DR: Ceph är inte tänkt att fungera för hemmabruk.

Mycket möjligt.. Men då det är ett av få alternativ för klustad lagring som inte kostar pengar så har både jag och många privatpersoner inte så mycket val i frågan.. (Glusterfs verkar va halvdött, distar som petasan är ju bara ceph med snyggt gui bla)

Skrivet av evil penguin:

Det låter som något som absolut bör gå att göra. Om det är en bra idé kan bero på, och folk kommer definitivt ha olika tankar om det...

Tja, antar att dom har chansen o tycka till i denna tråden då
Jag föredrar nog själv fysisk hårdvara, men i valet o kvalet om jag nu ska virtualisera så känns det som en bättre ide o köra HA än inte alls.
Körde opnsense i vm på proxmox tidigare. fubkade skitbra, men alltid det där strulet var gång man skulle göra nåt med burken så var man utan internet, vilket var skitstörigt!

Skrivet av evil penguin:

Något jag skulle påpeka rent generellt angående att virtualisera infrastruktur på det där viset är väl egentligen bara att man får tänka efter så man inte (utan att märka det) målar in sig i ett hörn med en omöjlig dependency-kedja som inte märks när allt är uppe och snurrar men som sedan tydliggörs efter något avbrott.
Typ att alla hypervisor-hosts beror av en viss VM eller liknande, så att man om *allt* varit nedstängt samtidigt (strömavbrott, vad vet jag) sedan inte kan starta igen.

Kan absolut hålla med där, och försöker undvika nästlade situtationer.
Just det där med att virtualisera routern handlar i detta fallet om att jag saknar vettig hårdvara för att bygga en fysisk burk.
Nuvarande sff socket775 känns som den sjunger på sista versen.. dessutom drar den mycket ström i förhållande till modernare plattformar.
Och så råkade jag tappa den i golvet när jag möblerade om i racket också, så nu är den ganska vind o krokig också

Permalänk
Medlem
Skrivet av evil penguin:

Det låter som något som absolut bör gå att göra. Om det är en bra idé kan bero på, och folk kommer definitivt ha olika tankar om det...

Något jag skulle påpeka rent generellt angående att virtualisera infrastruktur på det där viset är väl egentligen bara att man får tänka efter så man inte (utan att märka det) målar in sig i ett hörn med en omöjlig dependency-kedja som inte märks när allt är uppe och snurrar men som sedan tydliggörs efter något avbrott.
Typ att alla hypervisor-hosts beror av en viss VM eller liknande, så att man om *allt* varit nedstängt samtidigt (strömavbrott, vad vet jag) sedan inte kan starta igen.

Nej det gäller ju att man har ställt in att eventuella domänkontrollanter/DNS-servrar auto-startar, och kanske att man sätter affinity host till olika noder för primär/sekundär domänkontrollant om man har detta (I do). Det är väl inte så mycket hypervisor-hårdvaran som de virtuella VM:arna som kräver så mycket egentligen, de kommer starta igång och fungera direkt utan beroende av VM:arna för annat än eventuellt DNS-uppslag och NTP-tidssynkronisering om man inte lägger detta på nätverksinfrastrukturen för att helt frikoppla dom0 från beroende av VM:arna som körs ovanpå.

Jag har ju jobbat en hel del med VMWare och vSphere vCenter, och visst är det nice att kunna sätta upp regler där som styr upp vart VM:s får hamna så man exempelvis håller domänkontrollanterna på olika noder för att undvika totalt funktionsstopp när en nod går ner. Närmsta du kommer detta i XenServer-världen är väl att sätta affinity host, eller om du sätter upp HA på en VM förutsatt att man har någon form av delad lagring mellan noderna typ SAN/vSAN.

Visa signatur

Also found as @piteball@mastodon.rockhost.se
vSphere Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD

Permalänk
Skrivet av Pitr-:

Tjena, vad kul att höra att det är fler som labbar med XCP-ng än mig.

Vad gäller ceph som vSAN-lösning så ställer jag mig lite tveksam, har testat lite med det men som sagt så är det inte optimalt för projekt i mindre skala. Då är det nog bättre att köra en SAN-lösning med iSCSI eller fiberchannel-anslutning mot HV-noderna.

Har bara kört xcp-ng i knappt två veckor än, xostor är smidigt om man har alla förutsättningar för det (minst 3 burkar)
kör förövrigt xoa på fysisk hårdvara. installerade debian och körde scriptet från ronivay/github

Jag övervägde faktiskt att köra extern lagring, men kändes sådär när man äntligen köpt rymliga 4u lådor..

Vad är att anse som "mindre skala? mina nuvarande 6diskar på 3 noder? vilken storlek "borde" man köra för att det skall anses rimligt?
Lyckas jag bara migrera nuvarande nasen och tillhörande backup så får jag loss 12st 4tb diskar.. alternativt så köper jag nya diskar då dessa är lagom gamla (60k timmar)

Än så länge är det bara labb, i väntan på nya pengar för att shoppa speedparts.

Permalänk
Medlem
Skrivet av Datorbiten:

Har bara kört xcp-ng i knappt två veckor än, xostor är smidigt om man har alla förutsättningar för det (minst 3 burkar)
kör förövrigt xoa på fysisk hårdvara. installerade debian och körde scriptet från ronivay/github

Jag övervägde faktiskt att köra extern lagring, men kändes sådär när man äntligen köpt rymliga 4u lådor..

Vad är att anse som "mindre skala? mina nuvarande 6diskar på 3 noder? vilken storlek "borde" man köra för att det skall anses rimligt?
Lyckas jag bara migrera nuvarande nasen och tillhörande backup så får jag loss 12st 4tb diskar.. alternativt så köper jag nya diskar då dessa är lagom gamla (60k timmar)

Än så länge är det bara labb, i väntan på nya pengar för att shoppa speedparts.

Om inte annat så kan jag tycka att det är mer strul än det är värt. Det är så enkelt att sätta upp en ZFS eller Btrfs-lagring på en NAS och exponera via iSCSI mot noderna och erbjuder enkel expansion. Men visst blir det en svag länk när man har en lagring som är koncentrerad till en enhet utan redundant nod i sig. Hade jag haft obegränsat med pengar hade jag nog köpt mig en Dell PowerStore 500T för hemmalabbet.

Jag har redan gjort klivet upp till 10Gbe för lagringskommunikation, men workload körs fortfarande på 1Gbe eftersom brandväggen saknar 10Gbe-kapacitet (FortiGate 40F).

Du bör ju ha en NAS för backup också, vilket förstås inte bör köras på samma plåt som eventuell SAN-lagring. Så i det fallet kanske xostore som vSAN-lösning är en vettig väg att gå och sen bara ha en NAS för backup-hanteringen. Jag har faktiskt inte kollat så mycket just på xostore som lösning eftersom jag bara har två noder, hur fungerar det t.ex. med dedup i ett sådant scenario, så inte liknande maskiner tar upp onödigt med diskutrymme i brist på fungerande dedup.

Visa signatur

Also found as @piteball@mastodon.rockhost.se
vSphere Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD

Permalänk
Skrivet av Pitr-:

Om inte annat så kan jag tycka att det är mer strul än det är värt. Det är så enkelt att sätta upp en ZFS eller Btrfs-lagring på en NAS och exponera via iSCSI mot noderna och erbjuder enkel expansion. Men visst blir det en svag länk när man har en lagring som är koncentrerad till en enhet utan redundant nod i sig.

Det är därför jag labbar lite i detta nuet, för att se hur krångligt allt är är det för krångligt och omständigt så blir det nog hellre en fristående nas! Men vi är inte där än..

Skrivet av Pitr-:

Du bör ju ha en NAS för backup också, vilket förstås inte bör köras på samma plåt som eventuell SAN-lagring. Så i det fallet kanske xostore som vSAN-lösning är en vettig väg att gå och sen bara ha en NAS för backup-hanteringen. Jag har faktiskt inte kollat så mycket just på xostore som lösning eftersom jag bara har två noder, hur fungerar det t.ex. med dedup i ett sådant scenario, så inte liknande maskiner tar upp onödigt med diskutrymme i brist på fungerande dedup.

Backup är än så länge bara på planeringstadiet.. Men jo, det kommer det också.

Har absolut noll koll på dedup och sånt där.. Jag är järnarbetare till yrket, hela konceptet med cluster och modern lagring, såsom lvm o sånt där, är rena star trek Men man får väl försöka lära sig så småningom..

Jag har förresten testat redan nu att sätta upp en backuphantering från xcp-ng till ceph utdelningen.. Gillar det faktum att man kan ta backup även på annat än bara vm.
Har dock inte satt mig in i "vad" den faktiskt tar backup av, men XO tex får mig o tro att den tog backup av orchestra? (som jag ju sade att jag kör på annan hårdvara än övriga clustret)

pool låter som den tar backup av xcp-ng configurationen, det är ju också tacksamt..

Permalänk
Medlem
Skrivet av Datorbiten:

Det är därför jag labbar lite i detta nuet, för att se hur krångligt allt är är det för krångligt och omständigt så blir det nog hellre en fristående nas! Men vi är inte där än..

Backup är än så länge bara på planeringstadiet.. Men jo, det kommer det också.

Har absolut noll koll på dedup och sånt där.. Jag är järnarbetare till yrket, hela konceptet med cluster och modern lagring, såsom lvm o sånt där, är rena star trek Men man får väl försöka lära sig så småningom..

En stor eloge som ger dig in i detta område, från järnarbetare till blivande IT-arkitekt.

Citat:

Jag har förresten testat redan nu att sätta upp en backuphantering från xcp-ng till ceph utdelningen.. Gillar det faktum att man kan ta backup även på annat än bara vm.
Har dock inte satt mig in i "vad" den faktiskt tar backup av, men XO tex får mig o tro att den tog backup av orchestra? (som jag ju sade att jag kör på annan hårdvara än övriga clustret)

pool låter som den tar backup av xcp-ng configurationen, det är ju också tacksamt..

Ja det finns gott om backup-möjligheter i Xen Orchestra, vilket jag ser som ett stort plus. Förvisso så körde jag Synology Active Backup for Business för att ta backup på ESXi-noderna tidigare vilket också var smidigt på alla sätt och vis. Men det faktum att det enda du behöver är en filserver med CIFS/Samba eller NFS-filutdelning på för att kunna ta backup på hela ditt kluster är ju klockrent, sen säger jag inte att det helt ersätter Veeam Backup eller konkurerande backup-lösningar, speciellt när det kommer till att återställa enstaka filer eller mappar vilket även om det finns i Xen Orchstra så är det helt enkelt inte lika smidigt att återställa på filnivå.

Den backup du prata är om är meta-datan för Xen Orchestra kontrollplanet, och det är bra att ta en sådan. Just Xen Orchestra ska man se som lite slit och släng, och är lätt att ersätta med en ny instans. I och med att du har slagit samman flera XCP-ng noder till en pool så behåller pool master den data om klustret, men information om backup-jobb, SR för backup och fillagring (typ ISO-filer) osv lagras i XO så om du behöver installera upp en ny så återställer du bara metadata-backup så får du en fullt fungerande Xen Orchestra med alla funktioner som den tidigare. Samma funktion finns förstås även i vCenter för de som jobbar i VMWare-miljön, så det är inte så att det är unikt för just Xen Orchestra/XCP-ng.

Visa signatur

Also found as @piteball@mastodon.rockhost.se
vSphere Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD

Permalänk

Ursäkta sen återkoppling! Ni vet, jobb o annat välbehövligt som kommer i vägen..

Skrivet av Pitr-:

En stor eloge som ger dig in i detta område, från järnarbetare till blivande IT-arkitekt.

Tackar, men nån framtid inom it branschen hoppas jag slippa! Är rätt nöjd med att skava i järn om dagarna (Kör en större flerop, alltså cnc, så jag får min dos av yrkesrelaterade datorbekymmer den vägen. det räcker långt.)

Skrivet av Pitr-:

Just Xen Orchestra ska man se som lite slit och släng, och är lätt att ersätta med en ny instans. Samma funktion finns förstås även i vCenter för de som jobbar i VMWare-miljön, så det är inte så att det är unikt för just Xen Orchestra/XCP-ng.

Nä jag har förstått att den har en hel del funktioner och tänk från mer etablerade alternativ på marknaden. Just det där att man ser XOA som slit o släng är ett tänk jag gillar.
Om ett os går sönder ska det va lätt o byta ut.

För att återkoppla till tidigare! Alla installationer har rullat på som normalt hitills. Inga konstigheter med Xcp, Ceph har rullat på fint (minimal användning förvisso, men det har inte gått sönder iaf)
Hade en fedora server som mellanlandning Nfs från Ceph till några Smb utdelningar, mest som lek, men det har rullat på veckan som varit iaf.

I detta nuet har jag dock stängt av hela racket (förutom router och switch) för att installera några extra nätverkskort jag råkade ha liggandes. Tanken var att börja labba med en opnsense som vm nu till helgen
Och nästa vecka kommer det leksaker från computersaelg så då ska vi bygga om burkarna igen!

Permalänk

Bara känner att jag måste skriva av mig lite.

Nej det blev inte nån opnsense/pfsense som vm (trots att jag faktiskt installerade nätverkskorten) Faktum är att maskinerna aldrig ens startades upp efter detta

Istället så blev det en ny maskin, Asrock j4125m 8gb ram 120gb ssd mellanox connectx-3, i ett 1u chassi som fick husera opnsense maskinen. i samband med detta så fick jag tummen ur och började labba med lite vlan..
Och här började vissa problem visa sig! Efter att ha flyttat nätverkskablar fram o tillbaka i switchen, så fick jag inte mer än 100mbit länk till datorn.
Efter felsökning så misstänker jag att portarna i den här gamla Hp 2810 helt enkelt håller på o ge sig.

Tja. Jag hade ju redan börjat fundera på en uppgradering iomed att jag så gärna vill labba med cluster osv, så om bara nån timme ska jag ner o hämta upp 2st nya mikrotik switchar som ersättning för dom gamla skitarna jag haft innan

MikroTik CRS317-1G-16S+RM och
MikroTik CRS328-24P-4S+RM

CRS317 (16portars sfp+) är tänkt att sitta i serverracket i källaren med 2st 10gbit uplänk till den andra switchen i nätverkskåpet på övervåningen..

Jag har beställt 3st 2portars mellanox från amazon att använda till Xcp-ng maskinerna (Kommer troligtvis imorgon)
sfp+ moduler har kommit från amazon. Och jag fick tummen ur att köpa 2st nya 16tb diskar, seagate exos, så jag kan få upp en vettig backupmaskin i garaget 25meter bort (drog in fiber dit också)

Så det enda som saknas nu för att kunna återgå till det huvudsakliga projektet med Xen är alldeles för mycket ssd lagring.... Det får nog dock bli efter julhelgen när det kommit in lite nya kulor på kontot, det är inte billigt med flashmedia.

Må väl //D