Jag tror att det är en fråga man måste ställa sig, vad är det som är viktigt för er? Jag är ingen BSD / Unix lord, men valde att sätta upp den lösningen för att alternativen var såpass långt från det som jag ville leverera. Det går att erbjuda snapshotting, thin provisioning och komprimering med andra system med, men det är svårare att administrera och varje lager är nya möjligheter för fel i data. kombinationen av Zfs och iSCSI eller Infiniband gör att man kan bygga ett system som tar tillvara på data med blocklevel checksumming, är enhetligt att administrera (nästan bara zfs kommandon), stödjer snapshots / rollback, har god prestanda, har komprimering och möjlighet att meddela om fel i realtid.
iSCSI blir också en god barriär mellan olika system, eftersom klienterna får använda sig av sina nativa filsystem och serven får använda sina. Samba eller NFS blir alltid kompromisser.
Om du vill ha lite bättre data än vad jag kan erbjuda så rekommenderar jag denna sidan: http://www.zfsbuild.com/
De har satt upp följande maskin:
SuperMicro SC846BE16-R920 chassis – 24 bays, single expander, 6Gbit SAS capable. Very similar to the ZFSBuild 2010 server, with a little more power, and a faster SAS interconnect.
SuperMicro X9SRI-3F-B Motherboard – Single socket Xeon E5 compatible motherboard. This board supports 256GB of RAM (over 10x the RAM we could support in the old system) and significantly faster/more powerful CPU’s.
Intel Xeon E5 1620 – 3.6Ghz latest generation Intel Xeon CPU. More horsepower for better compression and faster workload processing. ZFSBuild 2010 was short on CPU, and we found it lacking in later NFS tests. We won’t make that mistake again.
20x Toshiba MK1001TRKB 1TB SAS 6Gbit HDD’s – 1TB SAS drives. The 1TB SATA drives that we used in the previous build were ok, but SAS drives give much better information about their health and performance, and for an enterprise deployment, are absolutely necessary. These drives are only $5 more per drive than what we paid for the drives in ZFSBuild 2010. Obviously if you’d like to save more money, SATA drives are an option, but we strongly recommend using SAS drives when ever possible.
LSI 9211-8i SAS controller – Moving the SAS duties to a Nexenta HSL certified SAS controller. Newer chipset, better performance, and replaceability in case of failure.
Intel SSD’s all around – We went with a mix of 2x Intel 313 (ZIL), 2x 520 (L2ARC) and 2x 330 (boot – internal cage) SSD’s for this build. We have less ZIL space than the previous build (20GB vs 32GB) but rough math says that we shouldn’t ever need more than 10-12GB of ZIL. We will have more L2ARC (480GB vs 320GB) and the boot drives are roughly the same.
64GB RAM – Generic Kingston ValueRAM. The original ZFSBuild was based on 12GB of memory, which 2 years ago seemed like a lot of RAM for a storage server. Today we’re going with 64 GB right off the bat using 8GB DIMM’s. The motherboard has the capacity to go to 256GB with 32GB DIMM’s. With 64GB of RAM, we’re going to be able to cache a _lot_ of data.
Med Infiniband så klarar denna av att leverera 1854 MB/s = 14832 Mbit/s till en klient. Det finns mer benchmarks på sidan, så kolla genom där. På Serverfault finns även men massa trådar om liknande massiva byggen.
Kan meddela att min hemma server med en gammal sliten E4500 och 4 gig ram inte har några problem med saturera en 1GB länk med 6 diskar i raid-Z2. Men det är endast med en användare, börjar man läsa på fler ställen samtidigt så sjunker det mer än 1GB / antal strömmar. Antagligen för att readahead inte funkar med så lite ram.