NAS rakentelut

  • Keskustelun aloittaja Keskustelun aloittaja dun
  • Aloitettu Aloitettu
Onko noiden kiintolevypaikkojen takana joku hot-swap -ratkaisu vai miten homma hoituu? Kuvassa vasemmanpuoleisemmassa levyssä näkyisi sellaiseen viittaava.
Ton jonsbon linkin avaamalla näkee aika hyvin sisuskalut.
1689440872015.jpeg

1689440885827.jpeg
 
Eikö ds380 aja riittävän hyvin asiaansa?

Siitähän löytyy 8 hotswap paikkaa 3.5" kiintolevyille ja 4 kpl 2,5" ssd:täkin saa kotelon sisään. Ottaa arctikin tuulettimet tilalle ja jäähtyy kiintolevyt paremmin.
Ajaa joo, mutta tarkoitin kommentin just tohon backplaneen liittyen. CS381:ssä data liikkuu levyihin kahden SFF-8643 portin kautta kun DS380 ja N3 tarvii 8 SATA-kaapelia samaan.
 
Tuossa summailin jos muuttas suunnitelmaa ja vaihtaisi pyörivät -> esim sn580 wd:hen. Millaisiin nas koteloihin sais laitettu 6 nvme levyjä + pari 2.5" ssd levyä.

Tai jos ei löydy 6:lle nvme:lle kohtuu rahalla niin sit 8 x 2.5" ssd levyjä. Erillinen sas/sata ohjain löytyy noille niin se ei ole ongelma.
 
Mikäs näistä LSIn SAS korteista kannatttaa tänä päivänä valita (kasvatus varaus n. 8 sata-levylle)?
Ebaysta löytyy pilvin pimein noita, mallinumerot ei sano paljoakaan ja hinnat melko samoja.
 
Mikäs näistä LSIn SAS korteista kannatttaa tänä päivänä valita (kasvatus varaus n. 8 sata-levylle)?
Ebaysta löytyy pilvin pimein noita, mallinumerot ei sano paljoakaan ja hinnat melko samoja.
Max 16/24 levyä
Best: SAS 3200 generation - LSI SAS 9305-16i / 9305-24i tässä on SFF-8643 Connector

max 8 levyä:

Good: SAS 3000 generation - LSI SAS 9300-8i tässäkin on SFF-8643 Connector

Alla olevissa on SFF-8087 Connector

Good: SAS 2308 generation - LSI SAS 9207-8i
Good (older): SAS 2008 generation - LSI SAS 9211-8i

Jos ssd:tä suunnitelet, niin ota 9300-8i. Ehkä jopa 94xx sarjaa voi tällöin harkita.


näiden lisäksi voit ostaa näiden variantteja ja flashata niihin oikea frimware. Alla olevan linkin takana noi variantit listattuna

 
Jonsbon tulevaan N3 koteloon tarkoitus nassia kasailla. Onkohan tämä ihan ok laajennuskortti? AXAGON PCES-SA6, PCIe-lisäkortti, 6 x sisäinen SATA 6G -portti - 69,00€

8 HDD:tä tulee koteloon joten kaksi niistä menee suoraan emolle ja 6kpl tuohon. Ei liene haittaa vaikka kaikki ei ole samassa kortissa?

Käyttöjärjestelmänä Unraid
Yleisesti ottaen nuo SATA-kortit ovat roskaa, helpommalla pääset kun hommaat käytetyn SAS-controllerin.

Unraidista ei ole kokemusta, mutta tässä lainaus TrueNAS quick hardware quidesta.
The only reliable way of adding SATA or SAS ports to a system is with LSI SAS HBAs (and SAS
expanders, if at least one controller is present).
Any card using the SAS2008, SAS2308 or SAS3008 controller will work, but some may need to
be crossflashed to IT mode to operate as HBAs and not entry-level RAID cards. This includes
rebadged cards from other vendors – although Dell cards are somewhat trickier to crossflash.
 
No jaa, itsellä ollut käytössä Unraidissa Realtekin piirillä oleva PCIe 1x -> 2X SATA kortti useamman vuoden 24/7 käytössä ilman ongelmia.

6x voi olla eri maailma varsinkin jos pelkkää SSD laittaa kiinni, itse halusin pitää koko NAS reilusti alle 30W ja moni SAS-kortti vei itse jo pelkästään puolet tuosta, jotkut jopa yli 30W itsenään.
 
No jaa, itsellä ollut käytössä Unraidissa Realtekin piirillä oleva PCIe 1x -> 2X SATA kortti useamman vuoden 24/7 käytössä ilman ongelmia.

6x voi olla eri maailma varsinkin jos pelkkää SSD laittaa kiinni, itse halusin pitää koko NAS reilusti alle 30W ja moni SAS-kortti vei itse jo pelkästään puolet tuosta, jotkut jopa yli 30W itsenään.
Ihan hyvä pointti tuo virrankulutus. Tuo voi olla yksi syys esim tuohon minun kompon virrankulutukseen..
 
Kyllähän nuo SATA-kortit yleensä toimivatkin ja hyvin saattavatkin toimia ilman ongelmia. Monesti ajurit ym on toteutettu aika puolivillaisesti.
 
Kannattaa tsekata et kortti tukee myös ASPM:ää jolloin Intelin romut menevät kunnolla syvään uneen. Sama pätee sitten verkkokortteihin.
 
LSI:n HBA korteista tuli mieleen, että kannattaa ottaa peruskoteloissa huomioon se, että nämä kortit tarvitsevat heatsinkille jonkinlaista ilmavirtaa, eikä siihen välttämättä peruskoteloiden tuuletus riitä.

Näin kävi esim. oman Node 304:n kanssa, jossa ei tule suoraa ilmavirtaa kyljestä. Täten LSI SAS 9207-8i:n jäähdytinsiili oli IR mittarilla mitattuna siellä 80 asteen paikkeilla. Ratkaisuna tähän on Noctua A4x10 FLX + 2 x M3 12mm ruuvit, joilla tuon saa "ruuvattua" suoraan kiinni jäähdytyssiiliin. Koteloissa, joissa tulee suoraan ilmavirtaa kortille esimerkiksi kyljen tuulettimesta, ei tälle todennäköisesti ole tarvetta.

20230708_231105_sm.jpg
 
Viimeksi muokattu:
Mulla kanssa alista tilattu valmiiksi IT-flashatty jokunimetön SAS-kortti kuumeni niin paljon että kaatui testivaiheessa. Onneksi testailin ennen oikean datan siirtoa. Laitoin oikeaa tahnaa sen tarrapaskan tilalle, isomman jäähyn ja tuulettimen, koska normaali atx-kotelo eikä mikään serverituulitunneli.
 
LSI:n HBA korteista tuli mieleen, että kannattaa ottaa peruskoteloissa huomioon se, että nämä kortit tarvitsevat heatsinkille jonkinlaista ilmavirtaa, eikä siihen välttämättä peruskoteloiden tuuletus riitä.

Näin kävi esim. oman Node 304:n kanssa, jossa ei tule suoraa ilmavirtaa kyljestä. Täten LSI SAS 9207-8i:n jäähdytinsiili oli IR mittarilla mitattuna siellä 80 asteen paikkeilla. Ratkaisuna tähän on Noctua A4x10 FLX + 2 x M3 12mm ruuvit, joilla tuon saa "ruuvattua" suoraan kiinni jäähdytyssiiliin. Koteloissa, joissa tulee suoraan ilmavirtaa kortille esimerkiksi kyljen tuulettimesta, ei tälle todennäköisesti ole tarvetta.

20230708_231105_sm.jpg

Kokeilin juuri sormella oman uudelleenfläshätyn IBM M1015 -ohjaimen siiliä, eikä ollut idlenä polttavan kuuma mitä 80°C pitäisi olla. Mutta katsotaan mitä on tunnin päästä, kun laitoin scrubin päälle...
 
Kokeilin juuri sormella oman uudelleenfläshätyn IBM M1015 -ohjaimen siiliä, eikä ollut idlenä polttavan kuuma mitä 80°C pitäisi olla. Mutta katsotaan mitä on tunnin päästä, kun laitoin scrubin päälle...

Oma jokin vastaava kortti kävi kyllä myös lämpimänä. Huomasin ihan kun alkuun kasasin ja muutaman kerran revin koko tornin ulos kotelosta. Kädellä koskien oli selvästi lämmin tuo kortti. Tarkoitus oli hommata joku röpellin vähän avustamaan ilmavirran kanssa, mutta enpähän ole saanut aikaiseksi. Puoli vuottako tuo nyt on tuolla hyryyttänyt ilman ongelmia. Tuommosta kuvan viritystä ei valitettavasti mahdu omaan koteloon niin tarvitsisi hieman erilaisen röpellin. Käsikopelolla kokeilluista lämmöistä päätellen ei varmasti olisi haitaksi jos ylimääräistä tuuletusta tuolle järjestäisi
 
Oma jokin vastaava kortti kävi kyllä myös lämpimänä. Huomasin ihan kun alkuun kasasin ja muutaman kerran revin koko tornin ulos kotelosta. Kädellä koskien oli selvästi lämmin tuo kortti. Tarkoitus oli hommata joku röpellin vähän avustamaan ilmavirran kanssa, mutta enpähän ole saanut aikaiseksi. Puoli vuottako tuo nyt on tuolla hyryyttänyt ilman ongelmia. Tuommosta kuvan viritystä ei valitettavasti mahdu omaan koteloon niin tarvitsisi hieman erilaisen röpellin. Käsikopelolla kokeilluista lämmöistä päätellen ei varmasti olisi haitaksi jos ylimääräistä tuuletusta tuolle järjestäisi

Kokeilin siiliä sormella myös scrubin aikana, ja pystyi sitä pitämään siinä muutaman sekunnin. Eli tuskin on sitten liian kuuma? :hmm:
 
Onko muuten porukka alkanut katsella ssd-only ja etenkin M.2 ssd-nassien rakentelua sillä silmällä? 4TB ssd:tä saa parhaimmillaan alle 200€ hinnoin, joten 4-12TB nassit ovat ihan kuluttajahinnoissa - pitäisi vaan saada sopivia emoja / koteloita.

Sata ssd:t ovat melkeimpä kalliimpia + m.2:set mahdollistaisivat pienemmän kotelon jos vaan löytyisi hommaan erikoistuneita emoja / barebones paketteja.
 
Onko muuten porukka alkanut katsella ssd-only ja etenkin M.2 ssd-nassien rakentelua sillä silmällä? 4TB ssd:tä saa parhaimmillaan alle 200€ hinnoin, joten 4-12TB nassit ovat ihan kuluttajahinnoissa - pitäisi vaan saada sopivia emoja / koteloita.

Sata ssd:t ovat melkeimpä kalliimpia + m.2:set mahdollistaisivat pienemmän kotelon jos vaan löytyisi hommaan erikoistuneita emoja / barebones paketteja.
Juu jokunen viesti ylöspäin laitoin että itsellä tuo ssd nassi ois varmaan seuraava vaihtoehto. Mutta en oo kyl erityisemmin löytänyt vielä kokonaisuuksia.
 
Onko muuten porukka alkanut katsella ssd-only ja etenkin M.2 ssd-nassien rakentelua sillä silmällä? 4TB ssd:tä saa parhaimmillaan alle 200€ hinnoin, joten 4-12TB nassit ovat ihan kuluttajahinnoissa - pitäisi vaan saada sopivia emoja / koteloita.

Sata ssd:t ovat melkeimpä kalliimpia + m.2:set mahdollistaisivat pienemmän kotelon jos vaan löytyisi hommaan erikoistuneita emoja / barebones paketteja.

Vähän liian pieniä vielä omaan makuun.

Jos näyttistä ei tarvitse, sovittemella 4x nvme x16 paikkaan. (vaatii emolevyn jossa 4x4x4x4 bifurcation)
matx luokkaan saisi siis 6x nvmen, jos emolla 2 paikkaa.
 
Vähän liian pieniä vielä omaan makuun.

Jos näyttistä ei tarvitse, sovittemella 4x nvme x16 paikkaan. (vaatii emolevyn jossa 4x4x4x4 bifurcation)
matx luokkaan saisi siis 6x nvmen, jos emolla 2 paikkaa.
PCI-bifurkaatiokorttien asentelu vaatii vain ison kotelon. Hyvin suunnitellun M.2 ssd-nassin etu olisi se, että se on pieni ja litteä - tyyliin mitä nuo asustorin flashstor vehkeet ovat, mutta omalla itse managoidulla käyttöjärjestelmällä.

Tyyliin kun valmistuotteena on tarjolla tälläistä:
--
Mulla on nyt 2TB NAS kotona johon mahtuu molempien läppäreiden incremental backupit, mutta ahdastahan tuolla alkaa tulla.
 
Nuo asustorin vehkeet olivat kyllä sinänsä mielenkiintoisia, mutta jotenkin homma menee vähän nihkeäksi kun aletaan tarvitsemaan 10gbps linkkejä joka paikassa kotiverkossa. Edelleen kun se 1gbps on melko vakio, 2.5gbps alkaa yleistyä mutta niin. Itsellä tuos nas minkä rakensin on ihan vanhoilla hitailla mekaanisilla kiekoilla, mutta toisaalta kodin sisäverkkokin on vain 1gbps. Tuon kanssa on pärjännyt ihan hyvin. Tietysti mekaaniset osat ovat aina mekaanisia.. Pitävät ääntä ja tuppaavat hajoamaan joskus. Mutta jotta ssd levyistä nopeuksien puolesta pääsisi hyötymään pitäisi koko kodin sisäverkko upgradea 10g joka on aika... Meh puuha
 
Ostin juuri 2x 10GbE + 4x 2.5GbE Qnap-switchin, maksoi 150€ kotiin kannettuna, pöytäkoneessa on ollut jo vuosia 2.5GbE verkkokortti ja läppäriin sai 30€:llä usb-c 2.5:sen.

SSD nassin suurin hyöty itselleni olisi äänettömyys + nopeat hakuajat jotka haittaavat pyörivällä levyllä aika paljon inkremental-backuppien ottamista / käyttöä. Nykyinen nas ottaa aikansa kun se siivoaa täydeltä levyltä tilaa vanhoja snapshotteja puhdistelemalla ja vanhojen backuppien selaaminen on myös tuskaista.
 
Ostin juuri 2x 10GbE + 4x 2.5GbE Qnap-switchin, maksoi 150€ kotiin kannettuna, pöytäkoneessa on ollut jo vuosia 2.5GbE verkkokortti ja läppäriin sai 30€:llä usb-c 2.5:sen.

SSD nassin suurin hyöty itselleni olisi äänettömyys + nopeat hakuajat jotka haittaavat pyörivällä levyllä aika paljon inkremental-backuppien ottamista / käyttöä. Nykyinen nas ottaa aikansa kun se siivoaa täydeltä levyltä tilaa vanhoja snapshotteja puhdistelemalla ja vanhojen backuppien selaaminen on myös tuskaista.

Itte meinasin SSD cachea laittaa pooliin seuraavaksi jolloin meta löytyy nopealta pinnalta jonka pitäisi tasoittaa jonkin verran tuota ongelmaa.
 
Heitetään nyt omakin lusikka soppaan.

Tavoitteena oli rakentaa pitkäikäinen, riittävän tehokas, sekä tarpeeksi hiljainen NAS-palvelin, inspiraatiota hain: Building a NAS
Projekti edennyt muutaman mutkan kautta seuraavaan pisteeseen:
Alunperin NAS oli rakennettu Fractal Design Node 804 koteloon 10TB lätyillä, mutta nälkä kasvoi syödessä :D

Järjestelmä
Käyttöjärjestelmäksi valikoitu FreeNAS 11.3U2, jonka olen sittemmin päivittänyt TrueNAS 12.0-U5.1:een.
TrueNAS on asennettu kahdelle 32GB USB-muistitikulle (mirrorina).
Mekaaniset levyt ovat jaettuna kahteen ZFS-pooliin (yksi VDEV kummassakin), ylimääräinen 10TB on varalla ja toimii "scratch disk":nä. Plex kirjaston metadatat NVME:llä.
  • Raid-Z2 8 x 10TB (kapasiteetti käytännössä ~40TB)
  • Raid-Z2 8 x 14TB (kapasiteetti käytännössä ~56TB)
Käytössä muutamia TrueNAS:n plugineita (eli jaileja), kuten
  • Plex Media Server
  • Grafana - Lähinnä kovalevyjen S.M.A.R.T. datan esittämiseen
    1630152024087.png
    1630152136464.png
    1630152179786.png
  • Graylog - Syslog server

Jäähdytys
Kotelossa vakiona olevat tuulettimet ovat sanalla sanoen äänekkäitä ja tähän piti löytää ratkaisu.
Aloitin poistamalla alkuperäiset tuulettimet ja purin ns. fan wallin, jossa oli kolme 80mm hot-swap tuuletinta.
Fan-wallin korvasin kolmella 120mm Noctuan NF-12 tuulettimilla, jotka sopivat tilalle täydellisesti!
Tuulettimien yläpuolle jäi muutama sentti tyhjää, jonka täytin jesarilla päällystetyllä solumuovilla. Koko komeus on kasassa nippusiteillä.
Pienellä rälläköinnillä kotelon takaosaan mahtui yksi Arcticin 120mm tuuletin.
Kotelon sisäiset tuulettimet eivät kykene (järkevällä äänitasolla) pitämään kovalevyjä riittävän viileinä, joten kotelon etupuolelle laitoin kolme 140mm Noctuan NF-14 tuuletinta 3D-tulostettuun kehikkoon.
1630144671707.jpeg
1630144725071.jpeg
Tuulettimien nopeutta säädetään kovalevyjen ja CPU:n lämpötilojen mukaan ohjaus-scriptillä.
Levypaikasta riippuen, kovalevyjen lämpötilat ovat 31°C ja 36°C välillä, vaihtelevälin noin yhden asteen verran.


Käyttöönotto (testaus, konffaus ym.)
Järjestelmän käyttööottotestauksen suoritin hyvin pitkälle FreeNAS/TrueNAS foorumin ohjeiden mukaan, muutamia hyödyllisiä linkkejä
Yhden kovalevyn leipoessa kiinni, huomasin levyjen paikantamisen backplanesta olevan haasteellista.
Lyhyen selvittelyn jälkeen asia ratkesi lyhyellä bash-scriptillä, joka näyttää kaikkien levyjen paikat backplanessa.
Koodi:
=============================================================================================================================================================
| [SLOT 06]: Y5JL**** (/dev/da15) 33 C | [SLOT 12]: 9KGV**** (/dev/da5) 33 C  | [SLOT 18]: 1EHD**** (/dev/da13) 32 C | [SLOT 24]: 1EHM**** (/dev/da12) 32 C |
-------------------------------------------------------------------------------------------------------------------------------------------------------------
| [SLOT 05]: X0H7**** (/dev/da3) 34 C  | [SLOT 11]: X0H6**** (/dev/da1) 33 C  | [SLOT 17]: 1EHM**** (/dev/da7) 32 C  | [SLOT 23]: 1EHM**** (/dev/da10) 35 C |
-------------------------------------------------------------------------------------------------------------------------------------------------------------
| [SLOT 04]: X0H6**** (/dev/da0) 35 C  | [SLOT 10]: N/A                       | [SLOT 16]: 1EHH**** (/dev/da16) 34 C | [SLOT 22]: 1EHH**** (/dev/da11) 36 C |
-------------------------------------------------------------------------------------------------------------------------------------------------------------
| [SLOT 03]: X0H6**** (/dev/da2) 36 C  | [SLOT 9]: N/A                        | [SLOT 15]: N/A                       | [SLOT 21]: 1EHE**** (/dev/da9) 36 C  |
-------------------------------------------------------------------------------------------------------------------------------------------------------------
| [SLOT 02]: QBJX**** (/dev/da4) 35 C  | [SLOT 8]: N/A                        | [SLOT 14]: N/A                       | [SLOT 20]: 1EH8**** (/dev/da8) 36 C  |
-------------------------------------------------------------------------------------------------------------------------------------------------------------
| [SLOT 01]: X0H7**** (/dev/da6) 35 C  | [SLOT 7]: N/A                        | [SLOT 13]: N/A                       | [SLOT 19]: 1EHH**** (/dev/da14) 36 C |
=============================================================================================================================================================

Kokoonpano syö yllättävän maltillisesti sähköä, ainakin jos IPMI:in näyttämiin lukuihin on uskominen
Power consumption Graph and History
Power Statistics
sort.gif
Last Hour
sort.gif
Time
sort.gif
Past 24 Hr
sort.gif
Time
sort.gif
Past 7 days
sort.gif
Time
sort.gif
Average (W)165None164None167None
Minimum (W)1602021/08/28 12:41:051532021/08/28 11:18:281522021/08/23 09:00:33
Maximum (W)1772021/08/28 12:45:012132021/08/28 09:45:022242021/08/25 04:44:32

Pientä päivitystä kokoonpanoon, tuli ebaystä ostettua käytettyä Epyc-rautaa. Paketti tuli Kiinasta Fedexillä hämmästyttävän nopeasti, neljässä päivässä tilauksesta kotiovelle.

Kokoonpanon validointi menossa, Memtest86+ rullannut pari päivää. Ainakin parisen viikkoa saa vielä rullata ennen varsinaista käyttöönottoa.
Screenshot_2023-07-27-08-10-36-86_40deb401b9ffe8e1df2f1cc5ba480b12~2.jpg
 
Itellä oli kans samalta myyjältä yks Epyc-kokoonpano pitkään watchlistillä. Tuli kuitenkin vastaan sopuhintainen Xeon E5-2680 V4, mikä riittää ihan hyvin minun tarpeisiin ja lienee ihan kiva "päivitys" 9600K:lle. Harmi vaan kun nuo asialliset X99-emolevyt on kuitenkin vielä aika hintavia...
 
Ihan mielenkiinnosta kyselen kun tottakai on erilaisia käyttötarpeita, mutta mihin kotikäytössä tarvitsee Epyc tason rautaa? En siis halua vittuilla vaan kyselen mielenkiinnosta onko mitä kaikkea mahdolisuuksia ylipäätänsä olemassa mitä ei ole itse tajunnut ottaa käyttöön.

Tällä hetkellä oma nas pyörii Asrock J5040-ITX:lla ja tehoja riittää mainiosti, mutta käytännössä tämä minulla onkin vain verkkolevynä eikä muuta.

Tokihan täällä voi näitä jotklut kasailla ihan työpaikan tarkoituksiin missä käyttäjiä kymmeniä.
 
Ihan mielenkiinnosta kyselen kun tottakai on erilaisia käyttötarpeita, mutta mihin kotikäytössä tarvitsee Epyc tason rautaa? En siis halua vittuilla vaan kyselen mielenkiinnosta onko mitä kaikkea mahdolisuuksia ylipäätänsä olemassa mitä ei ole itse tajunnut ottaa käyttöön.

Tällä hetkellä oma nas pyörii Asrock J5040-ITX:lla ja tehoja riittää mainiosti, mutta käytännössä tämä minulla onkin vain verkkolevynä eikä muuta.

Tokihan täällä voi näitä jotklut kasailla ihan työpaikan tarkoituksiin missä käyttäjiä kymmeniä.

Tarvetta varsinaiselle palvelinraudalle on vaikea perustella, mutta jos näiden laitteiden kanssa tykkää harrastaa, niin "oikealla palvelinkamalla" pääsee paljon pidemmälle. Kuluttajaraudalla pääsee hyvin alkuun, mutta jos oma käyttö menee yhtään monimutkaisemmaksi, alkavat raudan rajat löytyä nopeasti.

Jos käyttötarve on pelkkä NAS, niin käytännössä jo RasPi riittää valtaosalle hyvin. Jos samalla laatikolla on tarkoitus pyörittää jotain palveluita sisäverkossa, niin kannattaa palveluista riippuen katsoa hieman järeämpää rautaa. Jos käyttö menee tästä vielä pidemmälle ja virtualisointi alkaa kiinnostaa, niin alkaisin itse katsella palvelinrautaa.

Virtualisointikin onnistuu valtaosalla kuluttajaraudasta, mutta sekin on paljon helpompaa kun ostaa kyseiseen käyttöön oikeasti tarkoitettuja osia. Itsekin saisin varmaan valtaosan omasta kokoonpanosta toimimaan kuluttajaraudalla, mutta jotkin asiat jäisivät varmaan tekemättä. Pääasiassa ongelmat tulevat esiin PCIe-linjojen loppumisen ja emolevyn ominaisuuksien puutteen muodossa. Hieman hassua tässä on myös mielestäni se, että hintaero kuluttajaraudalla kasaamisen eduksi saattaa jäädä vielä yllättävän pieneksi. Toki virrankulutuskin on pienempi, mutta ei niin paljoa kuin saattaisi olettaa.
 
Itellä oli kans samalta myyjältä yks Epyc-kokoonpano pitkään watchlistillä. Tuli kuitenkin vastaan sopuhintainen Xeon E5-2680 V4, mikä riittää ihan hyvin minun tarpeisiin ja lienee ihan kiva "päivitys" 9600K:lle. Harmi vaan kun nuo asialliset X99-emolevyt on kuitenkin vielä aika hintavia...

Eipä tosiaan paljoa näyttäisi nuo V4 Xeonit maksavan. Nykyisessä tiedostopalvelimessa on Asus X99-A ja 5820K, joten pitäisiköhän tehdä kanssa pieni päivitys. Xeon E5-2695-v4 (18 corea) saisi myös ihan edullisesti Ebaysta.
 
Jos käyttötarve on pelkkä NAS, niin käytännössä jo RasPi riittää valtaosalle hyvin. Jos samalla laatikolla on tarkoitus pyörittää jotain palveluita sisäverkossa, niin kannattaa palveluista riippuen katsoa hieman järeämpää rautaa. Jos käyttö menee tästä vielä pidemmälle ja virtualisointi alkaa kiinnostaa, niin alkaisin itse katsella palvelinrautaa.

Mää en kyllä jotain raspia lähtis suositteleen nas käyttöön ellei tarkoitus ole pyöritellä vaan ihan yhtä asemaa siinä.

Ensinnäkin asemien lisäys siihen menee kikkailuksi ja toiseksi jos siinä alkaisi jotain pariteetti tason pakkaa ajamaan niin suuresti epäilen kyseisen kikottimen kykyä laskea pariteettia.

Toki varmaan toimii jos ei ole minnekkään kiire.
 
Mää en kyllä jotain raspia lähtis suositteleen nas käyttöön ellei tarkoitus ole pyöritellä vaan ihan yhtä asemaa siinä.

Ensinnäkin asemien lisäys siihen menee kikkailuksi ja toiseksi jos siinä alkaisi jotain pariteetti tason pakkaa ajamaan niin suuresti epäilen kyseisen kikottimen kykyä laskea pariteettia.

Toki varmaan toimii jos ei ole minnekkään kiire.

Käytin RasPia lähinnä vertauksena siitä tehomäärästä millä peruskäyttäjä pärjää, mutta olen siis samaa mieltä. Joku hinnat alkaen Synologyn laatikko on varmasti helpompi kokonaisuutena. RasPin avulla saa kyllä rakenneltua ihan pätevän NAS:n, joka on suorituskyvyltään riittävä 1Gb sisäverkkoon, mutta tässä siis painosanalla rakenneltua. Minulle rakentelu on puolet koko harrastuksen hauskuudesta ja tuolla pääsee irti valmiiden ratkaisujen alustariippuvaisuudesta, joten vaihtoehtona tuo on ihan kiinnostava. Jos taas pitäisi jollekin Linuxiin vihkiytymättömälle tutulle suositella NAS:ia niin neuvoisin noihin 2-levyn laatikoihin tutustumaan saman tien.
 
Ihan mielenkiinnosta kyselen kun tottakai on erilaisia käyttötarpeita, mutta mihin kotikäytössä tarvitsee Epyc tason rautaa? En siis halua vittuilla vaan kyselen mielenkiinnosta onko mitä kaikkea mahdolisuuksia ylipäätänsä olemassa mitä ei ole itse tajunnut ottaa käyttöön.

Tällä hetkellä oma nas pyörii Asrock J5040-ITX:lla ja tehoja riittää mainiosti, mutta käytännössä tämä minulla onkin vain verkkolevynä eikä muuta.

Tokihan täällä voi näitä jotklut kasailla ihan työpaikan tarkoituksiin missä käyttäjiä kymmeniä.

Mitään oikeaa tarvetta ei Epyc-pohjaiselle kokoonpanolle ei ole. Menee enemmän harrastuksen piiriin.
Päivitin kun nykyisesta kokoonpanosta alkaa laajennettavuus loppua; RAM:a on asennettu maksimimäärä (32GB), sekä molemmat PCI-E väylät ovat jo käytössä.

Epyc tarjoaa PCI-E väyliä sen verran runsaasti, että tulevaisuudessa voi harkita vaikka NVME-poolia, 10Gb-verkkoa, erillistä JBOD-koteloa jne.
 
Tuli testailtua bcachefs kun se voi saapua 6.6 kerneliin experimental tagilla. Hommaa sen kanssa toki on vielä, mutta siinä on kyllä ominaisuus paletti kattava. Itteäni kiinnostaa eniten raid5 toteutus joka siitä löytyy mutta maininnalla että älä käytä vielä. Syy on varmaankin suorituskyky. Ja sen cache ominaisuudet.

Siitä sitten innostuin ja testailin hiukan eri raid5 vaihtoehtoja. Testiskenaario on vain yksi skenaario, joten tää ei nyt mikään kovin kattava testi ole mutta jotain se kuitenkin kertoo. Koska testin tein Hyper-V:n alla, niin pystyin testaamaan jokerina myös Windows Storage Space parityn (raid5), Windown Device Manager raid-5 en pystynyt testaamaan kun MS poisti sen tuen jostain syystä jo aikoja sitten ei serveri käyttiksestä.

Testi suoritettu seuraavilla komennoilla
Koodi:
time for i in {1..100}; do dd if=/dev/random of=/mnt/$(uuid) bs=1MB count=1000 status=progress; done; uptime
time cat /mnt/*-* | dd of=/dev/null bs=1MB status=progress; uptime

Kone kykenee runttaamaan random moskaa yli 600MB/s joten se ei tässä tuloksiin vaikuta muuten kuin loadin osalta. Halusin random moskaa työntää ihan vain että on mahdollisimman raskasta filesysteemille ja koska testissä mukana CoW tiedostojärjestelmiä niin on mahdollista että ne tekee pelkkää nollaa kirjoittaessa jotain mielenkiintoista. Ero btrfs raid5 esim. random vs zero dataa kirjoitettaessa on yli 20MB/s zero datan hyväksi.

1690836095598.png


Kirjoituksen suhteen MS Storage Space on todella huono. Ei missään tapauksessa kannata kyseistä härveliä käyttää parityn kanssa ainakaan pyörivän ruosteen kanssa. Ittellä ei ole ylimääräisiä SSD asemia niin paljoa että voisin SSD:n kanssa testata samaa. Luku storage space:n kanssa on ihan kilpailukykyinen. En jaksanu alkaa jokaisella eri tiedostojärjestelmällä tuota testaamaan kun realiteetti on että ei tuota varmaan missään tilanteessa oikeasti tule käytettyä linuksissa. On mukana siis jokerina ja ntfs:llä ajoin ihan varmistaakseni että suoriutuuko se kirjoituksesta paremmin jos käytetään windowsin omaa tiedostojärjestelmää ja tulos oli negatiivinen.

bcachefs on tosiaan vielä todella keskeneräinen joka näkyy siinä että sen natiivi raid5 toteutus on hidas ja jos sitä ajetaan jonkun muun toteutuksen päällä niin ei silloinkaan ole hurraamista suorituskyvyssä. Ominaisuus kattaus tuolla on kuitenkiin niin vahva että tilanteen saa muuttumaan jos pooliin lisää nopeaa (NVM-e/SSD) pintaa ja laittaa ne kirjoitus taikka luku cacheksi taikka vaikka molempia:
Koodi:
      --foreground_target=(target)
                              Device or label for foreground writes
      --background_target=(target)
                              Device or label to move data to in the background
      --promote_target=(target)
                              Device or label to promote data to on read
Tuo tukee siis asema ryhmittelyä, voi hdd asemat nimetä vaikka hdd.disk1, hdd.disk2... ja sitten ssd:n kohdalla ssd.disk1, ssd.disk2... ja NVM-e kohdalla nvme.disk1, nvme.disk2... jonka jälkeen --background_target=hdd kertoo että kylmä data siirrellään hdd:lle. --foreground_target=nvme taas määrittelee että kirjoitukset raapaistaan NVM-e asemalle tai useammalle. Ja --promote_target=ssd määrittelisi ssd asemat lukucacheksi. Tai jos haluaa nvme:tä käyttää luku että kirjoitus cachena niin määrittelee sen molempiin.
Silti tää on vielä niin keskeneräinen että eipä juurikaan muuhun sovellu kuin testailuun.

btrfs on nähnyt viimeaikoinan paljon kehitystä ja käsittääkseni nykyisin uudemmilla olisko ollut 6.3 kernelistä eteenpäin raid5 tuki alkaa olla vihdoin siinä kunnossa että sitä uskaltaa käyttää. Myös sen suorituskyky on ihan hyvällä mallillaan. Ei tietenkään pärjää ext4 ja xfs:lle CoW luonteensa takia mutta en alkanut testaamaan on/off koska varmaan jokaista kikkaretta voi tunettaa halutessaan.
Kaikki on siis testattu pitkälti "out-of-the-box". Jo yksinkertaisesti mount optiolla noatime eli file access aikoja ei päivitellä saa varmaan jokaiseen lisää vauhtia.
btrfs on myös kasvattamassa ominaisuuspalettiaan ja natiivi cryptaus on tekemässä tuloaan. Lisäksi olen joitain viitteitä nähnyt että jonkinlainen cache tuki olisi myös kehitteillä. Niin ja muistui juuri mieleen että btrfs:ssä on zoned tukea lisäilty. Joka siis tarkoittaa että SMR levyjä käsitellään eri tavalla. Ehkä ne laikat joku päivä voi päästä omallekin ostoslistalle, aika näyttää.
Miinuksena raid5 scrub tuki on edelleen aika rikki. Se kyllä toimii mutta on todella hidas. Juuri testailen 6.5.0-rc3 kernelillä jossa scrub fiksauksia lisänä. On parempi mutta edelleen hidas. Postituslistalla oli myös juttua että 6.4 kernelin myötä performance droppasi pahasti ja korjaavat sitä nyt.

Itte olen tähän asti pyöritellyt mdadm kautta raid pooleja, mutta tämän testin myötä kiinnostus alkoi heräämään tuohon lvm raid5 toteutukseen. Se meinaan suoriutui yllättävän hyvin. Ajan tällä hetkellä lvm md:n päällä jolloin yksi kerros tippuisi pois.
Lähinnä tuon lvm raidin kohdalla ittellä on ongelmana että lvm on ihan oma maailmansa hallittavuuden kannalta joka ittestäni tuntuu lähinnä kasalta sekasotkua. Perusasiat on suht helppoja mutta heti kun aletaan vähänkin erikoisempaa väsäämään niin komennot menee hyvin monimutkaisiksi ja sitten törmää välillä joihinkin ihan käsittämättömiin rajoituksiin kuten kävi kun testailin lvm cachea. Cachea kun koitti lisätä olemassa olevaan loogiseen asemaan niin tuli virhe että cachen koko on liian iso jotta tarttee muuttaa blokki kokoa (muistaakseni) ja sitten kyseinen komento jolla se cache lisätään ei tue koko blokkikoon muuttamista, enkä löytänyt mitään ohjetta millä homman olisi saanut pelittämään.
Sain testin kuitenkin tehtyä lopulta kun tein eri ohjeen mukaan homman jossa looginen asema ja cache luodaan samaan aikaan. Mutta tuo ei taas oikein omaa tilannettani palvele kun nimenomaan cache pitäisi saada lisättyä olemassa olevaan loogiseen asemaan.

zfs suoriutui ihan hyvin. Varsinkin luku puoli oli todella hyvä. Kirjoituksessa olisi ehkä parannettavaa. En zfs tunne sen tarkemmin ja ei ole ittelle vaihtoehto koska natiivia tukea kernelissä ei ole. Nyt jo tuli törmättyä tilanteisiin että kernelin päivitys niin zfs ei käänny uudelle kernelille. Jos ajelisin RHEL pohjaista distroa niin sitten tuo ei olisi ongelma koska kerneli on pitkälti jäädytetty.


Tässä vielä suorituskykyä verrattuna yhteen levyyn.
1690836134034.png


Ja lopuksi vielä load tilastoa. Se mitä btrfs oikein touhua kirjoittaessa on ittelle kysymysmerkki. Mutta olen huomannut tuon saman btrfs:n kohdalla aina että kirjoittaessa load nousee älyttömästi.
Tämähän ei siis tarkoita sitä että btrfs raid5 kohdalla 8 "corea" olisi ollut jatkuvasti täystyöllistettyinä, vaan sitä että siellä on noin 8 prosessia jotka on täystyöllistettyinä/odottaa jotakin.
Linuxissa load kasvaa aina yhdellä kun jokin prosessi on aktiivisena taikka odottaa. Suurin osa tuosta kuormasta on siis jotain odottelua.
Lisäksi nää load lukemat on ainoastaan suuntaa antavia koska testi linux pörrää Hyper-V:n alla ja samaan aikaan tein windosissa asioita. Surffausta, juutuubia, 20v vanhan pelin pelaamista joka ei hirveän paljon konetta kuormita, joten sille linuksille oli tarjolla aina vaihtelevasti cpu resursseja mutta missään vaiheessa windows ei ole rohmunnut kaikkea CPU aikaa. Tarkempaan t
ulokseen olisin päässyt jos olisin virtuaalikoneelle antanut 4c/8t mutta se tuli mieleen vasta kun puolet datasta oli jo ajettu. Lisäksi 5min taikka 15min average olisi ollut parempi, mutta sitten olisi pitänyt kasvattaa datan määrää varsinkin 15min averagen käytössä koska parhaimmillaan testi kesti 5min 30sec.
Testissä käytetyt asemat oli täysin linuksin käytössä. Ne on windowsin device managerissa offline tilassa ja Hyper-V:ssä määritelty suoraan kokonaan virtuaalikoneen käyttöön kulkematta imagen kautta.

1690836162316.png


Jos jollain tulee mieleen jotain testiskenaariota jonka haluisi nähdä, niin tää setuppi on vielä kasassa jonkin aikaa kun harjoittelen tuota lvm cache hommaa ainakin lisää koska tarkoitus on tuohon omaan nassiin lisätä 500GB NVM-e ja samankokoinen SATA SSD jotka ajattelin parittaa jonkinlaiseksi cacheksi olemassa olemaan pooliin. Juuri nyt näyttää siltä että laitan noi mdadm kanssa raid 1 ja tuolle sata ssd:lle lisäksi määrityksen --write-mostly ja --write-behind jolloin lukemiset pääasiassa tapahtuu nvm-e asemalta ja kirjoituksissa sallitaan toi SATA asema jäädä jälkeen jolloin kirjoitukset ei ota niin isoa osumaa myöskään.
Sitä en ole vielä päättänyt että laitanko noi pelkästään kakuksi poolille vai olisikohan aika jo päästää noi ikivanhat 256GB SSD asemat eläkkeelle joilla käyttis on nyt.
Ja pitää kytätä tuota bcachefs ja btrfs jos niihin tulee jotain bleeding edge korjauksia niin testaan niitä.
 
Mietin tässä pitääkö joku raidi kortti hommata kun en jaksa lähteä proxmox kelkkaan ihan ylläpidon takia sitten, kun tulee ongelmia.
Lähinnä pyörittelin proxmoxia jonkun aikaa sit, kun meni solmuun niin ei sitä omilla taidoilla saanut ehjättyä. Niin siitä lähtien pyörittänyt win10:iä sen kanssa päässyt helpolla kun on ollut erillinen nassi qnap missä raid:illa levyt.

Nyt jos jatkaa tuota winkkari tietä ja luopuu qnapista niin pitäs järkevä raidi kortti hommata. Nykyisellään on on tuo LSI 9201-16i. Mutta sitä ei taida saada toimimaan raidina?

Käyttönä on : yksi virtuaalikone (ha), wintoosassa pyörii sitten blueiris.

prossuna 3600 GE, msi x570 tomahawk emo. Käyttis pyörii ssd levyllä. Pyöriviä levyjä on 4 kpl.

Eli mikä virtapihi raidi kortti jossa ois 5,6,10 raidit.

Mites truenas yms ylläpidon kannalta toimiiko miten luotettavasti? versus jos nyt win 10 pitää asennalla pari viikon välein joku päivitys.
 
Mietin tässä pitääkö joku raidi kortti hommata kun en jaksa lähteä proxmox kelkkaan ihan ylläpidon takia sitten, kun tulee ongelmia.
Lähinnä pyörittelin proxmoxia jonkun aikaa sit, kun meni solmuun niin ei sitä omilla taidoilla saanut ehjättyä. Niin siitä lähtien pyörittänyt win10:iä sen kanssa päässyt helpolla kun on ollut erillinen nassi qnap missä raid:illa levyt.

Nyt jos jatkaa tuota winkkari tietä ja luopuu qnapista niin pitäs järkevä raidi kortti hommata. Nykyisellään on on tuo LSI 9201-16i. Mutta sitä ei taida saada toimimaan raidina?

Käyttönä on : yksi virtuaalikone (ha), wintoosassa pyörii sitten blueiris.

prossuna 3600 GE, msi x570 tomahawk emo. Käyttis pyörii ssd levyllä. Pyöriviä levyjä on 4 kpl.

Eli mikä virtapihi raidi kortti jossa ois 5,6,10 raidit.

Mites truenas yms ylläpidon kannalta toimiiko miten luotettavasti? versus jos nyt win 10 pitää asennalla pari viikon välein joku päivitys.

Miten proxmox ylipäätään liittyy raidiin? Ja ei missään nimessä rautaraidia näin 2020-luvulla.
 
Miten proxmox ylipäätään liittyy raidiin? Ja ei missään nimessä rautaraidia näin 2020-luvulla.

Joo ei rauta raidi ole nykypäivää. Suljettuja virityksiä eli jos se kortti hajoaa niin samanlainen pitää löytää tilalle tai olet kusessa. Softa raidilla homma jatkuu senkuin heittää laikat uuteen rautaan.
 
Mietin tässä pitääkö joku raidi kortti hommata kun en jaksa lähteä proxmox kelkkaan ihan ylläpidon takia sitten, kun tulee ongelmia.
Lähinnä pyörittelin proxmoxia jonkun aikaa sit, kun meni solmuun niin ei sitä omilla taidoilla saanut ehjättyä. Niin siitä lähtien pyörittänyt win10:iä sen kanssa päässyt helpolla kun on ollut erillinen nassi qnap missä raid:illa levyt.

Nyt jos jatkaa tuota winkkari tietä ja luopuu qnapista niin pitäs järkevä raidi kortti hommata. Nykyisellään on on tuo LSI 9201-16i. Mutta sitä ei taida saada toimimaan raidina?

Käyttönä on : yksi virtuaalikone (ha), wintoosassa pyörii sitten blueiris.

prossuna 3600 GE, msi x570 tomahawk emo. Käyttis pyörii ssd levyllä. Pyöriviä levyjä on 4 kpl.

Eli mikä virtapihi raidi kortti jossa ois 5,6,10 raidit.

Mites truenas yms ylläpidon kannalta toimiiko miten luotettavasti? versus jos nyt win 10 pitää asennalla pari viikon välein joku päivitys.
Minä asentaisin TrueNas Scalen ja sitten teet sinne niin monta käyttäjää kuin haluat. Root on vakiona, apuja löytyy pitkin nettiä, mutta melkein helpoin. Ja saat hyvän ZFS tiedostojärjestelmän samalla, asentaisin RAID5 (z1) 4 levyllä. Jos arveluttaa, niin RAID6 (z2) ja saat 2 levyn kapasiteetin 4 levyllä.

Mutta mä tekisin näin:
3-4 levyä = z1 (2-3 levyn kapasiteetti)
5-8 levyä = z2 (3-6 levyn kapasiteetti)
9-12 levyä = z3 (6-9 levyn kapasiteetti)
13-16 levyä = 2 vdev z2 (9-12 levyn kapasiteetti, kaksi peilaavaa z2 poolia yhdeksi jaoksi).

Huomiona se, että ZFS ei vielä tue jälkeenpäin levyjen lisäystä. Tuki on tulossa, mutta sitä ei löydy vielä release versiosta mistään. Kun se tulee, niin voit sitten tehdä reflow:n ja voit lisäillä levyjä olemassa olevaan vdeviin.
 
Minä asentaisin TrueNas Scalen ja sitten teet sinne niin monta käyttäjää kuin haluat. Root on vakiona, apuja löytyy pitkin nettiä, mutta melkein helpoin. Ja saat hyvän ZFS tiedostojärjestelmän samalla, asentaisin RAID5 (z1) 4 levyllä. Jos arveluttaa, niin RAID6 (z2) ja saat 2 levyn kapasiteetin 4 levyllä.

Mutta mä tekisin näin:
3-4 levyä = z1 (2-3 levyn kapasiteetti)
5-8 levyä = z2 (3-6 levyn kapasiteetti)
9-12 levyä = z3 (6-9 levyn kapasiteetti)
13-16 levyä = 2 vdev z2 (9-12 levyn kapasiteetti, kaksi peilaavaa z2 poolia yhdeksi jaoksi).

Huomiona se, että ZFS ei vielä tue jälkeenpäin levyjen lisäystä. Tuki on tulossa, mutta sitä ei löydy vielä release versiosta mistään. Kun se tulee, niin voit sitten tehdä reflow:n ja voit lisäillä levyjä olemassa olevaan vdeviin.

Eli tuo osaa hyödyntää emolla olevat levyt zfs:ään jos ei ole erillistä korttia kiinni?
 
No nyt on saatu nykyisestä palvelimesta vähennettyä kulutusta alkuperäisestä 130w -> 57w. Prossu vaihdettu pienempään , ulkoinen näyttis pois ja sas-kortti pois.
 
Mites tuo cache zfs cache koko. esim pool1 2tb x 6 levyä. Ja pooli2 4tb x 4 levyä. Minkä kokoisia ssd levyjä kandee cacheksi hommata?
 
Mitä meinaat cachella? ZIL SLOG, special vdev, vai L2arc? Et todennäköisesti hyödy näistä mistään.
 
Ei riity suoraan rakenteluun, mutta samaan kohderyhmään kuitenkin. Onko täällä porukalla käyttökokemuksia Cloudflaren tunneleista? Jos konsepti ei ole tuttu, niin systeemi on pääpiirteissään sellainen proxyn ja VPN:n välimuoto. Kotoa/palvelimelta/mistä haluatkaan luodaan reverse proxy Cloudflaren palvelimelle, ja kaikki sisäänmenevä liikenne kulkee Cloudflaren palvelimien läpi ja tuon reverse proxyn kautta sisään ilman että tarvii portteja availla palomuurista. Cloudflaren hallinnasta määritellään sitten että mihin sisäiseen IP-osoitteeseen ja porttiin mikäkin liikenne halutaan. Ja palvelu on siis ilmainen käyttää.

Ite virittelin pari päivää sitten tuon käyttöön oman palvelimen eteen. Tosin minulla oli palvelut auki ulospäin jo ennen tuotakin, mutta lisäähän tuo turvallisuutta ainakin teoriassa. Helppo laittaa pystyyn, mutta joitain yllätyksiä tuli vastaan vasta asennuksen jälkeen. Esim. SSH ulkopuolelta tuon Cloudflaren läpi ei ilmeisesti onnistukaan noin vain, vaan vaatii erityiskikkailuja. Päädyin lopulta tekemään sellaisen selainpohjaisen terminaalin, johon löytyy netistä ohjeita.

Puhelimen kalenteri (Onecalendar) ei myöskään enää suostu synkkaamaan Nextcloudiin tuon Cloudflaren läpi, vaikka caldavin sinänsä pitäisi toimia. "Ratkaisu" oli ottaa Onecalendarin asetuksista "verify certificates" pois päältä, mikä ei ole ihan optimaalista.

Lisäksi netissä pyörii jotain huhuja, että Cloudflaren käyttöehdot kieltää kaiken ei-html sisällön, ja suurien datamäärien siirroista voi tulla banaania tai maksuja. Ei oo vielä kokemusta kummastakaan, kun ei yleensä ole tarvetta lähetellä ulkoapäin isompia filuja sisään. Yhtenä suunnitelmana ois kyllä viritellä Kasm palvelimelle ja katella sen kautta selaimella Netflixiä töissä kun se on firman verkossa estetty :D vaan vaikea uskoa että tuokaan riittäisi toimiin Cloudflaren puolelta.

Lisäksi oli jotain vaikeuksia saada kaikki palvelut näkymään oikein tuon cloudflaren reitityksen kautta. Ilmeisesti moni on tehnyt niin, että ohjaa Cloudflaresta kaiken liikenteen johonkin proxymanageriin ja tekee omassa sitten reverse proxyt oikeisiin osoitteisiin.
 
Joo eli slogia ja l2arci. Eli ei sitten ssd:tä vaan max määrä muistia mitä pystyy emolla laittaa?
Joo, yleensä se maksimi muistimäärä on paras ja toimivin ratkaisu. L2arc on tosi harvoin hyötyä. Special vdevistä on hyötä jos on miljoonia tiedostoja, enimmäkseen tiedostolistauksessa/selauksessa.
 
Joo eli slogia ja l2arci. Eli ei sitten ssd:tä vaan max määrä muistia mitä pystyy emolla laittaa?
ZFS hyötyy eniten ramista. Oliko jo Truenas Scalessa jo persistent l2arc cache joka säilyy boottien yli? Se auttaa lukuihin, jos on alle 100 gigaa muistia. Jos on 100 gigaa tai enemmän, niin zfs kiihtyy hitaimmillakin levyillä aika nopeasti ja l2arc:n hyöty on aika minimaalinen, paitsi että ehkä meta tiedolle? Mutta muista että sata väylä antaa vain 500MB/s ja nvme saa enemmän sequentaalia, mutta ramilla pääsee reilusti yli ton...
 

Statistiikka

Viestiketjuista
259 034
Viestejä
4 499 555
Jäsenet
74 325
Uusin jäsen
CapitateSnafu

Hinta.fi

Back
Ylös Bottom