NAS rakentelut

  • Keskustelun aloittaja Keskustelun aloittaja dun
  • Aloitettu Aloitettu
Tossa äsken kyykytin omaa serveriäni, 1 pooli, 6 kpl 4 TB ruostekiekkoja ja huimat 12 gigaa rammia ja prossuna joku 3-ytiminen athlon II tms. Gigaisen verkon yli lukukopeus vaihteli muutamasta megasta verkon maksimiin ollen kuitenkin keskimäärin jossain 20-60 megaa/s välissä. Tässä siis musiikkiohjelma rakensi itselleen tietokannan kappaleista, joten tarkkaa tietoa siitä mitä ja monellako säikeellä se on lukenut, ei minulla ole. Serverillä zcachessa oli tyhjää tilaa monta gigaa, iowait oli 20-30% koko ajan ja muuten ei ollut mitään kuormaa. Onko kyse vain levyjen hakuaikojen aiheuttamasta odottelusta vai voisiko tuota datan läpimenoa nopeuttaa esimerkiksi io-scheduleria vaihtamalla?
 
Ei riity suoraan rakenteluun, mutta samaan kohderyhmään kuitenkin. Onko täällä porukalla käyttökokemuksia Cloudflaren tunneleista? Jos konsepti ei ole tuttu, niin systeemi on pääpiirteissään sellainen proxyn ja VPN:n välimuoto. Kotoa/palvelimelta/mistä haluatkaan luodaan reverse proxy Cloudflaren palvelimelle, ja kaikki sisäänmenevä liikenne kulkee Cloudflaren palvelimien läpi ja tuon reverse proxyn kautta sisään ilman että tarvii portteja availla palomuurista. Cloudflaren hallinnasta määritellään sitten että mihin sisäiseen IP-osoitteeseen ja porttiin mikäkin liikenne halutaan. Ja palvelu on siis ilmainen käyttää.

Ite virittelin pari päivää sitten tuon käyttöön oman palvelimen eteen. Tosin minulla oli palvelut auki ulospäin jo ennen tuotakin, mutta lisäähän tuo turvallisuutta ainakin teoriassa. Helppo laittaa pystyyn, mutta joitain yllätyksiä tuli vastaan vasta asennuksen jälkeen. Esim. SSH ulkopuolelta tuon Cloudflaren läpi ei ilmeisesti onnistukaan noin vain, vaan vaatii erityiskikkailuja. Päädyin lopulta tekemään sellaisen selainpohjaisen terminaalin, johon löytyy netistä ohjeita.

Puhelimen kalenteri (Onecalendar) ei myöskään enää suostu synkkaamaan Nextcloudiin tuon Cloudflaren läpi, vaikka caldavin sinänsä pitäisi toimia. "Ratkaisu" oli ottaa Onecalendarin asetuksista "verify certificates" pois päältä, mikä ei ole ihan optimaalista.

Lisäksi netissä pyörii jotain huhuja, että Cloudflaren käyttöehdot kieltää kaiken ei-html sisällön, ja suurien datamäärien siirroista voi tulla banaania tai maksuja. Ei oo vielä kokemusta kummastakaan, kun ei yleensä ole tarvetta lähetellä ulkoapäin isompia filuja sisään. Yhtenä suunnitelmana ois kyllä viritellä Kasm palvelimelle ja katella sen kautta selaimella Netflixiä töissä kun se on firman verkossa estetty :D vaan vaikea uskoa että tuokaan riittäisi toimiin Cloudflaren puolelta.

Lisäksi oli jotain vaikeuksia saada kaikki palvelut näkymään oikein tuon cloudflaren reitityksen kautta. Ilmeisesti moni on tehnyt niin, että ohjaa Cloudflaresta kaiken liikenteen johonkin proxymanageriin ja tekee omassa sitten reverse proxyt oikeisiin osoitteisiin.

Käyttäisin itse Cloudflare tunneleita vain hyvin rajatuissa tilanteissa, koska Cloudflarella on tuossa toteutuksessa täysi näkyvyys tunnelin sisällä kulkevaan dataan. Kun katsoo plussia ja miinuksia kokonaisuutena, niin itse en omista palveluista löytänyt oikein sellaista mitä Cloudflarelle laittaisin. Ehkä yhden, mutta sekin on kaverin harrastusprojekti, jota hostaan yhdellä virtuaalikoneella kaljapalkalla.

Cloudflaren suurin plussa on mielestäni oman IP:n piilottaminen hostatessa omia palveluita ja koko palvelun ilmaisuus. Siihen ne sitten oikeastaan jäävätkin. Cloudflare ei tykkää, jos sen läpi hostataan suuria datamääriä (kuten Plex/Jellyfin palvelinta), joten tuollainen "paras" käyttöskenaario omasta näkökulmasta vesittyy. Jos sitten taas hostataan jotain muuta, kuten omaa Nextcloudia, niin en todellakaan itse haluaisi jakaa sen sisältöä kolmannelle osapuolelle. Yksityisyys on minulle yksi suurimmista self hostingin hyödyistä. Jos haluaisin helpon ja aina tavoitettavan palvelun, jos en olisi huolissani yksityisyydestä, niin sellaisia on tarjolla jo vaikka miten.

Sitten oma lukunsa ovat vielä ne oikeasti vaaralliset asiat, kuten tuo SSH:n avaaminen nettiin omasta kotipalvelimesta. Riskiä voi toki tuossakin minimoida käyttämällä Public Key Authenticationia ja laittamalla tunnelin eteen jonkin loginin, mutta silti jättäisin itse tekemättä, koska VPN:t ovat jo aivan kelpo vaihtoehto tähänkin. Miksi avata se oma SSH liikennekään 3. osapuolen katsottavaksi, kun ei ole pakko?

Eli summauksena:
- Cloudflare ei tykkää suuresta dataliikenteestä (ainakaan ilmaisessa palvelutasossa) ja esimerkiksi Plexin hostaus rikkoo/rikkonee TOS:a
- Cloudflare näkee tunnelin datan eli yksityisyys on niin ja näin. Cloudflaren maine on hyvä, mutta jenkkifirma on aina jenkkifirma... Toki tunnelin läpi voi hostata Nextcloudia, mutta toisaalta sitten voi jo saman tien käyttää vaan Googlen tai Microsoftin pilveäkin. Annat vaivalla itse hostaamaasi palveluun näkyvyyden kolmansille osapuolille. Vähän sellainen "How to create OneDrive with extra steps"-skenaario :D
- Tunnelit eivät ole missään tilanteessa turvallisempia kuin VPN-yhteys, joten kriittisimmät asiat kannattaa rakentaa itse hostatun VPN:n varaan.
- Mitä tällä sitten kannattaa hostata? Ei tietoturvan tai -suojan kannalta kriittisiä harrasteprojekteja? Muuta en oikein keksi.

Tulipa negatiivinen viesti, ei ollut tarkoitus jyrätä koko ideaa. Itse tykkään kyllä tuosta ajatuksesta tuotteen suhteen, mutta tarkemmin ajatellen minusta tuntuu, että tuo ratkaisee vähän olemattomia ongelmia. Olit nähtävästi itsekin päätynyt vähän samoihin pohdintoihin. Tutustuin itsekin tuohon tuotteeseen ihan hiljattain ja totesin, että pitäköön tunkkinsa.
 
Tossa äsken kyykytin omaa serveriäni, 1 pooli, 6 kpl 4 TB ruostekiekkoja ja huimat 12 gigaa rammia ja prossuna joku 3-ytiminen athlon II tms. Gigaisen verkon yli lukukopeus vaihteli muutamasta megasta verkon maksimiin ollen kuitenkin keskimäärin jossain 20-60 megaa/s välissä. Tässä siis musiikkiohjelma rakensi itselleen tietokannan kappaleista, joten tarkkaa tietoa siitä mitä ja monellako säikeellä se on lukenut, ei minulla ole. Serverillä zcachessa oli tyhjää tilaa monta gigaa, iowait oli 20-30% koko ajan ja muuten ei ollut mitään kuormaa. Onko kyse vain levyjen hakuaikojen aiheuttamasta odottelusta vai voisiko tuota datan läpimenoa nopeuttaa esimerkiksi io-scheduleria vaihtamalla?
Kävin katsomassa ja siellähän oli oletusasetukset eli mq-deadline ja optimaalisin ZFS:n kanssa ja myös käyttislevyn (ssd) kanssa on 'none'. Kirjoitin udev-säännön ja nyt on sekin asia kunnossa, myös tulevissa käynnistyksissä. Täytyy koittaa testata jotenkin, onko vaikutusta.
 
Käyttäisin itse Cloudflare tunneleita vain hyvin rajatuissa tilanteissa, koska Cloudflarella on tuossa toteutuksessa täysi näkyvyys tunnelin sisällä kulkevaan dataan. Kun katsoo plussia ja miinuksia kokonaisuutena, niin itse en omista palveluista löytänyt oikein sellaista mitä Cloudflarelle laittaisin. Ehkä yhden, mutta sekin on kaverin harrastusprojekti, jota hostaan yhdellä virtuaalikoneella kaljapalkalla.

Cloudflaren suurin plussa on mielestäni oman IP:n piilottaminen hostatessa omia palveluita ja koko palvelun ilmaisuus. Siihen ne sitten oikeastaan jäävätkin. Cloudflare ei tykkää, jos sen läpi hostataan suuria datamääriä (kuten Plex/Jellyfin palvelinta), joten tuollainen "paras" käyttöskenaario omasta näkökulmasta vesittyy. Jos sitten taas hostataan jotain muuta, kuten omaa Nextcloudia, niin en todellakaan itse haluaisi jakaa sen sisältöä kolmannelle osapuolelle. Yksityisyys on minulle yksi suurimmista self hostingin hyödyistä. Jos haluaisin helpon ja aina tavoitettavan palvelun, jos en olisi huolissani yksityisyydestä, niin sellaisia on tarjolla jo vaikka miten.

Sitten oma lukunsa ovat vielä ne oikeasti vaaralliset asiat, kuten tuo SSH:n avaaminen nettiin omasta kotipalvelimesta. Riskiä voi toki tuossakin minimoida käyttämällä Public Key Authenticationia ja laittamalla tunnelin eteen jonkin loginin, mutta silti jättäisin itse tekemättä, koska VPN:t ovat jo aivan kelpo vaihtoehto tähänkin. Miksi avata se oma SSH liikennekään 3. osapuolen katsottavaksi, kun ei ole pakko?

Eli summauksena:
- Cloudflare ei tykkää suuresta dataliikenteestä (ainakaan ilmaisessa palvelutasossa) ja esimerkiksi Plexin hostaus rikkoo/rikkonee TOS:a
- Cloudflare näkee tunnelin datan eli yksityisyys on niin ja näin. Cloudflaren maine on hyvä, mutta jenkkifirma on aina jenkkifirma... Toki tunnelin läpi voi hostata Nextcloudia, mutta toisaalta sitten voi jo saman tien käyttää vaan Googlen tai Microsoftin pilveäkin. Annat vaivalla itse hostaamaasi palveluun näkyvyyden kolmansille osapuolille. Vähän sellainen "How to create OneDrive with extra steps"-skenaario :D
- Tunnelit eivät ole missään tilanteessa turvallisempia kuin VPN-yhteys, joten kriittisimmät asiat kannattaa rakentaa itse hostatun VPN:n varaan.
- Mitä tällä sitten kannattaa hostata? Ei tietoturvan tai -suojan kannalta kriittisiä harrasteprojekteja? Muuta en oikein keksi.

Tulipa negatiivinen viesti, ei ollut tarkoitus jyrätä koko ideaa. Itse tykkään kyllä tuosta ajatuksesta tuotteen suhteen, mutta tarkemmin ajatellen minusta tuntuu, että tuo ratkaisee vähän olemattomia ongelmia. Olit nähtävästi itsekin päätynyt vähän samoihin pohdintoihin. Tutustuin itsekin tuohon tuotteeseen ihan hiljattain ja totesin, että pitäköön tunkkinsa.
Samaa mieltä. VPN:n pystytys on itselläkin ollut työlistalla, mutta en ole saanut aikaiseksi. Minulla "äärimmäinen" yksityisyys ei muutenkaan ollut omien palvelujen pystytyksen taustalla, vaan enemmänkin vain Googlen palveluista eroon pääsy ja oma virittelynhalu. Aiemmin siis oli Googlen sähköposti, Drive ja kalenteri kovassa käytössä, nykyisin sähköposti Fastmailissa ja Drive ja kalenteri Nextcloudissa. En itse ole erityisen huolissani siitä, että kaikki data virtaa Cloudflaren palvelimien läpi, kun kyseessä on kuitenkin yritys joka päätyönään myy tietoturvapalveluita. Toki ymmärrän senkin näkökulman, että haluaa pitää kaikki munat omassa korissa, mutta kun Googlen päätyö on kerätä ja myydä käyttäjädataa eikä Microsoftkaan tässä suhteessa ole paljon parempi, niin näkisin että selfhosted+Cloudflare tunnel on kuitenkin Driveä ja Onedriveä paljon tietoturvallisempi vaihtoehto.

Siksi toisekseen, kun minulla oli periaatteessa koko infra (pois lukien se VPN) jo omasta takaa, eli wildcard TLS ostettuna vuosiksi eteenpäin ja DDNS skriptit ja proxypalvelimet jne, niin periaatteessa ainut asia mistä tässä vaiheessa hyödyn on tuon tunnelin VPN-mäinen osa, ja siinäkin tulee toki tuo edellisessä kappaleessa mainittu varjopuoli. Ymmärtääkseni tuon tunnelin pitäisi jollain lailla myös suodattaa sitä liikennettä Cloudflaren algoritmien mukaisesti, mutta ainakin tuonne Crowdsecciin tulee ihan yhtä paljon kaikenlaisia kalasteluja kuin tähänkin asti.

Kokeilumielessä oon katellut yövuoroissa kaikenlaisia videoita Nextcloudista verkon yli, ja ainakaan toistaiseksi ei oo napsahtanut banaania tai muuta noottia Cloudlfaren puolelta. Eli varmaan ei ole kovin herkäksi viritetty sitä seurantaa bittivirran voimakkuuden suhteen ja harrastelijakäyttäjät lienee aika lailla turvassa siltä. Toki miulla ei mitään Plexiä ole ajossa ollenkaan, ja esim. valvontakameroiden lähettämä kuva liikkuu vain sisäverkossa.

Mutta joo, luultavasti syssyn aikana palaan entiseen ja pistän VPN:n pystyyn sen sijaan.
 
wildcard TLS ostettuna vuosiksi eteenpäin

Ihan mielenkiinnosta kysyn että miksi?

Letsencrypt tarjonnu wildcard certtiä jo vuosia. Toki jos on jostain "luotettavammasta" maksullisesta mestaa halvalla saanut niin sitten. Viimeeksi kun itte jonkun mestan wildcard certin hintaa katsoin niin maksoi hunajaa.
 
Ostin levyjä lisää sen verran että voin siirtyä Unraidista pois. Tuo uusi Unraid tukee ZFS:ää mutta tekee mieli koittaa jotain uutta. Kokoonpano 8 x 4TB ja ZFS raidz-2 suunnitelmissa. Toiseen koneeseen jota käytän myös desktop koneena tulisi 4 x 3TB raidz-1. Nvme levyt käyttiksille. Haluan pyörittää lxc kontteja joten se rajaa käyttisvaihtoehtoja.

Ubuntu ja proxmox oli vertailussa, mutta snap pakotus ei nappaa ainakaan vielä ja proxmox tuntui jotenkin kankealta käyttöliittymältä. Voi olla etten vain osannut mutta monesti piti hypätä terminaaliin. Joten ajattelin pistää vain Debianin ja siihen ZFS DKMS asennuksena. Tuohon desktoppiin (gnome) sen jo virittelin. Serveri sitten ilman desktoppia, ssh riittänee sen hallinnoimiseen.

ZFS datasetit dokumenteille lz4 ja media kuten videot ilman pakkausta. Deduplikointia en ajatellut käyttää, vanhoista koneista kasattua kuluttajarautaa ja muistia molemmissa vain 32 GB.

Mitään lisähuomioita tai vinkkejä, ennenkuin lyön systeemin ”lukkoon”?

Edit: Onko L2ARC kovin hyödyksi, nvme levy löytyy ylimääräisenä molempiin koneisiin? Jonkinlaisen replikoinnin voisi ilmeisesti tehdä dataset-tasolla?
 
Viimeksi muokattu:
Ostin levyjä lisää sen verran että voin siirtyä Unraidista pois. Tuo uusi Unraid tukee ZFS:ää mutta tekee mieli koittaa jotain uutta. Kokoonpano 8 x 4TB ja ZFS raidz-2 suunnitelmissa. Toiseen koneeseen jota käytän myös desktop koneena tulisi 4 x 3TB raidz-1. Nvme levyt käyttiksille. Haluan pyörittää lxc kontteja joten se rajaa käyttisvaihtoehtoja.

Ubuntu ja proxmox oli vertailussa, mutta snap pakotus ei nappaa ainakaan vielä ja proxmox tuntui jotenkin kankealta käyttöliittymältä. Voi olla etten vain osannut mutta monesti piti hypätä terminaaliin. Joten ajattelin pistää vain Debianin ja siihen ZFS DKMS asennuksena. Tuohon desktoppiin (gnome) sen jo virittelin. Serveri sitten ilman desktoppia, ssh riittänee sen hallinnoimiseen.

ZFS datasetit dokumenteille lz4 ja media kuten videot ilman pakkausta. Deduplikointia en ajatellut käyttää, vanhoista koneista kasattua kuluttajarautaa ja muistia molemmissa vain 32 GB.

Mitään lisähuomioita tai vinkkejä, ennenkuin lyön systeemin ”lukkoon”?

Edit: Onko L2ARC kovin hyödyksi, nvme levy löytyy ylimääräisenä molempiin koneisiin? Jonkinlaisen replikoinnin voisi ilmeisesti tehdä dataset-tasolla?

Jos Proxmoxin suhteen on valmis vaan harjoitteluun, niin valitsisin ehdottomasti sen. Se on alustana paljon parempi varsinkin jos virtualisointi kiinnostaa. Jos tarkoituksesi ei ole virtualisoida, niin Debian ja Ubuntu olisivat omat ensimmäiset vaihtoehdot, mutta joku varmasti vastaa kohta, että kaikki paitsi Gentoo on paskaa. Distron valinta on loppupeleissä aikalailla mielipideasia, jos omat tarpeet täyttyvät useamalla eri vaihtoehdolla.

LZ4-pakkaus on käsittääkseni niin "fiksu", että se ei kompressoi väkisin jo pakattuja tiedostomuotoja. Minulla on LZ4 pakkaus käytössä ihan ZFS pool tasolta.

Ennen L2ARC:n käyttöön ottoa kannattaa maksimoida alustan muistimäärä (olettaen että se on jokseenkin kustannustehokasta).
 
Tulee varmaan hieman virtualisoitua, mutta jos ymmärsin oikein niin proxmox on debian+lxc+kvm+gui. Muistia tulee ehkä myöhemmin lisää jos/kun tulee kova tarjous.
 
Tulee varmaan hieman virtualisoitua, mutta jos ymmärsin oikein niin proxmox on debian+lxc+kvm+gui. Muistia tulee ehkä myöhemmin lisää jos/kun tulee kova tarjous.

Melkolailla noin. Virtualisointi on huomavasti mukavampaa ihan sitä varten suunnitellulla hostilla, kuin rakennettuna "tavallisen" käyttiksen päälle. Itse pyöritin pitkään kaiken Ubuntu hostin päällä, mutta ylläpito ja uusien koneiden luominen oli melkoisen ärsyttävää verrattuna Proxmoxiin.

Jos siis tiedossa on jo virtuaalikoneita, niin valinta kannattaa suunnata Proxmoxiin ja muihin vastaaviin käyttiksiin.
 
Ihan mielenkiinnosta kysyn että miksi?

Letsencrypt tarjonnu wildcard certtiä jo vuosia. Toki jos on jostain "luotettavammasta" maksullisesta mestaa halvalla saanut niin sitten. Viimeeksi kun itte jonkun mestan wildcard certin hintaa katsoin niin maksoi hunajaa.
Hyvä kysymys. Tää on peruja siltä ajalta kun olin DNA:n mobiiliverkon perässä. DNA blokkaa kaikki yleisimmät portit (80, 443, 22 jne) sisään, jolloin tuota letsecrypt sertifikaattia ei voi käyttää tai ei ainakaan silloin voinut tai en osannut. Siksi päädyin ostamaan sekä domainin että sertifikaatin Namecheap-sivuston kautta, kun niillä on erilainen se sertifikaatin luonti ja onnistuu ilman standardien HTTP/HTTPS-porttien aukioloa. Tällä hetkellä oon Elisan kaapelissa ja lähitulevaisuudessa valokuidussa, joten tuolla ei enää olisi isompaa merkitystä, mutta tulipahan joskus hommattua. Ja useammaksi vuodeksi nimenomaan siksi, että silleen oli merkittävästi halvempi.
 
Melkolailla noin. Virtualisointi on huomavasti mukavampaa ihan sitä varten suunnitellulla hostilla, kuin rakennettuna "tavallisen" käyttiksen päälle. Itse pyöritin pitkään kaiken Ubuntu hostin päällä, mutta ylläpito ja uusien koneiden luominen oli melkoisen ärsyttävää verrattuna Proxmoxiin.

Jos siis tiedossa on jo virtuaalikoneita, niin valinta kannattaa suunnata Proxmoxiin ja muihin vastaaviin käyttiksiin.
En oikein ymmärtänyt proxmoxia ja koin paljon helpommaksi raakan Linux-hostin ja sille tarpeelliset cockpit-paketit jolloin voi ihan webbikälin yli käpistellä konetta. Paljon selkeämpi kuin Proxmox kun klusterointi jätetään pois tälläiselle yksinkertaiselle ihmiselle jolla virtuaalit pyörivät vain yhden tallennustilan ja koneen varassa.
 
En oikein ymmärtänyt proxmoxia ja koin paljon helpommaksi raakan Linux-hostin ja sille tarpeelliset cockpit-paketit jolloin voi ihan webbikälin yli käpistellä konetta. Paljon selkeämpi kuin Proxmox kun klusterointi jätetään pois tälläiselle yksinkertaiselle ihmiselle jolla virtuaalit pyörivät vain yhden tallennustilan ja koneen varassa.

Onhan tuo vähän oma maailmansa, kuten muutkin hypervisorit, mutta kun niihin pääsee sisälle kunnolla, niin paluuta takaisin on vaikea kuvitella. Klusterointeihin en itse ole lähtenyt, kun tarvetta ei ole. Jätän sellaiset sitten kriittisempiä toimintoja pyörittäville tahoille.

Makuasioitahan nämä kuitenkin ovat. Kumpikaan vaihtoehto ei varsinaisesti ole parempi kuin toinen.
 
Onhan tuo vähän oma maailmansa, kuten muutkin hypervisorit, mutta kun niihin pääsee sisälle kunnolla, niin paluuta takaisin on vaikea kuvitella. Klusterointeihin en itse ole lähtenyt, kun tarvetta ei ole. Jätän sellaiset sitten kriittisempiä toimintoja pyörittäville tahoille.

Mjoo tuuttasin itellekin ajoon ja on tuo ollut varsin kätevä kapistus. Jonkin verran on opeteltavaa, mutta missäpä ei.
 
Ennen L2ARC:n käyttöön ottoa kannattaa maksimoida alustan muistimäärä (olettaen että se on jokseenkin kustannustehokasta).

Laitoin Debianin, ja LXD:llä asensin Ubuntu VM:n mihin dockerin… Ei vaikuttanut liian vaikealta komentoriviltäkään.

Oisko tämä pätevää muistia jos tilais neljä kampaa, vai onko suosituksia?

 
Laitoin Debianin, ja LXD:llä asensin Ubuntu VM:n mihin dockerin… Ei vaikuttanut liian vaikealta komentoriviltäkään.

Oisko tämä pätevää muistia jos tilais neljä kampaa, vai onko suosituksia?

Tuo on rdimmiä. Kovin moni emo ei tue rdimmiä. Tarviit palvelin tason rautaa, esim joku supermicron emo voisi vaikka tuota tukea.

Tuosta udimmiä.


 
Ah kiitos. Ihan perus x570 lautaan tulossa.
Tarkista että tuo sun emo tukee ecc muistia myös ecc tilassa. Joistain emoista on jätetty linjat vetämättä ja täten ecc ominaisuus ei toimi, vaan muisti toimii, kuin mikä tahansa muisti.

Lisäksi virheen raportointi on am4 emoilla vähän epäselvää, että tuleeko se käyttikselle läpi vai ei. Ecc silti toimii(jos linjat on vedetty), vaikka virheestä ei raportoitaisi.
 
Ainakin tuolla jotain ECC:stä mainitaan mutta sen enempää en ymmärrä… Ryzen 3100 prossu.

 
Ainakin tuolla jotain ECC:stä mainitaan mutta sen enempää en ymmärrä…

Sun emo tukee ecc ominaisuutta, eli virheen sattuessa pitäisi korjata se virhe.

ECC Memory (ECC mode) support varies by CPU.

Enään on epäselvää että raportkoiko emo sen virheen käyttöjärjestelmälle vai ei. Tämän testaamiseen oli joku keino olemassa, mutta en nyt muista asiaa kunnolla. Muistaakseni Techpotato (ian cutress) testasi ecc raportointia jollain videolla. Pieni mahdollisuus on että kyseessä oli Level1 tech.


 
Siis oma emo tukee ecc mutta ei ecc moodissa?
Supports ECC UDIMM memory (non-ECC mode)
 
Sattuuko joku tarviimaan raidikorttia NAS-rakenteluun?

 
Tuli ostettu toi yläpuolella oleva kortti. Onkos täällä muilla kyseistä korttia? Itte tuumasin että aika kuumana käy kun räkkiin noi on suunniteltu. Tilasin jimmsiltä 40x40x10mm ropelin ja sen sai kahdella nipparilla kivasti kiinni coolerin kiinnitysrautoihin. Ero on huomattava. Kortti idlenä ilman ropelia sormea ei oikein viittiny siinä coolerissa pitää kiinni, nyt se on vaan sellainen lämpöinen.
 
Tuli ostettu toi yläpuolella oleva kortti. Onkos täällä muilla kyseistä korttia? Itte tuumasin että aika kuumana käy kun räkkiin noi on suunniteltu. Tilasin jimmsiltä 40x40x10mm ropelin ja sen sai kahdella nipparilla kivasti kiinni coolerin kiinnitysrautoihin. Ero on huomattava. Kortti idlenä ilman ropelia sormea ei oikein viittiny siinä coolerissa pitää kiinni, nyt se on vaan sellainen lämpöinen.
Minulla on H330 ja sekin käy ilman tuuletusta todella kuumana. Käsittääkseni käytännössä kaikissa HBA/RAID korteissa sama homma, syyn jo totesitkin. Kevyellä satunnaisella kuormalla tuo toimi ilman tuuletustakin, mutta pidempikestoisissa raskaissa kuormissa alkoi pakan toiminta hidastelemaan/pätkimään.
 
Vaihdoin NAS purkkiin 1700 ryzenin tilalle 5700G prossun ja ilmeisesti integroitu näytönohjain sekoitti Proxmoxin IO. Onko tuohon jotain helppoa ohjetta korjaukseen vai onko helpompi asentataa Proxmox uudelleen? Ei pääse siis verkon kautta kiinni koneeseen muuttuneen(?) IO takia.

Purkkaratkaisuna taidan vaihtaa 1700 takaisin.

(Muut osat: Asus X370 Prime pro, 64GB ram, HBA 8x, verkkokortti 2.5GB).
 
Vaihdoin NAS purkkiin 1700 ryzenin tilalle 5700G prossun ja ilmeisesti integroitu näytönohjain sekoitti Proxmoxin IO. Onko tuohon jotain helppoa ohjetta korjaukseen vai onko helpompi asentataa Proxmox uudelleen? Ei pääse siis verkon kautta kiinni koneeseen muuttuneen(?) IO takia.

Purkkaratkaisuna taidan vaihtaa 1700 takaisin.

(Muut osat: Asus X370 Prime pro, 64GB ram, HBA 8x, verkkokortti 2.5GB).
Jos pääset konsoliin käsiksi (näppis+näyttö kiinni), muokkaa "/etc/network/interfaces" -tiedostoon oikea verkkokortti. Tyyliin enp3s0f0 on nyt enp4s0f0 tms. Tarkista "ip a" komennolla uusi verkkokortin nimi. Sen jälkeen "systemctl restart networking.service".

Mukava tämä systemd predictable network interfaces systeemi, eikö vain :)

E: Huomioi että tuo kortti pitää siis muuttaa kahdessa paikassa:
iface <kortti> inet manual
ja sen lisäksi vielä (vakio bridgen jos et ole muutoksia tehnyt) vmbr0:n sisällä on "bridge-ports <kortti>"
 
Viimeksi muokattu:
Jos pääset konsoliin käsiksi (näppis+näyttö kiinni), muokkaa "/etc/network/interfaces" -tiedostoon oikea verkkokortti. Tyyliin enp3s0f0 on nyt enp4s0f0 tms. Tarkista "ip a" komennolla uusi verkkokortin nimi. Sen jälkeen "systemctl restart networking.service".

Mukava tämä systemd predictable network interfaces systeemi, eikö vain :)

E: Huomioi että tuo kortti pitää siis muuttaa kahdessa paikassa:
iface <kortti> inet manual
ja sen lisäksi vielä (vakio bridgen jos et ole muutoksia tehnyt) vmbr0:n sisällä on "bridge-ports <kortti>"

Tuon avulla varmaan pääsen eteenpäin, kiitos :)
 
Tuon avulla varmaan pääsen eteenpäin, kiitos :)
Jos näytölle tulee liikaa tekstiä niin putkita tuo ip a komento lessiin, eli "ip a | less" ja sitten välilyönnillä rullaat alaspäin (lopulta näppäimellä "q" poistutaan). Myös "ip a | grep -v veth | grep -v ether" helpottaa tuota tekstimäärää, pitäisi jäädä turhat containereiden tiedot pois.
 
Tähän ei varmaan yhtä oikeaan objektiivista vastausta ole, mutta kuinka kannattavaa on maksaa lisähintaa kotikäytössä nas levyistä? Omassa käytössä nas on vain tiedostojemmana joka saattaa idlata päiviäkin ilman lukua tai kirjoitusta.

Eli mikä ero esim näissä on kun käyttäjiä on yksi ja käyttö on rinnastettavissa usb levyn käyttötapaan?

 
Tähän ei varmaan yhtä oikeaan objektiivista vastausta ole, mutta kuinka kannattavaa on maksaa lisähintaa kotikäytössä nas levyistä? Omassa käytössä nas on vain tiedostojemmana joka saattaa idlata päiviäkin ilman lukua tai kirjoitusta.

Eli mikä ero esim näissä on kun käyttäjiä on yksi ja käyttö on rinnastettavissa usb levyn käyttötapaan?

Exos on oikeastaan parempi kuin "nas" levyt.
 
Tähän ei varmaan yhtä oikeaan objektiivista vastausta ole, mutta kuinka kannattavaa on maksaa lisähintaa kotikäytössä nas levyistä? Omassa käytössä nas on vain tiedostojemmana joka saattaa idlata päiviäkin ilman lukua tai kirjoitusta.

Eli mikä ero esim näissä on kun käyttäjiä on yksi ja käyttö on rinnastettavissa usb levyn käyttötapaan?


Tuohon hintaan saat jo 16 TB Exosta: 267,90 € | Seagate Exos X18 3.5" 16000 GB Serial ATA III

NAS:issa käyttäisin itse palvelin/NAS -käyttöön suunnattua levyä ihan jo seuraavista syistä:
- Parempi MTBF
- Luultavimmin CMR, eikä SMR -levy. Vaikuttaa nopeuteen aikalailla.
- TLER-tuki jos käyttää RAID:ia. Tosin kaikki valmis NASsit ei tuota huomioi.
- Tehty käytettäväksi tilanteissa jossa levyjä on useita vierekkäin.
- Kustomoitu firmware juurikin tätä käyttöä ajatellen.

Toki ne peruslevytkin kotikäytössä NAS:issa menee ihan hyvin jos edullisesti saa. Varmuuskopiot nyt kuitenkin pitää olla aina kunnossa levyistä riippumatta.
 
Viimeksi muokattu:
Tulipas viriteltyä NASiin lisää levyjä ja samalla rakenneltua koko laitos uusiksi. Kysymys kuuluu, voiko TrueNASiin vaihtaa verkkokortin ns. "lennosta" vai meneekö järjestelmä rikki? Nyt 1Gbps kortti, mutta tarkoitus vaihtaa piakkoin 10Gbps korttiin.
 
Tulipas viriteltyä NASiin lisää levyjä ja samalla rakenneltua koko laitos uusiksi. Kysymys kuuluu, voiko TrueNASiin vaihtaa verkkokortin ns. "lennosta" vai meneekö järjestelmä rikki? Nyt 1Gbps kortti, mutta tarkoitus vaihtaa piakkoin 10Gbps korttiin.

Ei järjestelmän rikki pitäisi mennä, ainoastaan joutuu (joutunee) määrittämään ip-osoitteen uudelleen.
 
Osaako joku sanoa tästä emolevystä mitään?
"kingnovyPC NAS Motherboard J6413 J6412,2 Port i226 1*RTL8125BG 2.5GbE LAN,M.2 NVMe 6,SATA3.0,2*DDR4, 1*PCIe, Mini ITX Soft Router VPN Openwrt Barebone Micro Appliance DIY"

Erityisesti kiinnostaa tuo "1 native SATA, expand to 5 ports" että mitäköhän sillä käytännössä tarkoitetaan? tarviiko se jotakin lisäpalikkaa että nuo boardilla olevat portit saisi käyttöön? Samaten vähän arveluttaa hyrrällä varustettu prosessori, mieluiten olisin ilman niin että ko. palikka olisi tyystin passiivinen - vähän vastaavia emolevyjä passiivijäähdytyksellä saa mutta heikommilla liitännöillä ja eri prosessorilla niin mietin mahdollisuutta siihen että tuosta heittää prosessorin tuulettimen kokonaan mäkeen ja virittelee siihen jotakin muuta. Tässä vaiheessa olen rakentamassa NASia tornikoteloon joten tilaa kyllä riittää vaikka minkälaiselle obeliskille.

Tuossa olisi ainakin paperilla speksit kunnossa mutta valmistaja nyt ei erityisesti sano yhtään mitään ja internetistä on hirveän vaikea löytää informaatiota.
 
Erityisesti kiinnostaa tuo "1 native SATA, expand to 5 ports" että mitäköhän sillä käytännössä tarkoitetaan?
Että siinä on 6 sata porttia.
Screenshot_20231005_110832_Firefox.jpg



mietin mahdollisuutta siihen että tuosta heittää prosessorin tuulettimen kokonaan mäkeen ja virittelee siihen jotakin muuta.
Tuossa taitaa cpu juotettu suoraan emolevylle? Joten jäähyn kiinnitys voi olla mitä tahansa, voi mennä hankalaksi vaihtaa sitä johonkin muuhun.
 
Että siinä on 6 sata porttia.
Screenshot_20231005_110832_Firefox.jpg

Juu, niin se minun järki sanoisi tässä, mutta mietin että onko siinä joku mystinen, järjenvastainen juttu kun noissa kommenteissa viitataan usein siihen että vain ensimmäinen porteista toimii. Pisti miettimään että minkä valtakunnan käyttäjävirhe on kyseessä. Kun tuota kaivelee lisää internetistä niin nähtävästi tuo JMB585 ei kykene käyttämään kaikkia ainakaan täydellä kaistalla samaan aikaan kun on PCIe x2. Tuskin vaikuttaa tässä sovelluksessa kuitenkaan ihan loputtomasti.

Tuossa taitaa cpu juotettu suoraan emolevylle? Joten jäähyn kiinnitys voi olla mitä tahansa, voi mennä hankalaksi vaihtaa sitä johonkin muuhun.

Se voi olla, kattelin että siilin alta pilkistää ruuvit ja netistä kaivettuna pohjakuvassa on läpiviennit, niin se saattaa olla irrotettavissa.
 
On irrotettavissa tuo siili, kannattaa tarkistaa ja vaihtaa tahnat. Itse tuuletin on kohtuuhiljainen enkä sitä ole huomannut.

Tuo SATA-kontrollerihommeli meinaa sitä että nuo portit 2-6 on JMB585:n takana joka on emolevyn mallista riippuen joko 1x 2.0 tai parhaimillaan 2x 3.0; ainoastaan yksi portti on Intelin SOCin takana. SSD-levyillä tuolla on merkitystä, mutta pyörivillä levyillä ei.

Omassa N5095-mallissa tuo on LnkCap: Port #0, Speed 8GT/s, Width x2 eli 3.0 x2 eli kaistaa on n. 2 GB/s mikä riittää hyvin viidelle kiintolevylle.
 
Juu, niin se minun järki sanoisi tässä, mutta mietin että onko siinä joku mystinen, järjenvastainen juttu kun noissa kommenteissa viitataan usein siihen että vain ensimmäinen porteista toimii. Pisti miettimään että minkä valtakunnan käyttäjävirhe on kyseessä. Kun tuota kaivelee lisää internetistä niin nähtävästi tuo JMB585 ei kykene käyttämään kaikkia ainakaan täydellä kaistalla samaan aikaan kun on PCIe x2. Tuskin vaikuttaa tässä sovelluksessa kuitenkaan ihan loputtomasti.

Minulla on tuon tapainen laite jossa myös tuo JMB585. Rajoittaa lähinnä siten ettei kannata iskeä kuin kiintolevyjä, ei SATA SSD-levyjä.

Tuolta lisää jos kiinnostaa:
 
Tuossa olisi vieläpä pcie-slotti wlanille kymppägigaiselle verkkokortille tms? nassejako näistä olette väsänneet vai palomuureja?
 
Tuossa olisi vieläpä pcie-slotti wlanille kymppägigaiselle verkkokortille tms? nassejako näistä olette väsänneet vai palomuureja?

Tuossa ei riitä PCIE-kaista 10G verkkokortille. Nuo emolevyt ovat niin täyteen pakattuja ja Atomeissa on niin vähän PCIE väyliä. Jos et hyödynnä noita 2.5G portteja, niin menee hukkaan koko laite.

4x lanes for four i226
2x lanes for 2 NVMe x1
1x lane JMB585
1x set for native SATA

Itselläni on laite käytössä palomuurina, NASsina ja lisäksi Homeassistant. Kaikki nuo virtuaalisena Proxmoxin päällä.
 
Tuossa ei riitä PCIE-kaista 10G verkkokortille.

No helposti piisaa jos toi on PCI-e 4.0 väylä kuten otsikko mainostaa. Näyttää x4 slotilta mutta vaikka olisi vain x1 niin:
Version 4.0: 16 GT/s, x1: 1.97 GB/s
1.97 x 8 = 15.76Gb/s

Esim https://www.amazon.com/Edimax-EN-9320SFP-Ethernet-Converts-EN-9320TX/dp/B0779NW6DM

Runko jolla saadaan 10G netti x4 PCI-e 2.0 aikaiseksi ja 4.0 on neljä kertaa nopeampi kuin 2.0, joten riittää x1 väylä. Toinen asia on sitten että onko olemassa PCI-e 4.0 väylällä varustettuja kortteja. Pikaisella amazonin selaamisella ei tullut vastaan.
 
No helposti piisaa jos toi on PCI-e 4.0 väylä kuten otsikko mainostaa. Näyttää x4 slotilta mutta vaikka olisi vain x1 niin:
Version 4.0: 16 GT/s, x1: 1.97 GB/s
1.97 x 8 = 15.76Gb/s

Esim https://www.amazon.com/Edimax-EN-9320SFP-Ethernet-Converts-EN-9320TX/dp/B0779NW6DM

Runko jolla saadaan 10G netti x4 PCI-e 2.0 aikaiseksi ja 4.0 on neljä kertaa nopeampi kuin 2.0, joten riittää x1 väylä. Toinen asia on sitten että onko olemassa PCI-e 4.0 väylällä varustettuja kortteja. Pikaisella amazonin selaamisella ei tullut vastaan.
Ei vielä edes uusimmissa Alder Lake-N:ssä ole nuo väylät 4.0:aa.

PCIe-väyliä on kuitenkin vain 9 (joista osa jaetaan SATAn, kuten yllä postauksissa mainittu) niin tuollainen slotti on lähes aina 1x, 4x slotti voi olla fyysisesti 4x myös isomman virrankulun sallinnan vuoksi.
 
  • Tykkää
Reactions: jsa
Ei vielä edes uusimmissa Alder Lake-N:ssä ole nuo väylät 4.0:aa.

Sitten tuotteen tiedoissa on paha virhe.
KingnovyPC NAS Motherboard N5105, 4 Port i226/i225 2.5GbE LAN, M.2 NVMe, 6 x SATA3.0, 2 x DDR4, 1 x PCIe4.0, Mini ITX Soft Router VPN Openwrt Barebone Micro Appliance DIY
 

Statistiikka

Viestiketjuista
259 079
Viestejä
4 501 213
Jäsenet
74 327
Uusin jäsen
keisis

Hinta.fi

Back
Ylös Bottom