Nettisivun tietokannan/datan imurointi

Liittynyt
21.10.2016
Viestejä
4 875
Olisi kyssäri nettisivun datan tallentamisesta koneelle pysyvään selattavaan muotoon ihan siitä syystä, että jos nettisivun hostaus joskus lopetetaan niin data olisi saatavilla.

Kyse on japsiautoille tarkoitetusta osanumero "tietopankista" eli käytännössä korjaamoiden käyttämä FAST softa, josta löytyy räjäytyskuvat ja osanumerot on dumpattu nettiin.

Sivuston alaosio voisi olla vaikka tämä:
Nissan Skyline parts catalog

ja tuolta sitten vaikkapa vielä alalinkkeinä tietyt mallit. Haluaisin siis käytännössä, että jokainen linkin takaa avautuva sivu tallentuisi kuvineen ja jokainen näiden takaa löytyvistä linkeistä löytyvä sivu löytyisi myös. Datamäärän ei pitäisi olla mitenkään älytön ja mikäli joku tallennuskeino löytyy, niin voisin rajata hieman tuota alkupäätä eli vain haluttujen mallien takaa löytyvä data tallentuisi.

Olisiko foorumilla vinkkejä.
 
Olisi kyssäri nettisivun datan tallentamisesta koneelle pysyvään selattavaan muotoon ihan siitä syystä, että jos nettisivun hostaus joskus lopetetaan niin data olisi saatavilla.

ja tuolta sitten vaikkapa vielä alalinkkeinä tietyt mallit. Haluaisin siis käytännössä, että jokainen linkin takaa avautuva sivu tallentuisi kuvineen ja jokainen näiden takaa löytyvistä linkeistä löytyvä sivu löytyisi myös. Datamäärän ei pitäisi olla mitenkään älytön ja mikäli joku tallennuskeino löytyy, niin voisin rajata hieman tuota alkupäätä eli vain haluttujen mallien takaa löytyvä data tallentuisi.

HTTrack.
 
Tai ihan vaikka wget tai scp? tai muu perus unix/linux työkalulla :)
 

Statistiikka

Viestiketjuista
261 705
Viestejä
4 544 796
Jäsenet
74 834
Uusin jäsen
jrahkon

Hinta.fi

Back
Ylös Bottom