Nettisivun tietokannan/datan imurointi

Liittynyt
21.10.2016
Viestejä
4 607
Olisi kyssäri nettisivun datan tallentamisesta koneelle pysyvään selattavaan muotoon ihan siitä syystä, että jos nettisivun hostaus joskus lopetetaan niin data olisi saatavilla.

Kyse on japsiautoille tarkoitetusta osanumero "tietopankista" eli käytännössä korjaamoiden käyttämä FAST softa, josta löytyy räjäytyskuvat ja osanumerot on dumpattu nettiin.

Sivuston alaosio voisi olla vaikka tämä:
Nissan Skyline parts catalog

ja tuolta sitten vaikkapa vielä alalinkkeinä tietyt mallit. Haluaisin siis käytännössä, että jokainen linkin takaa avautuva sivu tallentuisi kuvineen ja jokainen näiden takaa löytyvistä linkeistä löytyvä sivu löytyisi myös. Datamäärän ei pitäisi olla mitenkään älytön ja mikäli joku tallennuskeino löytyy, niin voisin rajata hieman tuota alkupäätä eli vain haluttujen mallien takaa löytyvä data tallentuisi.

Olisiko foorumilla vinkkejä.
 
Liittynyt
17.10.2016
Viestejä
327
Olisi kyssäri nettisivun datan tallentamisesta koneelle pysyvään selattavaan muotoon ihan siitä syystä, että jos nettisivun hostaus joskus lopetetaan niin data olisi saatavilla.

ja tuolta sitten vaikkapa vielä alalinkkeinä tietyt mallit. Haluaisin siis käytännössä, että jokainen linkin takaa avautuva sivu tallentuisi kuvineen ja jokainen näiden takaa löytyvistä linkeistä löytyvä sivu löytyisi myös. Datamäärän ei pitäisi olla mitenkään älytön ja mikäli joku tallennuskeino löytyy, niin voisin rajata hieman tuota alkupäätä eli vain haluttujen mallien takaa löytyvä data tallentuisi.
HTTrack.
 
Liittynyt
08.11.2017
Viestejä
65
Tai ihan vaikka wget tai scp? tai muu perus unix/linux työkalulla :)
 
Toggle Sidebar

Statistiikka

Viestiketjut
240 294
Viestejä
4 196 977
Jäsenet
70 886
Uusin jäsen
aulaabe

Hinta.fi

Ylös Bottom