Nettisivun tietokannan/datan imurointi

Viestiketju alueella 'Yleinen ohjelmistokeskustelu' , aloittaja jonesky12345, 29.05.2019.

  1. jonesky12345

    jonesky12345

    Viestejä:
    1 934
    Rekisteröitynyt:
    21.10.2016
    Olisi kyssäri nettisivun datan tallentamisesta koneelle pysyvään selattavaan muotoon ihan siitä syystä, että jos nettisivun hostaus joskus lopetetaan niin data olisi saatavilla.

    Kyse on japsiautoille tarkoitetusta osanumero "tietopankista" eli käytännössä korjaamoiden käyttämä FAST softa, josta löytyy räjäytyskuvat ja osanumerot on dumpattu nettiin.

    Sivuston alaosio voisi olla vaikka tämä:
    Nissan Skyline parts catalog

    ja tuolta sitten vaikkapa vielä alalinkkeinä tietyt mallit. Haluaisin siis käytännössä, että jokainen linkin takaa avautuva sivu tallentuisi kuvineen ja jokainen näiden takaa löytyvistä linkeistä löytyvä sivu löytyisi myös. Datamäärän ei pitäisi olla mitenkään älytön ja mikäli joku tallennuskeino löytyy, niin voisin rajata hieman tuota alkupäätä eli vain haluttujen mallien takaa löytyvä data tallentuisi.

    Olisiko foorumilla vinkkejä.
     
  2. nestori

    nestori

    Viestejä:
    123
    Rekisteröitynyt:
    17.10.2016
    HTTrack.
     
  3. croc

    croc

    Viestejä:
    9
    Rekisteröitynyt:
    08.11.2017
    Tai ihan vaikka wget tai scp? tai muu perus unix/linux työkalulla :)
     
  4. Chronic Pain

    Chronic Pain

    Viestejä:
    149
    Rekisteröitynyt:
    19.10.2016
    Minkälaisella loitsulla tekisit AP:n haluaman asian scp:llä? Olisi satunnaisesti itsellänikin tarvetta.