Tekoälyn luomaa taidetta.

  • Keskustelun aloittaja Keskustelun aloittaja Lager7
  • Aloitettu Aloitettu
Tänään droppaapi SDXL 1.0. Yksi devaajista sanoi discordissa että weightsit n. 3h päästä eli klo 23 tietämillä. Varmaankin imuroitavissa osoitteesta stabilityai (Stability AI) kunhan laittavat tulille.

Siellä olis.
 
Taso alkaa olla aika pelottavan hyvää. En yllättyis jos 5 vuoden sisällä tulee lähes täysin AI generoituja elokuvia, ihmiset ehkä vähän sinne tänne sorkkii
 
Taso alkaa olla aika pelottavan hyvää. En yllättyis jos 5 vuoden sisällä tulee lähes täysin AI generoituja elokuvia, ihmiset ehkä vähän sinne tänne sorkkii
Porno menee mielenkiintoiseksi kun siinä kategoriassa on paljon laittomia asioita ja niitä pysytytään silloin tekemään muitta mutkitta. Ylipäätään porno on niin yksinkertaista että luulisi sen olevan koneälylle yksi helpoimpia kohteita.
 
  • Tykkää
Reactions: AkQ
Stable Diffusion + Photoshop beta toimii hienosti yhdessä. Generoin potrettikuvan SD:llä minkä tuuppasin photariin ja siinä venytin horisontaalisesti, jolloin tekoäly loi lisää matskua sivuille. Koko hommaan meni aikaa noin 30 sec SD promptin kirjoituksesta lopulliseen tallennukseen photarissa.

00003-1179288332o.jpg 00003-1179288332.jpg
 
Alkuun kokeilin adoben fireflytä ihan vakavasti. Huikean lupaava. Toivottavasti kilpailijoilta tulee varteenotettavaa settiä kuvankäsittelymarkkinoille. Adoben rajattoman ahneuden tuntien, tällä tullaan muuten rahastamaan loppukäyttäjät kuiviin hyvin pian betasta valmistumisen jälkeen. Näen jo perusphotograpy-planin ominaisuuksissa "sisältää 100 generatiivista jne.. per kk" ja sitten myydään kalliilla lisäkuponkeja tai premiumpia paketteja. Käsittääkseni ovat jotain tuollaista jo perustelleet sillä, että "korvaavat" alkuperäiskuvista jotenkin tekijöille. Selvää on se, että kuka tuossa lopulta maksaa ja kuka käärii voitot. Vaikeahan tuota ilman on olla, kun kerran pääsee vauhtiin :tdown:

Parin minuutin editointi tyttöystävän kissan kustannuksella "sailing in the black reflective still water". Pelkästään heijastuksen tekemiseen menisi se viisi minuuttia normisti puhtaalta pöydältä. Sopivan stock kuvan löytämiseen tuplasti.
ennen/jälkeen:

IMG-20210118-WA0002.jpg Layer 2.png

Oli edellisten viestien innoittamana pakko kokeilla tyhjälle ruudulle "finnish laughing (lesbian) fisherman attacked by bloodthirsty fish" tai jotain sinnepäin... ja laitetaans suosiolla spoilereihin :speechless:
finnish fisherman laughing and drowning.png


bloodthirsty finnish fisherman laughing and drowning2.png


bloodthirsty finnish fisherman laughing and drowning3.png


bloodthirsty finnish fisherman laughing and drowning4.png


bloodthirsty finnish fisherman laughing and drowning.jpg
 
Adobe tulee aivan varmasti laittamaan tekoälyn maksumuurin taakse Photarin betan päättymisen jälkeen, tuosta voisin melkein jo nyt laittaa pääni pantiksi.

Onneksi Stable Diffusionin Img2Img ja generoiva fill on hyvällä, joskaan ei Adoben tasolla, eikä maksa penniäkään. Adoben AI image resize on tosin melkein pelottavan hyvä. Monet potrettikuvat mitkä asiakkaat onkin halunneet myös vaihtoehtoisena laajakulmana on tuolla saatu tehtyä sekunneissa.
 
Adobe tulee aivan varmasti laittamaan tekoälyn maksumuurin taakse Photarin betan päättymisen jälkeen, tuosta voisin melkein jo nyt laittaa pääni pantiksi.

Onneksi Stable Diffusionin Img2Img ja generoiva fill on hyvällä, joskaan ei Adoben tasolla, eikä maksa penniäkään. Adoben AI image resize on tosin melkein pelottavan hyvä. Monet potrettikuvat mitkä asiakkaat onkin halunneet myös vaihtoehtoisena laajakulmana on tuolla saatu tehtyä sekunneissa.
Mitä tuo siis tekee? Fotari muuten tuttu kapistus kyllä.
 
A1111 tullut näköjään 1.6.0 versio paremmalla SDXL tuella. Ei tuo SDXL kyllä vieläkään vaikuta näillä 12GB korteilla pelittävän jos käyttää refineria, loppuu muisti kesken. ComfyUI:ssa pelittää hyvin, mutta sen käyttöliittymä on niin jäätävä, että mieluummin pysyn A1111 ja SD 1.5 tuunatuissa checkpointeissa ainakin toistaiseksi.
 
...Adoben rajattoman ahneuden tuntien, tällä tullaan muuten rahastamaan loppukäyttäjät kuiviin hyvin pian betasta valmistumisen jälkeen. Näen jo perusphotograpy-planin ominaisuuksissa "sisältää 100 generatiivista jne.. per kk" ja sitten myydään kalliilla lisäkuponkeja tai premiumpia paketteja. Käsittääkseni ovat jotain tuollaista jo perustelleet sillä, että "korvaavat" alkuperäiskuvista jotenkin tekijöille. Selvää on se, että kuka tuossa lopulta maksaa ja kuka käärii voitot.
No siinä ei todellakaan kauaa Adobella nokka tuhissut, että rahastuskuviiot saatiin implementoitua :D:thumbsdown:
 
Stable Diffusion + Photoshop beta toimii hienosti yhdessä. Generoin potrettikuvan SD:llä minkä tuuppasin photariin ja siinä venytin horisontaalisesti, jolloin tekoäly loi lisää matskua sivuille. Koko hommaan meni aikaa noin 30 sec SD promptin kirjoituksesta lopulliseen tallennukseen photarissa.

00003-1179288332o.jpg 00003-1179288332.jpg

Ja jos lainataan samantyylisesti eli

Tekoäly | Maailmalla levinneet kuvat paavista untuvatakissa eivät olleet aitoja – Tekoäly luo yhä uskottavampia huijauskuvia


1694689318743.jpeg
 
En ole gendreä seuraillut mutta pystyykö nykyään tekemään tekoälyllä vaikka jonkun naisen tyyliin tiktokkiin (tai mitä näitä saman tyylisiä nytten sitten onkaan)
 
Selvästi on nyt jo riittävän aidon näköinen kun katsoo noita kommentteja. Jokaisessa kuvassa olevissa kommenteissä joku alhabib tai intialainen jossain callcenterissä kirjoittelee "U so hot suki suki" ja näpöttää näppiin.
 
Joko "tekoäly" osaa itse oikeasti luoda täysin originaalia taidetta, tekstiä jne. vai vieläkö varastaa paloja sieltä täältä ja yhdistelee halutunkaltaiseksi kokonaisuudeksi?
 
Joko "tekoäly" osaa itse oikeasti luoda täysin originaalia taidetta, tekstiä jne. vai vieläkö varastaa paloja sieltä täältä ja yhdistelee halutunkaltaiseksi kokonaisuudeksi?
Osaako ihminen luoda täysin originaalia taidetta, tekstiä jne? Vai kokoaako hän sen vain kaikesta kokemastaan, kuulemastaan, näkemästään jne? Sanoisin, että tuo on vähän veteen piirretty viiva.
 
Joko "tekoäly" osaa itse oikeasti luoda täysin originaalia taidetta, tekstiä jne. vai vieläkö varastaa paloja sieltä täältä ja yhdistelee halutunkaltaiseksi kokonaisuudeksi?
Oli sen luokan kommentti, että ajattelin olla vastaamatta. Sitten tuossa järjestellessä asioita sattui samaan aikaan silmään (en ale adobella töissä) linkki adoben firfly kehitysdokumentteihin ja jäin miettimään. Jos joku nähty on kopiointia ja esim firefly:n algoritmit on opetettu kuvista, niin miten mikään pikselitasolla olis sen luovempaa/aidompaa.

Ostettuja teknologioitahan nuo ovat. Yhdistetty ja helvetin hyvin kasattu myytäväksi palveluksi. Mutta onko se luotua vai päälle liimattua palasta, kun kone analysoi ympäristön, valon ja kaiken ja luo siihen jotain käyttämällä valokuvasta tms. napattua tekstuuria.. Ehkä en ymmärrä kysymystä tai sitten vain vain haluan kinastella vastaan. Jääränä tajusin tuon vasta kun yksi pimeä syysilta kokeilin tehdä saman photarilla ilman ja ai-avun kanssa.

Kuvankäsittelyn nämä tulevat mullistamaan täysin. Luovuutta ei mikään (toivottavasti) tule korvaamaan koskaan.

Ammattivalokuvaajilta olen myös kuullut tavallaan positiivista tekoälytaiteesta. Alahan tavallaan kuoli jo digikameroiden myötä. Ystäväni, tällä viikolla 50v ammattikuvaaja sanoi kun näytin (tekoälyllä muokatun, tässä samassa ketjussa edelluisellä sivulla olevan kännykkäkuvan tyttöystävän kissasta), että on hienoa että ala kehittyy ja tavalliset käyttäjät oppivat käyttämään tekoälyn luomia mahdollisuuksia tarpeisiinsa. Kaveri kyllä ei kyllä vakuuttanut tuolla kommentilla ja jatkettiin sitten jutustelua rgb-maailmasta ja curves-työkalun soveltamisesta. Jälkeenpäin mietin että vanhanliiton kuvaaja on jo luopunut ajatuksesta "luoda" uutta ja ehkä edes tuotekuvaajana tms ollut kovin huolissaan että hommat lähti nyt tekoälyn myötä alta.

Ai niin, hyvä ominaisuus muuten tuossa generative fillissä on toi "remove obstacles" tms kun jättää tyhjäksi. Ainakin getty imagesin ja shutterstockin vesileimat poistaa todella hyvin :p Adoben omasta kuvapankista varmaan löisi tilin lukkoon. en ole vielä kokeillut.
 
Taustoista huomaa vielä, että on tosi sekavaa ja hankalaa luoda joitain juttuja (Midjourney ei näytä tajuavan yhtään mikä on moottoripyörä tai miten leveä auto tai kaksi on). Samoin asusteet sekoilee hieman.
 
Eipä tuo vielä aidolta näytä. Mutta ei varmaankaan montaa vuotta mene että näyttäisi aidolta.

Kurkkaa kommentteja. Sadat, ellei tuhannet, äijät menneet vipuun. Onhan noista iso osa aivan helvetin hyviä. Joissakin näyttää turhan muoviselta, mutta niin näyttää ihmisetkin nykyään, varsinkin IG-mallit.
 
Kurkkaa kommentteja. Sadat, ellei tuhannet, äijät menneet vipuun. Onhan noista iso osa aivan helvetin hyviä. Joissakin näyttää turhan muoviselta, mutta niin näyttää ihmisetkin nykyään, varsinkin IG-mallit.
Näin. Ite täysi harrastelija photoshoppailija. PC+65" telkkarilta katseltu kuva on niin eri kun vaikka 6"tms puhelimelta vilautettu kuva. Noista paskoista tekoälyvirheistäkin saa anteeksi kun lisää hieman kohinaa tai blurraa ja vetää jollain perusfiltterillä värisävyt vähän tasaisemmaksi.

Suurin osa noista tekoälyluomuksista on kieltämättä niin nörttien puuhastelua, että melkein hävettää :p .... paraskin sanoja, oikeutetusti :facepalm:
 
Joko "tekoäly" osaa itse oikeasti luoda täysin originaalia taidetta, tekstiä jne. vai vieläkö varastaa paloja sieltä täältä ja yhdistelee halutunkaltaiseksi kokonaisuudeksi?
Tuskaisan vaikeaa (mahdotonta?) ihmiselle olla varastamatta ja yhdistelemättä jo luotua taidetta uuteen taiteeseen, mutta tekoälyllehän tuo olisi vain negatiivinen promtti jo olemassa olevaan taiteeseen;

Lue maailman kaikki kirjat - luo tarina jota ei liity mihinkään jo kirjoitettuun tarinaan mitenkään.
Katso kaikki maailman taulut - luo taideteos, joka poikkeaa mahdollisimman paljon kaikesta jo luodusta.
Kuuntele kaikki maailman musiikki - luo musiikkiteos, jossa ei yhtään jo tunnettua sävelkulkua.

Täysin originaalia kontenttia, randomia avantgarde taidetta?
Omasta mielestäni oikein mielenkiintoinen kysymys sekä taiteen että tekoälynkin kannalta, kun on ohitettu jo piste että osaa jäljitellä lähes täydellisesti tunnettuja taidesuuntia.
 
Viimeksi muokattu:
Kyllähän tekoälyä alkaa ammatillisiin piireihinkin hiljalleen tulla. Case in point:

Systeri pyörittää omaa valokuvaus/mainostoimistoa, mistä itselläkin on taustat. Sisko oli varovaisen epäileväinen tekoälyyn, otin läppärin reppuun, pyöräytin Stable Diffusionin tulille ja näytin miten se toimii ja miten sitä käytetään. Seuraavalla viikolla tuli konsultointipyyntö laatia suunnitelma saada kaikki toimiston koneet päivitettyä RTX näyttiksille mahdollisimman nopealla aikataululla. Nyt siellä on tekoäly arkipäiväisessä käytössä esimerkiksi logojen suunnittelussa, viimeisinkin logo jonka asiakas valitsi, oli tekoälyn käsialaa.

Pelkkiin pilvipalveluihin nojaavat toimistot tulevat varmasti toimeen Adoben etä-tekoälylläkin, mutta veikkaanpa Stable Diffusionin vapauden ja Controlnet lisärin olevan melko korvaamaton apu valokuvauspuolella. Tai mitäpä jos Adobe sattuu kiristämään EULA:a entistä natsimpaan suuntaan, rajoittaen mitä tekoälyllä saa tai ei saa tehdä, tai jos AI palvelimet menee nurin pitkäksi aikaa ja
töitäkin pitäisi tehdä? Tuolloin täysin paikallisesti ajettava tekoäly on alkuinvestoinnin jälkeen kullan arvoinen, kun duunit ei ole mistään ulkoisesta palvelusta tai yrityksestä riippuvaisia.

Ettei mene pelkäksi liirumlaarumiksi, muutama testi realisticVision 5.1 checkpointilla, promptit:
+ (best quality:1.2), detailed photo from chernobyl, abandoned, soviet, indoors, (water reflection:0.95), rust, overgrown, closeup focus on rubber duck on floor, depth of field, bokeh
- (low quality, worst quality:1.4), fcNeg-neg, UnrealisticDream, BadDream

00223-3411301908.jpg 00217-415252654.jpg
 
Viimeksi muokattu:
OpenAI:n DALL-E 3 julkistettu (ei vielä testattavissa). Mainostavat, että noudattaa promptia hyvin. Paljon rajoitetumpihan toi toki on kuin Stable Diffusion kun ei voi lokaalisti ajaa ja "modata" Controlneteillä ym. mutta ihan mielenkiintoista näitä merkittävimpien tekijöiden edistysasekeleitaon silti seurata.

 
Alkaa olla AI animaatio vaikuttavassa tikissä. Opetellut tämän päivän animatediff-cli-prompt-travel joka siis komentorivipohjainen animointityökalu, state of the art kamaa tällä hetkellä.

Spoilereihin ettei nsfw hermoilijat vedä herneitä, sorry not sorry:
Animaatio-workflown ymmärtämiseen paloi koko päivä, Python heitti kapulaa rattaisiin melkein joka käänteessä. Pientä konsistenssi-viilausta vielä kaipaisi varsinkin taustan osalta, mutta toimii.
 
Alkaa olla AI animaatio vaikuttavassa tikissä. Opetellut tämän päivän animatediff-cli-prompt-travel joka siis komentorivipohjainen animointityökalu, state of the art kamaa tällä hetkellä.

Spoilereihin ettei nsfw hermoilijat vedä herneitä, sorry not sorry:
Animaatio-workflown ymmärtämiseen paloi koko päivä, Python heitti kapulaa rattaisiin melkein joka käänteessä. Pientä konsistenssi-viilausta vielä kaipaisi varsinkin taustan osalta, mutta toimii.
Itse kun en näistä juuri sitä tietoteknistä puolta ymmärrä niin millaista koodia sitä joutuu vääntämään että voi saada jotain tuon kaltaista aikaan? Kiinnostaisi ihan uteliaisuudesta, osaan ehkä jotain sanoja poimia sieltä seasta vaikka muuten olisikin hepreaa koko homma :D
 
No kun tuon saa asennettua ja suorittamaan .json konffia ilman virheitä, niin ei siinä sen jälkeen ihmeitä haasteita ole. Esimerkkinä itse käytin yhdessä promptissa yhtä .pt päätteistä VAE tiedostoa, joka ei tahtonut millään toimia ja ohjelma kaatui aina, kunnes asensi pytorch-lightning kirjaston, kaikkea tuollaista pikkuhauskaa voi tulla eteen ja aikaa menee googlettamiseen. Tuolla linkatussa gitissä on kaikki mitä tarvitsee jos haluaa itse asentaa ja alkaa hakkaamaan näppistä.

Kun homma toimii, niin ei tarvitse koskea muuta kuin tuohon konffiin joka määrittää koko workflown: animatediff-cli-prompt-travel/config/prompts/prompt_travel.json at main · s9roll7/animatediff-cli-prompt-travel
 
No kun tuon saa asennettua ja suorittamaan .json konffia ilman virheitä, niin ei siinä sen jälkeen ihmeitä haasteita ole. Esimerkkinä itse käytin yhdessä promptissa yhtä .pt päätteistä VAE tiedostoa, joka ei tahtonut millään toimia ja ohjelma kaatui aina, kunnes asensi pytorch-lightning kirjaston, kaikkea tuollaista pikkuhauskaa voi tulla eteen ja aikaa menee googlettamiseen. Tuolla linkatussa gitissä on kaikki mitä tarvitsee jos haluaa itse asentaa ja alkaa hakkaamaan näppistä.

Kun homma toimii, niin ei tarvitse koskea muuta kuin tuohon konffiin joka määrittää koko workflown: animatediff-cli-prompt-travel/config/prompts/prompt_travel.json at main · s9roll7/animatediff-cli-prompt-travel
Tässä insinöörivastaus, kun kysyjän lähtötaso on "Itse kun en näistä juuri sitä tietoteknistä puolta ymmärrä" :facepalm: :smile:

Kyllähän se on niin, että nuo käyttöliittymät ja käyttöönotot näissä on vielä aivan lapsenkengissään ja tarpeettoman monimutkaisia.
 
Insinööristä en oikeen tiedä, itse kun en osaa kirjoittaa koodia pätkääkään. Näissä komentokehote-asioissa kuitenkin tarvitaan aina edes hiukan sinnikkyyttä ja jaksamista syöttää virheitä googleen. :kippis:

AI käyttöliittymät (A1111 / ComfyUI) on ihan lapsellisen helppoja. Painota positiivisia asioita mitä haluat kuvaan, painota negatiivisia asiota mitä et halua kuvaan, paina generoi, ota kuva talteen.
 
Millloinkohan sitä ekan kerran "kokeilisi" AI:n tekemää aikuisviihdettä...
 
Dall-e 3 on nyt Bingissä. Aika omassa luokassaan siinä kuinka tarkasti tuntee konsepteja. Esim. Helsingin tuomiokirkolla tulee vähän mitä sattuu muilla malleilla mutta Dall-e 3:lla näyttää tältä:

 
Muutama vanhojen kuvien mustavalko -> värityskokeilu. SD Controlnetillä tehty, tuo plugari: ViscoseBean/control_v1p_sd15_brightness · Hugging Face

Workflow joko img2img -> clip interrogate promptia varten -> generointi tai sitten upscale Topazilla ennen img2img vaihetta jos alkukuva todella pieni. Ei muuta käsittelyä, puhtaasti tekoälyn käsialaa.

Inpaintillä saisi vielä parannettua yksityiskohtia, mutta ei jaksanut, kun tuli ihan käyttökelpoista tavaraa näinkin.

10246263_818841181462618_6051561862037139849_n.jpg 00049-1998531075.jpg
14053750_1341525769194154_6775251413054999192_o.jpg 00065-3951891104.jpg
1800121_958033537543381_4850084198083061842_o.jpg 00041-2487325619.jpg
155530_r500.jpg 00069-591066396.jpg
 
Käytin Edgen Image Creatoria, seuraavan levyni kantta suunnitellessa:
OIG-9.jpg

Edit: tein siis tämän tyylisiä monia, Ai:lla on edelleen hieman vaikeuksia sormien kanssa. Nykyään niitä on jo oikea määrä, mutta luonnollinen asento on vaikea saavuttaa. Ihmisilmä kuitenkin helposti aistii että jokin ei ihan täsmää tms vaikka ekalla vilkaisulla hyvältä näyttää.
 
Viimeksi muokattu:
Tullut tänään uudet Nvidia ajurit joissa parannettu TensorRT lisärituki A1111 webui kanssa. Tuota pikaisesti kokeilin ja kyllähän se lähestulkoon tuplasi nopeuden, valitettavasti ei voi käyttää hiresfixiä, joten kuvien max koko 768x768 SD 1.5 tai 1024x1024 SDXL. Pysyttelen vielä xformers + opt-channelslast käyttäjänä, kunnes TensorRT saa hiresfix skaalauksen edes 3x asti.

 
Vääntäkää rautalangasta, mikä olisi tällä hetkellä sellainen AI-aloittelijaystävällinen systeemi, jos haluaisi esimerkiksi mustavalkokuvia värittää kuten tuossa yllä tai jotain valokuvia/logoja tms tehdä pelkän tekstin perusteella? Millä kannattaa lähteä kokeilemaan?
 
Vääntäkää rautalangasta, mikä olisi tällä hetkellä sellainen AI-aloittelijaystävällinen systeemi, jos haluaisi esimerkiksi mustavalkokuvia värittää kuten tuossa yllä tai jotain valokuvia/logoja tms tehdä pelkän tekstin perusteella? Millä kannattaa lähteä kokeilemaan?
Asennusta en aloittelijaystävälliseksi uskalla mainostaa enkä tarkkoja ohjeita jaksa vääntää, mutta yksi suht toimiva combo on ComfyUI + SDXL + Recolor controlnet.

ComfyUI: GitHub - comfyanonymous/ComfyUI: The most powerful and modular stable diffusion GUI with a graph/nodes interface.
SDXL Base malli: https://huggingface.co/stabilityai/...esolve/main/sd_xl_base_1.0_0.9vae.safetensors
Controlnet: stabilityai/control-lora · Hugging Face

Tosta controlnetistä olennaiset filut (mutta myös tohon model cardiin - yllä oleva linkki - kandee varmaan tutustua):
- Varsinainen recolor controlnet malli: control-LoRAs-rank256/control-lora-recolor-rank256.safetensors · stabilityai/control-lora at main
- ComfyUI example workflow, joka drag&dropataan selaimeen kun ComfyUI käynnissä ja selaimessa auki: comfy-control-LoRA-workflows/control-lora-recolor-basic_example.json · stabilityai/control-lora at main

ComfyUI:hin kandee imasta myös ComfyUI manager joka osaa löytää puuttuvat lisäosat (nodet) ja asentaa ne, niin ei tarvitse kaikkea aina manuaalisesti githubista kaivaa.

Yksinkertaisella tekstipromptilla tekee tällaista jälkeä:
Screenshot 2023-10-17 at 21-41-26 ComfyUI.png

edit: tuli itseasiassa paljon siistimpää jälkeä kun käytin Euler_ancestral sampleria joka tossa workflowssa onkin defaulttina:

comfyui-cn-recolor_00103_.png


edit2: Vaatii tosiaan vaivannäköä saada homma rullaamaan, kun on sitä sun tätä asenneltavaa tuossa. Fooocus on hyvä jos haluaa helpon käyttökokemuksen ihan vaan teksti -> kuva generointiin (ei tukea mustavalkokuvien värittämiselle):

 
Viimeksi muokattu:
Itseltä suositus A1111 WebUI + ControlNet extension ja joku SD 1.5 pohjainen model, kuten CyberRealistic. Mustavalkoisten kuvien värittämiseen tuo samassa postauksessa linkkaamani ControlNet lisäri.

Ei kannata ekalla yrityksellä kuuhun kurkottaa, kunhan asentaa joko A1111 (helppo) tai ComfyUI (vaikea) ja alkaa ihmettelemään miten systeemit toimii. Yhdessä illassa oppii jo paljon.
 

Statistiikka

Viestiketjuista
262 485
Viestejä
4 558 207
Jäsenet
74 972
Uusin jäsen
Nagi

Hinta.fi

Back
Ylös Bottom