Xiaomi esitteli uudet Mi 9 Pro 5G- ja Mi MIX Alpha -lippulaivapuhelimensa Pekingissä

Juha Kokkonen

Ylläpidon jäsen
Liittynyt
17.10.2016
Viestejä
13 959
xiaomi-mi-mix-alpha-otsikko-240919.jpg



Xiaomi on esitellyt Pekingissä uudet Mi 9 Pro 5G- ja Mi MIX Alpha -lippulaivapuhelimensa sekä MIUI 11 -käyttöliittymäpäivityksen. Etenkin Mi MIX Alphassa käytetään erittäin poikkeuksellista muotoilua ja materiaaleja ja se onkin eräänlainen konseptilaite Xiaomin osaamisesta ensimmäisen sukupolven Mi MIX:in tapaan.

xiaomi-mi-mix-alpha-7-240919.jpg


Kaksikosta Mi MIX Alpha on erittäin poikkeuksellisen näköinen TC4-titaaniseosrungon ja laitteen kylkien yli takakuoreen asti kaartuvan 7,92-tuumaisen (2088 x 2250) Flexible OLED -näytön myötä. Xiaomin mukaan näytön toteuttaminen, virhekosketusten estäminen sekä kaikkien antennien integroiminen puhelimeen oli suuri tekninen haaste. Näyttö tukee paineentunnistusta kyljissä ja kylkipainikkeet ovat toteutettu ohjelmistopohjaisesti ja lineaarisella moottorilla toteutetulla värinäpalautteella.

Puhelin havaitsee missä asennossa se on kädessä ja kytkee automaattisesti taustapuolelle jäävän näytön pois päältä. Takakuoressa kamerat on sijoitettu pystysuuntaiseen näytöttömään keraamikaistaleeseen. Etukamera on jätetty pois, koska takakameroita ja näytön takaosaa voidaan käyttää omakuvien ottamiseen. Puhelin osaa myös näyttää takakuoren puolella tekoälyn ja sijainnin avulla mukautettua sisältöä.

xiaomi-mi-mix-alpha-9-240919.jpg


Kamerapuolella Mi MIX Alpha on ensimmäinen älypuhelin, joka käyttää yli 100 megapikselin kamerasensoria. Käytössä on Samsungin valmistama 1/1,33-tuumainen 108 megapikselin Quad Bayer -sensori (12032 x 9024 pikseliä). Sen parina on f1.69-aukkosuhteen optisesti vakautettu objektiivi. Lisäksi takaa safiirilasin alle suojattuna löytyy 20 megapikselin ultralaajakulmakamera f2.2-aukkosuhteella sekä 12 megapikselin telekamera 1,4 um pikselikoolla, 2x zoomilla sekä f2.0-aukkosuhteella.

Rautapuolelta Mi MIX Alphasta löytyy lisäksi Snapdragon 855+ -järjestelmäpiiri, 12 Gt RAM-muistia, 512 Gt UFS 3.0 -tallennustilaa, 4050 mAh nano-piikatodiakku sekä 40 watin pikalataustuki.

Mi MIX Alpha tulee tuotantoon ensin pientuotantoerinä ja yritys pyrkii aloittamaan massatuotannon vielä ennen vuoden loppua. Laitteen suositushinta pientuotantona on 19 999 yuania, eli noin 2560 euroa.

xiaomi-mi9-pro-2-240919.jpg


Mi 9 Pro 5G on toteutukseltaan perinteisempi älypuhelin perustuen alkuvuodesta julkaistuun Mi 9 -malliin. Super AMOLED -näyttö on edelleen 6,39-tuumainen Full HD+ -tarkkuudella ja kolmoistakakamera perustuu edelleen 48, 12 ja 16 megapikselin sensoreihin kolmella eri polttovälillä.

Järjestelmäpiiri on päivitetty uusimpaan Snapdragon 855+ -versioon ja sen jäähdytys on toteutettu höyrykammioratkaisulla. Varustukseen kuuluu jopa 12 Gt RAM-muistia, 512 Gt tallennustilaa ja 5G-yhteydet. Mi 9 Pro 5G:stä löytyy myös uusi tehokkaampi kaiutintoteutus sekä voimakkaampi lineaarinen värinämoottori.

Akun kokoa on kasvatettu 700 mAh:lla 4000 mAh:iin, mikä on kaivattu parannus. Latausnopeuksia on kasvatettu ja langallinen lataus onnistuu nyt mukana toimitettavalla 45 watin laturilla, langaton lataaminen lisävarusteena myytävällä jäähdytetyllä laturitelakalla 30 watin teholla ja käänteinen langaton lataus 10 watin teholla. Johdolla akku latautuu tyhjästä täyteen 48 minuutissa ja langattomasti 69 minuutissa.

Mi 9 Pro tulee saataville Kiinassa viikon sisällä 3699-4299 yuanin hintahaarukassa (475-550 euroa). Tarjolle tulee myös 4G-versio, vaikka sitä ei mainittukaan julkaisun yhteydessä.

Xiaomi esitteli tilaisuudessa myös MIUI-käyttöjärjestelmänsä tuoreimman 11-version, joka perustuu Android 10:een. Käyttöliittymän ulkoasua on päivitetty, fonttia vaihdettu ja äänimaailmaa päivitetty. Ominaisuuspuolella uutta on mm. Mi Work -toimistosovellus ja tiedostonhallintakokonaisuus, Mi Go -matkustusapuri, monipuolisempi Always On Display ja ilmaiseksi muutettu teemasovellus. MIUI:n avoin beeta alkaa syyskuun 27. päivä ja viralliset päivitykset alkavat Kiinassa lokakuun puolivälissä.

Lähde: YouTube, Twitter

Huom! Foorumiviestistä saattaa puuttua kuvagalleria tai upotettu video.

Linkki alkuperäiseen uutiseen (io-tech.fi)

Palautelomake: Raportoi kirjoitusvirheestä
 
Viimeksi muokattu:
Kun Galaxy S6 Edge julkaistiin, niin tulin ajatelleeksi, ettei varmaan mene montaa vuotta siihen, että näyttö jatkuu reunoilta myös laitteen taakse. Vajaa 5 vuotta siinä näköjään lopulta sitten meni. Kauankohan menee, että takakuoren kaistalekin hävitetään ja kamerat ovat näytön alla? Mi MIX Alpha on täysin konseptiluuri mutta aika äkkiä ensimmäisen Mi MIX:n jälkeen lähdettiin häivyttämään etukameraa mitä erikoisimmilla tavoilla pois ihan yleisestikin :think:.
 
108MP sensori! Viimeksi yli 100MP sensoreita oon nähny Hasselbladin keskikoon kamerassa (keskikoon kamerassa kenno on luokkaa nyrkin kokoinen), jolla on hintaa henkilöauton verran. Sekin on harvinaisuus, sillä keskikoon kameratkin ovat tyypillisesti 50MP luokassa.

Tietysti täällä tulee taas kommentteja, että niitä pikseleitä käytetään prosessointiin, eikä valmiin kuvan pikseleiksi. Ehkä näin, mutta tässä tulee kyllä joka näkökulmasta melkoinen what the f... olo. Tästä tulee mun nähdäkseni paljon suurempia teknisiä haasteita, ku näytön virhekosketusten hallinnasta.
 
Ei kyllä herätä yhtään mielenkiintoa tuo mi mix alpha. Jotenki näyttää tosi oudolta.
 
On ainakin ultimaattinen väri, kun kerran voi itse vaihtaa :drool:
 
Tietysti täällä tulee taas kommentteja, että niitä pikseleitä käytetään prosessointiin, eikä valmiin kuvan pikseleiksi.

No sadan megapikkelsin kuva raakana on luokkaa 250 megatavua ja 90% jpegginäkin vielä yli kymmenen, eli ei kovin miellyttävää uploadattavaa pilvipalveluihin tai säilömiseen luurien vielä suhteellisen rajallisessa tallennustilassa. Puhumattakaan siitä että niitä pikseleitä on n. neljä jokaista 4k näytön pikseliä kohden eli aika harvalla nykylaitteella niitä voisi edes katsella täydellä resoluutiolla (zoomailematta).

Että parempi vaan jos niitä pikseleitä käytetään hyödyllisen loppukuvan luomiseen eikä sellaisenaan tallennettuna :p

Aika mielenkiintoinen tuo Alpha, herää taas se perinteinen kysymys tekniikkainnovaatiolle että "miksi?". Lähinnä tulee mieleen naamakameran näyttö mutta muuten jää kyllä ideat "voit kääntää eebookin sivua kääntämällä puhelimen" kikkailutasolle :think:

Edit: tuo reunan statusnäkymä tosin on aikas viileä idea, oma luuri on nytkin tuossa siten että näkisin lompakkokotelon välistä jos joku ilmotusteksti tms sinne pompsahtaisi
 
Nyt on tullut mitta täyteen noiden järjettömien kokojen ansiosta. Ei se näytön ja sitä myötä puhelimien koon kasvattaminen milli kerrallaan tuo käyttömukavuuteen mitään parannusta, pikemminkin päinvastoin kun ei puhelin mahdu enää kouraan ja kaikki toiminnot pitää tehdä kahta kättä käyttämällä. Jo huawein p30 pro on liian iso itselle vaikka iso käpä onkin ja jatkossa äänestän lomapakolla jättämällä kaikki oneplus 5 puhelinta suuremmat phabletit kaupan hyllylle.
 
Tuo Mi MIX Alpha näyttää hieman huawein mate X:ltä. Itse ainakin pidän melko mielenkiintoisena konseptina ja näyttää ainakin omaan silmään hyvältä. Saa sitten nähdä kuinka laite pelittää, mutta itse en tuollaista hintalappua ole valmis maksamaan. Hieno juttu kuitenkin että saadaan taas jotain uutta markkinoille.
 
No sadan megapikkelsin kuva raakana on luokkaa 250 megatavua ja 90% jpegginäkin vielä yli kymmenen, eli ei kovin miellyttävää uploadattavaa pilvipalveluihin tai säilömiseen luurien vielä suhteellisen rajallisessa tallennustilassa. Puhumattakaan siitä että niitä pikseleitä on n. neljä jokaista 4k näytön pikseliä kohden eli aika harvalla nykylaitteella niitä voisi edes katsella täydellä resoluutiolla (zoomailematta).

Että parempi vaan jos niitä pikseleitä käytetään hyödyllisen loppukuvan luomiseen eikä sellaisenaan tallennettuna :p

Kiitos ennakointini vahvistamisesta

Kysymys onkin juuri siitä, ovatko ne pikselit sellaisia, että niistä saa muodostettua hyödyllisen loppukuva?

Jos kameran objektiivi ei saa kerättyä kennolle tarpeeksi fotoneja tai muodostettua eri taajuisista fotoneista siistiä ja yksityiskohtaista lopputulosta, niin ei silloin niistä lisäsensoreista ole hyötyä.

Ajatellaan vaikka tilannetta, jossa kuvataan teräväreunaista kohdetta. Jos kohteen reuna muistuttaa objektiivin jälkeen kolmea eriväristä villalankaa lumimyrskyssä, ei siitä ole niin paljoa hyötyä ottaa tarkempaa kuvaa kuin sen muistuttaessa laserleikkausta.

Ehkä viereisiä pikseleitä voidaan käyttää eri valotuksiin HDR-kuvia varten, mutta silti tuntuu, että pienemmillä resoluutioilla voitaisiin päästä parempaan lopputulokseen

Kuten sanoit, pikseleitä on luultavasti se 24bit/P * 108MP / 8bit/MB eli 324MB edestä yhteen raakakuvaan. Siinä on aika paljon turhaa prosessoitavaa jos suuri osa niistä pikseleistä on kohinaa, aberraatioita ja muuta kuraa. Kävisi järkeen, että vähemmällä tulisi parempi.
 
Itse kuvat onkin sitten 27MP kokoa eli 6016x4512. Kennossa on se 108MP eri värisiä pikseleitä. Niistä saatua dataa yhdistelemällä luodaan varsinainen lopputulos eli kuva. Etu tuosta on varmaankin kohinan vaimennus. Saa parempia pimeäkuvia ja miksei päiväkuviakin. Huom. 4K monitorissa on vain 8MP.
 
Kennossa on se 108MP eri värisiä pikseleitä. Niistä saatua dataa yhdistelemällä luodaan varsinainen lopputulos eli kuva.

Voihan olla, että osapikseleitä on kolme kertaa enemmänkin. Voi olla, että ei, jos käyttävät eri määriä eri kokoisia antureita eri väreille.

Anyway pikselit ovat pieniä ja kohina suurta. Joudutaan käyttämään kohinanpoistoalgoritmejä, jotka muuttavat näiden pikseleiden väriarvoja ennen sitä yhdistelyä. Luultavasti nämä algoritmit vertailevat lähimpiä pikseleitä toisiinsa ja päättelevät sen perusteella mikä väri todellisuudessa halutaan. Kromaattisten aberraatioiden (eri värit taittuvat eri tavoin reunoista ja aiheutuu vihreitä ja violetteja haamuja reunojen ympärille) takia näitä värejä täytyy tulkita uudelleen kokonaisuutena ja poistaa löydetyt aberraatiot.

Kuvista täytyy poistaa myös optisia vääristymiä ja vinjetointia (kirkkauden asteittainen väheneminen kuvan keskeltä reunoja kohti)

Algoritmejä ja prosessointia on valtavat määrät, joten resoluution nostolla tämän perus prosessoinnin määrä kasvaa jyrkästi. Jos resoluutiota olisi vähemmän, niin ehkä jäisi resursseja tehdä jotain lisäkivaa samalla energiankulutuksella.

Vaikea kuvitella, että yli 100MP pikkukennolla ja kännykameran optiikalla saisi koodarinerojenkaan tekemien algoritmien jälkeen yhtään hienompia kuvia kuin 50MP kennolla. Saatan toki aliarvioida koodarinerot... mutta epäilen, että en.
 
Voisin harkita nykyisen Mi6 vaihtamista Mi9, mutta tuon ulkonevan kameran takia jää vaihto tekemättä.
 
Voihan olla, että osapikseleitä on kolme kertaa enemmänkin. Voi olla, että ei, jos käyttävät eri määriä eri kokoisia antureita eri väreille.
Kuvasensorissa on fotodiodeja, jotka eivät itsessään ole minkään värisiä, ja kameran resoluutio lasketaan näiden diodien määrän mukaan. Diodien päällä on suodin, jotka on tässä sensorissa Quad Bayer muodostelmassa (neljä samanväristä suodatinta vierekkäin). Sensori itsessään perustuu samaan 0,8 mikrometrin diodikokoon, mitä Samsung käyttää myös 64 ja 48 megapikselin sensoreissaan.
 
Olin jo harkitsemassa ostamista tuota alphaa katsoessa, kunnes näin hinnan. Komea on, mutta ei kyllä 2,5k € edestä.

Ei ehkä ulkonäkö, mutta eikö aikamme hirviökamera voisi jo olla sen väärti :confused:
 
Kuvasensorissa on fotodiodeja, jotka eivät itsessään ole minkään värisiä, ja kameran resoluutio lasketaan näiden diodien määrän mukaan. Diodien päällä on suodin, jotka on tässä sensorissa Quad Bayer muodostelmassa (neljä samanväristä suodatinta vierekkäin). Sensori itsessään perustuu samaan 0,8 mikrometrin diodikokoon, mitä Samsung käyttää myös 64 ja 48 megapikselin sensoreissaan.

Oli tän teknologian yksityiskohdat mitkä tahansa, niin se yleisperiaate ei muutu miksikään, että pieniä pikseleitä on paljon, fotoneja niihin saadaan vähän ja huonolla laadulla. Myös kaikki laskentatehoon liittyvät pointit pysyvät ihan yhtälailla voimassa vaikka olisivat tehneet sen Foveon-sensorilla.
 
Oli tän teknologian yksityiskohdat mitkä tahansa, niin se yleisperiaate ei muutu miksikään, että pieniä pikseleitä on paljon, fotoneja niihin saadaan vähän ja huonolla laadulla. Myös kaikki laskentatehoon liittyvät pointit pysyvät ihan yhtälailla voimassa vaikka olisivat tehneet sen Foveon-sensorilla.
Kunhan oikaisin, että mitään erillisiä alipikseleitä ei ole, ja tuo pikselikoko on sama kuin mitä jo markkinoilla olevista ratkaisuista löytyy. Ainoan potentiaalisen uuden ongelmatekijän muodostaa siis tuo objektiivin vaatima tila ja toki jotain rajoituksia tulee myös prosessoinnin suhteen, vaikka nykyjärjestelmäpiirien kuvaprosessointisuorituskyky alkaakin olla varsin korkealla tasolla.
 
Ei tuossa kamerassa tai lähinnä tuossa sensorissa ole mitään sen ihmeellisempää kun jo olemassa olevissa 48mp ja 64mp sensoreissa.

Onhan siinä isompi luku. Ei kuluttajat ennenkään ole mitään muuta tarvinneet :D
 
Kunhan oikaisin, että mitään erillisiä alipikseleitä ei ole, ja tuo pikselikoko on sama kuin mitä jo markkinoilla olevista ratkaisuista löytyy. Ainoan potentiaalisen uuden ongelmatekijän muodostaa siis tuo objektiivin vaatima tila ja toki jotain rajoituksia tulee myös prosessoinnin suhteen, vaikka nykyjärjestelmäpiirien kuvaprosessointisuorituskyky alkaakin olla varsin korkealla tasolla.

Ainoako potentiaalinen uusi ongelma? Vaikka pikselikoko olisi sama, niin suurempi määrä niitä yhdessä suuren tiedonsiirtonopeuden ja prosessoinnin kanssa aiheuttaa enemmän lämpenemistä ja kennon lämpeneminen lisää hyvin herkästi paljon kohinaa (tämän kokevat erityisesti nahoissaan pitkillä valotusajoilla tähtitaivasta kuvaavat). Tuossa puhelimessa ei edes ole mitään jäähdytyspinta-alaa, kun se on kiedottu kauttaaltaan näyttöön, joten siinä on eräs ongelman alku.

Itse en lähtisi tuudittautumaan myöskään siihen oletukseen, että pikseleiden kanssa ei tule ongelmia, kun pikselikoko on vanhoista tekniikoista tuttu. Isompi piirtoympyrä tarkoittaa vähemmän valoa per pikseli, kun se valo tulee samankokoisesta reiästä. Yhdessä todennäköisesti suuremman lämmön kanssa kohinaongelman pitäisi olla ihan eri luokassa.

Ja mikä on kuvan ottamiseen menevä aika? Kyllä kuva saadaan lopulta prosessoitua ja näytölle, kun sitä malttaa odottaa. Vai oiotaanko prosessoinnissa segmentoimalla kuvaa ja tekemällä kuvanlaadusta selvästi vaihteleva ympäri kuvaa? Sellaistakin funny bisnestä tämä saattaa aiheuttaa.
 
Ainoako potentiaalinen uusi ongelma? Vaikka pikselikoko olisi sama, niin suurempi määrä niitä yhdessä suuren tiedonsiirtonopeuden ja prosessoinnin kanssa aiheuttaa enemmän lämpenemistä ja kennon lämpeneminen lisää hyvin herkästi paljon kohinaa (tämän kokevat erityisesti nahoissaan pitkillä valotusajoilla tähtitaivasta kuvaavat). Tuossa puhelimessa ei edes ole mitään jäähdytyspinta-alaa, kun se on kiedottu kauttaaltaan näyttöön, joten siinä on eräs ongelman alku.

Itse en lähtisi tuudittautumaan myöskään siihen oletukseen, että pikseleiden kanssa ei tule ongelmia, kun pikselikoko on vanhoista tekniikoista tuttu. Isompi piirtoympyrä tarkoittaa vähemmän valoa per pikseli, kun se valo tulee samankokoisesta reiästä. Yhdessä todennäköisesti suuremman lämmön kanssa kohinaongelman pitäisi olla ihan eri luokassa.

Ja mikä on kuvan ottamiseen menevä aika? Kyllä kuva saadaan lopulta prosessoitua ja näytölle, kun sitä malttaa odottaa. Vai oiotaanko prosessoinnissa segmentoimalla kuvaa ja tekemällä kuvanlaadusta selvästi vaihteleva ympäri kuvaa? Sellaistakin funny bisnestä tämä saattaa aiheuttaa.
Mitenniin valo tulee samankokoisesta reiästä? Kennon koko ja f-luku on keskenään verrannollisia. Jos järjestelmäkamerassa on kiinni f1.69 -objektiivi, niin luuletko että objektiivissa oleva reikä on yhtä pieni kuin jossain kännykkäkamerassa, jossa on f1.69-objektiivi? Kun kennon koko kasvaa, kasvaa myös aukon fyysinen koko f-luvun ollessa sama.
Ihan älytöntä mutuilua ja foliohattuilua. Tässä Xiaomissa on yhtä isot pikselit (0,8µm) kennossa ja sama Quad Bayer-värifiltteriasettelu kuin markkinoiden tämänhetkistä huippua edustavissa älypuhelinkennoissa (Sony IMX586).
Snapdragon 855+:n kuvasignaaliprosessori kykenee käsittelemään 192 megapikselin kuvia, tosin silloin ei voi käyttää esim. useammasta peräkkäisestä framesta prosessoitua HDR-kuvausta.
 
Mitenniin valo tulee samankokoisesta reiästä? Kennon koko ja f-luku on keskenään verrannollisia. Jos järjestelmäkamerassa on kiinni f1.69 -objektiivi, niin luuletko että objektiivissa oleva reikä on yhtä pieni kuin jossain kännykkäkamerassa, jossa on f1.69-objektiivi? Kun kennon koko kasvaa, kasvaa myös aukon fyysinen koko f-luvun ollessa sama.
Ihan älytöntä mutuilua ja foliohattuilua. Tässä Xiaomissa on yhtä isot pikselit (0,8µm) kennossa ja sama Quad Bayer-värifiltteriasettelu kuin markkinoiden tämänhetkistä huippua edustavissa älypuhelinkennoissa (Sony IMX586).
Snapdragon 855+:n kuvasignaaliprosessori kykenee käsittelemään 192 megapikselin kuvia, tosin silloin ei voi käyttää esim. useammasta peräkkäisestä framesta prosessoitua HDR-kuvausta.

Miten tästä tulee sellainen olo kuin olisin väittänyt jotain ja se täytyy oikaista? En mielestäni väittänyt mitään mistään aukkosuhteista vaan puhuin aika yleisellä tasolla. Mistä tuo reaktio siis oikein tuli?

Jos prossu pystyy käsittelemään niin isoja kuvia, niin se on aivan mahtavaa, mutta mistä muistikaista, että se saa sen tehtyä. Ja mistä jäähdytys? Ja jos sitä ei voi käyttää HDR-kuviin, niin miksi noin suuri resoluutio niin heppoisen optiikan kanssa?

Jos noin suuren resoluution voi hyödyntää noin pienellä kennolla ja objektiivillä, niin miksi ei ole järjestelmäkameroita samalla kennolla ja kuvaprosessorilla? Jos noita kennoja yhdistelisi ja laittaisi paljon kuvaprosessoreita rinnan, niin sittenhän isolla järkkärillä voisi ottaa aika helposti Gigapikselin kuvia. Miksi näin ei tehdä?

Kai näitä asioita voi avoimesti ihmetellä ilman, että tarvitsee sietää vastauksena epäkohteliaisuuksia. Ei ihme, että näitä kommentteja tulee niin vähän, kun vastaukset ovat tämän sävyisiä.
 
Miten tästä tulee sellainen olo kuin olisin väittänyt jotain ja se täytyy oikaista? En mielestäni väittänyt mitään mistään aukkosuhteista vaan puhuin aika yleisellä tasolla. Mistä tuo reaktio siis oikein tuli?

Jos prossu pystyy käsittelemään niin isoja kuvia, niin se on aivan mahtavaa, mutta mistä muistikaista, että se saa sen tehtyä. Ja mistä jäähdytys? Ja jos sitä ei voi käyttää HDR-kuviin, niin miksi noin suuri resoluutio niin heppoisen optiikan kanssa?

Jos noin suuren resoluution voi hyödyntää noin pienellä kennolla ja objektiivillä, niin miksi ei ole järjestelmäkameroita samalla kennolla ja kuvaprosessorilla? Jos noita kennoja yhdistelisi ja laittaisi paljon kuvaprosessoreita rinnan, niin sittenhän isolla järkkärillä voisi ottaa aika helposti Gigapikselin kuvia. Miksi näin ei tehdä?

Kai näitä asioita voi avoimesti ihmetellä ilman, että tarvitsee sietää vastauksena epäkohteliaisuuksia. Ei ihme, että näitä kommentteja tulee niin vähän, kun vastaukset ovat tämän sävyisiä.

Järjestelmäkamera ja älypuhelimen kamera on tavallaan kaksi eri ääripäätä.
Järkkäriin voi laittaa suurikokoisen kennon eteen kilon verran lasia 30cm pitkässä paketissa.
Puhelimessa optiikalle on tilaa muutamia millimetrejä, joka rajoittaa myös kennon kokoa.
Järjestelmäkamera siis luottaa siihen, että saadaan ilman prosessointia korkealaatuinen kuva.
Puhelimessa tämä ei ole mahdollista kokorajoitusten vuoksi. Puhelimissa on nykyään paljon prosessointitehoa -> tätä tehoa voidaan käyttää kuvanlaadun parantamiseen. Mitä enemmän saadaan dataa prosessointia varten (eli mitä enemmän pikseleitä kennossa on), sitä parempaan lopputulokseen päästään jos prosessointiin käytettävät algoritmit on kohdillaan. Loputtomasti noita pikseleitä ei kuitenkaan voi mahduttaa pienikokoiseen kennoon, koska kun mennään alle ~1um pikseleihin, alkaa fotonit karkailla vierekkäisten pikseleiden puolelle kennolla. Siksi näissä älypuhelimissa käytettävien suurten megapikselimäärien kennojen yhteydessä käytetään Quad Bayer-filttereitä, joissa neljän pikselin ryhmät on samanvärisiä. Tämä taas pudottaa kennon efektiivisen resoluution neljäsosaan siitä markkinoidusta megapikselimäärästä, tuottaen kuitenkin enemmän dataa prosessointia varten kuin perinteisellä filtterillä varustettu kenno, jonka resoluutio on 1/4 Quad Bayer-filtteriä käyttävän kennon resoluutiosta.

Mikäänhän ei sinänsä estäisi sitä, että tehtäisiin järjestelmäkamera suurikokoisella ~100 megapikselin kennolla, ja prosessorina käytettäisiin jotain vastaavaa kuin älypuhelimissa. Ainoa rajoittava tekijä todennäköisesti on tällaisen kameran hinta.

Lyhyesti sanottuna järkkäri luottaa korkealaatuiseen, paljon valoa kaappaavaan optiikkaan ja suurikokoisen kennon valontaltioimiskykyyn (suurikokoisen pikselin kohdalle osuu enemmän fotoneja valotuksen aikana kuin pienikokoisen pikselin kohdalle), kun taas puhelimissa kummallekaan ei ole tilaa, jolloin kuvanlaatua parannetaan taltioimalla mahdollisimman paljon dataa (paljon pikseleitä + yhdistetään useampi kuva) ja prosessoimalla tästä datasta mahdollisimman hyvä kuva.
 
Järjestelmäkamera siis luottaa siihen, että saadaan ilman prosessointia korkealaatuinen kuva.

Tämä on hiukan harhaanjohtavasti esitetty. Tarkkaan ottaen KUVAAJAT panostavat optiikkaan että saavat ilman KAMERAN prosessointia korkealaatuista kuvaa jatkokäsittelyyn. Välillä tämä ei ole edes mahdollista kun kamera munklaa raakadataa "raw" formaatissakin.

Tuosta raakakuvasta jossa on mahdollisimman paljon optiikan kennolle projisoimaa hyvää, käsittelemätöntä dataa sitten työstetään jälkikäsittelyssä upeita otoksia. Tämä pätee tuplasti tähtikuvaajille joille pääsääntöisesti kaikki kameran prosessointi on vain datan hukkaamista.

Jos ei otetakaan RAW-kuvia jälkikäsittelyyn vaan tallennetaan seepiafiltterillä häiriöpoiston tasoittama JPEG muistikortille kamerassa niin ollaan melkolailla samassa tilanteessa kuin kännykameroissa paitsi että optiikka joka kuvan projisoi oli parin kilon lasi eikä parin millin muovinpala. Jossain vaiheessa järkkäriprosessointi oli varmasti edellä laadussa, nykyisin voi olla tilanne eri.

Pointtina lähinnä se että missään tapauksessa järkkäreilläkään ei oteta prosessoimattomia kuvia. Erot tulee lähinnä siitä että missä vaiheessa ja kenen toimesta prosessointi tehdään sekä lähdemateriaalin laadusta johtuen kuinka "voimakkaasti" dataa tarvitsee käsitellä.
 
Kuvasensorissa on fotodiodeja, jotka eivät itsessään ole minkään värisiä

Ihmettelen kuinka voit olla tässä käsityksessä. Eihän yksi sensori voi olla herkkä kaikille valon aallonpituuksille yhtä aikaa. Vilkaisin pikaisesti tuota bayer-tekniikkaa ja siinä on tosiaan suodin, joka ohjaa eri värisen valon eri sensorille. Quad bayerissä ei ole mitään innovatiivista, kun siinä valo vain ohjataan yhden sensorin sijaan neljän ryppäille.

Sensoreita on kuitenkin eri väreille ja niitä on vieläpä kaksi kertaa enemmän vihreälle, kuin muille väreille. Osapikselit ovat siis olemassa, ne on vaan järjestetty neljän ryppäisiin. Kennon resoluutio ei siis tosiasiassa ole 108MegaPikseliä vaan 108Mega(osa)Pikseliä, mikä on käytännössä markkinointikusetus. Kokonaisia pikseleitä olisi kahden vihreän osapikselin takia bayerissä vain neljäsosa eli 27! Ja quad bayrissä vielä neljäsosa eli 6,75. Tässä aletaankin jo olemaan kivasti kännykkäobjektiivien piirron pelikentällä.
 
Ihmettelen kuinka voit olla tässä käsityksessä. Eihän yksi sensori voi olla herkkä kaikille valon aallonpituuksille yhtä aikaa. Vilkaisin pikaisesti tuota bayer-tekniikkaa ja siinä on tosiaan suodin, joka ohjaa eri värisen valon eri sensorille. Quad bayerissä ei ole mitään innovatiivista, kun siinä valo vain ohjataan yhden sensorin sijaan neljän ryppäille.

Sensoreita on kuitenkin eri väreille ja niitä on vieläpä kaksi kertaa enemmän vihreälle, kuin muille väreille. Osapikselit ovat siis olemassa, ne on vaan järjestetty neljän ryppäisiin. Kennon resoluutio ei siis tosiasiassa ole 108MegaPikseliä vaan 108Mega(osa)Pikseliä, mikä on käytännössä markkinointikusetus. Kokonaisia pikseleitä olisi kahden vihreän osapikselin takia bayerissä vain neljäsosa eli 27! Ja quad bayrissä vielä neljäsosa eli 6,75. Tässä aletaankin jo olemaan kivasti kännykkäobjektiivien piirron pelikentällä.
Ymmärsitköhän nyt jotain väärin? Ei tuo nimittäin ollut mikään käsitys, vaan ihan faktaa, sillä tiedän varsin hyvin miten digitaalikamera toimii, enkä ole missään vaiheessa sanonut asioita, joita tuossa väität.

Kamera-/kuvasensoriksi kutsutaan koko "moduulia", jolla valo muutetaan digitaaliseksi dataksi. Yksi fotodiodi ei ole yhtäkuin sensori. Kuvasensorissa on miljoonia fotodiodeja, joista jokaisen päällä on tietyn värinen suodatin (yleensä R,G tai B). Quad Bayer -suodattimessa suodattimien asettelu on erilainen, eli neljässä vierekkäisessä diodissa on saman väriset suodattimet (tavallisessa RGB Bayer -suotimessa kaksi vihreää ja yksi punainen ja sininen neljän diodin ryppäässä).

Tässä Samsungin valmistamassa kennossa on 108 miljoonaa pikseliä, aivan kuten on ilmoitettu - missään ei siis ole väitetty, että jokaisen värisellä suodattimella varustettuja pikseleitä olisi tuo määrä. Mutta siitä tässä ketjussa ei edes ollut ainakaan minun toimestani puhetta.

Image sensor - Wikipedia
 
Viimeksi muokattu:
Ihmettelen kuinka voit olla tässä käsityksessä. Eihän yksi sensori voi olla herkkä kaikille valon aallonpituuksille yhtä aikaa. Vilkaisin pikaisesti tuota bayer-tekniikkaa ja siinä on tosiaan suodin, joka ohjaa eri värisen valon eri sensorille. Quad bayerissä ei ole mitään innovatiivista, kun siinä valo vain ohjataan yhden sensorin sijaan neljän ryppäille.

Sensoreita on kuitenkin eri väreille ja niitä on vieläpä kaksi kertaa enemmän vihreälle, kuin muille väreille. Osapikselit ovat siis olemassa, ne on vaan järjestetty neljän ryppäisiin. Kennon resoluutio ei siis tosiasiassa ole 108MegaPikseliä vaan 108Mega(osa)Pikseliä, mikä on käytännössä markkinointikusetus. Kokonaisia pikseleitä olisi kahden vihreän osapikselin takia bayerissä vain neljäsosa eli 27! Ja quad bayrissä vielä neljäsosa eli 6,75. Tässä aletaankin jo olemaan kivasti kännykkäobjektiivien piirron pelikentällä.

Kameroiden kennojen pikselit ei ole samanlaisia kuin näyttöjen. Näytössä joka pikselissä on normaalisti kolme alipikseliä (R, G ja B), jotta joka pikselillä voidaan tuottaa kaikki värit. Kameran kennossa yksi pikseli haistelee vain yhtä väriä. Ja tämä on sama kaikissa digitaalikameroiden, myös järjestelmäkameroiden, kennoissa, eikä mitään markkinointihuuhaata. Kun kuva otetaan, kaikissa kameroissa tätä raakaa kennolta tulevaa väridataa prosessoidaan niin, että saadaan muodostettua saman pikselimäärän kuva kuin kennon pikselimäärä, jossa joka pikselille määräytyy jokin väri. Eli kennolla olevan vihreää aistivan pikselin kohdalla voi valmiissa kuvassa olla vaikka punainen pikseli. Näin esim 8 megapikselin kameralla otetussa valmiissa kuvassa on 8 megapikseliä. Poikkeuksena tämä Quad Bayer-filtteri, jossa neljä samanvärisiä pikseliä muodostavat valmiissa kuvassa oletusasetuksilla kuvattaessa yhden pikselin. Quad Bayer-filtterillä varustetuilla kameroilla voi ottaa myös täyden koon kuvia, jolloin valmiissa kuvassa on sama määrä pikseleitä kuin kennossakin. Tällöin tosin kuvan tarkkuus kärsii hieman verrattuna saman pikselimäärän kuvaan, joka on otettu normaalilla RGBG Bayer-filtterillä. Wikipediassa on tästä kuvan muodostumisesta varsin hyvä artikkeli (varsinkin kohta "Explanation" selittää aika hyvin miten homma toimii):
Bayer filter - Wikipedia
 
Ymmärsitköhän nyt jotain väärin? Ei tuo nimittäin ollut mikään käsitys, vaan ihan faktaa, sillä tiedän varsin hyvin miten digitaalikamera toimii, enkä ole missään vaiheessa sanonut asioita, joita tuossa väität.

Kamera-/kuvasensoriksi kutsutaan koko "moduulia", jolla valo muutetaan digitaaliseksi dataksi. Yksi fotodiodi ei ole yhtäkuin sensori. Kuvasensorissa on miljoonia fotodiodeja, joista jokaisen päällä on tietyn värinen suodatin (yleensä R,G tai B). Quad Bayer -suodattimessa suodattimien asettelu on erilainen, eli neljässä vierekkäisessä diodissa on saman väriset suodattimet (tavallisessa RGB Bayer -suotimessa kaksi vihreää ja yksi punainen ja sininen neljän diodin ryppäässä).

Tässä Samsungin valmistamassa kennossa on 108 miljoonaa pikseliä, aivan kuten on ilmoitettu - missään ei siis ole väitetty, että jokaisen värisellä suodattimella varustettuja pikseleitä olisi tuo määrä. Mutta siitä tässä ketjussa ei edes ollut ainakaan minun toimestani puhetta.

Image sensor - Wikipedia

Tässä on hieman määrittelystäkin kyse. Sensori on yleensä yhtä asiaa mittaava analoginen tai digitaalinen laite. Tässä mielessä se diodisi on sensori. Tuossa Bayer-filtterin allakin olevilla sernsoreilla on jokin väri, jota ne mittaavat. Jos filtterin läpi ei tule niille sopivaa väriä, niin silloin kuvassa on niiden kohdalla aukko, joka täytetään ohjelmallisesti myöhemmin viereisten pikselien avulla.

On myös määrittelykysymys mikä on pikseli. Jos ajatellaan värillisen pikselin olevan alipikseleistä muodostuva kokonaisuus, niin silloin kennolla ei ole 108MP vaan vähemmän. Jos taas nämä sensor elementit halutaan ajatella pikseleiksi, niin silloin pikseleitä on 108M. Itse olen sitä mieltä, että vain kokonaisia pikseleitä saisi kutsua pikseleiksi ja osapikseleitä sitten kuvaelementeiksi tai miksi ikinä, mutta pikseli termiä siihen ei pitäisi sekoittaa. Toki se sekoittaminen sopii markkinoinnille. En pitäisi lomitetun kuvankaan puolikasta koko kuvana vain sillä perusteella, että sen joka toinen juova on lähimpien juovien keskiarvo.
 
Tässä on hieman määrittelystäkin kyse. Sensori on yleensä yhtä asiaa mittaava analoginen tai digitaalinen laite. Tässä mielessä se diodisi on sensori. Tuossa Bayer-filtterin allakin olevilla sernsoreilla on jokin väri, jota ne mittaavat. Jos filtterin läpi ei tule niille sopivaa väriä, niin silloin kuvassa on niiden kohdalla aukko, joka täytetään ohjelmallisesti myöhemmin viereisten pikselien avulla.

On myös määrittelykysymys mikä on pikseli. Jos ajatellaan värillisen pikselin olevan alipikseleistä muodostuva kokonaisuus, niin silloin kennolla ei ole 108MP vaan vähemmän. Jos taas nämä sensor elementit halutaan ajatella pikseleiksi, niin silloin pikseleitä on 108M. Itse olen sitä mieltä, että vain kokonaisia pikseleitä saisi kutsua pikseleiksi ja osapikseleitä sitten kuvaelementeiksi tai miksi ikinä, mutta pikseli termiä siihen ei pitäisi sekoittaa. Toki se sekoittaminen sopii markkinoinnille. En pitäisi lomitetun kuvankaan puolikasta koko kuvana vain sillä perusteella, että sen joka toinen juova on lähimpien juovien keskiarvo.
Eli kyse oli semantiikasta ja eri ymmärryksestä siitä, mikä on sensori. Sitten ymmärrän väärinymmärryksen.
 
Kameroiden kennojen pikselit ei ole samanlaisia kuin näyttöjen. Näytössä joka pikselissä on normaalisti kolme alipikseliä (R, G ja B), jotta joka pikselillä voidaan tuottaa kaikki värit. Kameran kennossa yksi pikseli haistelee vain yhtä väriä. Ja tämä on sama kaikissa digitaalikameroiden, myös järjestelmäkameroiden, kennoissa, eikä mitään markkinointihuuhaata. Kun kuva otetaan, kaikissa kameroissa tätä raakaa kennolta tulevaa väridataa prosessoidaan niin, että saadaan muodostettua saman pikselimäärän kuva kuin kennon pikselimäärä, jossa joka pikselille määräytyy jokin väri. Eli kennolla olevan vihreää aistivan pikselin kohdalla voi valmiissa kuvassa olla vaikka punainen pikseli. Näin esim 8 megapikselin kameralla otetussa valmiissa kuvassa on 8 megapikseliä. Poikkeuksena tämä Quad Bayer-filtteri, jossa neljä samanvärisiä pikseliä muodostavat valmiissa kuvassa oletusasetuksilla kuvattaessa yhden pikselin. Quad Bayer-filtterillä varustetuilla kameroilla voi ottaa myös täyden koon kuvia, jolloin valmiissa kuvassa on sama määrä pikseleitä kuin kennossakin. Tällöin tosin kuvan tarkkuus kärsii hieman verrattuna saman pikselimäärän kuvaan, joka on otettu normaalilla RGBG Bayer-filtterillä. Wikipediassa on tästä kuvan muodostumisesta varsin hyvä artikkeli (varsinkin kohta "Explanation" selittää aika hyvin miten homma toimii):
Bayer filter - Wikipedia

Olen nyt näiden viestien myötä perehtynyt vähän tarkemmin tähän ja kuten juuri tuolla wikipediassakin todetaan, yhtä kennon anturia voi kutsua sensor elementiksi tai pikseliksi. Jos värillinen pikseli ajatellaan koostuvan alipikseleistä, niin siinä mielessä näitä sensorielementtejä pitäisi kutsua alipikseleiksi. Jos kenno olisi mustavalkoinen, niin silloin niitä voisi kutsua hyvällä omallatunnolla pikseleiksi.

Nyt kun sensorielementti voi olla kumpi tahansa, niin tämä asia menee mutkikkaammaksi. Periaatteessa koska ne ovat omistettu vain yhdelle värille ja Bayer-filtteri ei varmaan päästä niille muun aallonpituuksista valoa edes mustavalkokuvauksessa, niin ne ovat alipikseleitä. Niille sitten vaan määritellään algoritmisesti jokin väri. Mun mielestä tämä on kuitenkin sampling-harjoitus, eikä todellista resoluutiota. Pidän todellisena resoluutiona sitä määrää pikseleitä, joka alipikseleistä muodostuu.

Tuolla sanottiin, että Quad bayer bayer filtteristä huolimatta voidaan hyvässä valossa ottaa kuvia perus Bayer-kuviolla. En tiedä sitten muuttuuko itse filtteri jotenkin dynaamisesti vai hoidetaanko sekin algoritmilla. Jos algoritmilla, niin sitten Quad bayer aiheuttaisi 1/16 todellisen pikseliresoluution sensorielementteihin nähden. Markkinointimielessä se kuulostaisi kyllä aika pahalta, vaikka todellisuudessa sillä saisikin tarkkoja ja hienoja kuvia.
 
Tuolla sanottiin, että Quad bayer bayer filtteristä huolimatta voidaan hyvässä valossa ottaa kuvia perus Bayer-kuviolla. En tiedä sitten muuttuuko itse filtteri jotenkin dynaamisesti vai hoidetaanko sekin algoritmilla. Jos algoritmilla, niin sitten Quad bayer aiheuttaisi 1/16 todellisen pikseliresoluution sensorielementteihin nähden. Markkinointimielessä se kuulostaisi kyllä aika pahalta, vaikka todellisuudessa sillä saisikin tarkkoja ja hienoja kuvia.
Tuo hoidetaan demosaicing-algoritmilla, jos esimerkiksi 48 megapikselin sensorilla otetaan 48 megapikselin kuvia.
 
Olen nyt näiden viestien myötä perehtynyt vähän tarkemmin tähän ja kuten juuri tuolla wikipediassakin todetaan, yhtä kennon anturia voi kutsua sensor elementiksi tai pikseliksi. Jos värillinen pikseli ajatellaan koostuvan alipikseleistä, niin siinä mielessä näitä sensorielementtejä pitäisi kutsua alipikseleiksi. Jos kenno olisi mustavalkoinen, niin silloin niitä voisi kutsua hyvällä omallatunnolla pikseleiksi.

Nyt kun sensorielementti voi olla kumpi tahansa, niin tämä asia menee mutkikkaammaksi. Periaatteessa koska ne ovat omistettu vain yhdelle värille ja Bayer-filtteri ei varmaan päästä niille muun aallonpituuksista valoa edes mustavalkokuvauksessa, niin ne ovat alipikseleitä. Niille sitten vaan määritellään algoritmisesti jokin väri. Mun mielestä tämä on kuitenkin sampling-harjoitus, eikä todellista resoluutiota. Pidän todellisena resoluutiona sitä määrää pikseleitä, joka alipikseleistä muodostuu.

Tuolla sanottiin, että Quad bayer bayer filtteristä huolimatta voidaan hyvässä valossa ottaa kuvia perus Bayer-kuviolla. En tiedä sitten muuttuuko itse filtteri jotenkin dynaamisesti vai hoidetaanko sekin algoritmilla. Jos algoritmilla, niin sitten Quad bayer aiheuttaisi 1/16 todellisen pikseliresoluution sensorielementteihin nähden. Markkinointimielessä se kuulostaisi kyllä aika pahalta, vaikka todellisuudessa sillä saisikin tarkkoja ja hienoja kuvia.

Et nyt vaan suostu ymmärtämään sitä, että kameran sensorin pikseli on eri asia kuin näytön pikseli. Niitä ei voi verrata keskenään, koska niitä käytetään ihan eri tavalla ja ihan eri tarkoituksiin.
MISSÄÄN ei puhuta siitä että kamerasensorin yksittäiset pikselit olisikin jotain alipikseleitä, olet keksinyt tämän ihan itse.

Näytön pikselillä tuotetaan näkyvää valoa. Se koostuu yleensä kolmesta alipikselistä, joiden kirkkautta yksittäin säätämällä se kokonainen pikseli näyttää tarpeeksi kaukaa katsottuna tietyn väriseltä.

Kamerasensorin pikselillä havaitaan kyseisen pikselin alueelle tulevan valon voimakkuutta. Se koostuu yhdestä fotodiodista, jonka päällä on värifiltteri (mustavalkosensorissa värifiltteriä ei ole), joka päästää lävitseen vain tietyn väristä valoa. Pikselin lopullinen väri kameran ottamassa kuvassa määräytyy erilaisten algoritmien, kuten tuon Juhan mainitseman demosaicingin perusteella.
KAIKKI normaalit kamerat toimivat näin. Kameroissa ei ole olemassa alipikseleitä, joiden perusteella yhden kokonaisen pikselin väri määräytyisi. Tästä on ihan turha hinkata enempää, koska tämä on faktaa, ja faktoista on aika turha kiistellä.

Sinun henkilökohtainen mielipide voi toki olla se, että esim. 12 megapikselin kamera on vain 3 megapikselin kamera, tai että 48 megapikselin Quad Bayer-filtterillä toteutettu kamera on vain 3 megapikselin kamera, mutta tämä valitettavasti on virheellinen mielipide. Jos tämä mielipide pitäisi paikkansa, niin silloin 12 megapikselin kameralla otettu kuva on yhtä tarkka kuin se sama kuva kolmen megapikselin kokoiseksi pienennettynä. Voit ihan itse kokeilla toimiiko tämä näin.
 
Et nyt vaan suostu ymmärtämään sitä, että kameran sensorin pikseli on eri asia kuin näytön pikseli. Niitä ei voi verrata keskenään, koska niitä käytetään ihan eri tavalla ja ihan eri tarkoituksiin.
MISSÄÄN ei puhuta siitä että kamerasensorin yksittäiset pikselit olisikin jotain alipikseleitä, olet keksinyt tämän ihan itse.

Näytön pikselillä tuotetaan näkyvää valoa. Se koostuu yleensä kolmesta alipikselistä, joiden kirkkautta yksittäin säätämällä se kokonainen pikseli näyttää tarpeeksi kaukaa katsottuna tietyn väriseltä.

Kamerasensorin pikselillä havaitaan kyseisen pikselin alueelle tulevan valon voimakkuutta. Se koostuu yhdestä fotodiodista, jonka päällä on värifiltteri (mustavalkosensorissa värifiltteriä ei ole), joka päästää lävitseen vain tietyn väristä valoa. Pikselin lopullinen väri kameran ottamassa kuvassa määräytyy erilaisten algoritmien, kuten tuon Juhan mainitseman demosaicingin perusteella.
KAIKKI normaalit kamerat toimivat näin. Kameroissa ei ole olemassa alipikseleitä, joiden perusteella yhden kokonaisen pikselin väri määräytyisi. Tästä on ihan turha hinkata enempää, koska tämä on faktaa, ja faktoista on aika turha kiistellä.

Sinun henkilökohtainen mielipide voi toki olla se, että esim. 12 megapikselin kamera on vain 3 megapikselin kamera, tai että 48 megapikselin Quad Bayer-filtterillä toteutettu kamera on vain 3 megapikselin kamera, mutta tämä valitettavasti on virheellinen mielipide. Jos tämä mielipide pitäisi paikkansa, niin silloin 12 megapikselin kameralla otettu kuva on yhtä tarkka kuin se sama kuva kolmen megapikselin kokoiseksi pienennettynä. Voit ihan itse kokeilla toimiiko tämä näin.

Ymmärryksessäni ei ole mitään vikaa. Pohdin näitä asioita vaan periaatetasolla. Eikä siinä pitäis olla mitään tuomittavaa!

On ihan totta, että tallentamiseen käytettyjä antureita ja toistamiseen käytettyjä laitteita ei voi suoraan verrata toisiinsa. Se ei kuitenkaan tarkoita sitä, etteikö niitä voisi verrata ja asiaa pohtia. Ei ole mitään raamattua, missä sanottaisiin, ettei sensorielementtiä saa ajatella alipikselinä. Ei ole mikään fakta, etteikö se voisi olla sellainen. Jos kirjoittaa algoritmin, joka käyttää sensorielenttiä kuin alipikseliä, niin silloin se on sellainen. Ainoastaan toistolaitteissa alipikseli on alipikseli, kunnes niitäkin voi alkaa ohjata erikseen. Sitten nekin voivat olla pikseleitä tarvittaessa.

Täytyy täsmentää, että mulla ei oo sellaista mielipidettä, joka voisi olla oikea tai väärä. Mulla on vaan ajattelutapa ja sille perustelu. Sulla on oma ajattelutapas, joka on ilmeisesti sen enempää pohtimatta otettu jostain jonkun toisen kirjoittamasta tekstistä. Se on ihan fine. Ei kuitenkaan oikeuta tuomitseen toisen ajattelutapaa vääräks vaan siks, että se ei oo sama ku oma.
 
tässä tulee kyllä joka näkökulmasta melkoinen what the f... olo.
Järjestelmäkamera on melko usein ammattilaisen työkalu kun taas kännykkä on kuluttajatuote. Kuluttajatuotteessa kisataan speksien numeroilla siitä, kenellä on isoin. Toki järkkäreissäkin, mutta ammattilaiset osaavat spekseistä joskus arvioidakin, onko päivitys tarpeellinen. Jos esim. vanha 20 megapikselin kuva tuottaa jo riittäviä A4-vedoksia tai 1080p-kuvia webbisaitille, 100MP ei välttämättä tuo työhön sanottavasti lisää mutta voi lisätä kustannuksia muistikorttien ja tallennustilan muodossa.

Tästä tulee mun nähdäkseni paljon suurempia teknisiä haasteita, ku näytön virhekosketusten hallinnasta.
Isommat näytöt ja sensorit implikoivat isompia datamääriä ja sitä kautta voidaan perustella nopeampia väyliä, nopeampia ja isompia muistipiirejä, nopeampia ja isompia massamuistipiirejä, nopeampia prosessoreita ja isompia hintoja jne.

No sadan megapikkelsin kuva raakana on luokkaa 250 megatavua
Riippuu vähän siitä, mikä kennotyyppi, heitetäänkö jotain pois ja pakataanko kuvaa. RAW-kuvissa on monesti aika paljon kaikenlaista oheisdataa mukana. 2,5 tavua per pikseli kuulostaa kyllä erikoisen vähältä. Otetaan huomioon, että RAW:n dynamiikka on yleensä 12-16 bittiä per kanava ja "lukuarvoja" esim. 2x2 per bittikartan pikseli, ja kun RAW on prosessoitu ja dataa heitetty pois, lopputuloksen bittikartassa on yleensä 3 tavua per pikseli. Eli esim. 48-56 bitistä tulee 24.

Tämä on hiukan harhaanjohtavasti esitetty. Tarkkaan ottaen KUVAAJAT panostavat optiikkaan että saavat ilman KAMERAN prosessointia korkealaatuista kuvaa jatkokäsittelyyn.
Omaan korvaan särähtää vähän tuo panostaminen optiikkaan. Kaipa historiallinen tausta on vaan, että optiikka oli ennen vanhaan ainoita tapoja parantaa kuvanlaatua kun filmi oli mitä oli. DSLR-kameroissa ei erityisesti haluttu lähteä huonontamaan vuosikymmenten kehitystä rupuoptiikalla (vaikka nykyään on entry level -linssejäkin, mutta miksi joku laatua painottava haluaisi sellaista, jos parempiakin on). Järkkäripuolellakin on speksikeulimista ja siksi optiikkaa kehitetään ja ihmisille saadaan myytyä uutta. Eri pohdinnan aihe, olisiko esim. palkkatyötä varten välttämätöntä kehittää optiikkaa ja tarvitseeko siihen panostaa erityisemmin. Osa kuvaa vanhoillakin laitteilla. Esim. 2. maailmansodan aikaisilla manuaalilinsseillä niiden bokehien jne. omalaatuisuutensa takia.

Jos katsotaan, miten järkkäripuolella kehitys on mennyt digiin siirtymisen jälkeen, kyllä kehitystä on paljon rajummin tapahtunut kamerarungoissa kuin linsseissä. Järkkäreissä on aina ollut myös kohtalaisen järeitä prosessoreita. Jossain vaiheessa oli sellaisiakin viritelmiä, että RAW->JPG -muunnosta offloadattiin PC:ltä kameralle, kun kamerassa oli pikselien prosessointiin erikoistunut vektoriprosessori ja leveät aggregaattioperaatioihin optimoidut väylät ja PC:ssä ei. Kameroiden prosessorien kasvaneista tehtävistä saa tästä wikipedian artikkelistakin kuvaa. Eli siis kameran prosessori osallistuu käsittelyyn vaikka RAW-kuvaa otettaisiinkin jatkoon. Toinen kehittynyt tekniikka on rungoissa sensorit. Uudet dual-pixel -kennot ja BSI:t ovat ihan eri tasoa kuin ekat digijärkkärit. Optiikassa sen sijaan on aika vähän tullut uusia iteraatioita. Canonillakin on peräti julkaistu kolme 24-70 -zoomin iteraatiota koko 2000-luvulla eli murto-osa runkojen määristä. Oma pointti vaan, että en tiedä, onko oikein puhua optiikkaan panostamisesta, kun digijärkkäreissäkin pääpaino kehitystyössä on siinä puolijohdetekniikassa (ja toki moni muu oheisjuttu, esim. kuvan stabilointi).

Tuosta raakakuvasta jossa on mahdollisimman paljon optiikan kennolle projisoimaa hyvää, käsittelemätöntä dataa sitten työstetään jälkikäsittelyssä upeita otoksia. Tämä pätee tuplasti tähtikuvaajille joille pääsääntöisesti kaikki kameran prosessointi on vain datan hukkaamista.

Vakavammassa tähtikuvauksessa tietenkin tehdään melko monimutkaisia jälkikäsittelyitä, mutta jos kamera on motorisoidussa alussa ja alusta synkattu kappaleen liikkeeseen, kyllä kameran sisäisesti tekemä kerrostaminen on ihan pätevä, jos haetaan tähtitaivaskuvia taiteellisessa, ei tieteellisessä mielessä. Esim. linnunradan saa kameroiden bulb-moodissa mukavasti esiin ja tällaisia kuvia käytetty ihan National Geographic -tasolla asti ja palkkaa tuottavassa työssä, mikä kai on jossain piireissä se ammattilaisen ja harrastelijan pääero. Prosessointi kamerassa on tärkeä siksikin, että tähtikuvien sommittelu maastossa olisi muuten haastavaa. Myös kun nykyään ei kuvata pelkästään optisen peilin läpi vaan EVF:llä, kameran prosessoinnilla on tässäkin merkitystä, että se ohjaa kuvaajaa ottamaan tietynlaisia kuvia ja jossain tilanteissa tekemään päätöksen, ottaako enempää kuvia, vaikka lopputulos kehitettäisiinkin RAW-kuvasta.
 
Omaan korvaan särähtää vähän tuo panostaminen optiikkaan. Kaipa historiallinen tausta on vaan, että optiikka oli ennen vanhaan ainoita tapoja parantaa kuvanlaatua kun filmi oli mitä oli. DSLR-kameroissa ei erityisesti haluttu lähteä huonontamaan vuosikymmenten kehitystä rupuoptiikalla (vaikka nykyään on entry level -linssejäkin, mutta miksi joku laatua painottava haluaisi sellaista, jos parempiakin on).

Voin kyllä omastakin kokemuksesta kertoa että kittilinssit (rungon mukana tulevat) ja varsinkin zoom-mallia olevat lukeutuvat siihen rupuoptiikkaluokkaan. Pertti Peruskuvaaja toki pärjää silläkin, kyllä niistä lomakuvat paperille saa jos joku sellaisia harrastaa. Itse olen jopa teettänyt kittilinssikuvista isohkoja canvas-tauluja, tosin niitä ei sitten kannata kovin läheltä käydä tutkimassa jos piirron virheet sattuu silmiin.

Jos katsotaan, miten järkkäripuolella kehitys on mennyt digiin siirtymisen jälkeen, kyllä kehitystä on paljon rajummin tapahtunut kamerarungoissa kuin linsseissä.

Tämä lienee kiistämätöntä, joskin kyllä siellä lasitavaran valmistuksessakin on kehitytty ja varmaan vähän materiaalejakin (varsinkin pinnotteita) viety eteenpäin.

Oma pointti vaan, että en tiedä, onko oikein puhua optiikkaan panostamisesta, kun digijärkkäreissäkin pääpaino kehitystyössä on siinä puolijohdetekniikassa (ja toki moni muu oheisjuttu, esim. kuvan stabilointi).

Lähinnä tarkoitin "panostuksella" sitä että ketkä Oikeaa(tm) laatua haluaa järkkäreillä pistävät (erittäin ympäripyöreillä luvuilla) tonnin runkoon ja pari lasiin eikä toisinpäin. Kehitystyö valmistajilla toki painottuu runkoihin koska niissä on enemmän kehitettävää ja helpompia voittoja saavutettavissa kuin lasitavarassa.

Vakavammassa tähtikuvauksessa tietenkin tehdään melko monimutkaisia jälkikäsittelyitä, mutta jos kamera on motorisoidussa alussa ja alusta synkattu kappaleen liikkeeseen, kyllä kameran sisäisesti tekemä kerrostaminen on ihan pätevä, jos haetaan tähtitaivaskuvia taiteellisessa, ei tieteellisessä mielessä. Esim. linnunradan saa kameroiden bulb-moodissa mukavasti esiin ja tällaisia kuvia käytetty ihan National Geographic -tasolla asti ja palkkaa tuottavassa työssä, mikä kai on jossain piireissä se ammattilaisen ja harrastelijan pääero.

Linnunrataa kuvatessa ei tarvita edes seurantajalustaa koska käytetty polttoväli on niin pieni että taivaankansi ei ehdi kiertymään haittaavasti n. 20 sekunnin valoituksillakaan. Lehtikuvissa on nähty sen verran rajuja photoshoppeja että niitä nyt en mittariksi ottaisi muutenkaan, mutta melkein väittäisin että ei sinne kittilinssillä otettuja kuvia ole edes tarjottu ;)

Olen tähtikuvausta sen verran harrastanut että tiedän tuskaisen hyvin kuinka yhteensä yli 8 tuntia valotusta naapurigalaksista Canonin pimeällä lokkitähtiä luovalla zoom-linssillä häviää laadussa 10-0 reilun tunnin valotukselle valovoimaisen ja teräväpiirtoisen L-sarjalaisen lasin läpi. Tähtikuvaus on se ääripää jossa piirto ja valovoima on ylivoimaa, mutta kyllä nämä samat säännöt pätee päiväkuvaukseenkin vaikka vaikutukset eivät ole yhtä rajuja pintapuolisesti tarkasteltuna.

Nyt kyllä ollaan jo niin kaukana topicista että lienee parasta vaieta omalta kohdalta :D
 

Uusimmat viestit

Statistiikka

Viestiketjuista
257 000
Viestejä
4 465 826
Jäsenet
73 879
Uusin jäsen
Torvelo

Hinta.fi

Back
Ylös Bottom