Recenze  |  Aktuality  |  Články
Doporučení  |  Diskuze
Fotoškola  |  Seriály
Fotoaparáty  |  Objektivy
Fotomobily  |   Software
Příslušenství  |  Ostatní
Svět hardware  |  TV Freak
Svět mobilně
30.5.2021, Milan Šurkala, aktualita
Dalším snímačem, který se chystá v dílnách společnosti Sony, je model IMX472-AAJK. Jde o 4/3" senzor s rozlišením 21,46 MPx. Zajímavý je velmi rychlým sekvenčním snímáním i barevnou maskou Quad Bayer.
Choakinek (4824) | 30.5.202116:40
Snímače pro MFT mají cca 20 Mpx už celé roky, Quad Bayer jako takový, zdá se, že nemá negativní vliv na kvalitu výstupu, takže tento snímač zřejmě nepřinese nevýhody. Když to navíc přinese nějaké zajímavé 10 či 5 Mpx typy výstupů s různými vlastnostmi... tak super, proč ne!

Zatímco ten snímač pro full­-frame nevýhodu přinese. Rozdělení snímače na 160 Mpx není zkrátka bez nevýhod. Jakkoliv se výstup z pixelů bude slučovat, pořád zůstává vlastnost rozdělení snímače na 160 Mpx a tedy nutně horší výkon snímače za nízké hladiny osvětlení, který prostě bude odpovídat 160 Mpx na full­-frame ­(což je už opravdu hodně­) při focení do 160 Mpx a který přinese nějakou dílčí nevýhodu při focení např. do 40 Mpx, protože ­"rozčtvrcený­" pixel je vždy horší, než celý pixel, protože se tím zmenšuje jeho světlocitlivá plocha.

Další problém je samozřejmě difrakce. Ale tohle je problém, který existuje již několik let, protože už několik let se vyrábějí full­-frame fotoaparáty s příliš mnoha megapixely, mělo­-li by se brát v úvahu, že jde o profesionální přístroje a jako takové by měly podporovat široký rozsah zaclonění beze změny kvality výstupu, což už v podstatě některé přístroje nesplňují ­(zase ovšem poskytují vyšší rozlišení při základních clonách­).

V případě výše uvedeného snímače platí pro difrakci 160 Mpx, čili i když budu fotit do sloučených 40 Mpx, fyzikálně světlo přijme 160 Mpx ­(se všemi nevýhodami difrakce­), čili bude jen záležet na tom, jakými softwarovými kouzly bude fotoaparát disponovat, aby tento problém v maximální míře zamaskoval.
Odpovědět0  1
Milan Šurkala (6685) | 30.5.202119:22
"Zatímco ten snímač pro full​­-frame nevýhodu přinese.­"

Jak to můžeš vědět? Viděl jsi např. někdy snímky ze snímače s duální citlivostí? To se dostáváš šumem klidně o více EV níže, než kdyby měl jen jedno základní ISO. Takže on ten maličký pixel může na stejné ISO citlivosti šumět i méně než ten velký pixel díky tomu, že jde o nativní citlivost a ne o zesílenou. Což je sakra velký rozdíl. Třeba na Lumix S1­/S5 je ISO 4000 na druhé nativní citlivosti výrazně čistější než ISO 3200, které je zesílením první základní citlivosti. Je zhruba někde tak na úrovni zesílení na ISO 1600. Takže ve výsledku o cca 1,3 EV méně zašuměné, než by mělo být.

Takže, pokud nám půlka pixelů poběží na druhém nativním ISO, tak sice budou čtvrtinové plochou, což zvýší šum, ale tím, že běží na druhém nativním ISO, mohou šum zase srazit dolů blízko původní úrovně. Takže to může šumět plus minus stejně ­(rozdíl v desetinkách EV­). Teď k tomu přidej druhou půlku pixelů, které poběží na výrazně nižší citlivosti, tedy navzdory menší ploše s nižším šumem, dají ti více DR do světel... Moc tedy nevidím důvod, proč by to mělo šumět více. Půlka malých pixelů bude šumět méně ­(výrazně nižší ISO než rozdíl plochy, lepší DR do světel­), druhá plus minus stejně ­(sice velký rozdíl plochy, ale druhé nativní ISO srazí šum, než kdyby šlo o zesílení, tedy zpět na plus minus původní hodnotu­).

"Další problém je samozřejmě difrakce.­"

Proč by měla? Difrakce s rozlišením nijak nemění plochu, na kterou působí. Ať budeš mít 40MPx nebo 160MPx čip, na 40MPx výsledném snímku bude difrakce stejná, spíše se dočkáš detailnějšího obrazu na snímku ze 160MPx čipu, zejména pokud máš 160MPx snímek zmenšený na 40 MPx ­(což tady podle všeho nebude, protože dostaneš rovnou 40MPx obraz­). On je poněkud rozdíl, zda Gaussovku reprezentuješ jedním nebo čtyřmi body, ostatně jsme tu na to měli i testy. A když máš takto přesnější data, dá se na to snáze aplikovat dekonvoluce a difrakci potlačit. Matematika, která se dlouho používá např. ve zpracování dat z vesmírných snímků a najdeš ji dokonce už i v běžných fotoaparátech.
Odpovědět1  0
Choakinek (4824) | 30.5.202122:01
1­) Dobrá, uznávám. Více stupňů nativních citlivostí je v podstatě novinka a tento systém do celého problému může ­"hodit vidle­" solidním způsobem. Uvidíme ;­-­).

2­) Tohle bohužel praxe vyvrátila. Klasický příklad je např. 20 Mpx na snímači 1­/2.3­" při F6.9, kde výsledný výstup bylo možné nazvat pouze slovem ­"odpad­" a kdyby stejně velký snímač měl např. jen 5 Mpx, tak by byl výstup dramaticky lepší. Úroveň difrakce ovlivňuje velikost pixelu. Resp. její vliv na kvalitu výstupu. Teorie jsou pěkné, ale praxe zkrátka funguje jinak.

Rozhodně tím nechci popřít význam většího rozlišení. Ano, při určitých clonách je to výhoda, ale od určité clony kvalita obrazu klesá více, než kdyby měl snímač menší rozlišení.
Odpovědět0  0
Milan Šurkala (6685) | 31.5.20212:29
1, No vidíš, ale přesto pořád opakuješ, že to u telefonů nefunguje. Přitom ty nové čipy mají duální ISO také.

2, Na pixelové úrovni to platí. Pokud budeš mít dva stejně velké čipy, jeden bude mít 5 MPx a druhý 20 MPx, tak na pixelové úrovni bude vypadat 20MPx čip jako bláto. Zmenši 20MPx fotku na 5 MPx a bude spíše detailnější než 5MPx fotka z 5MPx fotoaparátu ­(nezkazí­-li to vyšší šum­). Difrakce sama o sobě nemá s velikostí pixelu nic společného. To je prostě jen rozostření světla. Světlo přeci nemůže vědět, zda po průchodu clonou půjde na 5MPx nebo 20MPx čip, aby se podle toho rozostřilo. To se rozostří vždy stejně.

S vyšším rozlišením se difrakce projeví při nižších clonách, to je pravda, ale sama difrakce ­(velikost rozostření na plochu­) je stejná, a tedy i výtisk­/zobrazení je zásadě podobné. Jinak řečeno, pokud se to na snímači s vyšším rozlišením ­(označme ho HR­) začne projevovat od F8, zatímco s nižším rozlišením ­(LR­) až při F11, tak to ale také znamená, že HR dává na F8 lepší obraz ­(detailnější­) než LR. Od F8 se sice HR zhoršuje, ale poněvadž začíná z lepší pozice, na F11 se praktický výsledek HR a LR skoro srovná. Výhodu bude mít ale přesto vyšší rozlišení, protože může čerpat z více dat, lépe obejít Bayerovu interpolaci...

Takže se na to podívejme. Vzal jsem dva 18mm objektivy, nastavil je na F11. V prvním případě šlo o 14,6MPx APS­-C, což asi uznáš, je zhruba oblast, kde se začíná trochu objevovat difrakce. Pak jsem těch samých reálných 18mm nastavil na 1­" kompaktu s 20 MPx. Tedy na velmi výrazně vyšší pixelové hustotě. Jistě asi uznáš, že F11 na 20MPx 1­" čipu je už dalece předalece za hranou toho, kde začíná difrakce. Není tak?

Pokračujme. Z APS­-C jsem vzal 1­" výřez, tedy 2580x1724 pixelů, což je 4,5 MPx. Takže tu máme dvě 1­" plošky, před oběma máme reálný 18mm objektiv zacloněný na stejných F11. V jednom případě má tato 1­" ploška 20 MPx, v druhém 4,5 MPx. Není to sice 1­/2,3­" jako ve tvém příkladu, ale zas je použita vyšší clona a HR čip je hodně za hranou začínající difrakce. Ty tvrdíš, že ­"kdyby stejně velký snímač měl např. jen 5 Mpx, tak by byl výstup dramaticky lepší.­"

https:­/­/www.zonerama.com­/MilanSurkala­/Photo­/7256319­/266564567

Tak tady máš ukázky. Ptám se tedy, kde že je ten snímač s menším rozlišením ­(Samsung vlevo­) tak dramaticky lepší než snímač s vyšším rozlišením a údajnou difrakcí jak blázen ­(Sony vpravo­). Nevím jak ty, ale mně přijde, že ten snímek vpravo má o něco detailnější a celistvější obraz ­(např. nápis Brembo, Rallye,...­). Takže opět nějaká tvá domněnka, která odporuje teorii i praxi?
Odpovědět4  0
Choakinek (4824) | 2.6.202116:35
No ale difrakce způsobuje pokles kontrastu, ne?

Pak přeci když má nějaký snímač takové rozlišení, že je na cloně XY před difrakcí, zatímco druhý snímač má větší rozlišení a tedy dojde k difrakci, no tak výstup z prvního snímače je bez úhony, zatímco ve výstupu u druhého snímače klesne kontrast. No a jak chceš zmenšením snímku na úroveň prvního snímače vrátit do výstupu kontrast?
Odpovědět0  0
busy (4708) | 2.6.202117:04
Nie tak celkom. Pokles kontrastu je len nepriamy dosledok difrakcie sposobeny menej zretelnou kresbou. V skutocnosti difrakcia je ­"iba­" rozptyl svetelnych lucov prechadzajucich tesne pri okrajoch sosoviek.
https:­/­/sk.wikipedia.org­/wiki­/Difrakcia_svetla
https:­/­/cs.wikipedia.org­/wiki­/Difrakce

Vezmi si to z opacnej strany. O difrakcii je zname, ze sa prejavi az pri urcitej velkosti pixelov, vtedy, ked rozptylovy kruzok zasiahne viac pixelov ­(v pripade bayerovej masky vzhladom na interpolaciu v podstate viac stvoric pixelov­) naraz. Ale samotny kontrast je od poctu pixelov nezavisly, je jedno ci vyfotis kontrastnu alebo nekontrastnu scenu vo vysokom alebo nizkom rozliseni, kontrastna alebo nekontrastna zostane v akomkolvek rozliseni. Takze ak by difrakcia priamo sposobovala ­(iba­) znizenie kontrastu, musela by byt nezavisla od rozlisenia. Co ­(zial­) nie je.
Odpovědět0  0
Milan Šurkala (6685) | 2.6.202119:07
"zatímco druhý snímač má větší rozlišení a tedy dojde k difrakci­"

Tohle bude dlouhé. Tak ještě jednou. Difrakce nezávisí na rozlišení. Difrakce je rozptyl světla po průchodu clonou. To světlo se rozostří na cloně stejně, ať je tam čip jakýkoli s jakýmkoli rozlišením. Co se mění, je to, jak to světlo dokážeš po difrakci různými čipy vnímat. Rozlišení tedy ovlivní projev difrakce na čipu, ale ne difrakci. Difrakce nevzniká na čipu, difrakce vzniká na cloně.

Pokud tam máš pokles kontrastu, tak ten pokles kontrastu přeci bude stejný na obou čipech. Dívej. Máš hodně zacloněno, difrakce jak blázen, na cloně se ti to světlo rozletí, rozostří a putuje dál směrem k čipu. Světlo pořád netuší, na co dopadne. Ono to nemůže vědět. Ani ta clona to neví. Nemůže. Tak a teď ti ty rozlítané paprsky dopadnou na snímač s vysokým rozlišením. Poněvadž je to světlo rozostřené a jeden paprsek se rozletí na mnoho pixelů, tak je jasné, že nemáš kontrastní detaily. Řekněme, že se ten paprsek, který se měl zobrazit na plošce 2×2 pixely, rozletí na plochu 6×6 pixelů. Jenže ta difrakce má určitý průběh ­(několikrát zopakovanou křivku a zmenšující se­). Prostě místo ...nic nic nic signál signál nic nic nic... ti tam přiletí něco takového https:­/­/www.spiedigitallibrary.org­/ContentImages­/Journals­/OPEGAR­/58­/8­/087105­/WebImages­/OE_58_8_087105_f026.png

Znakem ­"|­" označuji okraj plošky 6×6 u vysokého rozlišení, resp. 3×3 u nižšího a beru to jen v jedné ose, ať se v tom nezamotáme. Mějme tedy ten bílý paprsek 2 pixely široký ...0 | 0 0 255 255 0 0 | 0..., ale kvůli difrakci ti tam vznikne něco jako ...0 | 5 30 220 220 30 5 | 0..., tedy něco s nižším kontrastem. Ale všimni si, že jsi stále schopen rozlišit mezi 0 a 5, mezi 5 a 30 a mezi 30 a 220... Takže ano, je to méně kontrastní, ale to neznamená, že tam ten detail není. Jen není vidět tak dobře.

Co se stane, když tento 16MPx snímek zmenšíš na polovinu? No vždycky dva a dva pixely se sloučí. Takže dostaneš ...0 | ­(5+30­)­/2=17 ­(220+220­)­/2=220 ­(5+30­)­/2=17 | 0... ­(tedy ...0 | 17 220 17 | 0...­)

Tak, a teď mějme snímač s dvakrát tak velkými pixely v dané ose. Ten by tam v ideálním případě bez difrakce měl nasnímat ...0 | 0 255 0 | 0... S difrakcí tam naměří ...0 | 17 220 17 | 0. To světlo se přeci rozlije stejně ­(znovu opakuji, ono neví na co dopadne, ono neví, zda ten paprsek o šířce 2 pixelů HR čipu dopadne skutečně na 2 pixely HR čipu nebo na dvakrát větší 1 pixel LR čipu­). 220 stále půjde do centrální plošky ­(těch 220, co původně dopadlo na plochu dvou pixelů, nyní dopadne na jeden pixel dvakrát větší­), a to boční rozostření ­(zbývajících 35­) půjde na dva boční pixely, do každého ve výsledku cca 17 ­(17 napravo, 17 nalevo, nebudu tu teď blbnout s polovinami­). Stejný pokles kontrastu.

To máme pro černobílý obraz. Teď do toho zapleť Bayerovu masku a máš o legraci postaráno. Proč? Bayer bere do úvahy okolní pixely. Předpokládejme jednoduchého Bayera, který vezme jen jeden pixel po stranách ­(opět pro jednoduchost to beru jen v jedné ose, takže se dopouštím nepřesnosti, protože mi tam bude chybět jeden barevný kanál, jde ale o ten princip převedený z 2D na 1D­). HR čip bude mít třeba 2µm pixely. Takže na spočítání pixelu potřebujeme 6 µm ­(střední pixel a dva pixely po stranách­). Jenže LR čip se 4µm pixely potřebuje 12µm. A teď přijde ten gól. Vezmi si ty 2 pixely HR čipu a zmenši rozlišení na úroveň LR čipu. Z jak velké plochy se počítá Bayer? Není to 12 µm, ale 8 µm. Proč?

Mějme 6 pixelů HR čipu 1 2 3 4 5 6. Celkem 12 µm ­(6×2 µm­). Pixel 3 potřebuje k výpočtu pixel 2, 3 a 4 ­(6 µm­). Pixel 4 potřebuje 3, 4 a 5 ­(6 µm­). Takže když budeš slučovat pixely 3 a 4 do sebe ­(zmenšuješ rozlišení na polovinu­), tak kombinuješ 2, 3, 4 použitých pro výpočet pixelu 3 a pixely 3, 4, 5 z výpočtu pixelu 4. Ve výsledku: dvakrát máš zastoupeny pixely 3 a 4 a jednou 2 a 5. Celkem 8 µm a ještě ty prostřední 4 µm máš se 2­/3 zastoupením.

A LR čip? No ten má dvakrát tak velké pixely, tedy 1, 2 a 3, přičemž 1 na LR pokrývá plochu pixelů 1,2 HR čipu, 2 na LR pokrývá pixely 3,4 HR čipu a 3 na LR pokrývá 5,6 HR čipu. Takže Bayer vezme pixely 1,2,3 z LR se stejným zastoupením, tedy ekvivalent pixelů 1,2,3,4,5,6 z HR čipu. Zkusím ti to nakreslit ve znacích.

HR čip Bayer: _x|XX|x_, kdežto LR čip na stejné ploše provede Bayera takto: xx|xx|xx. A teď tomu HR čipu sniž rozlišení na polovinu. Místo 33% 33% 33% u LR a žádného detailu tam máš najednou 17% 66% 17% u HR na stejném výstupním rozlišení. Asi by bylo lepší to nakreslit, ale snad se to dá pochopit i takto.
Odpovědět0  0
jiriji (27) | 7.6.20214:34
...je známo jak je dosaženo onoho lepšího nativního ISO a dokonce snad na menším pixlu? Dle mého by to znamenalo, že používají mnohem citlivější fotodiody, jejichž výstup není třeba tolik zesilovat. Takže se nabízí otázka, proč shodnou technologii nepoužijí na celý čip.
Odpovědět0  0
Milan Šurkala (6685) | 7.6.20218:55
Nejde o fotodiody, ale o obvody pro vyčítání pixelů. Ty pixely mají jednoduše dvě cesty, jak se zpracovat, než dojde k zesílení signálu. Např. řekněme, že čip má nativní ISO 100 a ISO 800. Normálně je ISO 1600 16krát zesílené ISO 100, ale nyní je to 2krát zesílené ISO 800 ­(které tím, že jde o nativní citlivost, je sice citlivé jako ISO 800, ale šumem se chová spíše jako ISO 200­-400­).

https:­/­/na.panasonic.com­/us­/audio­-video­-solutions­/broadcast­-cinema­-pro­-video­/dual­-native­-iso­-camera­-technology­-cinematic­-low­-light­-video­-production

Ono to je zpravidla na celém čipu, který se takto může přepínat mezi dvěma režimy a jeho vyšší ISO se dostanou na mnohem nižší šum. Jak už bylo zmíněno, např. u Panasonicu se takto ISO 4000 dostane šumem někam k cca ISO 1600. Je však nesmysl mít jen ten druhý obvod, protože to by čip byl příliš citlivý v podmínkách, kdy to není potřeba.

https:­/­/photofocus.com­/wp­-content­/uploads­/2019­/09­/ISO­-1.jpg

Pokud jde o mobilní snímače, zde je mnohem větší smysl rozdělit to na poloviny a mít půlku pixelů pracující v Low­-ISO módu a současně druhou v High­-ISO módu ­(ale mohou u některých čipů pracovat v obou dle podmínek, všechny v Low, všechny v High, půl na půl, některé naopak umí přepínání jen celého čipu na Low nebo High­).

Je to docela jednoduché, viz výše. Tohle sice není mobilní čip, ale koncept to vysvětlí dobře. Řekněme, že potřebujeme ISO 1600. To už využijeme druhou High­-ISO citlivost, DR čipu je 12 EV a pokryje rozsah od ­-10 do +2 EV. Pokud ale půlku pixelů necháte pracovat na druhé Low­-ISO citlivosti, tedy ISO 125, tato půlka se bude ­"cítit dobře­" od ­-7 EV do +6 EV. Dejte je dokupy a najednou máte DR od ­-10 do +6 EV = 16 EV místo 12 EV. Sice z menších pixelů, ale DR vyšší o 4 EV, což přebije ztrátu DR danou menší velikostí pixelu.

Když budete využívat jen jednu z obou cest, zůstanete na 12­-13 EV s tím, že vám bude chybět DR buď ve světlech nebo ve stínech. Představte si, že by ten čip měl jen High­-ISO. Prodlužte ten modrý obdélník na nižší citlivosti ­(u ISO 125 by to bylo těsně nad rozdělením mezi 9,3 a 3,8­). To rozdělení je střední šedá. Vidíte, že s High­-ISO obdvodem by měl čip na ISO 125 sice extrémní DR dole ­(9,3 + rozdíl mezi červenou a modrou dole­) cca 12 EV, ale neměl by takřka žádný DR nahoře ­(3,8 ­- rozdíl mezi červenou a modrou nahoře­), cca 1 EV.
Odpovědět0  0
jiriji (27) | 7.6.20214:47
Rozčvrcený pixel samozřejmě nemusí být vždy a ve všem horší než celistvý pixel stejné plochy. Například v otázce šumu platí, že když se sčítajá signál z více kanálů, tak užitečný signál ­(který je shodný­) se sčítá aritmeticky, zatímco šumový signál přes druhou odmocninu počtu kanálů. Tj. Když jeden pixel rozdělím na čtyři, přičemž signál bude např. 100mV a šum 10mV, bude po jejich sečtení na výstupu 400mV signálu a 20mV šumu, což dost možná ­"přebije­" jisté zmenšení plochy původního velkého pixelu..
Odpovědět0  0
busy (4708) | 7.6.20219:14
Cize jeden velky pixel da 400 mV signal a 10 mV sum. Styri zlucene stvrtinove pixely daju spolu 400 mV signal a 20 mV sum. Takze z hladiska drzania sumu na co najnizsej urovni sa stale viac vyplati mat vecsie pixely, nez spajat mensie.

Pri nizkych ISO sa vyssi sum vdaka vyssiemu nativnemu rozliseniu da lepsie ­"vyzehlit­", ale kriticke to zacne byt pri vysokych ISO, kde uroven sumu je temer rovnaka ako uzitocny signal, tam su vecsie fyzicke pixely velmi uzitocne.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.