Je vůbec v silách objektivu "ukreslit" 400 Mpx? :-)
Odpovědět0 1
Objektiv bude pro každou expozici vykreslovat 100 mega, a pak teprve se vše složí, takže 400 ukreslit nemusí.
Odpovědět1 2
Pokial sa hybe iba cip bez objektivu (ako to funguje vo vacsine tychto hi-res rieseni), tak musi byt objektiv schopny vykreslit 400 Mpx. Pohybom cipu "pod" objektivom cip zaznamena jednotlive 100 Mpx expozicie, zo 400 Mpx obrazu, ktory musi byt schopny objektiv vykreslit.
100 Mpx rozlisenie objektivu by stacilo, len ak by sa hybal spolu s cipom aj objektiv.
Odpovědět1 0
Každá expozice zaznamená konkrétní detail v jiné pozici, informaci získá jiný pixel jiné barvy, pak zase jiný, a dosáhne se toho že pro každý bod bude k dispozici kompletní barevná informace. Tím se obejde dopočítávání dat, které by na Bayerovi byl nutný, více dat dá více detailu, a toho využije systém k vytvoření souboru s větším fyzickým rozlišením, což může udělat díky těm detailnějším informacím aniž by to vypadalo jako pouhé resamplování. Nebyl by problém třeba 24 MPx foťák nechat udělat místo normálního rawu 100 MPx raw, jen tak, ale k ničemu by to nebylo když by to bylo z jedné expozice, jen by to mělo méně dat na jednotku rozlišení. Díky tomu několikerému posunutí o několik pixelů senzor získá další informace pro větší soubor, úplně stejně to dělá Pentax u K-1, a rozdíl je znatelný. Nemyslíš si doufám, že posunutí toho senzoru o několik pixelů do stran ze 100 udělá 400? Kdyby to mělo fungovat takhle, musel by se ten senzor posouvat tak o 50% své velikosti, což je samozřejmě nesmysl.
Odpovědět1 0
Napriklad na micro43 fotakoch ma vysledny snimok rozlisenie 50 alebo 80 Mpx, hoci samotny snimac ma len 20 Mpx. Dokonca mam aj mobil (Asus Zenfone3), ktory pouziva tuto technologu a so 16Mpx snimaca vie posunom snimaca vyrobit 64 Mpx snimok (samozrejme objektiv mobilu take rozlisenie zobrazit nedokaze, ale aj tak ma ten 64Mpx snimok viditelne vyssie rozlisenie).
Odpovědět0 0
Pořád to je několik expozic, samostatných expozic o rozlišení senzoru, které daný objektiv dává. Není to jedna expozice o větším rozlišení, ale několik v rozsahu který pokrývá optika, a tak je to vždy. A Zenfone 3 jsem měl, ten skládaný snímek má větší fyzické rozlišení, ale nárůst detailu je minimální, vzhledem k danému foťáku to není skoro výhoda proti standardnímu rozlišení.
Odpovědět0 0
Prave preto je narast detalov pri Zenfone3 relativne minimalny, lebo objektiv ich nedokaze "vykreslit".
Rovnake pravidlo plati aj pre systemy s vacsim snimacom - ak objektiv nedokaze vykreslit dostatok detailov, tak nema mod zvyseneho rozlisenia zmysel.
Odpovědět0 0
U Zenfonu 3 je problém jinde, jednak jsou pixely opravdu malé a posun o několik je opravdu nevýznamný, rozlišení senzoru je taky relativně skromné, zpracování obrazu nic extra, a objektiv není z nejlepších takže pořádně nevykreslí ani těch 16 MPx. A od toho se odvíjí všechno ostatní, když jednotlivé expozice nebudou nic moc, tak na tom stejně bude i výsledek pixel shiftu. Prostě čím výkonnější systém a čím větší senzor + rozlišení, tím větší efekt se dosáhne pomocí pixel shiftu.
Odpovědět0 0
Dobrá, nyní to má tedy interpolovaných 100 Mpx a plnohodnotných zhruba 50 Mpx, pak to bude minimálně dvojnásobek - 100 Mpx / 200 Mpx, které budou asi nějak roztažené na 400 Mpx.
Ale i to je dost. Tak je otázka, jestli to dokáže objektiv "ukreslit".
Jinak martinX34 má pravdu, psal to tady už i Busy - pokud se objektiv nehýbe, tak musí "ukreslit" vše, co se za ním vytváří.
Odpovědět0 0
Potom už to nebude interpolované, tím pixel shiftem se to obejde bez interpolace. A objektiv těch 100 MPx ukreslí, na to je dělaný, jedno jestli jednou nebo několikrát za sebou, každá ta expozice bude 100 MPx, ne 200 ani 400.
Odpovědět0 0
Jenže při pixel-shiftu se snímač nemusí posouvat jen o jeden pixel, ale i o půl pixelu. Pak získáš dva 100MPx obrázky bez Bayera posunuté vůči sobě o půl pixelu a s pomoci trochy matematiky tak jsi schopen dopočítat další detaily nad rámec 100 MPx. V praxi to ale nebývá nějak dramatické zlepšení.
Odpovědět1 0
I tak to je určitě možné, vypadá to že každý výrobce na to jde trochu jinak, podle specifik své technologie.
Odpovědět0 0
Při soft. procesu demosaikování vznikají u složitějších struktur artefakty jako ztráta detailů, vznik moire a barevných přechodových chyb. Pixel shift tento handicap Bayerovy masky (včetně XTRANS) alespoň teoreticky odstraňuje. Dále obecně multiexpozice sníží šum. Výsledkem skutečně může být vyšší prostorová frekvence (rozlišení). Druhou stranou mince je nutný nehybný objekt, stativ a enormní nárůst dat finálního raw (dng) souboru. Některé značky jsou v tomto procesu výkonnější než jiné. Adobe Ligtroom díky bohatým zkušenostem s problematikou demosaikovaní jde cestou AI SENSEI (Enhanced Details proces) a vymáčkne z jednoho raw snímku maximum detailů. Osobně jsem zkoušel i Gigapixel a musím říct, že výsledky vypadaly slibně. Jenomže kdo na to má dnes čas že.
Odpovědět0 0
A tím se dostáváme k často opomíjenému faktu, že není 100 MPx jako 100 MPx...
Pokud je to objektiv schopen ukreslit, tak 100Mpx snímek z pomyslného "běžného" snímače a 100MPx snímek ze snímače, který snímá současně plnou barevnou informaci (např. Sigma) může vypadat dost rozdílně. Takže reálně tentýž objektiv může jeden snímač se 100MPx vykreslit a druhý už ne...
V případě Pixel-Shift technologie platí stejná pravidla...
Odpovědět1 0
"Kdyby to mělo fungovat takhle, musel by se ten senzor posouvat tak o 50% své velikosti, což je samozřejmě nesmysl." Proč nesmysl, když právě takhle ty multiexpoziční funkce fungují? Právě tím posunem o půl pixelu se ze 100 MPx stane 400 MPx. 4 expozice na jednu eliminaci Bayera a další 4 expozice vyfotí druhý snímek s eliminovaným Bayerem, jen je to posunuté o půl pixelu. Přeložením přes sebe pak získáš lepší představu, co je v těch čtvrtpixelech. Pochopitelně to není úplně přesné, protože je to pořád jen 100MPx snímek a to, cos dostal co čtvrtpixelu, je ovlivněno dalšími třemi čtvrtinami.
Odpovědět0 0
Myslel jsem kdyby to mělo fungovat tak, že by to potřebovalo objektiv co vykreslí 400 MPx, jak si evidentně představují že to skládá expozice ve stylu panorama. Posun ne o 50% pixelu, ale 50% strany senzoru, cca tolik by to muselo být kdyby se tam vážně měly skládat jednotlivé expozice vedle sebe, a dát ze 100 MPx senzoru 400 MPx snímek složením. Jinak to nemohli myslet, pokud tvrdí že objektiv pak musí vykreslit 400 MPx. O půl pixelu ano, to samozřejmě není nesmysl.
Odpovědět0 0
Choakinek, který toto vlákno otevřel, zazdil, jak dokládá jeho předchozí příspěvek FF vs. APS-C, že se jedná o snímací chip velikosti středoformátu 43,8 mm x 32,9 mm, tj. 1,7x větší než FF.
S pixel shift se dají dělat zajímavé věci. Olympus z 20MPix chipů opakovanou expozicí s posunem dostává násobně větší rozlišení, Pentax u K-1 s 36MPix chipem zase plně barevnou informaci na pixel a dokonce větší dynamický rozsah. Jen se scéna nesmí hýbat, jinak vznikají nějaké artefakty.
Odpovědět0 0
Tak je tu rozdíl v tom, že Nikon má F1 pro FF, zatímco Fuji pro APS-C, což třeba může být pro přítomnost AF klíčové.
Odpovědět0 1
Středoformát GFX 100 je sice CSC, ale snímač má 43,8 mm x 32,9 mm
Je to tahle obluda: [odkaz, pro zobrazení se přihlaste]
Odpovědět0 0