|
forum.optyczne.pl
|
 |
Cyfrowe lustrzanki - Dynamika tonalna dla matryc z przetwornikiem 12 i 14 bitowym
papatki - Sob 17 Paź, 2009 Temat postu: Dynamika tonalna dla matryc z przetwornikiem 12 i 14 bitowym Wątek wydzielony z tematu o Canonie 7D. goltar
papatki napisał/a: | Akurat w przypadku starego 5D z 12 bitową matrycą i nowszych aparatów z 14 bitowymi przetwornikami różnica jest bardzo duża, i możliwy do wyciągnięcia z rawa zakres tonalny zdecydowanie wyższy. 7D wypada w tej kwestii na pewno gorzej od 40D ale na pewno lepiej od 5D |
d.prowadzisz napisał/a: |
Delikatnie mówiąc, wątpię.
|
...a ja uwielbiam takie stwierdzenia, to trochę jak wróżenie z fusów, nie bo ja nie wierzę....
Proponuję zerknąć sobie w takie fajne wykresiki (ze względu na pogodę) dziś nie uda mi się zestawić 5D z 7D w warunkach polowych.
http://www.astrosurf.com/buil/50d/test.htm
Bardzo ładnie widać jak zmienia się czułość spektralna dla poszczególnego koloru pomiędzy 40D/50D/5D/5D mkII.
Proszę sobie również uzmysłowić, że pomiędzy kodowaniem 12 bitów a 14 jest aż czterokrotna różnica w rozpiętości tonalnej (4096 vs 16384).
Pozdrawiam!
jaad75 - Sob 17 Paź, 2009
papatki napisał/a: | Proszę sobie również uzmysłowić, że pomiędzy kodowaniem 12 bitów a 14 jest aż czterokrotna różnica w rozpiętości tonalnej (4096 vs 16384). | Jeszcze trzeba mieć co opisywać tą większą ilością bitów. Bo jeśli matryca czegoś nie rejestruje, to mamy tylko więcej szumu do odcięcia.
MM - Sob 17 Paź, 2009
Jakoś nie widzę związku z tymi 14 bitami a rozpiętością tonalną. Za to widzę na zdjęciach różnicę jaką mam pomiędzy obrazem rejestrowanym na starym 5D i nowym 50D (oczywiście na plus 5D). Robiąc zdjęcia 7D miałem wrażenie, że jest gorzej niż na 50D - WIĘC?
papatki - Sob 17 Paź, 2009
MM napisał/a: | Jakoś nie widzę związku z tymi 14 bitami a rozpiętością tonalną. |
LOL
jaad75 - Sob 17 Paź, 2009
papatki napisał/a: | LOL | No niestety - korelacja nie jest tak prosta, jak Ci się wydaje...
papatki - Sob 17 Paź, 2009
ok - jestem zainteresowany do edukowaniem mnie dlaczego to niby 4 krotnie większe kodowanie nie ma związku z dynamiką (lub jak kto woli zakresem tonalnym) aparatu. Tylko proszę rzeczowo a nie coś w stylu bo fotografowałem i nie widzę różnicy.
MM - Sob 17 Paź, 2009
Co tutaj tłumaczyć? Jeżeli matryca nie jest w stanie zarejestrować jakiegoś poziomu światła to ten zakres może mieć trylion odcieni, nikt tego nie zobaczy.
papatki - Sob 17 Paź, 2009
matryca czy konwerter AD? no i jak na to wpływa szum
jaad75 - Sob 17 Paź, 2009
papatki napisał/a: | matryca czy konwerter AD? no i jak na to wpływa szum | Taki, że jeżeli dolne EV, to wyłącznie szum, to nawet jeśli podzielimy go super dokładnie, wciąż pozostanie bezużyteczny. Pamiętaj, że na mniejszą fotodiodę pada coraz mniej fotonów, więc w pewnym momencie nie ma czego dzielić...
papatki - Sob 17 Paź, 2009
oczywiście mały pikselek zawsze będzie miał znacznie mniejszą sprawność i zawsze będzie produkował większy szum, ale czyżby cała różnica pomiędzy 4096 poziomów a 16348 była w dolnym zakresie histogramu? Zerknijcie sobie w stare testy na dpreview gdzie są wykresy zakresów tonalnych zarówno dla 5D jak i np 40D - polecam, choć zaraz pewnie też ktoś powie, że to nie ma znaczenia i wpływu na dynamikę obrazu....
Nawet po konwersji do 8 bitów 40D ma co najmniej działkę przewagi w światłach od 5D.
btw. pewnie zaraz admin nas zjedzie za OT.
btw2. sam używam 16 bitowej kamery ccd
jaad75 - Sob 17 Paź, 2009
papatki napisał/a: | ale czyżby cała różnica pomiędzy 4096 poziomów a 16348 była w dolnym zakresie histogramu? | Nie, ale to co zyskujesz dzieląc światła na więcej odcieni tracisz z nawiązką na wyższym szumie w cieniu.
papatki napisał/a: | Zerknijcie sobie w stare testy na dpreview gdzie są wykresy zakresów tonalnych zarówno dla 5D jak i np 40D - polecam, choć zaraz pewnie też ktoś powie, że to nie ma znaczenia i wpływu na dynamikę obrazu.... | Testy DPreview są mało miarodajne i średnio pokrywają się z rzeczywistością.
papatki napisał/a: | btw2. sam używam 16 bitowej kamery ccd | A ja aparatu z 22-bitowym konwerterem A/D...
papatki - Sob 17 Paź, 2009
polecam przeczytać to:
http://www.earthboundligh...t-part-two.html
i to:
http://www.earthboundligh...sus-12-bit.html
Oczywiście wielkość piksela i S/N sensora ma na to wpływ, nie ulega to wątpliwości, ale znając ograniczenia puszek którymi fotografujemy znacznie łatwiej dobrać tak ustawienia aparatu, żeby rezultat był jak najlepszy.
Pozdrawiam!
PS. Szkoda, że w pentaxie nie da się schłodzić matrycy tak do -30 stopnie, wtedy pewnie z tej dynamiki coś by zostało
d.prowadzisz - Sob 17 Paź, 2009
jaad75 napisał/a: | Testy DPreview są mało miarodajne i średnio pokrywają się z rzeczywistością. |
Według nich jednym z największych, o ile nie największym DR może pochwalić się.. A900. FF z największą ilością szumu. Dziwne co?
papatki napisał/a: | Proszę sobie również uzmysłowić, że pomiędzy kodowaniem 12 bitów a 14 jest aż czterokrotna różnica w rozpiętości tonalnej (4096 vs 16384). |
Oznacza to, że skoro 5D ma z 8 f-stop, to 40D będzie mieć 32 f-stop? Jak widzisz ilość bitów nie przekłada się w praktyce bezpośrednio na DR.
Dla mnie, jako użytkownika aparatu, fotografa, rozpiętość tonalna oznacza w praktyce zdolność do rejestracji maksymalnie oddalonych od siebie jasnych i ciemnych punktów. Większą zdolność do tego ma 5D, bo ma lepszą matrycę.
Co jest kluczowe, dopiero obraz uchwycony przez nią trafia na przetwornik. Nawet najlepszy przetwornik nie dorobi informacji, której nie zarejestrowała matryca. DR w tym wypadku nie jest kwestią przetwornika. Jest to wybór pomiędzy mniejszym DR opisanym w dokładniejszy, 14 bitowy sposób, a mniej dokładnym, ale za to szerszym spektrum.
Oczywiście później obraz 14 bitowy można bardziej ponaciągać w PS i lepiej znosi on obróbkę, co może dawać złudzenie większego DR. Problem w tym, kiedy w pewnym fragmencie obrazu nie ma czego obrabiać, bo matryca tego nie wyłapała.
Nawiązując do elastyczności 14 bitowego obrazu, podczas stosowania wielokrotnych ekspozycji, taki materiał może okazać się finalnie lepszy na krajobrazy. Wielokrotna ekspozycja eliminuje bowiem ograniczenia DR.
Myślę że nie tylko ja wolę jednak uprawiać fotografię niż grafikę. Może nasza dyskusja jest bardziej o różnicach pokoleniowych niż technice?
pozdrawiam.
hijax_pl - Sob 17 Paź, 2009
d.prowadzisz napisał/a: | papatki napisał/a: | Proszę sobie również uzmysłowić, że pomiędzy kodowaniem 12 bitów a 14 jest aż czterokrotna różnica w rozpiętości tonalnej (4096 vs 16384). |
Oznacza to, że skoro 5D ma z 8 f-stop, to 40D będzie mieć 32 f-stop? Jak widzisz ilość bitów nie przekłada się w praktyce bezpośrednio na DR. |
A dlaczego bity mają odpowiadać przesłonie?
Rozdzielczość przetwornika ADC jest zwykle troszkę większa z uwagi na szumy własne przetwornika lub referencyjnego źródła prądowego. Stabilność temperaturowa samego źródła może być do 20 ppm - a to też negatywnie wpływa na sam pomiar. Generalnie chodzi o różnicę między rozdzielczością przetwornika a dokładnością matrycy. Jestem przekonany że przetworniki ADC w lustrzankach są 16 o ile nie 24 bitowe a tylko dokładność matrycy determinuje czy po odcięciu szumu pozostanie nam 12 czy 14 bitów.
Konkludując - to czy będzie 12 czy 14 czy nawet 16 bitów - nijak się ma do rozpiętości tonalnej analogowego obrazu rejestrowanego przez matrycę.
Natomiast zgadza się że 14 bitowy obraz jest lepiej edytowalny - mamy więcej możliwości mapowania tonalnego - bo przecież wynikowy, wywołany JPG jest ... 8bitowy tylko
kufel - Sob 17 Paź, 2009
http://www.earthboundligh...sus-12-bit.html
http://www.earthboundligh...t-part-two.html
odnosnie tematu
lisor - Sob 17 Paź, 2009
... dopiszę się do tego wątku, bo problem mam podobny.
Oglądając wykresy dynamiki tonalnej matryc: Canona 40 D i opisywanego w DFV Panasonica Lumix GF 1 można z przerażeniem skonstatować przewagę rozpiętości tonalnej tego ostatniego. Odpowiednio: Canon 7,7/6,77 EV , Panasonic 11,6/10,6/6,36 EV. Canon nieco lepszy w kategorii ,,wysoka jakość obrazu,, , za to Panasonic w całkowitej rozdzielczości ? Na chłopski rozum Panasonic ,,mniej wypala niebo,,. Autor artykułu wspomniał , że GF 1 ma dynamikę matrycy większa niż wiele lustrzanek .
Jak to się w praktyce przekłada na wygląd zdjęcia. Mniej przepala ?
d.prowadzisz - Sob 17 Paź, 2009
hijax_pl napisał/a: | A dlaczego bity mają odpowiadać przesłonie? |
Już mnie palce bolą od pisania, że bity nie przekładają się na DR.
Dlaczego f-stop? A dlaczego nie, skoro jeden f-stop to dwukrotna różnica w świetle (jaśniej/ciemniej)? Może też być EV, to samo.
Zatem. Skoro wyzwalamy migawkę przy 1/250 i f/5.6 i uzyskujemy odpowiednio:
- w aparacie A 8.5EV
- w aparacie B 7.8 EV
..to aparat A ma dla mnie większy DR. Taki aparat jest dla mnie bardziej użyteczny, bo "widzi więcej". Pewnie zrezygnuję w postprocesie z pewnej części cieni, ustalając poziom czerni, ale jako twórca chcę mieć wybór.
Przy składaniu wielokrotnych ekspozycji i (delikatnie mówiąc) mocnej korekcji aparat może mieć nawet 5EV i z 20 bitów. To nawet lepiej. Cały zakres sceny, niech to będzie z 20EV mamy wtedy "rozpisany" na wiele bardzo "gęstych" plików. To daje duże pole do popisu.
W kwestii wykresów z netu:
.. i tak dalej.
D700 gorsze od 40D? Sony A900 zadziwiająco dobre? 5DmkII identyczne jak starsza wersja? E-3 dobry w cieniach? D700 zaskakująco cienki, choć na forum ktoś stwierdził empirycznie, że lepszy niż 40D?
Coś tu nie gra, czy są ok? Jak myślicie?
papatki - Sob 17 Paź, 2009
d.prowadzisz napisał/a: |
Dla mnie, jako użytkownika aparatu, fotografa, rozpiętość tonalna oznacza w praktyce zdolność do rejestracji maksymalnie oddalonych od siebie jasnych i ciemnych punktów. Większą zdolność do tego ma 5D, bo ma lepszą matrycę.
|
rozpiętością tonalną lub dynamiką obrazu nazywamy zdolność do odwzorowania od najciemniejszych partii obrazu do najjaśniejszych (a w zasadzie zakres między tą zdolnością). Zdolność do oddania jasnych i ciemnych punktów to chyba rozdzielczość
No i co to znaczy, że 5D ma wyższą tą zdolność bo ma lepszą matrycę?
Tzn. co? Lepszą bo droższą do wyprodukowania, lepszą bo ma mniejszy stosunek S/N od wspomnianego 40D czy jeszcze coś innego?
Akurat te dywagacje są dość jasne do rozstrzygnięcia bo w sieci jest bardzo duża ilość bardzo rzetelnych testów. Moim osobistym zdaniem, jako użytkownika obu tych aparatów jest to, że 5D nie lubi jasnych świateł i dość często je przepala. Fotografują w tych samych warunkach z 40D zawsze miałem większą możliwość przywrócenia świateł niż w 5D. Dodam, że zawszę pracuję na RAWach (no może poza zdjęciami sportowymi, gdzie zazwyczaj robię RAW + jpg), jeżeli to możliwe nie przekraczam odpowiednich czułości bo ta ma wpływ na wynik końcowy. Nigdy też nie składam HDRów bo najzwyczajniej nie mam na to czasu.
Myślę, że w tym poście uda się ustalić kilka prawideł bo zaczął się właśnie od różnic pomiędzy 40D a 5D. Z kilku odnośników które tu umieszczałem da się stwierdzić, że jednak stare 5D w kilku kwestiach ustępuję nowszym konstrukcjom, będzie to dla mnie zarówno owa sporna dynamika obrazu jak również wskazana mniejsza czułość (i to o prawie 1/4) w poszczególnych długościach fal świetlnych od nowych konstrukcji (jak wspomniane 40D czy choćby 5DmkII). To widać jak w jednym folderze wyświetla się rawy z oby aparatów naraz.
Druga sprawa to kilka prawideł wynikających z czystej fizyczności sensorów - owszem macie rację, że przy małym pikselku (bardzo małym) przy sporym szumie nie pomoże obrazowi i przetwornik A/D 14 bitów. W podobnie skonstruowanych matrycach i przy większym pikselku z pewnością taką różnicę widać - i tak np 5D mk II będzie wypadał bardzo dobrze. Stosunkowo duży (jak na dzisiejsze czasy ) piksel i 14 bitowy przetwornik robią swoje. Przy tym wszystkim chciałbym podkreślić, że jakość obrazu czy też jego plastyczności wynikająca z FF sprawia, że obraz wygląda znacznie lepiej. Jak się okazuje w różnych testach 5Dmk II wypada jednak znacznie lepiej od swojego starszego brata. Czy to przypadek? czy może jednak technologia i lepszy przetwornik.
No a na koniec jak będzie pogoda w tygodniu to wezmę na testy wszystkie trzy puszki, czyli 40D, 5D i 7D (sorki ale w studio jakoś średnio chce mi się to robić).
Pozdrawiam!
d.prowadzisz - Nie 18 Paź, 2009
papatki napisał/a: | rozpiętością tonalną lub dynamiką obrazu nazywamy zdolność do odwzorowania od najciemniejszych partii obrazu do najjaśniejszych (a w zasadzie zakres między tą zdolnością). |
Myślimy o tym samym. DR to zdolność uchwycenia punktów o jak największej różnicy EV. Nie ważne ile przejść jest między nimi, a to ostatnie wynika właśnie z bitów.
papatki napisał/a: | No i co to znaczy, że 5D ma wyższą tą zdolność bo ma lepszą matrycę?
Tzn. co? Lepszą bo droższą do wyprodukowania, lepszą bo ma mniejszy stosunek S/N od wspomnianego 40D czy jeszcze coś innego? |
Właśnie ta zdolność wynika z matrycy. Gdyby tak nie było, to jaki problem wyposażyć kiepską matrycę w jeszcze lepszy przetwornik obrazu (z 18 bit)?
Z czego zatem wynika cienki DR w Olku? Z małej ilości bitów? Przecież E-3 ma ich tyle, co 5D. Czyżby programiści Olympusa tak bardzo skopali sprawę, czy matryca jest po prostu inna?
papatki napisał/a: | Fotografują w tych samych warunkach z 40D zawsze miałem większą możliwość przywrócenia świateł niż w 5D. |
Co to znaczy "przywrócenia"? Albo coś się mieści w histogramie, albo nie. Sztuczki "wywoływaczy" raw'ów polegające na przywróceniu (wymyśleniu) danych z przepalonego kanału, na podstawie informacji z pozostałych, nie liczą się do DR. Co innego faktyczny zakres tonalny, a co innego sztuczki w PS.
papatki - Nie 18 Paź, 2009
zdaje się, że w RAWie nie ma to znaczenia.
Co do Oly to sprawa jest jeszcze ciekawsza, zastosowali oni matrycę "nowego typu" nazwali to livemos, ale w świecie kamer naukowych techologia jest znana od dawna i nazywa się back illuminated ccd i generalnie znacznie poprawia osiągi.
Wracając do highTonePrioroty to nie żadne sztuczki tylko odpowiednio podgięta krzywa
hijax_pl - Nie 18 Paź, 2009
Gięcie krzywych tonalnych to obróbka - chyba rozmawiamy o matrycy i transferze danych n-bitowym?
Z tym że po co taka dyskusja skoro i tak docelowo robimy 8-bitowego JPGa - nawet jak idę do labu to przygotowuję taki plik (ew. 8-bit TIFF).
Więc 12 czy 14 bitów to mniejsza/większa elastyczność w cyfrowej ciemni.
d.prowadzisz - Nie 18 Paź, 2009
papatki napisał/a: | Wracając do highTonePrioroty to nie żadne sztuczki tylko odpowiednio podgięta krzywa |
Jeżeli nagle pojawia mi się coś, czego pierwotnie nie miałem na histogramie, to pomimo, że taka informacja może być w pewien sposób użyteczna (choć jej jakość zwykle jest słaba), nie jest ona wytworem aparatu. Wniosek, nie liczy się ona do DR.
hijax_pl napisał/a: | Gięcie krzywych tonalnych to obróbka - chyba rozmawiamy o matrycy i transferze danych n-bitowym? |
Racja.
komor - Nie 18 Paź, 2009
d.prowadzisz napisał/a: | Co to znaczy "przywrócenia"? Albo coś się mieści w histogramie, albo nie. Sztuczki "wywoływaczy" raw'ów polegające na przywróceniu (wymyśleniu) danych z przepalonego kanału, na podstawie informacji z pozostałych, nie liczą się do DR. |
Nie zgodziłbym się z tym. Tutaj właśnie większa ilość bitów na przetworniku pozwala odzyskać (a nie wymyśleć) trochę tego, co znajduje się już tuż przy granicy przepału (ale jej nie przekracza). Histogram nie jest precyzyjny i na ostatniej „kresce” jest jeszcze sporo informacji.
Ostatnio zrobiłem zdjęcie na którym nie zauważyłem, że przestawił mi się niemiłosiernie czas naświetlania. Grupa ludzi, już nie do powtórzenia. Przepaliłem do białości, ale miałem RAW-a. W Lightroomie zdjąłem -2 EV (!) i mam używalne zdjęcie. Nie jest to mistrzostwo, dynamika jest na pewno kiepska, ale potrzebne na tym zdjęciu detale są, tylko kolory dość kiepskie, bo ich nasycenie musiałem sztucznie podnieść. Naprawdę sporo można odzyskać przy pracy na RAW, które mają przecież więcej niż 8-bitów i to jest najważniejsze.
A co do całości i meritum wątku to myślę, że inaczej na jakość wpływają DR i ilość bitów na przetworniku. Co w sumie da lepszą kombinację to już powyżej napisali praktycy, którzy mieli okazję pracować na paru aparatach i mają swoje zdanie. Martwi mnie tylko to, że jak piszecie 7D jest słabsze niż 50D. I po cholerę te megapiksele?
jaad75 - Nie 18 Paź, 2009
hijax_pl napisał/a: | Z tym że po co taka dyskusja skoro i tak docelowo robimy 8-bitowego JPGa - nawet jak idę do labu to przygotowuję taki plik (ew. 8-bit TIFF).
| Problemem nie jest to, że robimy 8-bitowego JPG-a, a to, że nie jesteśmy w stanie zobaczyć, ani wydrukować więcej niż 8-bitów na kanał, bo takie mamy obowiązujące standardy (24-bitowy kolor w systemie)... Wołarka po prostu interpretuje dostępne dane podając je tak, by karta graficzna była w stanie wyświetlić je na monitorze, a my możemy ręcznie zmusić ją do innej niż domyślna interpretacji przy czym, im szerszy zapas bitów w danych wejściowych, tym szersze możliwości tejże.
[ Dodano: Nie 18 Paź, 2009 11:27 ]
d.prowadzisz napisał/a: | Jeżeli nagle pojawia mi się coś, czego pierwotnie nie miałem na histogramie, to pomimo, że taka informacja może być w pewien sposób użyteczna (choć jej jakość zwykle jest słaba), nie jest ona wytworem aparatu. Wniosek, nie liczy się ona do DR.
| j.w.
d.prowadzisz - Nie 18 Paź, 2009
komor napisał/a: | W Lightroomie zdjąłem -2 EV (!) i mam używalne zdjęcie. Nie jest to mistrzostwo, dynamika jest na pewno kiepska, ale potrzebne na tym zdjęciu detale są, tylko kolory dość kiepskie, bo ich nasycenie musiałem sztucznie podnieść. |
Ile z tych danych dośpiewał sobie Lightroom?
jaad75 - Nie 18 Paź, 2009
d.prowadzisz napisał/a: | Ile z tych danych dośpiewał sobie Lightroom? | Nic nie musiał "dośpiewywać", wystarczyło, że z dostępnych 14 bitów wybrał odpowiednie 8 do wyświetlenia.
d.prowadzisz - Nie 18 Paź, 2009
Nie rozumiem, to z 12 nie wybierze?
Proponuję skonwertować to zdjęcie "jak jest", do min. 14 bitowego Tiff i w PS odjąć 2EV.
Z czego biorą się absurdalne wykresy na dpreview?
jaad75 - Nie 18 Paź, 2009
d.prowadzisz napisał/a: | Nie rozumiem, to z 12 nie wybierze? | Wybierze, ale im mniej danych, tym gorsza interpretacja.
d.prowadzisz napisał/a: | Proponuję skonwertować to zdjęcie "jak jest", do 14 bitowego Tiff i w PS odjąć 2EV. | To nie jest takie proste, bo kanały w zdemozaikowanym obrazie są powiązane ze sobą i już wstępnie obcięte.
[ Dodano: Nie 18 Paź, 2009 11:44 ]
d.prowadzisz napisał/a: | Z czego biorą się absurdalne wykresy na dpreview? | Według Arka - z tego, że analizują JPG-i.
d.prowadzisz - Nie 18 Paź, 2009
jaad75 napisał/a: | To nie jest takie proste, bo kanały w zdemozaikowanym obrazie są powiązane ze sobą i już wstępnie obcięte. |
Ok. Do BMP. Czysta mapa bitów. Później -2 i jakoś tyle nie zobaczymy.
jaad75 - Nie 18 Paź, 2009
d.prowadzisz napisał/a: | Ok. Do BMP. Czysta mapa bitów. Później -2 i jakoś tyle nie zobaczymy. | Problem jest w tym, że to wciąż obraz zdemozaikowany, a więc nie są to dane wyjściowe, jakimi dysponuje wołarka.
d.prowadzisz - Nie 18 Paź, 2009
Nie rozumiem. Przedtem twierdziłeś że FF ma większy DR, a teraz mówisz że jest odwrotnie.
Ciągle rozmawiamy o tym co się dzieje już po przetworniku. Czy jednak sama konstrukcja matrycy nie oferuje większego DR, na poziomie danych z matrycy?
Porównywałem obrazy z 5D i 40D. Na moje oko więcej w jednej klatce pomieści 5D.
jaad75 - Nie 18 Paź, 2009
d.prowadzisz napisał/a: | Nie rozumiem. Przedtem twierdziłeś że FF ma większy DR, a teraz mówisz że jest odwrotnie.
Ciągle rozmawiamy o tym co się dzieje już po przetworniku. Czy jednak sama konstrukcja matrycy nie oferuje większego DR, na poziomie danych z matrycy?
| Nie - dla mnie oczywistym jest, że sama matryca musi mieć odpowiednią pojemność, a jej odczyt jest sprawą wtórną. Ale 14-bitowy odczyt/zapis daje więcej danych niż 12-bitowy i przy tej samej matrycy da wyraźnie lepszy DR. Problemem takiego K10D był zbyt wysoki poziom szumów samego sensora i zastosowanie 22-bitowego przetwornika nic nie dawało w kwestii DR, zwłaszcza, że RAW był zapisywany do 12-bitów, czyli wstępnie interpretowany.
komor - Nie 18 Paź, 2009
d.prowadzisz, między TIFF a BMP nie ma żadnej zasadniczej różnicy konstrukcyjnej, obydwa formaty zapamiętują piksele RGB bez straty przy konwersji (nie biorę pod uwagę formatu TIFF używającego kompresji JPG). Format JPG z kolei to kompresja stratna, wykorzystująca m.in. wady oka nie wyłapującego drobnych różnic kolorów lub jasności. JPG do dalszej obróbki z definicji jest ułomny i powoduje tylko dalszą degradację obrazu.
Format RAW, jak już przypomniał Jaad, to informacja jeszcze przed demozaikowaniem, a jak można przeczytać w podanych wcześniej artykułach z Earthboundlight.com to się akurat przydaje przy wyciąganiu informacji z ciemnych i jasnych partii.
Generalnie 14 bitów nie musi być panaceum na całe zło, bo jak już wspomniano wcześniej - liczy się jakość samej matrycy, wielkość pikseli który może łapać więcej itd.
Ale zasada jest taka, że im więcej bitów tym precyzyjniejsza obróbka. Jeśli ktoś sądzi, że obróbka to już nie jest fotografia to się myli, bo tzw. operacje na krzywych robi nawet film analogowy, którego charakterystyka naświetlania nie jest liniowa. Fizyka generalnie nie jest liniowa, z wyjątkiem wyjątków.
1. Oto prosty 8-bitowy gradient z Photoshopa i towarzyszący mu histogram:
2. Robię prostą operację na krzywych (przyciemnienie):
3. Teraz staram się go rozjaśnić w kierunki pierwotnej jasności:
Wystarczy popatrzeć na wynikowy gradient i histogram, co się dzieje po dwóch prostych operacjach w przypadku obróbki 8-bitowej. Oczywiście różnica między 12- a 14-bitów niekoniecznie będzie taka dramatyczna, ale jak przeczytać na Earthboundlight.com gdzie idzie idzie te dodatkowe 2-bity (czyli czterokrotne zwiększenie ilości dostępnych wartości liczbowych!!!!) to…
hijax_pl - Nie 18 Paź, 2009
Proponuję wykonać eksperyment. Dwa zdjęcia zrobione tym samym aparatem, w identycznych warunkach zapisane jako RAWy 12 i 14 bitowe, bez kompresji. Bierzemy DCRaw'a i wypruwamy dane natywne z matrycy - zapisujemy jako TIFF 16bit. (dobrze byłoby mieć wektory korekcji kolorów składowych matrycy) Prostym programikiem wykonujemy demozaikowanie, najprostszą z metod - czyli po prostu wyznaczamy wartość pojedynczego piksela z każdej grupy RGGB. Wyliczamy odległość między najciemniejszym i najjaśniejszym pikselem.
W takim sposób byśmy po prostu podeszli do tematy empirycznie.
papatki - Nie 18 Paź, 2009
Po pierwsze aparat nic nie domalowuje. Bo niby jak aparat ma nam domalować detale które fizycznie są zarejestrowane, czy w cieniach dorysuje nam krasnala a w jasnych partiach zachód Słońca (w zależności od stylu który wybierzemy)
Jeżeli ktoś myśli, że zdjęcia zrobione przez aparat wyglądają tak jak się pojawiają na ekraniku to się grubo myli - wystarczy wykonać raw i dokonać konwersji liniowej - tak wyglądają dane wprost z matrycy, choć po prawdzie najfajniej wyglądają zdjęcia przez zdjęciem maski bayera
Innymi słowy, czy tego chcemy czy nie aparat po zrobieniu zdjęcia sam sobie wykonuje szereg opracji - wg. zadanej krzywej ustalają tonalność, kontrast, saturacje, wyostrzanie i odszumianie. Łudzenie się więc, że wduszając spust migawki otrzymujemy coś czystego w formie i idealnie zgodnego z naturą jest dość naiwne.
Muszę posprawdzać dane bo zdaje się, że sama matryca nie ma żadnych ograniczeń w bitowości. Oczywiście jest ona ograniczona poprzez S/N danego przetwornika, ale to właśnie konwerter A/D wypluwa nam ostateczny plik który to zapisujemy jako raw (12/14 bitów) lub następuje kolejny "histogram stretch" do 8 bitów.
Jak już wspominałe, niech wyjdzie słonko to zabiorę pare puszek do testów, mam możliwość również zabrania Sony A900.
Pozdrawiam!
d.prowadzisz - Nie 18 Paź, 2009
komor napisał/a: | te dodatkowe 2-bity (czyli czterokrotne zwiększenie ilości dostępnych wartości liczbowych!!!!) to… |
W opisie obrazu otrzymanego z matrycy!! Ludzie!! Nie dostrzegacie subtelnej różnicy?
14bit, 8EV
|--------------------*-|
12bit, 9EV
|- - - - - - - - - - - * -|
W drugim przypadku, jak słusznie zauważyliście sygnał jest "rzadszy", ale (co ciągle podkreślam) obejmuje on większe spektrum świateł i cieni.
Pierwsza sytuacja to kwintet smyczkowy, zapisany w dobrym formacie (duży, gęsty mpc), a druga to orkiestra symfoniczna, ale na MP3. Niewiele z tego zrobisz później, bo ma mniej bitów, ale sam sygnał pomimo tego obejmuje większą różnorodność dźwięków (instrumentów).
* - oznacza punkt blisko przepału (ale nie przepalony) z którego w 14 bitach, po "przyciemnieniu" w "wywoływarce" otrzymamy więcej, bo tam informacja jest gęstsza.
Jak napisał Jaad75: mamy z czego wybrać te 8bit, bo jest ich w tym punkcie więcej. Ma rację.
Komor również zauważył że w tym punkcie jest 4x więcej informacji i też ma rację.
Taki obraz jest z pewnością wdzięczniejszy podczas edysji.
Ja jednak nie mówię o tym punkcie, ale o tym, który w FF/12bit jest jeszcze trochę bardziej na prawo, a którego już nie znajdziemy w APS-C/14bit.
Jako że grafikiem ani edytorem dźwięku nie jestem, preferuję rozwiązanie nr. 2
hijax_pl napisał/a: | W takim sposób byśmy po prostu podeszli do tematy empirycznie. |
Wystarczy takie same kadry, te same parametry ekspozycji i porównać histogramy z wyzerowanymi ustawieniami.
hijax_pl - Nie 18 Paź, 2009
papatki, no właśnie mi chodzi o to że to czy będzie 12 czy 14 bitów to nam dynamiki nie zmieni. W eksperymencie który opisałem okaże się, że po znormalizowaniu wyniki dla obu zapisanych plików będą - identyczne.
papatki napisał/a: | Muszę posprawdzać dane bo zdaje się, że sama matryca nie ma żadnych ograniczeń w bitowości. Oczywiście jest ona ograniczona poprzez S/N danego przetwornika, ale to właśnie konwerter A/D wypluwa nam ostateczny plik który to zapisujemy jako raw (12/14 bitów) lub następuje kolejny "histogram stretch" do 8 bitów. |
Do ADC sygnał jest analogowy - za nim dynamika sygnału to 20*log10(2^n), gdzie n- to liczba bitów używana do kwantyzacji.
Dla 12 bitów to około 72,24dB a dla 14bitów - 84,28dB. Z tym że jest to dynamika teoretyczna sygnału w kodowaniu n-bitowym. Nie wiemy jeszcze na ile ogranicza tą dynamikę A) wzmacniacz sygnału B) stabilność referencyjnego źródła napięcia C) sam przetwornik A/D
Więc z technicznego punktu widzenia jest różnica w dynamice i to jest to co wykorzystujemy w ACR przy korekcji ekspozycji...
d.prowadzisz - Nie 18 Paź, 2009
papatki napisał/a: | Po pierwsze aparat nic nie domalowuje. Bo niby jak aparat ma nam domalować detale które fizycznie są zarejestrowane, czy w cieniach dorysuje nam krasnala a w jasnych partiach zachód Słońca (w zależności od stylu który wybierzemy) |
Bardzo śmieszne. Nie aparat, ale ACR!. Rekonstruuje, niejako domyśla się utraconych danych z przepalonego kanału (najczęściej czerwony) na podstawie pozostałych. 14bit służy takim zabiegom, ale nie jest to duży DR.
hijax_pl - Nie 18 Paź, 2009
d.prowadzisz napisał/a: | hijax_pl napisał/a: | W takim sposób byśmy po prostu podeszli do tematy empirycznie. |
Wystarczy takie same kadry, te same parametry ekspozycji i porównać histogramy z wyzerowanymi ustawieniami. |
O ile zagwarantujemy identyczny mechanizm demozaikowania.
d.prowadzisz - Nie 18 Paź, 2009
hijax_pl napisał/a: | O ile zagwarantujemy identyczny mechanizm demozaikowania. |
Ten sam program, te same ustawienia. Myślę że powinno wystarczyć.
papatki - Nie 18 Paź, 2009
no to czekamy na pogodę
No a co do "domyślania się aparatu" to jednak kolega baaardzo się myli, choć myślę, że to problem bardziej na poziomie werbalnym bo aparat nie może się niczego domyślać, interpretuje dane które zarejestrował, danych których nie ma nie zinterpretuje.
Większa dokładność bitowa na pewno da nam płynniejsze przejścia barwne. Przy podobnym S/N matrycy różnice w kodowaniu mogę przechylić skalę dynamiki w skrajnych zakresach, choć tutaj faktycznie różnica nie będzie kluczowa.
d.prowadzisz - Nie 18 Paź, 2009
papatki napisał/a: | No a co do "domyślania się aparatu" |
Analfabetyzm wtórny. Ręce mi opadają. Nigdzie nie napisałem że aparat się czegoś domyśla.
Napisałem, że ACR na podstawie dostępnych danych, wymyśla "co tam mogło być". Nie aparat, ale ACR!
Powiedzmy, że aparat zrobił G:249 B:251 i R:255 (przepalony), to dajmy R:252 i już będzie szczegół którego matryca nie złapała, a że w dziwnym kolorze to trudno. ACR tak manipuluje, żeby podczas obróbki dorobić fragmenty danych w kanałach, których tam wcześniej nie było. Niektórzy mylą to z DR
papatki - Nie 18 Paź, 2009
Mam pytanie oglądasz histogram wykonanych zdjęć? Bo gdyby tak było to byś takich rzeczy nie wypisywał. Myślę, że niestety masz nikłe pojęcie o tym co się dzieje w aparacie po wykonaniu zdjęcia. Proponuję wykonać kilka zdjęć mocno niedoświetlonych i mocno prześwietlonych a następnie dokładnie przyjrzeć się temu czego jest mało, czego dużo i jak aparat to interpretuje (podkreślam aparat).
lama - Nie 18 Paź, 2009
d.prowadzisz napisał/a: | Powiedzmy, że aparat zrobił G:249 B:251 i R:255 (przepalony), to dajmy R:252 i już będzie szczegół którego matryca nie złapała, a że w dziwnym kolorze to trudno. ACR tak manipuluje, żeby podczas obróbki dorobić fragmenty danych w kanałach, których tam wcześniej nie było. |
Bzdura. Matryca tak nie działa. W dużym uproszczeniu to zbiór fotodiod. To co rejestruje matryca to wartość napięcia, a nie jakieś cyferki. Sygnał zarejestrowany przez matrycę jest analogowy, dopiero potem, w przetworniku następuje zamiana tego analogowego sygnału na postać cyfrową, za pomocą mniejszej lub większej ilości bitów. Niewielkie przepalenia są przepaleniami ze względu na sposób przetwarzania danych. To że jpg ma przepały nie znaczy że te informacje zostały stracone (chyba że mamy tylko plik jpg).
d.prowadzisz - Nie 18 Paź, 2009
lama napisał/a: | Bzdura. Matryca tak nie działa. |
Kolejny.. Czy ja napisałem że tak działa matryca?
Dyskusja z wami jest bezprzedmiotowa. Nie umiecie czytać ze zrozumieniem.
Myślałem, że to bardzo proste.
Matryca APS-C wykonuje zdjęcie:
czernie |----------------------------------| światła
następnie zapisuje cyfrowo w 14 bitach:
czernie |===================| światła
Matryca FF wykonuje zdjęcie:
czernie |-------------------------------------| światła
następnie zapisuje cyfrowo w 12 bitach:
czernie | = = = = = = = = = = = = = = | światła
Porównajcie proszę bacznie te prowizoryczne wykresy. D drugim przypadku, zakres (dynamika, DR) jest większa, ale zapisana mniej szczegółowo, z mniejszą liczbą bitów.
Co mają w takim układzie bity do DR?
Oczywiście jeżeli zechcemy pogrzebać cokolwiek np. przy światłach, to w pierwszym przykładzie będzie tam więcej informacji, ale tylko w obszarze wspólnym dla obu matryc. FF bowiem (z racji swojej budowy) zarejestruje jeszcze dodatkowo coś odrobinę jaśniejszego, choć zapisze to stosunkowo słabym, 12bitowym "językiem".
Dlaczego średnioformatowe przystawki mają tak duży DR? Z racji bitów?
papatki - Nie 18 Paź, 2009
d.prowadzisz napisał/a: | Rekonstruuje, niejako domyśla się utraconych danych z przepalonego kanału (najczęściej czerwony) na podstawie pozostałych |
moim zdaniem najczęściej przepala się zielony bo jest ze środkowego zakresu widma w którym najwięcej sygnału aparat łapie
d.prowadzisz - Nie 18 Paź, 2009
papatki napisał/a: | moim zdaniem najczęściej przepala się zielony bo jest ze środkowego zakresu widma w którym najwięcej sygnału aparat łapie |
Może też tak być.
Przeczytaj proszę uważnie mojego wcześniejszego posta.
papatki - Nie 18 Paź, 2009
niestety nie jest tak jak pokazujesz na wykresikach, ogólnie to tak, że wielkość matrycy w tym przypadku nie ma aż tak dużego znaczenia a 5D jest tylko przykładem. Znaczenie ma to o czym piszemy wcześniej/ wyżej czyli wielkość piksela S/N i jeszcze kilka innych kwestii.
Tylne ścianki mają zazwyczaj przetwornik 16bitów i zazwyczaj ccd i zazwyczaj większy piksel a na dokładkę pewnie pakują tam lepsze sensory
d.prowadzisz - Nie 18 Paź, 2009
OK.
Zróbmy więc 8 bitowy skan negatywu o bardzo dużej rozpiętości tonalnej (z 11EV). Czy będzie ona gorsza niż RAW z 14 bitowej matrycy? Światła będą szybciej przepalone w teoretycznie gorszym, 8bitowym obrazie? Przecież według Ciebie liczba bitów wpływa na DR.
Otóż w jasnych obszarach obydwu zdjęć, więcej szczegółów będzie miał obraz 14bit, co jednak powiesz o obszarze, którego nie zarejestruje cyfra, a będzie on miał 8bit na skanie?
Lepiej mieć większy, 8 bitowy zakres, czy mniejszy, ale opisany bardziej szczegółowo (14bit)?
papatki napisał/a: | wielkość matrycy w tym przypadku nie ma aż tak dużego znaczenia a 5D jest tylko przykładem. Znaczenie ma to o czym piszemy wcześniej/ wyżej czyli wielkość piksela S/N i jeszcze kilka innych kwestii. |
Może nieco skrótowo, ale w moich rozważaniach, zawsze FF utożsamiałem z większym pikselem. Dobrze więc, mówmy zatem o większym pikselu.
Czy FF z 5Mpx i 12bitami będzie miało większy DR niż 40D?
lama - Nie 18 Paź, 2009
d.prowadzisz, odniosłem się do ACR'a, który wg Ciebie wymyśla "co tam mogło być".
komor - Nie 18 Paź, 2009
d.prowadzisz napisał/a: | komor napisał/a: | te dodatkowe 2-bity (czyli czterokrotne zwiększenie ilości dostępnych wartości liczbowych!!!!) to… |
W opisie obrazu otrzymanego z matrycy!! Ludzie!! Nie dostrzegacie subtelnej różnicy?
14bit, 8EV
|--------------------*-|
12bit, 9EV
|- - - - - - - - - - - * -|
W drugim przypadku, jak słusznie zauważyliście sygnał jest "rzadszy", ale (co ciągle podkreślam) obejmuje on większe spektrum świateł i cieni. |
A tym się zgadzam, jeśli to było niejasne to wszystko przez moje dzieci, które siedziały mi na głowie podczas pisania postu. Z tym się chyba zresztą wszyscy zgadzamy, że jakości obrazu rejestrowanego przez matrycę nie przeskoczymy żadnymi bitami, ale przy zadanej jakości rejestratora większa ilość bitów pozwala na wyciągnięcie większej ilości informacji.
Pytanie tylko, i tutaj zgody nie ma: co ma większe znaczenie dla ostatecznego zakresu - dynamika matrycy (czyli te Twoje 8 lub 9 EV) czy możliwości wynikające z większej ilości bitów (12 a 14).
d.prowadzisz napisał/a: | hijax_pl napisał/a: | O ile zagwarantujemy identyczny mechanizm demozaikowania. |
Ten sam program, te same ustawienia. Myślę że powinno wystarczyć. |
To nie jest dobre podejście. Każda matryca może mieć swoje specyficzne cechy (charakterystykę) wymagające odpowiedniego podejścia przy wywołaniu. Porównanie dwóch matryc poprzez użycie jednych ustawień, które nie są optymalne nic nam nie da. To tak jakbyśmy porównywali dwa auta sportowe poprzez wlanie do obydwu jednakowej benzyny 86-oktanowej. Dobrze zapamiętałem z czasów Syrenki?
ghost - Nie 18 Paź, 2009
Cytat: | To tak jakbyśmy porównywali dwa auta sportowe poprzez wlanie do obydwu jednakowej benzyny 86-oktanowej. Dobrze zapamiętałem z czasów Syrenki? |
to była już zielona. syrenki chyba chodziły już na niebieskiej (78)
d.prowadzisz - Nie 18 Paź, 2009
Cytat: | Pytanie tylko, i tutaj zgody nie ma: co ma większe znaczenie dla ostatecznego zakresu - dynamika matrycy (czyli te Twoje 8 lub 9 EV) czy możliwości wynikające z większej ilości bitów (12 a 14). |
Przykład ze skanowaniem kliszy w 8bitach pokazuje że kluczowy jest tutaj analogowy etap "łapania" danych czy to przez kliszę czy też matrycę.
Klisza w 8bitach - słabo opisany, szeroki zakres
40D w 14bitach - dobrze opisany wąski zakres
komor napisał/a: | jakości obrazu rejestrowanego przez matrycę nie przeskoczymy żadnymi bitami |
Właśnie jakość obrazu z 40D jest świetna właśnie przez bity. Jakość obrazu, tego zarejestrowanego, mieszczącego się w DR.
komor - Nie 18 Paź, 2009
d.prowadzisz napisał/a: | Przykład ze skanowaniem kliszy w 8bitach pokazuje że kluczowy jest tutaj analogowy etap "łapania" danych czy to przez kliszę czy też matrycę. |
Coś w tym jest. Być może 14-bitowe korpusy są lepsze dla amatorskich fajansiarzy takich jak ja, którzy w postprocesie z RAW wyciągną sobie z przepałów to, co zepsuli podczas ekspozycji. Dla nieomylnych pro lepsza jest 12-bitowa matryca o większej dynamice i zapisywanie plików JPG. I w sumie to nawet nie żartuję.
d.prowadzisz - Nie 18 Paź, 2009
komor napisał/a: | jakości obrazu rejestrowanego przez matrycę nie przeskoczymy żadnymi bitami |
Właśnie jakość obrazu z 40D jest świetna właśnie przez bity. Jakość obrazu, tego zarejestrowanego, mieszczącego się w DR.
komor napisał/a: | Coś w tym jest. Być może 14-bitowe korpusy są lepsze dla amatorskich fajansiarzy takich jak ja, którzy w postprocesie z RAW wyciągną sobie z przepałów to, co zepsuli podczas ekspozycji. Dla nieomylnych pro lepsza jest 12-bitowa matryca o większej dynamice i zapisywanie plików JPG. I w sumie to nawet nie żartuję. |
To też nie tak, choć już blisko Z tego wychodzi, że 40D jest trudniej bo trzeba dokładniej naświetlić, ale więcej można później wyrzeźbić. Co tu jest dla zawodowców?
40D ma lepszą jakość zarejestrowanego obrazu.
5D rejestruje więcej, ale zapisuje to ze słabszą jakością.
Oczywiście mowa o niższych czułościach, tam gdzie szum nie jest decydujący.
ghost - Nie 18 Paź, 2009
ale przecież zdolność wyciągania zależy od rozpiętości tonalnej, nie od bitów.
od bitów zależy zdolność rozróżnienia drobnych zmian jasności / naciągania krzywych w postprocesie.
----------
no właśnie.
hijax_pl - Nie 18 Paź, 2009
To ja dam inny przykład. Muzyka i zapis danych w 8, 14 czy 16 bitach na kanał. Która metoda daje większą dynamikę?
ghost - Nie 18 Paź, 2009
16 bit oczywiście
tylko to się nijak ma do matryc
hijax_pl - Nie 18 Paź, 2009
Do matryc - nijak. Ale jakoś ten wątek meandruje pomiędzy pojęciem dynamiki matrycy a dynamiki zapisu n-bitowego.
To nie jest tak że wartość 4096 (dla 12 czy 14 bit) oznacza maksymalne nasycenie. Przetwarzanie n-bitowe ma granice czerni w 0, a bieli w 2^n-1. Czyli wartość 'n' dyskryminuje jedynie ilość przejść tonalnych pomiędzy sygnałem o najniższej i najwyższej amplitudzie. To znaczy 'n' daje nam rozdzielczość. Nie zmniejszy i nie zwiększy dynamiki matrycy. Większa rozdzielczość sygnału to bardziej elastyczny materiał do obróbki w postprocesie. Tylko tyle.
komor - Nie 18 Paź, 2009
ghost, jeśli dynamika to różnica między najgłośniej a najciszej (przekładając na foto: rozróżnienia najgłębszych czerni a bieli) to ilość bitów nie ma nic do tego. To są dwie różne rzeczy. Ilość bitów decyduje o tym ile poziomów jest rozróżnianych między tymi maksimami.
Dobrze to pokazał d.prowadzisz przy pomocy ASCII-art Matryca o większej dynamice rozróżni więcej czerni blisko czarnej-dziury oraz wyżej się wespnie przy bielach. To przecież właśnie to pokazują wykresy w testach lustrzanek, nie?
edit, o, już widzę hijax_pl mnie uprzedził
ghost - Nie 18 Paź, 2009
wszystko racja. tylko z 3 strony, mając dużą rozdzielczość przetwornika AC i niski szum, zwiększa się zdolność rozróżniania ciemnych partii obrazu -> rośnie dynamika.
można np niedoświetlić lekko obraz, ratując światła
być może tak robi a900 (zaczynam spekulować )
niedoświetlenie + wzmocnienie sygnału poprawi zdolność rozróżniania świateł, kosztem szumu.
komor - Nie 18 Paź, 2009
No nie wiem. Ja mimo wszystko wolałbym aparat, który na tych zalinkowanych przeze mnie kwadracikach więcej pokazuje przy czarnym i białym. Pamiętam takie zdjęcie, którego nie mogę teraz wyguglać, białoskóry i czarnoskóry człowiek obok siebie, zdjęcie zrobione kompaktem lub komórką i chyba z błyskiem. Czarny człowiek praktycznie nieodróżnialny od tła.
hijax_pl - Nie 18 Paź, 2009
ghost napisał/a: | wszystko racja. tylko z 3 strony, mając dużą rozdzielczość przetwornika AC i niski szum, zwiększa się zdolność rozróżniania ciemnych partii obrazu -> rośnie dynamika.
|
A dokładniej rośnie dokładność reprezentacji dynamiki matrycy w zapisie cyfrowym. Spokojnie można założyć że sygnał analogowy ma "nieskończoną" rozdzielczość a różnica między nim a postacią cyfrową to właśnie błąd kwantyzacji. Tym większy im mniej bitów używamy.
ghost napisał/a: | można np niedoświetlić lekko obraz, ratując światła |
Można też lekko prześwietlić ratując światła. Zależy która część przestrzeni tonalnej nas najbardziej interesuje. Mając 14 bitów - mamy większy wybór, przy zachowanej docelowej rozdzielczości przejść. Mając 12 bitów - nadal mamy niezły wybór, ale kosztem utraty rozdzielczości - pojawi się posteryzacja.
[ Dodano: Nie 18 Paź, 2009 20:54 ]
papatki napisał/a: | moim zdaniem najczęściej przepala się zielony bo jest ze środkowego zakresu widma w którym najwięcej sygnału aparat łapie |
Mówisz poważnie czy żartujesz? Bo już mi się wydawało że wiesz dlaczego taką a nie inna konstrukcję wymyślił pan Bryce Bayer a tu taki tekst...
papatki - Nie 18 Paź, 2009
"In the case of green, that means more energy is allowed to pass through to the CCD in the green area of the spectrum and less in others." - tak przynajmniej twierdzi Kodak, a Ci chłopcy wiedzą o czym piszą
hijax_pl - Nie 18 Paź, 2009
To co piszesz to skutek, a przyczyna jest opisana tak:
Bryce Bayer's patent (U.S. Patent No. 3,971,065) called the green photosensors luminance-sensitive elements and the red and blue ones chrominance-sensitive elements. He used twice as many green elements as red or blue to mimic the human eye's greater resolving power with green light
[ Dodano: Nie 18 Paź, 2009 21:45 ]
komor napisał/a: | wykorzystująca m.in. wady oka nie wyłapującego drobnych różnic kolorów lub jasności. |
Oko jest mniej wrażliwe na zmiany odcienia i nasycenia koloru (chrominację) niż na jasność (luminację). Dlatego w plikach JPG bardzo silnie jest kompresowana chrominancja a nie luminancja właśnie.
Pamiętacie jak obraz wyświetlał ZX Spectrum? Kolor określało się w blokach 8x8 pikseli. Tak samo jest w JPGu
Hm... ZX Sinclair wypuścił w 1981, nad JPGiem prace zacząły się w 1983...
papatki - Nie 18 Paź, 2009
a czy oba te teksty jakoś są sprzeczne z teorią tego Pana? Dopiero fajne jazdy z kolorem są jak się poczyta o Retinexie
kfehl - Czw 22 Paź, 2009
Dla zainteresowanych tym tematem dorzucę ciekawą stronkę,może to co niektórych trochę uświadomi.
http://plieth.com/jurek/rozpietosc_tonalna.html
Jesienny - Czw 22 Paź, 2009
Zamiast powyższego lepiej dać link do tego samego... ale z dyskusją, która mówi dużo więcej na ten temat:
http://forum.nikon.org.pl/showthread.php?t=7759
hijax_pl - Czw 22 Paź, 2009
A ja mam takie pytanie od czapy.. Co za różnica czy 12 czy 14 czy 128 bitów... Nie prościej poprawnie ustawić warunki ekspozycji? Znając możliwości aparatu/kliszy?
komor - Czw 22 Paź, 2009
hijax_pl, ale możliwości aparatu są często mniejsze od rozpiętości tonalnej sceny, stąd zabawy w HDR i potrzeba korekty krzywej gamma i innych parametrów już po zrobieniu ekspozycji.
hijax_pl - Czw 22 Paź, 2009
komor, ok, ale jeśli scena sie mieści to mamy możliwośc ratowania ekspozycji bo de facto źle została zmierzona O to mi chodzi - nie o HDR.
Tak po prawdzie to w ile zdjęć poprawiamy np w LR, zmieniamy ekspozycję, kontrasty jasność itp?
d.prowadzisz - Czw 22 Paź, 2009
Każde?
To nie jest kwestia poprawy, ale zrobienia z mydlanego i mdłego RAW'a właściwego zdjęcia.
hijax_pl - Czw 22 Paź, 2009
Co do mydła w RAWie - to kwestia kulawego demozaikowania. Zrób sobie eksperyment i zkonwertuj RAWa do TIFF w dcraw wyłączając demozaikowanie (-h -q 0). Zobaczysz różnicę
Co do mdłości - ja sobie skalibrowałem LR pod moją puchę. I już nie mam mdłego RAWa
Dlaczego robię w RAWach tylko?
1) Nie aby ratować zdjęcia, choć raz po raz trzeba, ale...
2) nie odpowiada mi wywoływanie JPGa w puszce. Choć najważniejszy to...
3) balans bieli...
d.prowadzisz - Czw 22 Paź, 2009
[ Dodano: Czw 22 Paź, 2009 19:33 ]
Autor tego "artykułu" wygłasza dość kontrowersyjne twierdzenia, które delikatnie mówiąc nie mają pokrycia w rzeczywistości. Twierdzi on przykładowo, że można lustrzanką cyfrową zarejestrować scenę o rozpiętości równej 20EV.
Mdły, bo często dla uzyskania właściwych fotografowanej scenie kolorów i kontrastu, trzeba w RAW ustawić punkt bieli i czerni. Rozpiętość tonalna fotografowanej sceny często nie pokrywa całego zakresu histogramu, który wyznacza możliwości rejestracyjne naszego sprzętu.
Ta komfortowa sytuacja występuje częściej, gdy całkowity DR materiału rejestrującego jest większy.
|
|