|
forum.optyczne.pl
|
 |
Cyfrowe lustrzanki - Rozdzielczość 5d
lance86 - Sob 06 Mar, 2010 Temat postu: Rozdzielczość 5d Witam
Dość dawno temu czytałem sobie "test" EOSa 5d na łamach optycznych.pl (piszę w cudzysłowie bo wiadomo, że na łamach optycznych takowy test się nie ukazał ale można było poznać 5d w innych testach). Jednak ostatnio przymierzałem się z zakupem 5d i dokładniej przyjrzałem się sprawie. Chodzi mi dokładnie o to jakim sposobem 5d ma mniejszą rozdzielczość niż 20d?
Jeśli weźmiemy tablicę testową, ustawiam na statywie oba aparaty i założymy na oba ten sam obiektyw np: 50 mm zrobimy zdjęcie tablicy testowej 5d następnie ustawiam 20d i odsuniemy go od tablicy na odpowiednią odległość aby uzyskać to samo ujęcie, to z racji tego że 5d ma 12 mpx więc musi zarejestrować więcej szczegółów (no chyba że ma tak tandetną matryce). Nawet zakładając do 20d obiektyw pozwalający uzyskać to samo ujęcie z tego samego miejsca co 5d + 50 mm(czyli obiektyw około 30 mm nie wchodząc w szczegóły) i zakładając że oba obiektywy mają tą samą rozdzielczość itp. to powinienem dzięki przewadze pikseli 5d uzyskać więcej szczegółów tego samego ujęcia czyli teoretycznie lepszą rozdzielczość. Więc jakim cudem w waszych testach 20d osiaga oko 39 lpmm a 5d 33 lpmm (nie pamiętam dokładnie wyników- podaje orientacyjnie) ? W końcu kadr jest ten sam.
Oczywiście rozumiem jeśli tym samym obiektywem z tego samego miejsca zrobiłbym zdjęcie tablicy testowej aparatami 5d i 20d to wtedy uzyskam na 20d więcej szczegółów bo uzyskujemy w ten sposób crop a jak wiadomo 5d ma mniejszą gęstość pikseli tylko jaki ma sens takie porównanie?
P.S.
To mój pierwszy post na forum. Ruszyło mnie choć zanim postanowiłem napisać tego posta przeszukałem cały dział o lustrzankach cyfrowych na forum i nic nie znalazłem (przynajmniej tak mi się wydaje) Jeśli jednak podobny temat był gdzieś poruszony to proszę o podanie linku do owego postu i zamknięcie mojego.
mavierk - Sob 06 Mar, 2010
Dzieje się tak, bo 5d ma ponad półtora raza większą matrycę, przez co gęstość pikseli jest w 20d większa, a niżeli w piątce (aps-c miałoby około 5mpix, jeśli chciałbyś taką samą rozdzielczość )
lance86 - Sob 06 Mar, 2010
Ale jakie ma znaczenie wielkość fizyczna matrycy do efektu końcowego (pomijając zakres tonalny, szumy itp.)- skoro mam dwa takie same obrazki dwa takie same zdjęcia tego samego wycinka tablicy testowej i jeden ma rozdzielczość 8 mpx a drugi 12 mpx to na tym drugim zobaczę więcej szczegółów więc rozdzielczość (mam na myśli zdolność do rejestracji szczegółów) powinna być większa w 5d niż w 20d. Przy założeniu, że albo odsuwamy 20d od tablicy testowej albo stosujemy odpowiedni obiektyw by uzyskać taki sam kadr co w 5d. Wystarczy wejść na dpreview i zobaczyć sobie zdjęcia tablicy testowej w teście EOSa 5d i porównać do 20d- organoleptycznie można stwierdzić że obraz na liniach zbieżnych zamazuje się dalej w przypadku 5d.
Jeśli zrobimy crop- czyli albo przy zastosowaniu tego samego obiektywu nie odsuniemy 20d od tablicy testowej albo poprostu wytniemy z obrazka 5d obszar o powierzchni 1,6 kadru wtedy 20d osiągnie większą rozdzielczość. Tylko jaki sens ma takie porównanie?
mavierk - Nie 07 Mar, 2010
jak widzisz, rozdzielczość jest liczona w liczbach linii na milimetr, zatem jest uniezależniona od wielkości sensora.
Mając podpięte 50mm do eosa 20d oraz 5d i robiąc zdjęcia z tej samej odległości będziemy mieli.. więcej szczegółów z 20tki w kadrze, który ona obejmuje. 5d natomiast złapie więcej, ale będzie to mniej detali.
Chyba, że chcesz rozkminiać sytuację, w której masz obrazek z 20d z 50mm oraz z 5d na 80mm - wtedy pełna klatka da bardziej szczegółowy obraz.
No i nie rozumiem pytania o sens porównania..
Mortiis - Nie 07 Mar, 2010
Lance86, tak jak napisał Mavierk, skoro masz podane linie na milimetr (dokładnie pary linii) to jeżeli w pionie 20D rejestruje 39 lini to zakładając, że APS-C ma ok. 15mm wysokości to otrzymasz 585 par linii, natomiast w 5D przy rozdzielczości 33 linie i wysokości klatki 24mm otrzymujesz 792 pary.
Zatem skoro masz ten sam kadr to chyba jasne gdzie będziesz miał więcej szczegółów.
lance86 - Nie 07 Mar, 2010
Właśnie o tą drugą sytuacjhę mi chodziło. To co wcześniej pisałeś to rozumiem (ten sma obiektyw ta sama odległość) ale to daje tak zwany crop- a co mnie ten crop obchodzi skoro w codziennej fotografii będę stosował te same ujęcia tylko na różnych ogniskowych ewentualnie z różnej odległośći?
Więc jak wyglądała procedura testowa na optyczne.pl EOSa 5d? Skoro patrze sobie na dwa takie same ujęcia tablicy testowej i w 5d widzę więcej szczegółów niż 20d zaś wyniki optycznych mówią, że jest na odwrót? Po co porównywać crop APS-c skoro podczas codziennych zdjęć będę korzystał z pełnego kadru? Mnie interesuje efekt końcowy czyli pełen kadr. A pełen kadr w 5d ma większą rozdzielczość niż 20d więc ogólnie 5d ma większa rozdzielczość. Przynajmniej ja to tak rozumiem dlatego pytam o wyniki optycznych
mavierk - Nie 07 Mar, 2010
Ale to świadczy tylko o tym, że potrafisz wyciągać wnioski z tych testów, więc nie wiem z czym masz problem.
lance86 - Nie 07 Mar, 2010
Kiedy czytałem te testy wcześniej to nie zastanawiałem się dokładniej jak to jest tylko tak pobieżnie uznałem, że 5d ma mniejszą rozdzielczość niż 20d bo tak wskazują testy optycznych.
Jednak teraz jak się zastanowiłem to nie zgadzam się z tymi wynikami i pytam się w jaki sposób były i są nadal robione testy aparatów z pełną klatką. Bo z tego wynika, że z nieznanych mi powodów są zaniżane i tłumaczenie że 5d nie stawia przed optyką większych wyzwań jest bez sensu. Z resztą wystarczy spojrzeć na dprewiev na zdjęcia tablicy testowej w teście 5d.
No chyba, że w metodyce testu optycznych jest coś o czym nie wiem i o to pytam- jak one były i są przeprowadzane dla matryc FF i czemu wyniki są niższe niż wskazują na to oględziny organoleptyczne?
Usjwo - Nie 07 Mar, 2010
lance86 Ta rozdzielczosc jest w liniach na mm (matrycy),a nie w liniach na kadr. Przy tej samej skali odwzorowania (czyli wiekosci obiektu na matrycy) ilosc szczegolow bedzie wieksza dla 20D niz 5D.
Jak juz wiemy ile ma matryca (do tego nie potrzeba testu ) to mozemy sobie juz przeliczyc, co i jak komu potrzebne i sami wyciagnac wnioski. Twoje wnioski sa jak najbardziej poprawne, musisz tylko jeszcze przetrawic co mierzy test i co oznacza ta "mniejsza rozdzielczosc" i wszystko sie ladnie pouklada.
Zauwaz jeszcze ze rozdzielczosc obiektywu jest niezalezna od wielkosci matrycy.
Taki teoretyczny przyklad.
Aparat A - 10lini/mm, aparat B - 20 lini/mm
Zapinamy obiektyw z max 10lini/mm, otrzymujemy obraz obydwu ma tyle samo szczegolow, w przypadku B po dwie linie sa takie same, ale ich wielkosc jest dwa razy miejsza.
Zapinamy obiektyw z max 20lini/mm,
Na A otrzymujemy taki sam obraz jak wczesniej, na B jest wiecej szczegolow.
Wnioski: Podpinanie do A lepszego obiektywu niz 10lini/mm nie ma sensu bo i tak nic to nie pomoze, w przypadku B lepsza rozdzielczosc wymaga lepszego obiektywu. Aparat B stawia przed optyka wieksze wyzwanie, niz aparat A (cnd)
lance86 - Nie 07 Mar, 2010
No właśnie tego co oznacza "mniejsza rozdzielczość" w testach optycznych aparatów ff i jak robiony jest taki test nie rozumiem.
To że 5d ma mniejszą gęstość upakowania pikseli czyli mniejszą ich ilość na milimetr to rozumiem wystarczy sobie policzyć.
Z tym, że zastanawia mnie jak wyglądała procedura testowa 5d i innych aparatów FF. Jeśli wygląda ona tak, że np.: 5d robimy normalnie zdjęcie tablicy a 20d robimy zdjęcie niepełnej tablicy testowej z tego samego miejsca tym samym obiektywem lub z obrazka 5d robimy crop to sens porównania takich zdjęć będzie nie zbyt życiowy. Ilu z was na codzień robi zdjęcia i wycina część kadru? Chyba że wyniki z 5d są dzielone przez jakiś współczynnik, ale o tym moim zdaniem powinno być cokolwiek wspomniane. W każdym razie na codzień otrzymamy robiąc zdjęcia 5d więcej szczegółów.
Co do twojego przykładu to niezbyt zrozumiałem co masz na myśli
Postanowiłem sam zrobić taki test. Niestety nie maiłem żadnego zdjęcia tablicy testowej w postaci RAW lub niewyostrzonego JPG z EOSa 5d i 20d więc posłużyłem się zdjęciami tablic testowych z dproewiev. Mam wersję imatestu 2.0.7. Pomimo, że wyostrzanie widać na tych zdjeciach niemiłosiernie to jest między nimi aż taka różnica, że trudno było by ją uzyskać przez wyostrzanie więc mogę założyć że 5d w moich pomiarach ma lepszą rozdzielczość od 20d- około 2270lw/ph 5d i 1775lw/ph 20d.
Z tym że te zdjęcia były robione dwoma obiektywami- 20 + 50 mm i 5d + 80 mm czyli badamy dokładnie taki sam kadr.
Usjwo - Nie 07 Mar, 2010
Tylko w Twoim tescie skala odwzorowania jest inna dla 20D i 5D.
Wedlug Twojej metody matryca 1mx1m przy 10liniach/mm tez bedzie miala lepsza rozdzielczosc.
Moj przyklad dotyczyl:
Cytat: | ...5d nie stawia przed optyką większych wyzwań jest bez sensu... |
myslalem ze rozdzielczosc juz jest jasna.
lance86 - Nie 07 Mar, 2010
Hmm chyba zaczynam rozumieć. W "moim" sposobie pomiaru największą rolę odgrywają mpx. Jeśli 5d miał by tyle samo mpx co 20d to wedłu "moich" pomiarów teoretycznie będą miały taką samą zdolność do rejestracji szczegółów. Wszystko sprowadza się do tego czy mierzymy na podstawie tego samego wypełnienia kadru czy na podstawie tego samego odwzorowania na matrycy. Jeśli zrobię taki sam portret modelce 5d i 20d to uzyskam więcej szczegółów na tym pierwszym, zaś jesli będę chciał zrobić zdjęcie makro i uzyskać jak najwięcej szczegółów to będę miał gdzieś kadr i wypełnię zdjęcie jak najbardziej i na 20d uzyskam więcej szczegółów. Jaki wówczas ma sens porównywanie wyników rozdzielczości matryc FF do cropa?
Skoro na testach optycznych robi się zdjęcia tych samych tablic to wydaje mi się, że zarówno na aparatach FF jak i crop robione jest zdjęcie całej tablic testowej. Jeśli tak to wynik testu powinien być niezależny od wielkości matrycy i 5d powinien otrzymać lepszy wynik. Jak wygląda procedura testowa matryc FF w stosunku do matryc cropowanych?
komor - Nie 07 Mar, 2010
lance86 napisał/a: | 5d w moich pomiarach ma lepszą rozdzielczość od 20d- około 2270lw/ph 5d i 1775lw/ph 20d. |
Tutaj używasz jednostek „na wysokość obrazu” a poprzednio na milimetr. Jak zrozumiesz to, co napisały już dwie osoby powyżej – wszystko stanie się jasne. Matryca w 5D ma więcej milimetrów wysokości/szerokości niż matryce APS-C, więc z danej rozdzielczości wyrażonej w parach linii na milimetr – wyjdzie Ci większa rozdzielczość w liniach na wysokość obrazu. Jak to zrozumiesz to stanie się jasne, że nie masz racji iż:
lance86 napisał/a: | tłumaczenie że 5d nie stawia przed optyką większych wyzwań jest bez sensu. |
papatki - Nie 07 Mar, 2010
Można to zrobić w inny sposób można przeliczyć rozdzielczość na pixel dla danej ogniskowej dla obu aparatów. Wartość taką się wyraża w sekundach/ minutach lub stopniach (łuku).
Dla 5D (starego) i obiektywu 80 mm per pixel resolution wychodzi 21,1 sekundy łuku.
Dla 20D i obiektywu 50mm (daje identyczne pole jak 80mm dla FF) wychodzi 26,4 sekundy łuku na pixel.
Wynika z tego, że stosując obiektywy dające identyczne pole obrazowania stare 5D da nam nieco wyższą rozdzielczość obrazowania.
Pozdrawiam!
B o g d a n - Nie 07 Mar, 2010
lance86 napisał/a: | Wszystko sprowadza się do tego czy mierzymy na podstawie tego samego wypełnienia kadru czy na podstawie tego samego odwzorowania na matrycy. Jeśli zrobię taki sam portret modelce 5d i 20d to uzyskam więcej szczegółów na tym pierwszym, zaś jesli będę chciał zrobić zdjęcie makro i uzyskać jak najwięcej szczegółów to będę miał gdzieś kadr i wypełnię zdjęcie jak najbardziej i na 20d uzyskam więcej szczegółów. Jaki wówczas ma sens porównywanie wyników rozdzielczości matryc FF do cropa? | Doskonale rozumiem Twój problem. Według mnie porównywanie rozdzielczości samych matryc FF i APS-C, podobnie jak porównywanie rozdzielczości obiektywów testowanych na różnej, fizycznej wielkości matrycach, według lpmm, nie ma sensu.
Mnie, podobnie pewnie jak Ciebie, interesuje jedynie rozdzielczość mówiąca ile matryca (czy szkło) daje linii na wysokość obrazka, który robię, czyli całego kadru. Wynikiem pracy fotografa jest przeciez cały kadr.
MM - Nie 07 Mar, 2010
Też bym wolał rozdzielczość na wysokość kadru niż jakieś bezsensowne dla fotografa linie na mm, ale optyczni jak zwykle wolą swoją wersję bo mogą sobie porobić warsztaty z matmy i fizyki. Rozumiem ich argumenty, ale dla mnie one są mało praktyczne a ich skutki zwyczajnie nieprzydatne.
lance86 - Nie 07 Mar, 2010
Zaczynam już rozumieć. komor napisał/a: | Matryca w 5D ma więcej milimetrów wysokości/szerokości niż matryce APS-C, więc z danej rozdzielczości wyrażonej w parach linii na milimetr – wyjdzie Ci większa rozdzielczość w liniach na wysokość obrazu. Jak to zrozumiesz to stanie się jasne, że nie masz racji iż: lance86 napisał/a:
tłumaczenie że 5d nie stawia przed optyką większych wyzwań jest bez sensu. |
Jeśli weźmiemy pod uwagę linie na wysokość obrazu to mam rację, a jeśli pary linii na milimetr to nie mam racji.
papatki napisał/a: | Można to zrobić w inny sposób można przeliczyć rozdzielczość na pixel dla danej ogniskowej dla obu aparatów. Wartość taką się wyraża w sekundach/ minutach lub stopniach (łuku).
Dla 5D (starego) i obiektywu 80 mm per pixel resolution wychodzi 21,1 sekundy łuku.
Dla 20D i obiektywu 50mm (daje identyczne pole jak 80mm dla FF) wychodzi 26,4 sekundy łuku na pixel.
Wynika z tego, że stosując obiektywy dające identyczne pole obrazowania stare 5D da nam nieco wyższą rozdzielczość obrazowania.
Pozdrawiam! |
Czyli ogólnie EOS 20d i 5d zarejestrują więcej szczegółów od siebie nawzajem równocześnie i jak stwierdził też kolega B o g d a n porównywanie matryc o różnych wielkościach fizycznych na podstawie lpmm nie ma sensu.
Dodatkowo w sumie na optycznych podawne też są wyniki lw/ph tylko że na podstawie jpg a szkoda... Bynajmniej te wyniki pokazują że 5D ma większą rozdizlecość niż 20d po czym czytam sobie wynik lpmm i jest na odwrót więc wszystko się zgadza
Mam jeszcze pytanie- jak przeliczyć wartość lw/ph na lpmm? Zawsze się nad tym zastanawiałem.
komor - Nie 07 Mar, 2010
lance86 napisał/a: | Mam jeszcze pytanie- jak przeliczyć wartość lw/ph na lpmm? Zawsze się nad tym zastanawiałem |
lance86, wybacz, ale to jest gdzieś w szkole podstawowej. Skoro wielkość matrycy wynosi dajmy na to 24 mm wysokości, a na jeden mm przypada x linii, to na całą wysokość jest… ?
Teraz sprawdź sobie ile wysokości ma matryca APS-C (podpowiedź: np. tutaj) i policzysz sobie czemu wyższa wartość lpmm dla matrycy APS-C daje niższą rozdzielczość na wysokość obrazu niż odpowiednio niższa wartość lpmm dla matrycy pełnoklatkowej.
Edit: uwzględnij tylko fakt, że lpmm oznacza pary linii, a wl/ph mówi o liniach (nie parach).
lance86 - Nie 07 Mar, 2010
komor napisał/a: | lance86, wybacz, ale to jest gdzieś w szkole podstawowej. Skoro wielkość matrycy wynosi dajmy na to 24 mm wysokości, a na jeden mm przypada x linii, to na całą wysokość jest… ?
Teraz sprawdź sobie ile wysokości ma matryca APS-C (podpowiedź: np. tutaj) i policzysz sobie czemu wyższa wartość lpmm dla matrycy APS-C daje niższą rozdzielczość na wysokość obrazu niż odpowiednio niższa wartość lpmm dla matrycy pełnoklatkowej.
Edit: uwzględnij tylko fakt, że lpmm oznacza pary linii, a wl/ph mówi o liniach (nie parach). |
Hmm nie przypominam sobie żebym w szkole podstawowej uczył się przeliczać lpmm na lw/ph... (czy nie można rozmawiać bez jakiś zbędnych uszczypliwości? ) Ale dzięki na nakierowanie na odpowiedź...
Wydaje mi się, że już wszystko zrozumiałem i faktycznie myliłem się negując stanowisko optycznych co do testów optyki na 5d- nie ma sensu na tym aparacie testowa optyki bo stawia mniejsze wymagania.
Ale to co do reszty podtrzymuję moje stanowisko co do pozostałych wniosków w poście powyżej.
B o g d a n - Pon 08 Mar, 2010
lance86 napisał/a: | Mam jeszcze pytanie- jak przeliczyć wartość lw/ph na lpmm? |
komor napisał/a: | Skoro wielkość matrycy wynosi dajmy na to 24 mm wysokości, a na jeden mm przypada x linii, to na całą wysokość jest… ? |
W takim razie policzmy wspólnie.
Zakładając, że wynik testu daje super 50 lpmm, to dla matrycy 5D Mk II (wysokość matrycy równo 24mm) mamy dokładnie 2400 linii na wysokość kadru.
Jest to ewidentna bzdura, biorąc pod uwagę wyniki testów, prowadzone przez inne firmy oraz zdrową logikę każdego człowieka.
hijax_pl - Pon 08 Mar, 2010
lance86 napisał/a: | Hmm nie przypominam sobie żebym w szkole podstawowej uczył się przeliczać lpmm na lw/ph... (czy nie można rozmawiać bez jakiś zbędnych uszczypliwości? ) Ale dzięki na nakierowanie na odpowiedź... |
Ojej... A jak delikatnie zasugerować, że aby uzyskać rozdzielczość (wyrażoną w lpmm) na np wysokość klatki wystarczy PRZEMNOŻYĆ przez ROZMIAR klatki?
To taka dyskusja o wyższości świąt itd..
B o g d a n - Pon 08 Mar, 2010
hijax_pl napisał/a: | To taka dyskusja o wyższości świąt itd.. | Zastanów się, czy Twój post wniósł coś do tej dyskusji. Jeśli nie, to moderator powinien go usunąć aby nie zaśmiecał forum, razem z tym moim, który teraz piszę oczywiście.
hijax_pl - Pon 08 Mar, 2010
B o g d a n napisał/a: |
Jest to ewidentna bzdura, biorąc pod uwagę wyniki testów, prowadzone przez inne firmy oraz zdrową logikę każdego człowieka. |
Ale biorąc pod uwagę że 5DmkII ma rozdzielczość w pionie 3744 senseli - czyli de facto 1872 rozróżnialne punkty (nie mówię o interpolacji), czyli dokładnie 936 linii (w rozumieniu ilości przejść między białym i czarnym) czyli dokładnie 39lpmm ...
Wynika z tego, że taki obiektyw da większą rozdzielczość niż może odwzorować matryca. Zatem super ostre szkło, które nie jest ograniczane przez korpus.
Dlaczego mówisz o bzdurze?
B o g d a n - Pon 08 Mar, 2010
hijax_pl, nie uprawiaj ze mną sofistyki. Chwilę temu pisałeś, że "aby uzyskać rozdzielczość (wyrażoną w lpmm) na np wysokość klatki wystarczy PRZEMNOŻYĆ przez ROZMIAR klatki",
a zaraz potem dwukrotnie pogrupowałes liczbę linii w pary aby wyszedł właściwy wynik.
Być może masz rację, ale wtedy szkolna matematyka komor'a z Twoim "wystarczy przemnożyć", nie może mieć tutaj zastosowania.
Z tego względu pytanie lance86 nie jest wcale takie trywialne i doskonale go rozumiem.
hijax_pl - Pon 08 Mar, 2010
B o g d a n, żadna to sofistyka jeśli się rozumie różnice w jednostkach
komor - Pon 08 Mar, 2010
B o g d a n, czy dążysz do tego, że skoro 5DII produkuje obrazki 5616 x 3744 to powinno wyjść, że rozróżnia 3744 linii na wysokość? Lub 3744/2 linii białych na czarnym tle, lub coś podobnego?
hijax_pl - Pon 08 Mar, 2010
B o g d a n napisał/a: | a zaraz potem dwukrotnie pogrupowałes liczbę linii w pary |
A możesz mi to wskazać? Gdzie dokładnie ?
B o g d a n - Pon 08 Mar, 2010
hijax_pl napisał/a: | A możesz mi to wskazać? Gdzie dokładnie ? | Raz pogrupowałeś używając sformuowania "rozróżniale punkty", a drugi raz w "rozumieniu ilości przejść między białym i czarnym".
komor napisał/a: | czy dążysz do tego, że skoro 5DII produkuje obrazki 5616 x 3744 to powinno wyjść, że rozróżnia 3744 linii na wysokość? Lub 3744/2 linii białych na czarnym tle, lub coś podobnego? | Dokładnie tak. Oczywiście z uwagi na zdefiniowane metody pomiarowe, między innymi porównujące różne matryce, "zmierzona" rozdzielczość samej matrycy nie dochodzi do tej, wynikającej z fizycznego rozmieszczenia pixeli. Ponadto pomiar odbywa się poprzez obiektyw, czyli "ułomny" instrument optyczny.
Zresztą bardziej w tym miejscu chodzi mi o testowanie obiektywów. W testach np. Dreview, czy Photozone osiągane, zmierzone ustalona metodą wartości (MTF-50) nawet przewyższają rozdzielczość matryc w aparatach.
Przykład testu EF 100mm/2.8L Macro: http://www.dpreview.com/l...m_c16/page4.asp
Jeżeli wartość MTF-50 jest wyższa niż wartość tzw. częstotliwości Nyquista*, to oznacza, że obiektyw jest w stanie "wyświetlić" na matrycy aparatu więcej rozróżnialnych punktów, niż sama matryca może zarejestrować. W takim teście widać to czarno na białym.
* częstotliwość Nyquista w skrócie jest wartościowo równa maksymalnej liczbie par linii (dla których możemy określić kontrast), którą może zarejestrować matryca; dla 5D Mk II jest to 1872; parametr MTF-50 oznacza, jeśli się nie mylę, że mamy do czynienia z 50% utratą kontrastu
---
Powtarzam jeszcze raz - informacja ile to będzie punktów na 1 mm czujnika w moim aparacie, jest dla mnie bez znaczenia. Nic mi nie wnosi do analizy przydatności szkła. Przydać się może tylko do porównywania obiektywów, gdy ich testy przeprowadzimy na takiej samej matrycy. I nawet nie tak samo upakowanej w sensie gęstości, bo jak widać w testach i tak wychodzą różnice, które tłumaczone są w testach na różne sposoby.
hijax_pl - Wto 09 Mar, 2010
B o g d a n napisał/a: | Raz pogrupowałeś używając sformuowania "rozróżniale punkty", a drugi raz w "rozumieniu ilości przejść między białym i czarnym". |
Hm... Gdyby to był Foveon - opuściłbym pierwszy krok. Ale skoro 5DmkII nie ma wmontowanego Foveona - muszę ten pierwszy krok poczynić. Swoją drogą trochę wprowadziłem Cię w błąd pisząc "między czarnym i białym" - mogłem spokojnie napisać np "między niebieskim i żółtym"
B o g d a n napisał/a: | częstotliwość Nyquista w skrócie jest wartościowo równa maksymalnej liczbie par linii (dla których możemy określić kontrast), którą może zarejestrować matryca; dla 5D Mk II jest to 1872; |
Wszystko ładnie, ale matryca w 5DmkII nie rejestruje JPGa; JPG jest wynikiem obróbki danych z matrycy, co gorsza ta obróbka wprowadza wyostrzanie.
To dość frywolne podejście do pomiarów - równie dobrze mogę z pliku RAW z 5DmkII wygenerować JPG o rozdzielczości 11232x7488 używając algorytmów fraktalnych i wtedy wyjdzie, że 100/2.8IS ma kiepską rozdzielczość
Podsumowując - mogę sobie patrzeć na wyniki w dpreviews, ale żadnych wniosków nie będę wyciągać póki się nie dowiem jaki algorytm demozaikujący został użyty do stworzenia JPGa, oraz jak bardzo został JPG wyostrzony. Co do ostrzenia to mogę się domyślać, jednak algorytm to ściśle strzeżona tajemnica Canona.
Dlatego wolę wyniki pomiarów z RAWa i podawane w lpmm - bo te są (przynajmniej dla mnie) jednoznaczne
Swoją drogą w linku który podałeś, pod wykresami jest rozdział Full-frame compared to APS-C, w którym to jest explicite napisane:
Cytat: | Eagle-eyed viewers will no doubt have noticed that the MTF50 sharpness data at any particular focal length/aperture combination is distinctly higher on full-frame when compared to APS-C. This may at first sight appear unexpected, but in fact is an inevitable consequence of our presentation of the sharpness data in terms of line pairs per picture height (and thus independent of format size).
Quite simply, at any given focal length and aperture, the lens will have a fixed MTF50 profile when expressed in terms of line pairs per millimeter. In order to convert to lp/ph, we have to multiply by the sensor height (in mm); as the full-frame sensor is 1.6x larger, MTF50 should therefore be 1.6x higher. |
B o g d a n - Wto 09 Mar, 2010
hijax_pl, znowu mieszasz ludziam w głowach, używając wyszukanych i mało jasnych pojęć, kontynuując sofistyczne wywody.
Dyskusja zaczęła się od prostej matematyki:
- jeżeli na 1 milimetrze wysokości matrycy można zaobserwować przykładowo 39 par linii, to ile rozróżnialnych par linii można zaobserwować na wysokości 24mm ?
I ustalmy, że w PS (LR) wydrukujesz je bezpośrednio z RAW, skoro to dla Ciebie jest kluczowe. Ustalmy też, że linie są na przemian białe i czarne i mierzymy 50% spadek kontrastu, pomiedzy nimi, co każdy czytający zrozumie.
To przecież prosta matematyka.
Ja dyskutuję o tym wyniku, a Ty przytaczasz cytat, nic do niego nie wnoszący i dzielisz przysłowiowy włos (dosłownie) na czworo, będąc zdaje się adwokatem diabła.
Usjwo - Wto 09 Mar, 2010
B o g d a n Ja przyznaje ze sie zgubilem i nie bardzo wiem o jakie obliczenia Ci chodzi.
Mamy 39lpmm to daje nam 1872 lwph (dla FF), ja to tak rozumie. Ty twierdzisz ze to zle, ale nie bardzo chcesz powiedziec co jest zle. Nie daj sie prosic tylko wytlumacz tak lopatologicznie jak to sie przelicza (chyba ze tego sie nie da przeliczyc).
hijax_pl - Wto 09 Mar, 2010
B o g d a n napisał/a: | hijax_pl, znowu mieszasz ludziam w głowach, używając wyszukanych i mało jasnych pojęć, kontynuując sofistyczne wywody. |
B o g d a n, ja nie mieszam, ja podaję fakty. To nie sofistyka. Których pojęć nie rozumiesz?
G woli ścisłości dyskusja zaczęła się od pytania:
lance86 napisał/a: | Chodzi mi dokładnie o to jakim sposobem 5d ma mniejszą rozdzielczość niż 20d? |
... a moją dyskusję sprowokowałeś własnym stwierdzeniem:
Cytat: | Zakładając, że wynik testu daje super 50 lpmm, to dla matrycy 5D Mk II (wysokość matrycy równo 24mm) mamy dokładnie 2400 linii na wysokość kadru.
Jest to ewidentna bzdura, biorąc pod uwagę wyniki testów, prowadzone przez inne firmy oraz zdrową logikę każdego człowieka. |
Po prostu nie masz racji pisząc że to jest bzdura. Powołujesz się na testy dpreview, gdzie przytaczają ten sam wzór który deprecjonujesz. To gdzie ta logika?
B o g d a n napisał/a: | Ja dyskutuję o tym wyniku, a Ty przytaczasz cytat, nic do niego nie wnoszący i dzielisz przysłowiowy włos (dosłownie) na czworo, będąc zdaje się adwokatem diabła. |
Czyżbyś nie zrozumiałeś cytatu?
B o g d a n - Wto 09 Mar, 2010
Usjwo napisał/a: | Mamy 39lpmm to daje nam 1872 lwph (dla FF), ja to tak rozumie. | Usjwo, no właśnie, napisz jak to policzyłeś, bo 39 lpmm to już są PARY linii i według mnie powinno być:
39 par linii/mm x 24mm = 936 par linii/wysokość kadru
A ten wynik ma się nijak do wyników 1872 line pairs / picture height, które osiągają przykładowo obiektywy na 5D Mk II w testach.
Jeśli zrobiłem błąd w tym prostym rachunku, to proszę mnie skorygować i oświecić. Już drugi raz o tym dyskutuję i nikt mi tego nie wyjaśnił.
Usjwo - Wto 09 Mar, 2010
2 lwph = 1lpmm, W przypadku line pairs/picture height jednostka powinno byc Lpph
hijax_pl - Wto 09 Mar, 2010
B o g d a n napisał/a: | Jeśli zrobiłem błąd w tym prostym rachunku, to proszę mnie skorygować i oświecić. Już drugi raz o tym dyskutuję i nikt mi tego nie wyjaśnił. |
Komor wyjaśnił kilka postów wyżej, a Usjwo powtórzył właśnie
komor - Wto 09 Mar, 2010
B o g d a n napisał/a: | W testach np. Dreview, czy Photozone osiągane, zmierzone ustalona metodą wartości (MTF-50) nawet przewyższają rozdzielczość matryc w aparatach. |
Bogdan, i nie dzwoni Ci w głowie dzwoneczek, że urządzenie pomiarowe wygenerowało wynik pomiaru większy niż ma w ogóle fizyczną możliwość zarejestrować? Jeśli mierzysz rozdzielczość obiektywu przy pomocy matrycy aparatu a nie jakiegoś specjalistycznego sprzętu, i dostajesz wynik przewyższający nominalną rozdzielczość matrycy (i to bayerowskiej) to znaczy że ten wynik można sobie wsadzić w buty, bo jest on wynikiem wyostrzania a nie rejestracji fotonów na matrycy.
Oczywiście można przyjąć, że w testach interesuje nas co sumarycznie pokazuje nam cały system: obiektyw+matryca+software. To też jest dobre założenie, tylko trzeba mieć świadomość tego, że testujemy obrazek wynikający częściowo z pracy oprogramowania, które nie jest nieomylne i robiąc swoją robotę przekłamuje czasem rzeczywistość. W niektórych zastosowaniach (może nawet w większości?) plusy przewyższają minusy, ale nie zawsze.
Optyczni przyjęli inne założenie i ich interesuje czysta praca obiektywu oraz czysta praca matrycy, na tyle, na ile można to zmierzyć dostępnym im sprzętem i metodami, które znają. Nietrudno domyśleć się dlaczego, jeśli się spojrzy co jest normalną pracą zawodową osób tworzących te testy. Mnie też boli, że producenci nas „oszukują”, cały ten Bayer jest podstawą oszustwa i dlatego musimy z godnością przyjąć na klatę fakt, że nawet 1Ds czy inny D3x nie rejestruje naprawdę tyle pikseli ile wynika z nominalnej ilości punktów zapisywanych w pliku JPG lub powstających po zdemozaikowaniu RAW-a.
A teraz wyrzuć sobie tablicę testową z liniami czarnymi i białymi i postaw taką żółtą z niebieskimi liniami, lub innym zestawem kolorów. I co teraz? Ostatnio był podany link do porównania tego co wychodzi na matrycach Bayera i Foveonie.
hijax_pl - Wto 09 Mar, 2010
komor napisał/a: | Jeśli mierzysz rozdzielczość obiektywu przy pomocy matrycy aparatu a nie jakiegoś specjalistycznego sprzętu, i dostajesz wynik przewyższający nominalną rozdzielczość matrycy (i to bayerowskiej) to znaczy że ten wynik można sobie wsadzić w buty, bo jest on wynikiem wyostrzania a nie rejestracji fotonów na matrycy. |
Wychodzi na to, że jak się ten pomiar przedstawi na wykresie w lpph to wynik jest prościej odnieść do rozdzielczości matrycy (którą możemy wyczytać z jakiejś marketingowej broszurki) to jest to pomiar lepszy.
Tak przy okazji:
1) co rejestruje matryca foveona:
2) co rejestruje matryca bayera:
2) bayer przerobiony na JPGa (czyli słynne demozaikowanie):
zdjęcia z serwisu disoftware.com
cybertoman - Wto 09 Mar, 2010
Usjwo napisał/a: | 2 lwph = 1lpmm | oczywisci tylko dla matryc o wysokosci 1mm... Oglniejszy jest 2lw = 1lp.
B o g d a n - Wto 09 Mar, 2010
komor, ja tylko próbuję ustalić wspólny mianownik pomiędzy wartością wyrażoną w lp/mm (wymiaru matrycy), a lw/ph oraz lp/ph (wysokości kadru). Nic więcej mnie nie interesuje.
Proste wzory, które sugerujecie, dają różnice tak duże, że dają do myslenia. Sądzę, że jest to sprawa różnej interpretacji "linii", czy rozróżnialnego "punktu".
Obiektywy testowane na optyczne.pl dają wyniki w okolicy 1800 lw/ph, a gdzie indziej 2x tyle. To według mnie nie wynika z hipotezy Arka, że inni pracują na wyostrzonych JPEG bo to nie jest prawda. Wynika to pewnie z innego punktu odniesienia i sprowadzenia pomiarów na skalę pojedyńczego pixela rejestrującego "kawałek" światła podającego przez optykę. Imatest widać tak działa dla wartości wyrażanych w lw/ph, czy lp/ph.
komor napisał/a: | i nie dzwoni Ci w głowie dzwoneczek, że urządzenie pomiarowe wygenerowało wynik pomiaru większy niż ma w ogóle fizyczną możliwość zarejestrować? Jeśli mierzysz rozdzielczość obiektywu przy pomocy matrycy aparatu a nie jakiegoś specjalistycznego sprzętu, i dostajesz wynik przewyższający nominalną rozdzielczość matrycy (i to bayerowskiej) to znaczy że ten wynik można sobie wsadzić w buty, bo jest on wynikiem wyostrzania a nie rejestracji fotonów na matrycy. | Na zdrowy rozum masz rację, ale twoje rozumowanie nie wzięło pod uwagę, że wynik generuje oprogramowanie firmy Imatest na podstawie zadanych przez pomiarowca parametrów. Przykładowo MTF-20 będzie inny od MTF-50 i jeszcze inny od MTF-80. Niestety jest w tym dużo matematyki.
Zresztą jeżeli dla obiektywu "rozdzielczość" wychodzi powyżej maksymalnej, którą może zarejestrować matryca, to dla mnie tylko znak, że taki obiektyw mógłbym użyc na matrycy o większej gęstości pikseli. Taki wynik tym bardziej dowodzi, że metoda nie jest ograniczona matrycą, prawda?
W tym rozumowaniu, Twoje stwierdzenie, że:
komor napisał/a: | Optyczni przyjęli inne założenie i ich interesuje czysta praca obiektywu oraz czysta praca matrycy, na tyle, na ile można to zmierzyć dostępnym im sprzętem i metodami, które znają. | mnie nie przekonuje. Może inne podejście i założenia teoretyczne są jednak lepsze? Może są bardziej obrazowe i zrozumiałe?
Załóżmy przez moment, że przechodząc z RAW do JPEG zmniejsza się nam dwukrotnie liczba linii w pionie i poziomie, które maja znaczenie. Czy wtedy jest sens produkować JPEGi w rozdzielczości takiej samej co RAW? Skoro nie uzyskamy więcej szczegółów to po co zajmować miejsce na karcie i HDD?
Tylko, że przy takim podejściu otrzymamy obrazki zawierające 25% wszystkich pikseli RAWA, czyli np. z 12Mpix robi nam się tylko 3Mpix. Czy to ma jakiś sens?
Wątpię, a raczej na pewno tak się nie dzieje, gdyż po demozaikowaniu otrzymujemy dokładnie tyle samo różnych punktów, co dał nam RAW.
hijax_pl - Wto 09 Mar, 2010
B o g d a n napisał/a: | próbuję ustalić wspólny mianownik pomiędzy wartością wyrażoną w lp/mm (wymiaru matrycy), a lw/ph oraz lp/ph (wysokości kadru). |
lp/ph = 2 * lw/ph
lp/ph = lp/mm * rozmiar_sensora_w_mm
B o g d a n napisał/a: | To według mnie nie wynika z hipotezy Arka, że inni pracują na wyostrzonych JPEG bo to nie jest prawda. |
A taki np photozone sam się przyznaje jak konwertuje RAWy i zarazem ostrzega by wyników wyrażanych w lw/ph nie brać zbyt poważnie http://www.photozone.de/lens-test-faq
B o g d a n napisał/a: | Zresztą jeżeli dla obiektywu "rozdzielczość" wychodzi powyżej maksymalnej, którą może zarejestrować matryca, to dla mnie tylko znak, że taki obiektyw mógłbym użyc na matrycy o większej gęstości pikseli. Taki wynik tym bardziej dowodzi, że metoda nie jest ograniczona matrycą, prawda? |
No chyba że rozdzielczość jest do 1piksela a dokładność do powiedzmy 50ciu.
Generalnie: nieprawda. Taki wynik dowodzi, że coś jest nie tak z procedurą pomiarową. Mając linijkę z podziałką milimetrową możesz wykonać pomiar co do mikrometra? Oczywiście że tak, o ile ustalisz że dokładność pomiaru to .. 1mm.
B o g d a n napisał/a: | Załóżmy przez moment, że przechodząc z RAW do JPEG zmniejsza się nam dwukrotnie liczba linii w pionie i poziomie, które maja znaczenie. Czy wtedy jest sens produkować JPEGi w rozdzielczości takiej samej co RAW? |
No i tu jest sedno sprawy.. Jesteśmy tak przesiąknięci matrycą bayera i demozaikowaniem że na 3Mpix matryce Foveona patrzymy z pogardą. Mimo że te 3Mpix Foveona to tak naprawdę 12Mpix matryca bayera. Demozaikowanie to.. interpolacja - wymyślanie pikseli będących na rogach siatki senseli. Dlatego każda matryca gdzie dwie sąsiednie grupy senseli RGGB zostaje naświetlona w 100% i 0% - da nam w wyniku 100%, 50% i 0%.
B o g d a n napisał/a: | Tylko, że przy takim podejściu otrzymamy obrazki zawierające 25% wszystkich pikseli RAWA |
Jak wygląda RAW zamieściłem powyżej. Zechciej łaskawie spojrzeć na to zdjęcie. A może wkleję jeszcze raz:
B o g d a n napisał/a: | 12Mpix robi nam się tylko 3Mpix. Czy to ma jakiś sens? Wątpię. |
Musisz zrozumieć że z matrycy Bayera to właśnie z 3Mpix interpoluje się do 12Mpx. Czy to ma jakiś sens?
Przepraszam - nie musisz, ale dobrze by było. Bo jest to informacja kluczowa...
B o g d a n - Wto 09 Mar, 2010
hijax_pl napisał/a: | Musisz zrozumieć że z matrycy Bayera to właśnie z 3Mpix interpoluje się do 12Mpx. | hijax_pl, dyskusja z Tobą to czysta udręka. Podlinkowałeś TRZY obrazki i zauważ, że na wszystkich jest dokładnie taka sama liczba pojedyńczych pixeli - równo 40x40pix na każdym. O czym więc piszesz?
hijax_pl napisał/a: | A taki np photozone sam się przyznaje jak konwertuje RAWy... | Każdy, kto robi testy z zastosowaniem aplikacji Imatestu, konwertuje RAWy.
- Optyczne konwertują programem dcraw
- Dpreview konwertuje programem Adobe Camera Raw
- Photozone konwertuje programem Adobe Camera Raw
Każda firma ma świadomość, że ta konwersja musi mieć minimum ingerencji i dlatego wszelkie parametry, mogące spowodować polepszenie ostrości lub korekcję kolorów są wyzerowane. Nie wspominając o problemie redukcji szumu, czy stosowaniu krzywej gamma.
Tak wogóle to na śmiertelnie poważnie, nie można brać żadnych, tego typu pomiarów bo są obarczone z zasady błędem, o czym wyraźnie pisze sam Imatest i na co uczula tylko Photozone, pisząc między innymi "Po przekonwertowaniu RAWS za pośrednictwem innych aplikacji do przetwarzania obrazu dane LW / PH będą niższe lub wyższe ze względu na różne algorytmy wyostrzania i kontrast."
PS.
Myslę, że możemy skończyć tę dyskusję bo jest słabe zainteresowanie tym tematem i dalsza dyskusja zupełnie niczego nie wnosi.
hijax_pl - Sro 10 Mar, 2010
B o g d a n napisał/a: | hijax_pl, dyskusja z Tobą to czysta udręka. |
Miło mi, bo to oznacza że to co piszę zmusza Cie do wysiłku umysłowego.
B o g d a n napisał/a: | Podlinkowałeś TRZY obrazki i zauważ, że na wszystkich jest dokładnie taka sama liczba pojedynczych pixeli - równo 40x40pix na każdym. O czym więc piszesz? |
I dla Ciebie te "zdjęcia" przedstawiają dokładnie ten sam obraz? Wytłumacz mi proszę jak w danych z matrycy Bayera rozpatrywać przejście z czarnego do białego koloru? Jak wygląda czarny - to wiem, ale gdzie jest biały?
I z uporem maniaka będę używał pojęcia senseli. Właśnie dlatego wprowadzono to pojęcie aby nie mówić o pikselach w kontekście matrycy Bayera. W obrazie z matrycy widzisz 40x40 senseli. Jeden piksel to grupa senseli, np taka:
RG
GB
Czyli - mówiąc o pikselach, reprezentujących kolor z palety RGB - Bayerowska matryca w tym przykładzie ma ich TYLKO 20x20.
B o g d a n napisał/a: | - Optyczne konwertują programem dcraw
- Dpreview konwertuje programem Adobe Camera Raw
- Photozone konwertuje programem Adobe Camera Raw |
Dla Twojej informacji:
-dcraw nie robi NIC z danymi,
- ACR, zmienia krzywą, i dodaje wyostrzanie NAWET kiedy tego nie chcesz. Co gorsza dla różnych puszek zachowuje się inaczej.
Czy dla Ciebie to też nie robi różnicy?
B o g d a n napisał/a: | Każda firma ma świadomość, że ta konwersja musi mieć minimum ingerencji |
A optyczni starają się robić tak konwersję żeby tej ingerencji nie było. Dlatego wybrali dcraw.
B o g d a n napisał/a: | Tak wogóle to na śmiertelnie poważnie, nie można brać żadnych, tego typu pomiarów bo są obarczone z zasady błędem |
Z zasady to każdy pomiar jest obarczony błędem. Rozchodzi się jednak o to żeby być tego świadomym i szacować też tez błąd. Jaki jest błąd pomiaru rozdzielczości obiektywów na DPreview?
Baku - Sro 10 Mar, 2010
Zgubiłem się już dość dawno temu w Waszych wyliczeniach i jednostkach
Jednak pojęcie 'sensela' mnie zaintrygowało.
Czy można rozumieć, że matryca 10 mpix w 'układzie bayerowskim' ma ok. 40 mln. senseli?
Czy można rozumieć, że matryca w układzie 'foveon' nie ma senseli wcale?
Usjwo - Sro 10 Mar, 2010
Baku napisał/a: | .
Czy można rozumieć, że matryca 10 mpix w 'układzie bayerowskim' ma ok. 40 mln. senseli?
|
Ja zrozumialem odwrotnie 40mpix to 10mln senseli, czyli z 4 fizycznych RGGB wyliczamy jeden "pixel kolorowy"
Baku napisał/a: |
Czy można rozumieć, że matryca w układzie 'foveon' nie ma senseli wcale? |
Tez chyba nie, ma tyle senseli ile pixeli
hijax_pla prosimy o wyjasnienie watpliwosci
hijax_pl - Sro 10 Mar, 2010
Matryca o wielkości podawanej jako 40Mpx w układzie Bayera posiada dokładnie 40 milionów senseli, czyli:
- 10 milionów sensorów R
- 10 milionów sensorów B
- 20 milionów sensorów G
Aby uzyskać wartość koloru pojedynczego piksla, w najprostszym przypadku liczymy go z 4 sąsiednich senseli, czyli R, 2xG i B. Taką metodą z matrycy 40M wyliczymy dokładnie 10M rozróżnialnych pikseli.
Konstrukcja matrycy Bayera daje jednak możliwość bardziej zaawansowanej interpolacji danych.
RGRGRGRG
GBGBGBGB
Zauważcie że w każdym punktu styku 4 senseli mamy do dyspozycji wszystkie składowe koloru, czyli R, G i B. Zatem możemy piksel RGB wyznaczyć dla każdego "węzła" - a to powoduje że dla matrycy 40M możemy wyznaczyć 40M pikseli. Ten właśnie proces to słynne demozaikowanie. A metod demozaikowania jest bez liku. W różnych ośrodkach akademickich naukowcy się habilitują tworząc nowe, coraz wydajniejsze algorytmy.
Jeszcze tylko jedna uwaga:
Kod: | R1 G1 R2 G2
a b c
G1 B1 G2 B2
|
(duże litery to sense, małe - piksele, cyfry - oznaczają grupy senseli)
wyznaczając kolor dla piksela "a" liczymy go z senseli G1,B1,G1,R1
wyznaczając kolor dla piksela "b" liczymy go z senseli R2,G2,B1,G1
wyznaczając kolor dla piksela "c" liczymy go z senseli G2,B2,G2,R2
Czyli - piksele "a" i "c" liczone są ze "swoich" senseli, natomiast piksel "b" jest liczony z części "a" i części 'b". To powoduję że jeśli "a" będzie idealną czernią, "c" - idealną bielą, "b" - będzie szarością
Co do Foveona to te sensele nie są ułożone obok siebie ale jeden nad drugim - zatem nie ma potrzeby demozaikowania - faktycznie od razu mamy obraz RGB. Tyle że 30 milionoów senseli daje dokładnie 10M punktów, czyli piksel - stąd niższe rozdzielczości podawane w specyfikacjach matryc X3.
Podsumowując 12M matryce w układzie Bayera i X3 mają dokładnie tyle samo sensorów kolorów podstawowych. Jednak poprzez inne ich ułożenie z X3 uzyskuje się 4Mpx obrazek, podczas gdy z matrycy Bayera - 12Mpx. Tyle że porównajcie sobie obrazki z obu matryc. Inne ułożenie senseli daje większą rozdzielczość kolorową w X3.
lance86 - Sro 10 Mar, 2010
Dla BOGDANA: jak przeliczyć lpmm na lw/ph. Jeśli mamy np.: wynik pomiaru rozdzielczość matrycy EOSa 20d wyrażony w lpmm czyli 39 lpmm najpierw mnożymy wynik przez 2 gdyż jednostka lpmm mówi o parach lini na milimetr zaś jednostka lw/ph o liniach na wysokość obrazu 39*2 = 78. Teraz skoro chcemy wiedzieć ile przypada lini na wysokość obrazu bo o tym mówi jednostka lw/ph zaś my wiemy ile przypada lini na 1 mm zaś klataka matrycy APSc ma około 150mm to mnożymy 78 * 150 = 11700. Ostatecznie jednostka lpmm mówi o milimetrach a lw/ph o wysokości obrazu którą podajemy w cm a 1 cm to 10mm więc wynik dzielimy na 10 i ostatecznie otrzymujemy, że 39lpmm to 1170lw/ph
Policzmy teraz ten wynik dla Canona 5D: 33lpmm= 33*2*240=15840 15840/10=1584lw/ph. Mam nadzieję że dość jasno to przedstawiłem.
Te wyniki zgadzają się z tym do czego wcześniej doszliśmy: matryca 5d na wysokość obrazu ma lepszą rozdzielczość od 20d 1584>1170 lw/ph i dzięki temu robiąc zdjęcie cioci na imieninach zarejestrujemy więcej szczegółów chcąc uzyskać ten sam kadr. Jednak jeśli będziemy chcieli zrobić zdjęcie makro i wyciągnąć z obiektywu max nie interesując się wypełnieniem kadru ( a dokładniej chcąc wypełnić kadr jak najbardziej) wtedy 20d dzięki większej rozdzielczość na milimetr od 5d- 39lpmm > 33lpmm zarejestruje więcej szczegółów
Usjwo - Sro 10 Mar, 2010
Pozostaje jeszcze kwestia brzegow matrycy Bayera, albo liczymy inaczej, albo odpada nam troche pixeli (jedna linia wysokosci i jedna szerokosci)
[ Dodano: Sro 10 Mar, 2010 16:58 ]
lance86 napisał/a: | zaś klataka matrycy APSc ma około 150mm to mnożymy |
No niezle, jak to zawsze mozna teorie do wynikow dopasowac
poprostu liczba par /mm * 2 * wysokosc matrycy (w mm)
hijax_pl - Sro 10 Mar, 2010
Usjwo napisał/a: | Pozostaje jeszcze kwestia brzegow matrycy Bayera, albo liczymy inaczej, albo odpada nam troche pixeli (jedna linia wysokosci i jedna szerokosci) |
Dlatego nieraz producenci podają "efektywną" liczę pikseli, która jest ciut niższa.
Może to też sugerować wykorzystanie części senseli (zasłoniętych i nie biorących udziału w ekspozycji) do autokalibracji matrycy.
[ Dodano: Sro 10 Mar, 2010 10:12 ]
lance86 napisał/a: | 33lpmm= 33*2*240=15840 15840/10=1584lw/ph. |
A skąd Ci się wziął rozmiar podawany w dziesiątych częściach milimetra?
Rozmiar mamy w mm czyli po prostu:
Dla FF: 33 lpmm -> 33 * 2 * 24mm=1584 lw/ph.
Dla APS-C: 39 lpmm -> 39 * 2 * 15mm=1170 lw/ph.
Usjwo - Sro 10 Mar, 2010
To pozostaje fundamentalne pytanie dla obrobki zdjec. RAW zawiera dane po demozaikowaniu, czy sa to dane rzeczywiste dane z matrycy?
[ Dodano: Sro 10 Mar, 2010 17:17 ]
lance86 zle zmierzyl matryce
hijax_pl - Sro 10 Mar, 2010
Usjwo napisał/a: | To pozostaje fundamentalne pytanie dla obrobki zdjec. RAW zawiera dane po demozaikowaniu, czy sa to dane rzeczywiste dane z matrycy? |
RAW zawiera dane przed demozaikowaniem. Czyli dane z senseli. Nieraz wprost, a nie raz nie - wtedy optyczni podnoszą larum że ktoś grzebie w RAWach.
Polecam pobawić się programem dcraw. Chodzi mi o opcje "-d/-D" - wtedy uzyskamy widok na sensele (bez maski kolorowej). Fajna jest też opcja "-h" - dzięki niej możemy uzyskać obraz bez interpolacji - czyli z 12M matrycy - 3Mpx obrazek. Warto podejrzeć go w powiększeniu 100% i porównać z 12Mpx odpowiednikiem - będzie dokładnie widać interpolacje wprowadzaną przez proces demozaikowania.
I teraz fundamentalne stwierdzenie - KAŻDE demozaikowanie, które generuje z matrycy 12M obrazek 12Mpx poprzez interpolację danych - wprowadza rozmazanie obrazu.
Dlatego właśnie KAŻDA wywoływarka RAW (np ACR) wprowadza tzn RAW presharpening - coś, co ma zminimalizować rozmazanie po demozaikowaniu, coś czego nie jesteśmy w stanie wyłączyć. Wyjątkiem jest tu dcraw właśnie
B o g d a n - Sro 10 Mar, 2010
hijax_pl, doszedłeś wreszcie do wniosków, które są prawdziwe ale niestety ... zaprzeczają Twoim własnym wyliczeniom z 8 marca. Wtedy pisałeś:
hijax_pl napisał/a: | biorąc pod uwagę że 5DmkII ma rozdzielczość w pionie 3744 senseli - czyli de facto 1872 rozróżnialne punkty (nie mówię o interpolacji), czyli dokładnie 936 linii (w rozumieniu ilości przejść między białym i czarnym) czyli dokładnie 39lpmm ... | Potem zgodziłeś się się z wyliczeniem Usjwo, które zaprzeczało Twoim wczesnieszym wyliczeniom, tyle, że od drugiej strony liczone. Usjwo napisał/a: | Mamy 39lpmm to daje nam 1872 lwph (dla FF), ja to tak rozumie. | Wreszcie podałes swoje wzory, z których równiez nie uzeskałbyś pierwszego wyliczenia: hijax_pl napisał/a: | lp/ph = 2 * lw/ph
lp/ph = lp/mm * rozmiar_sensora_w_mm |
Potem napisałeś, że: hijax_pl napisał/a: | Musisz zrozumieć że z matrycy Bayera to właśnie z 3Mpix interpoluje się do 12Mpx. | A zaraz potem jak gdyby nigdy nic piszesz, że: hijax_pl napisał/a: | Podsumowując 12M matryce w układzie Bayera i X3 mają dokładnie tyle samo sensorów kolorów podstawowych. Jednak poprzez inne ich ułożenie z X3 uzyskuje się 4Mpx obrazek, podczas gdy z matrycy Bayera - 12Mpx. |
Jeśli to nie jest dopasowywanie wyniku dla zasady i mącenie, to przepraszam.
Do lance86:
Obliczenia, które podałeś sa dla mnie jasne od poczatku. Dla Twojego porównania te liczby są OK i rozwiązują Twoje pytanie.
Ja przy okazji polemizuję jedynie z tym, że testy na optyczne, obiektywy, czy matryce, osiągające powiedzmy 39 lpmm, czy troche więcej, dają odpowiednio (przykładowo na matrycy FF) liczbę linii/wysokość kadru max 1872, przy czym 5DMkII może zarejestrować ich znacznie więcej i inne testy to potwierdzają.
Inny przykład - jeden z wielu:
Rekordowe szkła, jak EF-S60/2.8 Macro osiagnęło na EOS 20D w zachwycie aż 46lpmm, czyli aż 1380 linii na wysokość kadru. Matryca 20D o niewelkim upakowaniu może rejestrować 2336 linii. Nie jest dziwne, że żyletkowate szkło dochodzi na takiej matrycy ledwie 1380 linii.
Nikogo, oprócz mnie to nie zastanawia?
Nie moge wyjść z podziwu poprostu i tyle.
hijax_pl - Sro 10 Mar, 2010
hijax_pl napisał/a: | biorąc pod uwagę że 5DmkII ma rozdzielczość w pionie 3744 senseli - czyli de facto 1872 rozróżnialne punkty (nie mówię o interpolacji), czyli dokładnie 936 linii (w rozumieniu ilości przejść między białym i czarnym) czyli dokładnie 39lpmm ... |
czyli 3744senseli=1872lw/ph=936lp/ph a że matryca ma wysokość 24mm to 936/24=39lp/mm
B o g d a n napisał/a: | Potem zgodziłeś się się z wyliczeniem Usjwo, które zaprzeczało Twoim wczesnieszym wyliczeniom, tyle, że od drugiej strony liczone. |
A gdzie się nie zgadza? Przeliczmy to w drugą stronę:
39lp/mm w przypadku matrycy o wys 24mm daje 936lp/pm=1872lw/ph
lub też 39lp/mm * 2 = 78lw/mm * 24mm = 1872lw/ph
B o g d a n napisał/a: | Wreszcie podałes swoje wzory, z których równiez nie uzeskałbyś
pierwszego wyliczenia: |
No tak - powinno być /2 a nie * 2 - prosty błąd redakcyjny
A co do matrycy Bayera, myślę że wystarczająco jasno to opisałem. Czy możesz wrócić kilka postów i przeczytać jeszcze raz? Czy tam jest coś dla Ciebie niejasnego? Rozumiesz różnicę między pikselem a senselem? Na czym polega demozaikowanie?
B o g d a n napisał/a: | Jeśli to nie jest dopasowywanie wyniku dla zasady i mącenie, to przepraszam.
|
No comments...
papatki - Sro 10 Mar, 2010
zdajecie sobie sprawę z tego, że przekonujecie Bogdana do rzeczy oczywistej już 4 stronę?
Może ktoś w ramach "zajęć pozalekcyjnych" weźmie jakieś 5DmkII i 20D i je poprostu porówna z jednym lensem w jednej scenie
hijax_pl - Sro 10 Mar, 2010
B o g d a n napisał/a: | Nikogo, oprócz mnie to nie zastanawia?
Nie moge wyjść z podziwu poprostu i tyle. |
Najwidoczniej wszyscy rozumieją skąd ta różnica.
Usjwo - Sro 10 Mar, 2010
To wychodzi okolo 1.6 pixla na linie, ja bym powiedzial ze to calkiem dobry wynik. Zakladajac ze 1pix na linie jest to teoretycznie idealne maximum.
B o g d a n - Sro 10 Mar, 2010
hijax_pl napisał/a: | czyli 3744senseli=1872lw/ph | No właśnie w tym "przeskoku" leży problem. Stronę wcześniej wykazałeś, że z matrycy Bayer przykładowo 12Mpix, po demozaikowaniu otrzymuje się plik również 12Mpix, tak?
Załączone rysunki wycinków 1:1 odzwierciedlające 40x40pix to dokładnie obrazują. Więc dlaczego liczbę linii senseli=pixeli w matrycy Bayera dzielisz przez dwa dla uzyskania liczby linii po demozaikowaniu? Dla mnie każdy kawałeczek obrazna po demozaikowaniu ma wielkość pixela=sensela przed tą operacją, co wyraźnie widać na załączonych wcześniej przez Ciebie obrazkach.
Czy ja coś nie wyraźnie piszę przez kilka poprzednich postów?
hijax_pl - Sro 10 Mar, 2010
B o g d a n, a czy ja gdzieś niewyraźnie napisałem o UNIKALNYCH pikselach po demozaikowaniu? Jeśli nie będziemy interpolować (o czym napisałem) to z 12M matrycy wyjdzie 3Mpx obrazek, ponieważ każda grupa 2x2 senseli wykorzystana zostanie do obliczenia wartości JEDNEGO piksela. Dlatego dzielę przez rozmiar boku przez 2. I wg mnie TAKA właśnie jest fizyczna rozdzielczość matrycy Bayera.
Oczywiście możemy interpolować, ale musimy wiedzieć że te dodatkowe piksele są INTERPOLOWANE, czyli nie są już UNIKALNE. I z unikalnych, sąsiednich 0% i 100% uzyskujemy 0% 50% i 100%. Czyli z 12M matrycy będziemy mieli 3M unikalnych + 9M uśrednionych.
Jeszce raz: 12M matryca daje tylko 3M unikalnych i aż 9M wyliczonych.
Ja wiem że tego prawie nie widać, ale czy to nie jest oszustwo?
Swoją drogą dane z matrycy Foveona o wielkości 3M można sztucznie "zbayeryzować" i otrzymamy.. 12Mpx obraz o obniżonej jakości podobnej do tej z matrycy "normalnej"
Usjwo - Sro 10 Mar, 2010
Chyba tu nastopilo pomieszanie teorii z praktyka.
W teoretycznym idelany rozwazaniu:
3744 senseli daje nam 3744 lw/ph (zakladamy ze istnieje jeszcze ten dodatkowy rzad dla lini brzegowych) czyli daje to 3744/2/24 = 78 lp/mm.
Z drugiej strony mamy testy ok 42lp/mm (skad bylo 39?), co daje mam 42*2*24 = 2016lw/ph
Jakby mozna bylo obliczyc rzeczywista rozdzielczosc prosto z wielkosci matrycy i ilosci pixeli, to po co testy To jest taka idealna wartosc gdzie dostajemy 1 linie na pixel, a rzeczywistosc jest troche gorsza.
To tyle co ja zrozumialem z tego watku, co nie zanczy ze jest to prawda , wiec prosze o sprostowanie.
lance86 - Sro 10 Mar, 2010
Proponuję przeczytanie tych artykułów- naprawdę bardzo ciekawe i w sumie wyjaśniają chyba wszystkie nasze pytania. Podaje link http://plieth.com/jurek/technics.html
Oczywiście należy pamiętać, że rozważamy teorię i stany "idealne" a jak wiadomo takie nigdy nie występują. Jednak biorąc suche dane dodając średnią z doświadczeń można w jakimś stopniu porównać pewne właściwości matryc i obiektywów. Jednak należy pamiętać, że w rzeczywistości cały proces obrazowania na matrycy dowolnej jest bardziej skomplikowany i nie tak trywialny jak nam się wydaje. Do tego dochodzą jeszcze błędy statystyczne i przybliżenia liczb. Mimo wszystko w pewnych ramach "tolerancji" porównywać można...
hijax_pl - Sro 10 Mar, 2010
Usjwo napisał/a: | Chyba tu nastopilo pomieszanie teorii z praktyka.
[...]
Jakby mozna bylo obliczyc rzeczywista rozdzielczosc prosto z wielkosci matrycy i ilosci pixeli, to po co testy |
Bo rozdzielczość i dokładność to dwa różne pojęcia
Jak bierzemy pod uwagę tylko rozdzielczość i zapominamy o dokładności (czy tez określeniu błędu pomiarowego) to daleko nie zajdziemy. Tzn dojdziemy do wątpliwych rezultatów
Usjwo - Sro 10 Mar, 2010
hijax_pl napisał/a: |
Bo rozdzielczość i dokładność to dwa różne pojęcia
Jak bierzemy pod uwagę tylko rozdzielczość i zapominamy o dokładności (czy tez określeniu błędu pomiarowego) to daleko nie zajdziemy. Tzn dojdziemy do wątpliwych rezultatów |
Chodzilo mi raczej o wyjasnienie, a nie zagmatwanie Jak juz ciagniemy to przez kilka stron to dokonczmy, bo jak nie to za jakis czas znowu sie zacznie
B o g d a n - Sro 10 Mar, 2010
Usjwo napisał/a: | Chodzilo mi raczej o wyjasnienie, a nie zagmatwanie Jak juz ciagniemy to przez kilka stron to dokonczmy, bo jak nie to za jakis czas znowu sie zacznie | Też jestem tego zdania Usjwo, ale zdaje się, że wchodzimy w interpretacje techniki, o której mało wiemy, a zaczynamy stosować filozofię i własne domniemania. Filozofia nie jest naszym sprzymierzeńcem.
Tak naprawdę sposób demozaikowania, opisany przez hijax_pl nie musi mieć nic wspólnego z prawdą bo metod jest wiele i są ciągle doskonalone.
Tak czy inaczej stwierdzenie, że w matrycy 12Mpix otrzymac możemy w zasadzie 1/4 rozdzielczości jest dyskusyjne, choćby z uwagi na to, że podczas demozaikowania jest wyznaczany każdy pixel w liczbie, odpowiadajcej pełnej rozdzielczości matrycy i każdy niesie inną informację, składającą sie na cały obrazek. To nie jest tak, że wpierw wyznaczany jest umownie a, potem c, a na końcu środkowy b, wynikający z aproksymacji a i c.
Przykład z czernią i bielą i szarością pomiędzy, nie jest tylko teorią, stawianą tu przez hijax_pl jako ułomność "systemu", a praktycznie ma miejsce w rzeczywistości i z tego względu nie powinien to być argumentem w dyskusji. Czy i kiedy w praktyce matryca rejestruje obraz gdzie jeden pixel jest oświetlony max, a sąsiedni wogóle? Nawet fotografując monochromayczne i bardzo kontrastowe tablice testowe tak sie nie stanie. Mikrosoczewki maja przecież swoja średnicę i zazwyczaj granica kontrastowego obrazu wychodzi (przechodzi) na ich powierzchniach, a nie idealnie pomiędzy. Więc dla mnie to właśnie filozofia.
Fotografia cyfrowa, z zasady rastrowa (dyskretna), zawsze w praktyce, pomiędzy czernią i bielą da na którymś rzędzie pixeli szarość bez względu na rodzaj matrycy w aparacie.
hijax_pl - Sro 10 Mar, 2010
To może inaczej...
Usjwo napisał/a: | W teoretycznym idelany rozwazaniu:
3744 senseli daje nam 3744 lw/ph (zakladamy ze istnieje jeszcze ten dodatkowy rzad dla lini brzegowych) czyli daje to 3744/2/24 = 78 lp/mm. |
Zgadza się - możemy takie założenie przyjąć. Wtedy wartość 78lp/mm jest naszą rozdzielczością układu pomiarowego. Jednak w związku z układami AA, procesem demozaikowania, aberracjami na mikrosoczewkach i pewnie milionem innych czynników - ta wartość 78 par linii będzie nieosiągalna. Dlatego wykonuje się pomiar aby wyznaczyć dokładność obrazowania korpusu. I powiedzmy wyjdzie wynik 45lp/mm.
To tak samo jak z 6-bit matrycami TN w tanich monitorach LCD. Sygnał RGB docierający do ekranu kablem DVI przeniesie informacje z rozdzielczością 8bit na składową (kolo 24bit), jednak z uwagi na konstrukcję matrycy LCD - ekran wyświetli tylko 6 bitów czyli kolor będzie reprezentowany z mniejszą dokładnością - mamy widoczny banding. Czyli z palety 16mln kolorów widzimy tylko 262tyś - czyli 64x mniej kolorów. Dokładność reprezentacji koloru w tym przykładzie wynosi 6bit.
O ile dobrze pamiętam to rozdzielczości najlepszych klisz były na poziomie 70-100lp/mm. jak widać lustrzankom cyfrowym daleko do takiego wyniku. Mimo że rozdzielczością matrycy już nie - bo to wychodzi jakieś 35Mpx dla 100lp/mm. Takie matryce już są "za progiem". Gorzej że efektywna rozdzielczość matryc (dokładność obrazowania detali) jest na dużo niższym poziomie więc do rozdzielczość klatki 135 jeszcze daaaaleko. Jako przykład podam porównanie 7D i D300s zrobione przez miesięcznik DFV - wynika z niego że 18Mpx rozdzielczość 7D nie przekłada się na lepszą jakość zdjęć przy porównaniu z 12Mpx matrycą D300s.
[ Dodano: Sro 10 Mar, 2010 18:16 ]
B o g d a n napisał/a: | Tak naprawdę sposób demozaikowania, opisany przez hijax_pl nie musi mieć nic wspólnego z prawdą bo metod jest wiele i są ciągle doskonalone. |
Oczywiście. Nie zmienia to jednak faktu że ten sam pojedynczy sensel jest wykorzystywany do wyznaczania co najmniej 4 pikseli. I to jest coś co mi przeszkadza.
B o g d a n napisał/a: | To nie jest tak, że wpierw wyznaczany jest umownie a, potem c, a na końcu środkowy b, wynikający z aproksymacji a i c. |
To Twoja interpretacja, ja tego nie napisałem
B o g d a n napisał/a: | Przykład z czernią i bielą i szarością pomiędzy, nie jest tylko teorią, stawianą tu przez hijax_pl jako ułomność "systemu", a praktycznie ma miejsce w rzeczywistości i z tego względu nie powinien to być argumentem w dyskusji. |
Jest to ułomność jeśli się porówna do pomysłu Foveona. Przykładzik? Proszę bardzo, i od razu zapraszam do oglądania na największym powiększeniu
UWAGA: plik podlinkowany ma 4.5MB!
To zdjęcie przykładowe z SD14, matryca Foveon X3 o rozdzielczości 1760x2640 px czyli 4,2mln pikseli, czyli 12mln senseli.
B o g d a n napisał/a: | Czy i kiedy w praktyce matryca rejestruje obraz gdzie jeden pixel jest oświetlony max, a sąsiedni wogóle? |
Technicznie niemożliwe jednak możliwe jest że będzie to 70% i 58%, a punkt pomiędzy zostanie wyliczony jako np 61%.
Usjwo - Sro 10 Mar, 2010
No teraz to poszedles za gleboko
Chcialem tylko potwierdzic co wczesniej napisalem.
Idealna matryca 5DII dala by nam 76lp/mm (przelczenia juz pominmy bo ile mozna)
i powyzej tego jest fizycznie niemozliwe. Z testow otrzymujemy 42lp/mm poniewaz filtry, demozaikowanie itp. niedokladnosci matrycy.
Przy 42lp/mm daje nam to mniej wiecej na jedna linie 1.85 pixla (srednio, bo zaraz ktos sie przyczepi ze nie moze byc podzialu lini w 0.85 pixla ). Co przy wszystkich tych problemach wydaje mi sie jest wynikiem bardzo dobrym. Oznacza to ze i tak czesc lini ma grubosc 1 pixla i dalsza walka z rozdzielczoscia to walka z wiatrakami, szczegolnie w Bayeroskiej matrycy, gdzie dla dwoch sasiednich senseli 50% informacji z jakich sa obliczane jest taka sama.
Ufff... mam nadzieje ze jeszcze bardziej nie namieszalem
hijax_pl - Sro 10 Mar, 2010
Usjwo, dokładnie tak jak piszesz.
[ Dodano: Sro 10 Mar, 2010 19:02 ]
hijax_pl napisał/a: | To zdjęcie przykładowe z SD14, matryca Foveon X3 o rozdzielczości 1760x2640 px czyli 4,2mln pikseli, czyli 12mln senseli. |
Tak swoją drogą to dociekliwym polecam zabawę programem dcraw i wywołanie jakiegoś RAWa z opcją "-h". Dla 12Mpx matrycy wynikowy PNG czy TIFF będzie miał tyl;ko 3mln pikseli ale jaka będzie rozdzielczość koloru... - zupełnie jak u Foveona
komor - Sro 10 Mar, 2010
B o g d a n napisał/a: | Nawet fotografując monochromayczne i bardzo kontrastowe tablice testowe tak sie nie stanie. Mikrosoczewki maja przecież swoja średnicę i zazwyczaj granica kontrastowego obrazu wychodzi (przechodzi) na ich powierzchniach, a nie idealnie pomiędzy. |
To co piszesz, Bogdanie, jest jedną z przesłanek czemu realna rozdzielczość matrycy ma tak niewiele wspólnego z ilością pikseli zapisywaną w pliku.
|
|