Wykorzystujemy pliki cookie do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie, a także do prawidłowego działania i wygodniejszej obsługi. Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług i innych witryn.
Masz możliwość zmiany preferencji dotyczących ciasteczek w swojej przeglądarce internetowej. Jeśli więc nie wyrażasz zgody na zapisywanie przez nas plików cookies w twoim urządzeniu zmień ustawienia swojej przeglądarki, lub opuść naszą witrynę.
Jeżeli nie zmienisz tych ustawień i będziesz nadal korzystał z naszej witryny, będziemy przetwarzać Twoje dane zgodnie z naszą Polityką Prywatności. W dokumencie tym znajdziesz też więcej informacji na temat ustawień przeglądarki i sposobu przetwarzania twoich danych przez naszych partnerów społecznościowych, reklamowych i analitycznych.
Zgodę na wykorzystywanie przez nas plików cookies możesz cofnąć w dowolnym momencie.
B o g d a n Ja przyznaje ze sie zgubilem i nie bardzo wiem o jakie obliczenia Ci chodzi.
Mamy 39lpmm to daje nam 1872 lwph (dla FF), ja to tak rozumie. Ty twierdzisz ze to zle, ale nie bardzo chcesz powiedziec co jest zle. Nie daj sie prosic tylko wytlumacz tak lopatologicznie jak to sie przelicza (chyba ze tego sie nie da przeliczyc).
hijax_pl, znowu mieszasz ludziam w głowach, używając wyszukanych i mało jasnych pojęć, kontynuując sofistyczne wywody.
B o g d a n, ja nie mieszam, ja podaję fakty. To nie sofistyka. Których pojęć nie rozumiesz?
G woli ścisłości dyskusja zaczęła się od pytania:
lance86 napisał/a:
Chodzi mi dokładnie o to jakim sposobem 5d ma mniejszą rozdzielczość niż 20d?
... a moją dyskusję sprowokowałeś własnym stwierdzeniem:
Cytat:
Zakładając, że wynik testu daje super 50 lpmm, to dla matrycy 5D Mk II (wysokość matrycy równo 24mm) mamy dokładnie 2400 linii na wysokość kadru.
Jest to ewidentna bzdura, biorąc pod uwagę wyniki testów, prowadzone przez inne firmy oraz zdrową logikę każdego człowieka.
Po prostu nie masz racji pisząc że to jest bzdura. Powołujesz się na testy dpreview, gdzie przytaczają ten sam wzór który deprecjonujesz. To gdzie ta logika?
B o g d a n napisał/a:
Ja dyskutuję o tym wyniku, a Ty przytaczasz cytat, nic do niego nie wnoszący i dzielisz przysłowiowy włos (dosłownie) na czworo, będąc zdaje się adwokatem diabła.
Mamy 39lpmm to daje nam 1872 lwph (dla FF), ja to tak rozumie.
Usjwo, no właśnie, napisz jak to policzyłeś, bo 39 lpmm to już są PARY linii i według mnie powinno być:
39 par linii/mm x 24mm = 936 par linii/wysokość kadru
A ten wynik ma się nijak do wyników 1872 line pairs / picture height, które osiągają przykładowo obiektywy na 5D Mk II w testach.
Jeśli zrobiłem błąd w tym prostym rachunku, to proszę mnie skorygować i oświecić. Już drugi raz o tym dyskutuję i nikt mi tego nie wyjaśnił.
W testach np. Dreview, czy Photozone osiągane, zmierzone ustalona metodą wartości (MTF-50) nawet przewyższają rozdzielczość matryc w aparatach.
Bogdan, i nie dzwoni Ci w głowie dzwoneczek, że urządzenie pomiarowe wygenerowało wynik pomiaru większy niż ma w ogóle fizyczną możliwość zarejestrować? Jeśli mierzysz rozdzielczość obiektywu przy pomocy matrycy aparatu a nie jakiegoś specjalistycznego sprzętu, i dostajesz wynik przewyższający nominalną rozdzielczość matrycy (i to bayerowskiej) to znaczy że ten wynik można sobie wsadzić w buty, bo jest on wynikiem wyostrzania a nie rejestracji fotonów na matrycy.
Oczywiście można przyjąć, że w testach interesuje nas co sumarycznie pokazuje nam cały system: obiektyw+matryca+software. To też jest dobre założenie, tylko trzeba mieć świadomość tego, że testujemy obrazek wynikający częściowo z pracy oprogramowania, które nie jest nieomylne i robiąc swoją robotę przekłamuje czasem rzeczywistość. W niektórych zastosowaniach (może nawet w większości?) plusy przewyższają minusy, ale nie zawsze.
Optyczni przyjęli inne założenie i ich interesuje czysta praca obiektywu oraz czysta praca matrycy, na tyle, na ile można to zmierzyć dostępnym im sprzętem i metodami, które znają. Nietrudno domyśleć się dlaczego, jeśli się spojrzy co jest normalną pracą zawodową osób tworzących te testy. Mnie też boli, że producenci nas „oszukują”, cały ten Bayer jest podstawą oszustwa i dlatego musimy z godnością przyjąć na klatę fakt, że nawet 1Ds czy inny D3x nie rejestruje naprawdę tyle pikseli ile wynika z nominalnej ilości punktów zapisywanych w pliku JPG lub powstających po zdemozaikowaniu RAW-a.
A teraz wyrzuć sobie tablicę testową z liniami czarnymi i białymi i postaw taką żółtą z niebieskimi liniami, lub innym zestawem kolorów. I co teraz? Ostatnio był podany link do porównania tego co wychodzi na matrycach Bayera i Foveonie.
Jeśli mierzysz rozdzielczość obiektywu przy pomocy matrycy aparatu a nie jakiegoś specjalistycznego sprzętu, i dostajesz wynik przewyższający nominalną rozdzielczość matrycy (i to bayerowskiej) to znaczy że ten wynik można sobie wsadzić w buty, bo jest on wynikiem wyostrzania a nie rejestracji fotonów na matrycy.
Wychodzi na to, że jak się ten pomiar przedstawi na wykresie w lpph to wynik jest prościej odnieść do rozdzielczości matrycy (którą możemy wyczytać z jakiejś marketingowej broszurki) to jest to pomiar lepszy.
Tak przy okazji:
1) co rejestruje matryca foveona:
2) co rejestruje matryca bayera:
2) bayer przerobiony na JPGa (czyli słynne demozaikowanie):
zdjęcia z serwisu disoftware.com
komor, ja tylko próbuję ustalić wspólny mianownik pomiędzy wartością wyrażoną w lp/mm (wymiaru matrycy), a lw/ph oraz lp/ph (wysokości kadru). Nic więcej mnie nie interesuje.
Proste wzory, które sugerujecie, dają różnice tak duże, że dają do myslenia. Sądzę, że jest to sprawa różnej interpretacji "linii", czy rozróżnialnego "punktu".
Obiektywy testowane na optyczne.pl dają wyniki w okolicy 1800 lw/ph, a gdzie indziej 2x tyle. To według mnie nie wynika z hipotezy Arka, że inni pracują na wyostrzonych JPEG bo to nie jest prawda. Wynika to pewnie z innego punktu odniesienia i sprowadzenia pomiarów na skalę pojedyńczego pixela rejestrującego "kawałek" światła podającego przez optykę. Imatest widać tak działa dla wartości wyrażanych w lw/ph, czy lp/ph.
komor napisał/a:
i nie dzwoni Ci w głowie dzwoneczek, że urządzenie pomiarowe wygenerowało wynik pomiaru większy niż ma w ogóle fizyczną możliwość zarejestrować? Jeśli mierzysz rozdzielczość obiektywu przy pomocy matrycy aparatu a nie jakiegoś specjalistycznego sprzętu, i dostajesz wynik przewyższający nominalną rozdzielczość matrycy (i to bayerowskiej) to znaczy że ten wynik można sobie wsadzić w buty, bo jest on wynikiem wyostrzania a nie rejestracji fotonów na matrycy.
Na zdrowy rozum masz rację, ale twoje rozumowanie nie wzięło pod uwagę, że wynik generuje oprogramowanie firmy Imatest na podstawie zadanych przez pomiarowca parametrów. Przykładowo MTF-20 będzie inny od MTF-50 i jeszcze inny od MTF-80. Niestety jest w tym dużo matematyki.
Zresztą jeżeli dla obiektywu "rozdzielczość" wychodzi powyżej maksymalnej, którą może zarejestrować matryca, to dla mnie tylko znak, że taki obiektyw mógłbym użyc na matrycy o większej gęstości pikseli. Taki wynik tym bardziej dowodzi, że metoda nie jest ograniczona matrycą, prawda?
W tym rozumowaniu, Twoje stwierdzenie, że:
komor napisał/a:
Optyczni przyjęli inne założenie i ich interesuje czysta praca obiektywu oraz czysta praca matrycy, na tyle, na ile można to zmierzyć dostępnym im sprzętem i metodami, które znają.
mnie nie przekonuje. Może inne podejście i założenia teoretyczne są jednak lepsze? Może są bardziej obrazowe i zrozumiałe?
Załóżmy przez moment, że przechodząc z RAW do JPEG zmniejsza się nam dwukrotnie liczba linii w pionie i poziomie, które maja znaczenie. Czy wtedy jest sens produkować JPEGi w rozdzielczości takiej samej co RAW? Skoro nie uzyskamy więcej szczegółów to po co zajmować miejsce na karcie i HDD?
Tylko, że przy takim podejściu otrzymamy obrazki zawierające 25% wszystkich pikseli RAWA, czyli np. z 12Mpix robi nam się tylko 3Mpix. Czy to ma jakiś sens?
Wątpię, a raczej na pewno tak się nie dzieje, gdyż po demozaikowaniu otrzymujemy dokładnie tyle samo różnych punktów, co dał nam RAW.
To według mnie nie wynika z hipotezy Arka, że inni pracują na wyostrzonych JPEG bo to nie jest prawda.
A taki np photozone sam się przyznaje jak konwertuje RAWy i zarazem ostrzega by wyników wyrażanych w lw/ph nie brać zbyt poważniehttp://www.photozone.de/lens-test-faq
B o g d a n napisał/a:
Zresztą jeżeli dla obiektywu "rozdzielczość" wychodzi powyżej maksymalnej, którą może zarejestrować matryca, to dla mnie tylko znak, że taki obiektyw mógłbym użyc na matrycy o większej gęstości pikseli. Taki wynik tym bardziej dowodzi, że metoda nie jest ograniczona matrycą, prawda?
No chyba że rozdzielczość jest do 1piksela a dokładność do powiedzmy 50ciu.
Generalnie: nieprawda. Taki wynik dowodzi, że coś jest nie tak z procedurą pomiarową. Mając linijkę z podziałką milimetrową możesz wykonać pomiar co do mikrometra? Oczywiście że tak, o ile ustalisz że dokładność pomiaru to .. 1mm.
B o g d a n napisał/a:
Załóżmy przez moment, że przechodząc z RAW do JPEG zmniejsza się nam dwukrotnie liczba linii w pionie i poziomie, które maja znaczenie. Czy wtedy jest sens produkować JPEGi w rozdzielczości takiej samej co RAW?
No i tu jest sedno sprawy.. Jesteśmy tak przesiąknięci matrycą bayera i demozaikowaniem że na 3Mpix matryce Foveona patrzymy z pogardą. Mimo że te 3Mpix Foveona to tak naprawdę 12Mpix matryca bayera. Demozaikowanie to.. interpolacja - wymyślanie pikseli będących na rogach siatki senseli. Dlatego każda matryca gdzie dwie sąsiednie grupy senseli RGGB zostaje naświetlona w 100% i 0% - da nam w wyniku 100%, 50% i 0%.
B o g d a n napisał/a:
Tylko, że przy takim podejściu otrzymamy obrazki zawierające 25% wszystkich pikseli RAWA
Jak wygląda RAW zamieściłem powyżej. Zechciej łaskawie spojrzeć na to zdjęcie. A może wkleję jeszcze raz:
B o g d a n napisał/a:
12Mpix robi nam się tylko 3Mpix. Czy to ma jakiś sens? Wątpię.
Musisz zrozumieć że z matrycy Bayera to właśnie z 3Mpix interpoluje się do 12Mpx. Czy to ma jakiś sens?
Przepraszam - nie musisz, ale dobrze by było. Bo jest to informacja kluczowa...
Musisz zrozumieć że z matrycy Bayera to właśnie z 3Mpix interpoluje się do 12Mpx.
hijax_pl, dyskusja z Tobą to czysta udręka. Podlinkowałeś TRZY obrazki i zauważ, że na wszystkich jest dokładnie taka sama liczba pojedyńczych pixeli - równo 40x40pix na każdym. O czym więc piszesz?
hijax_pl napisał/a:
A taki np photozone sam się przyznaje jak konwertuje RAWy...
Każdy, kto robi testy z zastosowaniem aplikacji Imatestu, konwertuje RAWy.
- Optyczne konwertują programem dcraw
- Dpreview konwertuje programem Adobe Camera Raw
- Photozone konwertuje programem Adobe Camera Raw
Każda firma ma świadomość, że ta konwersja musi mieć minimum ingerencji i dlatego wszelkie parametry, mogące spowodować polepszenie ostrości lub korekcję kolorów są wyzerowane. Nie wspominając o problemie redukcji szumu, czy stosowaniu krzywej gamma.
Tak wogóle to na śmiertelnie poważnie, nie można brać żadnych, tego typu pomiarów bo są obarczone z zasady błędem, o czym wyraźnie pisze sam Imatest i na co uczula tylko Photozone, pisząc między innymi "Po przekonwertowaniu RAWS za pośrednictwem innych aplikacji do przetwarzania obrazu dane LW / PH będą niższe lub wyższe ze względu na różne algorytmy wyostrzania i kontrast."
PS.
Myslę, że możemy skończyć tę dyskusję bo jest słabe zainteresowanie tym tematem i dalsza dyskusja zupełnie niczego nie wnosi.
Miło mi, bo to oznacza że to co piszę zmusza Cie do wysiłku umysłowego.
B o g d a n napisał/a:
Podlinkowałeś TRZY obrazki i zauważ, że na wszystkich jest dokładnie taka sama liczba pojedynczych pixeli - równo 40x40pix na każdym. O czym więc piszesz?
I dla Ciebie te "zdjęcia" przedstawiają dokładnie ten sam obraz? Wytłumacz mi proszę jak w danych z matrycy Bayera rozpatrywać przejście z czarnego do białego koloru? Jak wygląda czarny - to wiem, ale gdzie jest biały?
I z uporem maniaka będę używał pojęcia senseli. Właśnie dlatego wprowadzono to pojęcie aby nie mówić o pikselach w kontekście matrycy Bayera. W obrazie z matrycy widzisz 40x40 senseli. Jeden piksel to grupa senseli, np taka:
RG
GB
Czyli - mówiąc o pikselach, reprezentujących kolor z palety RGB - Bayerowska matryca w tym przykładzie ma ich TYLKO 20x20.
B o g d a n napisał/a:
- Optyczne konwertują programem dcraw
- Dpreview konwertuje programem Adobe Camera Raw
- Photozone konwertuje programem Adobe Camera Raw
Dla Twojej informacji:
-dcraw nie robi NIC z danymi,
- ACR, zmienia krzywą, i dodaje wyostrzanie NAWET kiedy tego nie chcesz. Co gorsza dla różnych puszek zachowuje się inaczej.
Czy dla Ciebie to też nie robi różnicy?
B o g d a n napisał/a:
Każda firma ma świadomość, że ta konwersja musi mieć minimum ingerencji
A optyczni starają się robić tak konwersję żeby tej ingerencji nie było. Dlatego wybrali dcraw.
B o g d a n napisał/a:
Tak wogóle to na śmiertelnie poważnie, nie można brać żadnych, tego typu pomiarów bo są obarczone z zasady błędem
Z zasady to każdy pomiar jest obarczony błędem. Rozchodzi się jednak o to żeby być tego świadomym i szacować też tez błąd. Jaki jest błąd pomiaru rozdzielczości obiektywów na DPreview?
Zgubiłem się już dość dawno temu w Waszych wyliczeniach i jednostkach
Jednak pojęcie 'sensela' mnie zaintrygowało.
Czy można rozumieć, że matryca 10 mpix w 'układzie bayerowskim' ma ok. 40 mln. senseli?
Czy można rozumieć, że matryca w układzie 'foveon' nie ma senseli wcale?
Matryca o wielkości podawanej jako 40Mpx w układzie Bayera posiada dokładnie 40 milionów senseli, czyli:
- 10 milionów sensorów R
- 10 milionów sensorów B
- 20 milionów sensorów G
Aby uzyskać wartość koloru pojedynczego piksla, w najprostszym przypadku liczymy go z 4 sąsiednich senseli, czyli R, 2xG i B. Taką metodą z matrycy 40M wyliczymy dokładnie 10M rozróżnialnych pikseli.
Konstrukcja matrycy Bayera daje jednak możliwość bardziej zaawansowanej interpolacji danych.
RGRGRGRG
GBGBGBGB
Zauważcie że w każdym punktu styku 4 senseli mamy do dyspozycji wszystkie składowe koloru, czyli R, G i B. Zatem możemy piksel RGB wyznaczyć dla każdego "węzła" - a to powoduje że dla matrycy 40M możemy wyznaczyć 40M pikseli. Ten właśnie proces to słynne demozaikowanie. A metod demozaikowania jest bez liku. W różnych ośrodkach akademickich naukowcy się habilitują tworząc nowe, coraz wydajniejsze algorytmy.
Jeszcze tylko jedna uwaga:
Kod:
R1 G1 R2 G2
a b c
G1 B1 G2 B2
(duże litery to sense, małe - piksele, cyfry - oznaczają grupy senseli)
wyznaczając kolor dla piksela "a" liczymy go z senseli G1,B1,G1,R1
wyznaczając kolor dla piksela "b" liczymy go z senseli R2,G2,B1,G1
wyznaczając kolor dla piksela "c" liczymy go z senseli G2,B2,G2,R2
Czyli - piksele "a" i "c" liczone są ze "swoich" senseli, natomiast piksel "b" jest liczony z części "a" i części 'b". To powoduję że jeśli "a" będzie idealną czernią, "c" - idealną bielą, "b" - będzie szarością
Co do Foveona to te sensele nie są ułożone obok siebie ale jeden nad drugim - zatem nie ma potrzeby demozaikowania - faktycznie od razu mamy obraz RGB. Tyle że 30 milionoów senseli daje dokładnie 10M punktów, czyli piksel - stąd niższe rozdzielczości podawane w specyfikacjach matryc X3.
Podsumowując 12M matryce w układzie Bayera i X3 mają dokładnie tyle samo sensorów kolorów podstawowych. Jednak poprzez inne ich ułożenie z X3 uzyskuje się 4Mpx obrazek, podczas gdy z matrycy Bayera - 12Mpx. Tyle że porównajcie sobie obrazki z obu matryc. Inne ułożenie senseli daje większą rozdzielczość kolorową w X3.
Ostatnio zmieniony przez hijax_pl Sro 10 Mar, 2010, w całości zmieniany 4 razy
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach Nie możesz załączać plików na tym forum Możesz ściągać załączniki na tym forum
forum.optyczne.pl wykorzystuje pliki cookies, które są zapisywane na Twoim komputerze.
Technologia ta jest wykorzystywana w celach reklamowych i statystycznych.
Pozwala nam określać zachowania użytkowników na stronie, dostarczać im odpowiednie treści oraz reklamy,
a także ułatwia korzystanie z serwisu, np. poprzez funkcję automatycznego logowania.
Pliki cookies mogą też być wykorzystywane przez współpracujących z nami reklamodawców, a także przez narzędzie Google Analytics, które jest przez nas wykorzystywane do zbierania statystyk.
Korzystanie z serwisu Optyczne.pl przy włączonej obsłudze plików cookies jest przez nas traktowane, jako wyrażenie zgody na zapisywanie ich w pamięci urządzenia, z którego korzystasz.
Jeżeli się na to nie zgadzasz, możesz w każdej chwili zmienić ustawienia swojej przeglądarki. Przeczytaj, jak wyłączyć pliki cookie i nie tylko »
Strona wygenerowana w 0,06 sekundy. Zapytań do SQL: 9