Wykorzystujemy pliki cookie do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie, a także do prawidłowego działania i wygodniejszej obsługi. Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług i innych witryn.
Masz możliwość zmiany preferencji dotyczących ciasteczek w swojej przeglądarce internetowej. Jeśli więc nie wyrażasz zgody na zapisywanie przez nas plików cookies w twoim urządzeniu zmień ustawienia swojej przeglądarki, lub opuść naszą witrynę.
Jeżeli nie zmienisz tych ustawień i będziesz nadal korzystał z naszej witryny, będziemy przetwarzać Twoje dane zgodnie z naszą Polityką Prywatności. W dokumencie tym znajdziesz też więcej informacji na temat ustawień przeglądarki i sposobu przetwarzania twoich danych przez naszych partnerów społecznościowych, reklamowych i analitycznych.
Zgodę na wykorzystywanie przez nas plików cookies możesz cofnąć w dowolnym momencie.
Wysłany: Nie 02 Gru, 2007 Optymalne rozmiary obrazu
Niestety dopiero niedawno spostrzegłem, że optymalny rozmiar obrazu w aparacie z filtrem Bayera, to obraz o czterokrotnie mniejszej ilości pikseli od maksymalnej, udostępnianej przez producenta.
Przykładowo w mojej lustrzance optymalny rozmiar to 1000×1504, a nie maksymalny podawany przez producenta, czyli 2000×3008.
W gruncie rzeczy jeśli się przez chwilę zastanowić, to nawet nie ma w tym nic dziwnego. Szkoda tylko, że tak długo bezmyślnie i niepotrzebnie ulegało się pogoni za maksymalną liczbą pikseli, ustawiając maksymalny rozmiar zaoferowany przez producenta.
Czy ktoś z Was też to zauważył i takiego dwukrotnie mniejszego x i y używa, jako podstawowego ustawienia?
Te maksymalne rozmiary są "nafaszerowane" nic nie wnoszącymi (może poza artefaktami) pikselami, powielającymi lecz nie dodającymi nowej informacji o rejestrowanym zjawisku.
Spróbuj porównać oba takie obrazy przy 100 procentowym widoku (ja oglądam na monitorze o rozdzielczości 96 pikseli), a zobaczysz że ten większy jest "rozmazany, nieostry" i zmienia się na normalny jak jego widok ustawisz na 50 procent.
Z kolei nie ma takiego "rozmazania" przy 100 procentowym widoku, gdy oglądasz obraz z Sigmy SD-14 nie stosującej filtru Bayera, a także gdy zmniejszysz maksymalne dostępne w aparacie rozmiary obrazu x i y o połowę, jeśli ten aparat używa filtru Bayera.
Arv [Usunięty]
Wysłany: Nie 02 Gru, 2007
Marian napisał/a:
maziek napisał/a:
Dlaczego?
Te maksymalne rozmiary są "nafaszerowane" nic nie wnoszącymi (może poza artefaktami) pikselami, powielającymi lecz nie dodającymi nowej informacji o rejestrowanym zjawisku.
Spróbuj porównać oba takie obrazy przy 100 procentowym widoku (ja oglądam na monitorze o rozdzielczości 96 pikseli), a zobaczysz że ten większy jest "rozmazany, nieostry" i zmienia się na normalny jak jego widok ustawisz na 50 procent.
Z kolei nie ma takiego "rozmazania" przy 100 procentowym widoku, gdy oglądasz obraz z Sigmy SD-14 nie stosującej filtru Bayera, a także gdy zmniejszysz maksymalne dostępne w aparacie rozmiary obrazu x i y o połowę, jeśli ten aparat używa filtru Bayera.
Nie zgadzam się w całej rozciągłości.
Tak się składa, że oko dużo bardziej szczegółowo rozróżnia jasność od koloru. Fakt ten jest powszechnie wykorzystywany w rozmaitych aplikacjach (telewizory, kompresja jpeg/mpeg, DVD, matryca Bayera).
Dzięki temu aparaty wyposażone w matrycę Bayera osiągają porównywalny (lub lepszy) efekt za ułamek ceny aparatów wyposażonych w matrycę Forveon.
Pozatym, kto ogląda zdjęcia w cropie 100% ?
Tak się składa, że oko dużo bardziej szczegółowo rozróżnia jasność od koloru.
No a gdzie ty masz w filtrze Bayera informacje o jasności piksela, skoro każda fotodioda pokryta jest albo R albo G albo B?
Jeśli obraz nie jest "rozmazany", to dlaczego oglądać go z mniejszą ilością szczegółów od tej jaka jest w nim zawarta?
Gdy zauważyłem że wybieram niepotrzebnie maksymalne rozmiary obrazu, ponownie zajrzałem do obrazów z Sigmy, i tam rozmazania nie widać nawet przy widoku 100%. Zajrzyj sam, a polubisz oglądanie wszystkich szczegółów zdjęcia, czyli 100% widok.
Ponownie zapewniam że nie mam nic wspólnego z Sigmą.
Pomógł: 22 razy Posty: 5163 Skąd: Chełm I stolica PRL!
Wysłany: Nie 02 Gru, 2007
Wg mnie Marian to tez nie masz racji ale postanowiłem to organoleptycznie sprawdzić, zanim tak do końca to wypowiem. Weź jednak pod uwagę, że gdy dla uproszczenia rozpatrywać zdjęcie bw, to ponieważ aparat wie który pixel jakim filtrem jest zasłonięty, to dokonując zwykłego odejmowania jest w stanie stwierdzić jego rzeczywista jasność. Tak więc bez wątpienia w bw masz taką rozdzielczość, ile pixeli. Czy coś się zmienia po dodaniu kolorów? Nic. Ewentualnie mozna mieć zastrzeżenia, że kolory są wydumane a nie prawdziwe (aparat je wydumał). Ale nawet jeśli, to nie ma to żadnego wpływu na rozdzielczość.
Nie zgodzę się z Marianem. Takie wrażenie można odnieść operując na plikach JPG i to wyostrzonych, gdzie dzieją się cuda. Rzućcie okiem na poniższy rysunek:
Górna część to wycinek 1:1 ze zdjęcia naszej tablicy wykonanego zestawem D200 plus
Sigma 1.4/30 ustawiona na f/5.6. Oczywiście RAW wołany do TIFFa bez wyostrzenia i potem zapisany bezstratnie do PNG. Poniżej ta sama sytuacja przy skalowaniu 2:1. Ja
nie mam wątpliwości gdzie widać więcej.
Dodatkowo narysowałem pionową czerwoną kreskę, żeby pokazać jeszcze jedną rzecz.
Otóż wiele osób krytykując różnego rodzaju testy powołuje się na twierdzenie Shannona
(http://pl.wikipedia.org/wiki/Twierdzenie_Kotielnikowa-Shannona ) mówiące o tym, że
sygnał ciągły może być ponownie odtworzony z sygnału dyskretnego, jeśli był próbkowany z częstotliwością co najmniej dwa razy większą od granicznej częstotliwości swego widma (tzw. częstotliwości Nyqyista). Bezpośrednie zastosowanie tego twierdzenia do danych z aparatów cyfrowych, mówi nam, że na zdjęciach np. z D200
nie powinniśmy zobaczyć niczego poniżej 1300 LWPH. Poziom ten oznaczyłem pionową czerwoną kreską. Bezpośrednie i bezmyślne zastosowanie tego twierdzenia oznacza, że
wszystko po lewej stronie czerwonej kreski to szum i wymysły programistów Nikona. Rzut okiem na poniższy wycinek pokazuje, że tak łatwo nie ma.
Postaram się napisać jakiś artykuł na ten temat, bo zbyt dużo nieporozumień z tego wynika.
Górna część to wycinek 1:1 ze zdjęcia naszej tablicy wykonanego zestawem D200 plus
Sigma 1.4/30 ustawiona na f/5.6. Oczywiście RAW wołany do TIFFa bez wyostrzenia i potem zapisany bezstratnie do PNG. Poniżej ta sama sytuacja przy skalowaniu 2:1. Ja
nie mam wątpliwości gdzie widać więcej.
Wydaje się, że się nie zrozumieliśmy.
Mnie nie chodziło o porównywanie przeskalowanego zdjęcia, tu mniej szczegółów nie musi być czymś zaskakującym, ale o zrobienie zdjęcia z o połowę mniejszymi x i y. I czy takie zdjęcie będzie miało mniej szczegółów od tego z maksymalnymi rozmiarami?
Może masz takie zdjęcie?
Poza tym testowa tablica ma zbyt łatwy dla algorytmów interpolacyjnych rysunek.
A czym to się różni? Przecież aparat robi zdjęcia zawsze tą samą matrycą, a potem zapisuje w zadanym rozmiarze używając innej elementarnej komórki.
Cztery (2×2) sąsiadujące fotodiody może potraktować jako jeden piksel i nie musi "wymyślać" (interpolować) dla tego piksela kolorów R i B, a dla G ma 2 wartości z dwóch fotodiod.
Jeśli zaś z tych fotodiod musi stworzyć cztery piksele a nie jeden, wyniki będą różne.
Ostatnio zmieniony przez Marian Nie 02 Gru, 2007, w całości zmieniany 1 raz
Pomógł: 22 razy Posty: 5163 Skąd: Chełm I stolica PRL!
Wysłany: Nie 02 Gru, 2007
Ale to nie ma związku z rozdzielczością.
Arv [Usunięty]
Wysłany: Nie 02 Gru, 2007
Marian - albo nie rozumiesz, albo nie chcesz zrozumieć, że interpolacja koloru nie jest niczym złym.
Przeciwnie jest DOBRODZIEJSTWEM dzięki, któremu mamy tańsze matryce o doskonałej jakości.
Pozatym to niekoniecznie jest tak, że kolory pikseli w kwadracie 4x4 są interpolowane. Weżmy przykładowy schemat:
Kod:
|R|G|R|G|
|-+-+-+-| G - Green/Zielony
|G|B|G|B| R - Red/Czerwony
|-+-+-+-| B - Blue/Niebieski
|R|G|R|G|
Spróbuj sobie wyobrazić, że piksele wynikowe nie są tam gdzie literki tylko tam gdzie plusiki !!!
Każdy plusik ma jasność i kolor wyliczony z najbliższych mu sensorów - czerwonego, niebieskiego i dwu zielonych.
Strata z interpolacji polega tylko na tym, że wynikowy piksel (plusik) ma dwa sensory wspólne z każdym swoim sąsiadem.
Dlaczego 'tylko' ? O tym za chwilę.
W każdym urządzeniu cyfrowym musi istnieć filtr antyaliasingowy. Filtr ten w aparatach cyfrowych powoduje że na zdjęciu nie rejestrują się detale, których rozdzielczość jest większa niż rozdzielczość matrycy/2. Dlaczego ?
Bo zarejestrowanie ich skutkuje powstaniem moiry. (To konsekwencja twierdzenia Shannona-Kotielnikowa).
Moira wygląda np. tak:
Jeżeli filtr AA oraz algorytmy antyaliasingowe i demozaikujące są zaimplementowane poprawnie to SZCZEGÓŁY OBRAZU mniejsze niż dwa piksele NIE BĘDĄ WIDOCZNE na zdjęciu !!!! W przeciwnym wypadku MUSI pojawić się moira (na marynarkach w prążki, na firankach, na ogrodzeniu, na cegłach itp.)
A skoro filtr AA i tak usuwa większość detali mniejszych niż dwa piksele to fakt, że sąsiadujące piksele mają wspólne sensory nie jest już taką stratą jak wydawało się na początku prawda ?
Sigma również musi mieć filtry i algorytmy AntiAliasingowe albo obrzymią moirę i schodkowanie krawędzi. Jedno i drugie powoduje, że matryca Sigmy o tej samej liczbie pikseli co matryca Bayerowska NIE OSIĄGNIE DWUKROTNIE WIĘKSZEJ ROZDZIELCZOŚCI* !!!
Osiągnie natomiast trzykrotnie większą cenę (bo ma trzy razy więcej sensorów na piksel).
Dlatego ten wynalazek mimo naprawdę wielu zalet po prostu się nie przyjmie dopóki cena matrycy ma wpływ na cenę aparatu.
Uprzedzając protesty tych, którzy nie zgadzają się z tym, że filtr AA powinien działać tak jak napisałem ...
Popatrzcie na dowolne testy rozdzielczości. Co dzieje się z grubością zanikających linii po przekroczeniu progu częstotliwośći nyquista ?
Wiecie jak się nazywa to zjawisko ?
ALIASING.
Dobranoc.
---
* - rozdzielczości w sensie jednowymiarowym mierzonej np. w LWPH.
Marian - albo nie rozumiesz, albo nie chcesz zrozumieć, że interpolacja koloru nie jest niczym złym.
Przeciwnie jest DOBRODZIEJSTWEM dzięki, któremu mamy tańsze matryce o doskonałej jakości.
Pozatym to niekoniecznie jest tak, że kolory pikseli w kwadracie 4x4 są interpolowane. Weżmy przykładowy schemat:
Kod:
|R|G|R|G|
|-+-+-+-| G - Green/Zielony
|G|B|G|B| R - Red/Czerwony
|-+-+-+-| B - Blue/Niebieski
|R|G|R|G|
Spróbuj sobie wyobrazić, że piksele wynikowe nie są tam gdzie literki tylko tam gdzie plusiki !!!
Każdy plusik ma jasność i kolor wyliczony z najbliższych mu sensorów - czerwonego, niebieskiego i dwu zielonych. Strata z interpolacji polega tylko na tym, że wynikowy piksel (plusik) ma dwa sensory wspólne z każdym swoim sąsiadem...
Czy chcesz powiedzieć, że dzięki temu obraz zawiera więcej informacji od obrazu, w którym każdy piksel tworzą cztery oddzielne (RGGB) fotodiody, nie pokrywające się ?
Arv napisał/a:
...W każdym urządzeniu cyfrowym musi istnieć filtr antyaliasingowy. Filtr ten w aparatach cyfrowych powoduje że na zdjęciu nie rejestrują się detale, których rozdzielczość jest większa niż rozdzielczość matrycy/2. Dlaczego ?
Bo zarejestrowanie ich skutkuje powstaniem moiry. (To konsekwencja twierdzenia Shannona-Kotielnikowa).
Tu się mylisz. Filtr AA nie jest konieczny jeśli rozdzielczość matrycy jest większa od rozdzielczości obiektywu.
Arv napisał/a:
...
Jeżeli filtr AA oraz algorytmy antyaliasingowe i demozaikujące są zaimplementowane poprawnie to SZCZEGÓŁY OBRAZU mniejsze niż dwa piksele NIE BĘDĄ WIDOCZNE na zdjęciu !!!! W przeciwnym wypadku MUSI pojawić się moira (na marynarkach w prążki, na firankach, na ogrodzeniu, na cegłach itp.)
A skoro filtr AA i tak usuwa większość detali mniejszych niż dwa piksele to fakt, że sąsiadujące piksele mają wspólne sensory nie jest już taką stratą jak wydawało się na początku prawda ?
No to po co w takim razie "nadymać" obraz wspólnymi sensorami?
Arv napisał/a:
Sigma również musi mieć filtry i algorytmy AntiAliasingowe albo obrzymią moirę i schodkowanie krawędzi. Jedno i drugie powoduje, że matryca Sigmy o tej samej liczbie pikseli co matryca Bayerowska NIE OSIĄGNIE DWUKROTNIE WIĘKSZEJ ROZDZIELCZOŚCI* !!!
A w Bayerowskiej matrycy co dla ciebie jest pikselem? Pojedyncza fotodioda, czy jakaś czwórka fotodiod?
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach Nie możesz załączać plików na tym forum Możesz ściągać załączniki na tym forum
forum.optyczne.pl wykorzystuje pliki cookies, które są zapisywane na Twoim komputerze.
Technologia ta jest wykorzystywana w celach reklamowych i statystycznych.
Pozwala nam określać zachowania użytkowników na stronie, dostarczać im odpowiednie treści oraz reklamy,
a także ułatwia korzystanie z serwisu, np. poprzez funkcję automatycznego logowania.
Pliki cookies mogą też być wykorzystywane przez współpracujących z nami reklamodawców, a także przez narzędzie Google Analytics, które jest przez nas wykorzystywane do zbierania statystyk.
Korzystanie z serwisu Optyczne.pl przy włączonej obsłudze plików cookies jest przez nas traktowane, jako wyrażenie zgody na zapisywanie ich w pamięci urządzenia, z którego korzystasz.
Jeżeli się na to nie zgadzasz, możesz w każdej chwili zmienić ustawienia swojej przeglądarki. Przeczytaj, jak wyłączyć pliki cookie i nie tylko »
Strona wygenerowana w 0,07 sekundy. Zapytań do SQL: 14