Wykorzystujemy pliki cookie do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie, a także do prawidłowego działania i wygodniejszej obsługi. Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług i innych witryn.
Masz możliwość zmiany preferencji dotyczących ciasteczek w swojej przeglądarce internetowej. Jeśli więc nie wyrażasz zgody na zapisywanie przez nas plików cookies w twoim urządzeniu zmień ustawienia swojej przeglądarki, lub opuść naszą witrynę.
Jeżeli nie zmienisz tych ustawień i będziesz nadal korzystał z naszej witryny, będziemy przetwarzać Twoje dane zgodnie z naszą Polityką Prywatności. W dokumencie tym znajdziesz też więcej informacji na temat ustawień przeglądarki i sposobu przetwarzania twoich danych przez naszych partnerów społecznościowych, reklamowych i analitycznych.
Zgodę na wykorzystywanie przez nas plików cookies możesz cofnąć w dowolnym momencie.
Czy chcesz powiedzieć, że dzięki temu obraz zawiera więcej informacji od obrazu, w którym każdy piksel tworzą cztery oddzielne (RGGB) fotodiody, nie pokrywające się ?
Skądże. Chcę powiedzieć, ze wbrew pozorom obraz z matrycy bayera zawiera tyle samo UŻYTECZNEJ informacji co obraz z matrycy foveon.
Cała reszta leży powyżej częstotliwości nyquista więc zamiast informacji użytecznej zawiera MOIRĘ, ALIASING i SCHODKOWANIE (w zasadzie to synonimy są)
Marian napisał/a:
Tu się mylisz. Filtr AA nie jest konieczny jeśli rozdzielczość matrycy jest większa od rozdzielczości obiektywu.
Nieprawda.
Nie chce mi się tego udawadniać dla własnej satysfakcji a mam wrażenie że Ciebie i tak nie przekonam. Na pocieszenie powiem, że rozdzielczość obiektywów będzie jeszcze długo większa niż matryc. Pozatym po co konstruować matrycę, której rodzielczości nie da się wykorzystać ?
Pozatym filtr AA wcale nie jest konieczny. Ale jak z niego zrezygnujesz masz gwarantowany aliasing. Co prawda aliasing w forveonie jest przyjemniejszy niż w bayerze bo nie pojawiają się barwne artefakty. Ale aliasing jest aliasingiem i kropka.
Marian napisał/a:
No to po co w takim razie "nadymać" obraz wspólnymi sensorami?
Dlaczego uważasz że wspólne sensory cokolwiek nadymają ? A są wspólne bo tak jest taniej.
Marian napisał/a:
A w Bayerowskiej matrycy co dla ciebie jest pikselem? Pojedyncza fotodioda, czy jakaś czwórka fotodiod?
Przykro mi, że mój post nie został dokładnie przeczytany.
Matryca ma monochromatyczne sensory o kolorach R G B. Tych G jest dwa razy więcej. Piksel obrazu wynikowego tworzony jest na podstawie informacji z czerech sensorów. Każde dwa sąsiadujące piksele mają po dwa sensory wspólne.
rozdzielczość obiektywów będzie jeszcze długo większa niż matryc.
Czy aby na pewno? Może ja źle rozumuję, ale z testów na Optycznych wywnioskowałem coś dokładnie odwrotnego. Najlepsze obiektywy osiągały najwyższą teoretyczną rozdzielczość wynikającą z parametrów matrycy, a te słabsze - nie. Czy źle zrozumiałem?
Poza tym ktoś wspominał tu też o krążku rozproszenia, który obecnie pokrywa więcej niż jeden piksel matrycy.
Arv [Usunięty]
Wysłany: Pon 03 Gru, 2007
komor napisał/a:
Arv napisał/a:
rozdzielczość obiektywów będzie jeszcze długo większa niż matryc.
Czy aby na pewno? Może ja źle rozumuję, ale z testów na Optycznych wywnioskowałem coś dokładnie odwrotnego. Najlepsze obiektywy osiągały najwyższą teoretyczną rozdzielczość wynikającą z parametrów matrycy, a te słabsze - nie. Czy źle zrozumiałem?
Zwróć uwagę ile jest takich obiektywów w testach, których wykres dobiega w najwyższym punkcie do maksimum rozdzielczości matrycy. Założę się, że więcej niż 75%.
Pozatym teraz mamy modę na Full Frame. Upłynie duuuużo wody w Wiśle zanim upakowanie pikseli na 35 mm sięgnie gęstości pikseli w matrycy Olympusa ;-).
Czy chcesz powiedzieć, że dzięki temu obraz zawiera więcej informacji od obrazu, w którym każdy piksel tworzą cztery oddzielne (RGGB) fotodiody, nie pokrywające się ?
...1... Skądże. Chcę powiedzieć, ze wbrew pozorom obraz z matrycy bayera zawiera tyle samo UŻYTECZNEJ informacji co obraz z matrycy foveon.
Marian napisał/a:
Tu się mylisz. Filtr AA nie jest konieczny jeśli rozdzielczość matrycy jest większa od rozdzielczości obiektywu.
...2... Nieprawda.
Nie chce mi się tego udawadniać dla własnej satysfakcji a mam wrażenie że Ciebie i tak nie przekonam. Na pocieszenie powiem, że rozdzielczość obiektywów będzie jeszcze długo większa niż matryc. Pozatym po co konstruować matrycę, której rodzielczości nie da się wykorzystać ?
Pozatym filtr AA wcale nie jest konieczny. Ale jak z niego zrezygnujesz masz gwarantowany aliasing. Co prawda aliasing w forveonie jest przyjemniejszy niż w bayerze bo nie pojawiają się barwne artefakty. Ale aliasing jest aliasingiem i kropka.
Marian napisał/a:
No to po co w takim razie "nadymać" obraz wspólnymi sensorami?
...3... Dlaczego uważasz że wspólne sensory cokolwiek nadymają ? A są wspólne bo tak jest taniej.
ad.1
Niepotrzebnie wydaje mi się przenosisz rozważania na matrycę Foveon i Sigmę.
Dajmy im spokój. Interesuje mnie coś bardziej ogólnego.
To co mnie interesuje to nie Sigma czy Foveon, tylko jakie rozmiary obrazu wybrać w ustawieniach aparatu przed zrobieniem zdjęcia. I tutaj dochodzę do wniosku że jeśli w aparacie mam filtr Bayera, to optymalnie będzie wybrać takie rozmiary, które odpowiadają połowie podawanych przez producenta poziomych i pionowych ilości pikseli (a właściwie fotodiod) matrycy. Dlaczego? Bo ilość użytecznej informacji jest taka jak dla obrazu o maksymalnych wymiarach.
ad.2
Nie należę do ludzi, którzy nie zmieniają zdania, jeśli okaże się że się mylę.
Im dłużej rozdzielczość matryc będzie mniejsza od rozdzielczości obiektywów, tym dłużej będę używał filmów, a nie matryc.
Po co matryce o większej rozdzielczości? Wykorzysta się je np. do wyeliminowania mory i ostrzejszych zdjęć dzięki rezygnacji z filtru AA.
ad.3
"Nadymanie" czyli powiększanie liczby pikseli które nie zwiększają w obrazie ilości użytecznej informacji.
Mam tylko jedno pytanie: jeżeli wg. Ciebie niektóre piksele są interpolowane na podstawie innych, dlaczego na najwyższych czułościach widać szum o jednopikselowym ziarnie?
Mam tylko jedno pytanie: jeżeli wg. Ciebie niektóre piksele są interpolowane na podstawie innych, dlaczego na najwyższych czułościach widać szum o jednopikselowym ziarnie?
Nie potrafię odpowiedzieć. Chyba jedno drugiego nie wyklucza. Poza tym algorytmy interpolacji okryte są tajemnicą. Sam jestem ciekaw co oni ukrywają.
Arv [Usunięty]
Wysłany: Pon 03 Gru, 2007
Marian napisał/a:
I tutaj dochodzę do wniosku że jeśli w aparacie mam filtr Bayera, to optymalnie będzie wybrać takie rozmiary, które odpowiadają połowie podawanych przez producenta poziomych i pionowych ilości pikseli (a właściwie fotodiod) matrycy. Dlaczego? Bo ilość użytecznej informacji jest taka jak dla obrazu o maksymalnych wymiarach.
Niestety nie.
Aby zapisać cyfrowo użyteczną informację bez przekłamywania jej - trzeba (w uproszczeniu) podwoić liczbę próbek. Dlatego aby płytka CD przenosiła dźwięk o częstotliwości 22kHz, częstotliwość próbkowania wynosi 44kHz.
Jak zmniejszysz częstotliwość próbkowania do 22kHz to najwyższy dźwięk jaki będzie można prawidłowo zapisać będzie miał częstotliwość 11kHz. Talerze perkusji nie będą już brzmiały tak samo.
To samo jest w fotografii cyfrowej. Zdjęcie z każdej matrycy faktycznie przenosi prawidłowo detale o rozmiarze dwu pikseli. Ale jak je zmniejszysz o połowę (wysokość i szerokość) to utracisz kolejne detale (co empirycznie pokazał wyżej Arek).
Znalazłem przypadkiem lepszy przykład jak to może wyglądać na obrazie:
I tutaj dochodzę do wniosku że jeśli w aparacie mam filtr Bayera, to optymalnie będzie wybrać takie rozmiary, które odpowiadają połowie podawanych przez producenta poziomych i pionowych ilości pikseli (a właściwie fotodiod) matrycy. Dlaczego? Bo ilość użytecznej informacji jest taka jak dla obrazu o maksymalnych wymiarach.
Niestety nie.
...
Znalazłem przypadkiem lepszy przykład jak to może wyglądać na obrazie:
Przykład który podajesz ilustruje coś zupełnie innego od tego o czym ja piszę. Ilustruje niepoprawny downsampling. Cytat ze strony z przykładem:
"A brick wall demonstrating a Moiré pattern when badly downsampled."
Pomógł: 22 razy Posty: 5163 Skąd: Chełm I stolica PRL!
Wysłany: Wto 04 Gru, 2007
Może Optyczni zrobią test Sigmy i wiele się wyjaśni...
Arv [Usunięty]
Wysłany: Wto 04 Gru, 2007
Marian napisał/a:
Przykład który podajesz ilustruje coś zupełnie innego od tego o czym ja piszę. Ilustruje niepoprawny downsampling. Cytat ze strony z przykładem:
"A brick wall demonstrating a Moiré pattern when badly downsampled."
Przecież ja nie piszę o downsamplingu.
Jak to nie ?
Piszesz o zmniejszeniu rozdzielczości. Przecież to downsampling.
Może nie "bad downsampling" ale zawsze ... ;-)
Przykład który podajesz ilustruje coś zupełnie innego od tego o czym ja piszę. Ilustruje niepoprawny downsampling. Cytat ze strony z przykładem:
"A brick wall demonstrating a Moiré pattern when badly downsampled."
Przecież ja nie piszę o downsamplingu.
Jak to nie ?
Piszesz o zmniejszeniu rozdzielczości. Przecież to downsampling.
Może nie "bad downsampling" ale zawsze ...
W takim razie spróbuję to wyjaśnić inaczej.
Oznaczmy przez x ilość fotodiod matrycy poziomo, a przez y ilość fotodiod matrycy pionowo, w matrycach z filtrem Bayera.
x*y to zatem zwykle rozmiar podawany jako rozmiar matrycy (pisze się zwykle że jest wyrażony w pikselach), i zwykle jest to największy możliwy do wybrania w ustawieniach aparatu rozmiar obrazu w pikselach.
Przyjmijmy że mówimy o matrycach kolorowych i że przez piksel rozumiemy obiekt dostarczający informacji o trzech kolorach R (czerwonym) G (zielonym) i B (niebieskim).
Matryca z filtrem Bayera dostarcza użytecznej informacji o x/2*y/2 trójkolorowych pikseli typu RGGB, czyli o x*y/4 trójkolorowych pikseli RGGB.
Jeśli wybierasz w ustawieniach aparatu rozmiar obrazu x*y to algorytmy aparatu robią z tych x*y/4 pikseli RGGB cztery razy więcej pikseli RGB, czyli czterokrotnie powiększają liczbę trójkolorowych pikseli. Zatem mamy do czynienia z przeciwieństwem downsamplingu, nazwijmy to upsamplingiem (powiększaniem ilości pikseli).
Problem o którym piszę, to zatem robienie przez aparat, gdy wybierzemy rozmiary x*y w ustawieniach aparatu, na podstawie tej samej ilości informacji, z tej samej ilości fotodiod, czterokrotnie większej ilości trójkolorowych pikseli.
Zatem nie ja robię downsampling, tylko aparat robi upsampling.
Mam nadzieję, że teraz już jest jasne, że ja nie robię żadnego downsamplingu wybierając w ustawieniach aparatu dostępny tam rozmiar obrazu x/2*y/2
Pomógł: 22 razy Posty: 5163 Skąd: Chełm I stolica PRL!
Wysłany: Wto 04 Gru, 2007
Tylko pytanie, czy aparat sie tym przejmuje, że nastawisz dwa razy mniejszą rozdzielczość. Bo może jak napisał Arek odczyt z matrycy jest pełny, a soft dopiero dokonuje zmniejszenia...
I to zapisując w JPG, bo tylko niektóre aparaty mają sRAW.
Arv [Usunięty]
Wysłany: Wto 04 Gru, 2007
Marian napisał/a:
Przyjmijmy że mówimy o matrycach kolorowych i że przez piksel rozumiemy obiekt dostarczający informacji o trzech kolorach R (czerwonym) G (zielonym) i B (niebieskim).
Matryca z filtrem Bayera dostarcza użytecznej informacji o x/2*y/2 trójkolorowych pikseli typu RGGB, czyli o x*y/4 trójkolorowych pikseli RGGB.
Jeśli wybierasz w ustawieniach aparatu rozmiar obrazu x*y to algorytmy aparatu robią z tych x*y/4 pikseli RGGB cztery razy więcej pikseli RGB, czyli czterokrotnie powiększają liczbę trójkolorowych pikseli. Zatem mamy do czynienia z przeciwieństwem downsamplingu, nazwijmy to upsamplingiem (powiększaniem ilości pikseli).
W tym miejscu Twoje rozumowanie jest błędne.
Matryce nie działają tak, że informacja z czterech sensorów tworzy tylko jeden piksel. W ten sposób tracilibyśmy wiele cennej informacji która związana jest z rozmieszczeniem poszczególnych sensorów.
Wykonaj na sobie prosty eksperyment medyczny ;-) Trzymając nieruchomo głowę i oczy zamknij na chwilę oko lewe - widzisz tylko lewą stronę. Otwórz lewe a zamknij prawe. Widzisz tylko prawą.
A teraz otwórz szeroko oczy i zastanów się jakie byłoby marnotrawstwo informacji gdyby mózg brał pod uwagę jedynie to co jest w zasięgu wzroku obu oczu jednocześnie !!!
Oprogramowanie tworzące obraz z pliku RAW też nie marnotrawi żadnej informacji.
Obraz jaki powstaje w wyniku przetworzenia danych z matrycy ma rozdzielczość odpowiadającą rozdzielczości matrycy. Ponieważ obraz ten ma postać cyfrową podlega tym samym prawom, którym podlegają inne próbkowane materiały cyfrowe takie jak dźwięk, video, obrazy ze skanera czy matrycy w innej technologii. Wszystkich próbkowanych materiałów dotyczy twierdzenie Shanonna-Kotielnikowa. A z twierdzenia tego wynika, że szczegóły obrazu o rozmiarze mniejszym niż dwa piksele są zniekształcone. (Bez względu na sposób powstawania rastrowego cyfrowego obrazu - nawet czterokrotne zmniejszenie rozdzielczości tego nie zmieni.)
Ponadto wiadomo, że oko "nie dba" o kolory pojedyńczych punkcików. Kolory pojedyńczych punkcików 'zlewają' się w barwne plamy.
Wniosek z tych dwu faktów jest taki, że obraz prawie nic nie traci gdy sąsiednie piksele "pożyczają" sobie informacje o kolorze.
I to zapisując w JPG, bo tylko niektóre aparaty mają sRAW.
A czy konwertery RAWów pozwalają zadecydować że np. rozmiar obrazu TIFF ma być x/2×y/2 i że na piksel zapisywanego jako TIFF obrazu mają się składać informacje z czterech fotodiod RGGB?
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach Nie możesz załączać plików na tym forum Możesz ściągać załączniki na tym forum
forum.optyczne.pl wykorzystuje pliki cookies, które są zapisywane na Twoim komputerze.
Technologia ta jest wykorzystywana w celach reklamowych i statystycznych.
Pozwala nam określać zachowania użytkowników na stronie, dostarczać im odpowiednie treści oraz reklamy,
a także ułatwia korzystanie z serwisu, np. poprzez funkcję automatycznego logowania.
Pliki cookies mogą też być wykorzystywane przez współpracujących z nami reklamodawców, a także przez narzędzie Google Analytics, które jest przez nas wykorzystywane do zbierania statystyk.
Korzystanie z serwisu Optyczne.pl przy włączonej obsłudze plików cookies jest przez nas traktowane, jako wyrażenie zgody na zapisywanie ich w pamięci urządzenia, z którego korzystasz.
Jeżeli się na to nie zgadzasz, możesz w każdej chwili zmienić ustawienia swojej przeglądarki. Przeczytaj, jak wyłączyć pliki cookie i nie tylko »
Strona wygenerowana w 0,06 sekundy. Zapytań do SQL: 15