Wykorzystujemy pliki cookie do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie, a także do prawidłowego działania i wygodniejszej obsługi. Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług i innych witryn.
Masz możliwość zmiany preferencji dotyczących ciasteczek w swojej przeglądarce internetowej. Jeśli więc nie wyrażasz zgody na zapisywanie przez nas plików cookies w twoim urządzeniu zmień ustawienia swojej przeglądarki, lub opuść naszą witrynę.
Jeżeli nie zmienisz tych ustawień i będziesz nadal korzystał z naszej witryny, będziemy przetwarzać Twoje dane zgodnie z naszą Polityką Prywatności. W dokumencie tym znajdziesz też więcej informacji na temat ustawień przeglądarki i sposobu przetwarzania twoich danych przez naszych partnerów społecznościowych, reklamowych i analitycznych.
Zgodę na wykorzystywanie przez nas plików cookies możesz cofnąć w dowolnym momencie.
Bo rozdzielczość i dokładność to dwa różne pojęcia
Jak bierzemy pod uwagę tylko rozdzielczość i zapominamy o dokładności (czy tez określeniu błędu pomiarowego) to daleko nie zajdziemy. Tzn dojdziemy do wątpliwych rezultatów
Chodzilo mi raczej o wyjasnienie, a nie zagmatwanie Jak juz ciagniemy to przez kilka stron to dokonczmy, bo jak nie to za jakis czas znowu sie zacznie
Chodzilo mi raczej o wyjasnienie, a nie zagmatwanie Jak juz ciagniemy to przez kilka stron to dokonczmy, bo jak nie to za jakis czas znowu sie zacznie
Też jestem tego zdania Usjwo, ale zdaje się, że wchodzimy w interpretacje techniki, o której mało wiemy, a zaczynamy stosować filozofię i własne domniemania. Filozofia nie jest naszym sprzymierzeńcem.
Tak naprawdę sposób demozaikowania, opisany przez hijax_pl nie musi mieć nic wspólnego z prawdą bo metod jest wiele i są ciągle doskonalone.
Tak czy inaczej stwierdzenie, że w matrycy 12Mpix otrzymac możemy w zasadzie 1/4 rozdzielczości jest dyskusyjne, choćby z uwagi na to, że podczas demozaikowania jest wyznaczany każdy pixel w liczbie, odpowiadajcej pełnej rozdzielczości matrycy i każdy niesie inną informację, składającą sie na cały obrazek. To nie jest tak, że wpierw wyznaczany jest umownie a, potem c, a na końcu środkowy b, wynikający z aproksymacji a i c.
Przykład z czernią i bielą i szarością pomiędzy, nie jest tylko teorią, stawianą tu przez hijax_pl jako ułomność "systemu", a praktycznie ma miejsce w rzeczywistości i z tego względu nie powinien to być argumentem w dyskusji. Czy i kiedy w praktyce matryca rejestruje obraz gdzie jeden pixel jest oświetlony max, a sąsiedni wogóle? Nawet fotografując monochromayczne i bardzo kontrastowe tablice testowe tak sie nie stanie. Mikrosoczewki maja przecież swoja średnicę i zazwyczaj granica kontrastowego obrazu wychodzi (przechodzi) na ich powierzchniach, a nie idealnie pomiędzy. Więc dla mnie to właśnie filozofia.
Fotografia cyfrowa, z zasady rastrowa (dyskretna), zawsze w praktyce, pomiędzy czernią i bielą da na którymś rzędzie pixeli szarość bez względu na rodzaj matrycy w aparacie.
W teoretycznym idelany rozwazaniu:
3744 senseli daje nam 3744 lw/ph (zakladamy ze istnieje jeszcze ten dodatkowy rzad dla lini brzegowych) czyli daje to 3744/2/24 = 78 lp/mm.
Zgadza się - możemy takie założenie przyjąć. Wtedy wartość 78lp/mm jest naszą rozdzielczością układu pomiarowego. Jednak w związku z układami AA, procesem demozaikowania, aberracjami na mikrosoczewkach i pewnie milionem innych czynników - ta wartość 78 par linii będzie nieosiągalna. Dlatego wykonuje się pomiar aby wyznaczyć dokładność obrazowania korpusu. I powiedzmy wyjdzie wynik 45lp/mm.
To tak samo jak z 6-bit matrycami TN w tanich monitorach LCD. Sygnał RGB docierający do ekranu kablem DVI przeniesie informacje z rozdzielczością 8bit na składową (kolo 24bit), jednak z uwagi na konstrukcję matrycy LCD - ekran wyświetli tylko 6 bitów czyli kolor będzie reprezentowany z mniejszą dokładnością - mamy widoczny banding. Czyli z palety 16mln kolorów widzimy tylko 262tyś - czyli 64x mniej kolorów. Dokładność reprezentacji koloru w tym przykładzie wynosi 6bit.
O ile dobrze pamiętam to rozdzielczości najlepszych klisz były na poziomie 70-100lp/mm. jak widać lustrzankom cyfrowym daleko do takiego wyniku. Mimo że rozdzielczością matrycy już nie - bo to wychodzi jakieś 35Mpx dla 100lp/mm. Takie matryce już są "za progiem". Gorzej że efektywna rozdzielczość matryc (dokładność obrazowania detali) jest na dużo niższym poziomie więc do rozdzielczość klatki 135 jeszcze daaaaleko. Jako przykład podam porównanie 7D i D300s zrobione przez miesięcznik DFV - wynika z niego że 18Mpx rozdzielczość 7D nie przekłada się na lepszą jakość zdjęć przy porównaniu z 12Mpx matrycą D300s.
[ Dodano: Sro 10 Mar, 2010 18:16 ]
B o g d a n napisał/a:
Tak naprawdę sposób demozaikowania, opisany przez hijax_pl nie musi mieć nic wspólnego z prawdą bo metod jest wiele i są ciągle doskonalone.
Oczywiście. Nie zmienia to jednak faktu że ten sam pojedynczy sensel jest wykorzystywany do wyznaczania co najmniej 4 pikseli. I to jest coś co mi przeszkadza.
B o g d a n napisał/a:
To nie jest tak, że wpierw wyznaczany jest umownie a, potem c, a na końcu środkowy b, wynikający z aproksymacji a i c.
To Twoja interpretacja, ja tego nie napisałem
B o g d a n napisał/a:
Przykład z czernią i bielą i szarością pomiędzy, nie jest tylko teorią, stawianą tu przez hijax_pl jako ułomność "systemu", a praktycznie ma miejsce w rzeczywistości i z tego względu nie powinien to być argumentem w dyskusji.
Jest to ułomność jeśli się porówna do pomysłu Foveona. Przykładzik? Proszę bardzo, i od razu zapraszam do oglądania na największym powiększeniu
UWAGA: plik podlinkowany ma 4.5MB!
To zdjęcie przykładowe z SD14, matryca Foveon X3 o rozdzielczości 1760x2640 px czyli 4,2mln pikseli, czyli 12mln senseli.
B o g d a n napisał/a:
Czy i kiedy w praktyce matryca rejestruje obraz gdzie jeden pixel jest oświetlony max, a sąsiedni wogóle?
Technicznie niemożliwe jednak możliwe jest że będzie to 70% i 58%, a punkt pomiędzy zostanie wyliczony jako np 61%.
No teraz to poszedles za gleboko
Chcialem tylko potwierdzic co wczesniej napisalem.
Idealna matryca 5DII dala by nam 76lp/mm (przelczenia juz pominmy bo ile mozna)
i powyzej tego jest fizycznie niemozliwe. Z testow otrzymujemy 42lp/mm poniewaz filtry, demozaikowanie itp. niedokladnosci matrycy.
Przy 42lp/mm daje nam to mniej wiecej na jedna linie 1.85 pixla (srednio, bo zaraz ktos sie przyczepi ze nie moze byc podzialu lini w 0.85 pixla ). Co przy wszystkich tych problemach wydaje mi sie jest wynikiem bardzo dobrym. Oznacza to ze i tak czesc lini ma grubosc 1 pixla i dalsza walka z rozdzielczoscia to walka z wiatrakami, szczegolnie w Bayeroskiej matrycy, gdzie dla dwoch sasiednich senseli 50% informacji z jakich sa obliczane jest taka sama.
Ufff... mam nadzieje ze jeszcze bardziej nie namieszalem
To zdjęcie przykładowe z SD14, matryca Foveon X3 o rozdzielczości 1760x2640 px czyli 4,2mln pikseli, czyli 12mln senseli.
Tak swoją drogą to dociekliwym polecam zabawę programem dcraw i wywołanie jakiegoś RAWa z opcją "-h". Dla 12Mpx matrycy wynikowy PNG czy TIFF będzie miał tyl;ko 3mln pikseli ale jaka będzie rozdzielczość koloru... - zupełnie jak u Foveona
Nawet fotografując monochromayczne i bardzo kontrastowe tablice testowe tak sie nie stanie. Mikrosoczewki maja przecież swoja średnicę i zazwyczaj granica kontrastowego obrazu wychodzi (przechodzi) na ich powierzchniach, a nie idealnie pomiędzy.
To co piszesz, Bogdanie, jest jedną z przesłanek czemu realna rozdzielczość matrycy ma tak niewiele wspólnego z ilością pikseli zapisywaną w pliku.
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach Nie możesz załączać plików na tym forum Możesz ściągać załączniki na tym forum
forum.optyczne.pl wykorzystuje pliki cookies, które są zapisywane na Twoim komputerze.
Technologia ta jest wykorzystywana w celach reklamowych i statystycznych.
Pozwala nam określać zachowania użytkowników na stronie, dostarczać im odpowiednie treści oraz reklamy,
a także ułatwia korzystanie z serwisu, np. poprzez funkcję automatycznego logowania.
Pliki cookies mogą też być wykorzystywane przez współpracujących z nami reklamodawców, a także przez narzędzie Google Analytics, które jest przez nas wykorzystywane do zbierania statystyk.
Korzystanie z serwisu Optyczne.pl przy włączonej obsłudze plików cookies jest przez nas traktowane, jako wyrażenie zgody na zapisywanie ich w pamięci urządzenia, z którego korzystasz.
Jeżeli się na to nie zgadzasz, możesz w każdej chwili zmienić ustawienia swojej przeglądarki. Przeczytaj, jak wyłączyć pliki cookie i nie tylko »
Strona wygenerowana w 0,06 sekundy. Zapytań do SQL: 9