Wykorzystujemy pliki cookie do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie, a także do prawidłowego działania i wygodniejszej obsługi. Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług i innych witryn.
Masz możliwość zmiany preferencji dotyczących ciasteczek w swojej przeglądarce internetowej. Jeśli więc nie wyrażasz zgody na zapisywanie przez nas plików cookies w twoim urządzeniu zmień ustawienia swojej przeglądarki, lub opuść naszą witrynę.
Jeżeli nie zmienisz tych ustawień i będziesz nadal korzystał z naszej witryny, będziemy przetwarzać Twoje dane zgodnie z naszą Polityką Prywatności. W dokumencie tym znajdziesz też więcej informacji na temat ustawień przeglądarki i sposobu przetwarzania twoich danych przez naszych partnerów społecznościowych, reklamowych i analitycznych.
Zgodę na wykorzystywanie przez nas plików cookies możesz cofnąć w dowolnym momencie.
Tylko pytanie, czy aparat sie tym przejmuje, że nastawisz dwa razy mniejszą rozdzielczość. Bo może jak napisał Arek odczyt z matrycy jest pełny, a soft dopiero dokonuje zmniejszenia...
Tego niestety nie wiemy. Gdyby tak było to uważam to za złe rozwiązanie, wręcz karkołomne, wykonujące niepotrzebne obliczenia.
Oczywiście karkołome tylko w przypadku ustawienia przez użytkownika rozmiaru x/2×y/2 obrazu.
Ostatnio zmieniony przez Marian Wto 04 Gru, 2007, w całości zmieniany 2 razy
Przyjmijmy że mówimy o matrycach kolorowych i że przez piksel rozumiemy obiekt dostarczający informacji o trzech kolorach R (czerwonym) G (zielonym) i B (niebieskim).
Matryca z filtrem Bayera dostarcza użytecznej informacji o x/2*y/2 trójkolorowych pikseli typu RGGB, czyli o x*y/4 trójkolorowych pikseli RGGB.
Jeśli wybierasz w ustawieniach aparatu rozmiar obrazu x*y to algorytmy aparatu robią z tych x*y/4 pikseli RGGB cztery razy więcej pikseli RGB, czyli czterokrotnie powiększają liczbę trójkolorowych pikseli. Zatem mamy do czynienia z przeciwieństwem downsamplingu, nazwijmy to upsamplingiem (powiększaniem ilości pikseli).
W tym miejscu Twoje rozumowanie jest błędne.
Matryce nie działają tak, że informacja z czterech sensorów tworzy tylko jeden piksel.
Mnie się wydaje że tego nie wiemy, chyba że ty skądś wiesz? Chodzi mi oczywiście tylko o to jedno jedyne ustawienie rozmiarów, to którym cały czas się zajmuję, czyli ustawienie w aparacie rozmiaru x/2×y/2
Arv [Usunięty]
Wysłany: Wto 04 Gru, 2007
Marian napisał/a:
Arv napisał/a:
Matryce nie działają tak, że informacja z czterech sensorów tworzy tylko jeden piksel.
Mnie się wydaje że tego nie wiemy, chyba że ty skądś wiesz?
A czy konwertery RAWów pozwalają zadecydować że np. rozmiar obrazu TIFF ma być x/2×y/2 i że na piksel zapisywanego jako TIFF obrazu mają się składać informacje z czterech fotodiod RGGB?
Możesz też przerobić sobie zaimplementowany tam algorytm zgodnie z własnymi pomysłami.
Jeżeli będzie lepszy - to jeszcze zarobisz kupę szmalu ;-)
Rzeczywiście prawda jest jeszcze okrutniejsza, że takimi metodami kreuje się obrazy mające odzwierciedlać rzeczywistość, że tyle zbytecznej pracy jest wykonywane. Ale dzięki temu można się pochwalić większą ilością pikseli w obrazie, i utwierdzić użytkownika w przekonaniu, że otrzymuje bardziej szczegółowy obraz rzeczywistości, a więc w domyśle wierniejszy niż faktycznie nim jest.
W przypadku skomplikowanych obrazów, szczegółowych i niezawierających regularności w rozłożeniu kolorów te algorytmy niewiele dadzą, ponad to co można uzyskać traktując cztery fotodiody RGGB jako jeden piksel. W przypadku prostych obrazów tym bardziej są zbyteczne. Jeśli naszym celem jest jak najwierniejsze oddanie rzeczywistości. Chyba że nie o to chodzi, a o "wypchanie" plików dużą ilością pikseli.
Arv [Usunięty]
Wysłany: Sro 05 Gru, 2007
Marian napisał/a:
Arv napisał/a:
Ja potrafię dostrzec, że tak jest. Choćby po przykładzie Arka w tym wątku.
W plikach o rozmiarach x/2×y/2 utworzonych przez aparat? Arek takiego pliku nie przedstawił. Przedstawił przeskalowany. Zmuszony jestem założyć, że pewności nie masz, tylko się domyślasz.
Mam. Bo wiem, że nie ma różnicy.
Nie wiem czy się orientujesz ale to co rejestruje matryca zapisywane jest w plikach typu RAW. Plik RAW w moim aparacie ma zawsze taką samą rozdzielczość - i jest to rozdzielczość matrycy.
To co się dzieje potem (czyli algorytm zmiany RAW w JPG) można robić w aparacie, można na komputerze. Można nawet porównać efekt działania różnych algorytmów.
Marian zrób dwa zdjęcia Twoim Nikonem. Jedno w normalnym rozmiarze. Drugie tak jak uważasz - w aparacie. Potem to w normalnym rozmiarze przeskaluj na komputerze tak jak Arek i pokaż różnicę.
Udowodnisz, że masz rację i utniesz niepotrzebne dyskusje.
Marian napisał/a:
Rzeczywiście prawda jest jeszcze okrutniejsza, że takimi metodami kreuje się obrazy mające odzwierciedlać rzeczywistość, że tyle zbytecznej pracy jest wykonywane. Ale dzięki temu można się pochwalić większą ilością pikseli w obrazie, i utwierdzić użytkownika w przekonaniu, że otrzymuje bardziej szczegółowy obraz rzeczywistości, a więc w domyśle wierniejszy niż faktycznie nim jest.
W przypadku skomplikowanych obrazów, szczegółowych i niezawierających regularności w rozłożeniu kolorów te algorytmy niewiele dadzą, ponad to co można uzyskać traktując cztery fotodiody RGGB jako jeden piksel. W przypadku prostych obrazów tym bardziej są zbyteczne. Jeśli naszym celem jest jak najwierniejsze oddanie rzeczywistości. Chyba że nie o to chodzi, a o "wypchanie" plików dużą ilością pikseli.
Twoja teoria i propozycja nowego algorytmu konwersji RAW jest bardzo interesująca. Chciałbym abyś udowodnił Twoją tezę i pokazał, że Ci wszyscy, którzy opracowywali algorytmy konwersji RAW dbali tylko o marketingowy efekt megapiksela a nie rzeczywistą jakość obrazu. (Co byłoby szczególnie oburzające w przypadku autora opensource'owego dcraw'a).
Marian - pokaż co potrafisz. Czekam na zmodyfikowaną wersję dcraw, która konwertuje RAW na JPG Twoim algorytmem. Arek z pewnością przeprowadzi testy. Pokażemy, że Polak potrafi.
Jeżeli nie znasz C - polecam książki "ANSI C" Ritchiego i Kernigana oraz "Symfonia C++" Grębosza (ta ostatnia rządzi).
Nauczenie się 50ciu dyrektyw C to przecież pestka w porównaniu z matematyką potrzebną do przeliczenia RAW na JPG.
80% masz zrobione w dcraw. W zasadzie wystarczy przyjrzeć się jak dcraw ładuje RAW do pamięci, z czego robi jpg oraz napisać jedną, może dwie proste funkcje ..... Wierzę, że autor dcraw'a chętnie Ci pomoże.
Ja już więcej Ci nie wytłumaczę, bo obawiam się, że mam za małą wiedzę na Twoim poziomie rozumowania. Więc do czasu opublikowania pierwszych przykładów - z mojej strony EOT.
Marian zrób dwa zdjęcia Twoim Nikonem. Jedno w normalnym rozmiarze. Drugie tak jak uważasz - w aparacie. Potem to w normalnym rozmiarze przeskaluj na komputerze tak jak Arek i pokaż różnicę.
Ja już robiłem zdjęcia, zanim utworzyłem wątek. Tyle że zrobiłem najpierw zdjęcie w rozmiarze x/2×y/2 a następnie w rozmiarze x×y. Nic w nich, czyli w tym co aparat zrobił, nie zmieniałem. Każde oglądałem na widoku 100%. I co zobaczyłem? To większe było mniej ostre w stosunku do mniejszego, a poza tym nie potrafiłem w nim znaleźć żadnych dodatkowych szczegółów, których by nie było w mniejszym. Dlatego podjąłem ten wątek. Założyłem wątek m. in. dlatego, że może ktoś ma zdjęcia pokazujące coś czego ja się nie doszukałem. Przecież nie upieram się że mam rację jeśli są takie zdjęcia.
Porzucę swoją hipotezę jeśli istnieją zdjęcia, w których można się doszukać informacji, której nie zawiera mniejszy plik.
Zdjęcie Arka nie ilustruje tego o czym piszę, bo powstało poprzez przeskalowanie, i to w dół (downsampling), większego pliku na mniejszy.
Najlepiej byłoby wiedzieć, jakiej metody tworzenia trójkolorowego piksela używa producent aparatu do zapisu zdjęcia o rozmiarach x/2×y/2. Jeśli robi tak jak Arek, czyli z większego x×y, przez downsampling, robi mniejsze to korzystanie z opcji x/2×y/2 nie miałoby sensu.
Wydaje mi się że jednak może robić to inaczej. Dlaczego? Dlatego że nie widzę aby mniejsze (x/2×y/2) obrazy z moich aparatów miały mniej informacji od tych x×y, a na pewno w 100% widoku są mniej ostre.
Mam nadzieję, że teraz będzie już jasne, że ani nie utworzyłem, ani nie ciągnę tego wątku, ot tak sobie.
Natomiast ani moje aktualne umiejętności, ani ilość wolnego czasu, nie pozwalają mi na tworzenie własnego programu konwersji plików RAW.
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach Nie możesz załączać plików na tym forum Możesz ściągać załączniki na tym forum
forum.optyczne.pl wykorzystuje pliki cookies, które są zapisywane na Twoim komputerze.
Technologia ta jest wykorzystywana w celach reklamowych i statystycznych.
Pozwala nam określać zachowania użytkowników na stronie, dostarczać im odpowiednie treści oraz reklamy,
a także ułatwia korzystanie z serwisu, np. poprzez funkcję automatycznego logowania.
Pliki cookies mogą też być wykorzystywane przez współpracujących z nami reklamodawców, a także przez narzędzie Google Analytics, które jest przez nas wykorzystywane do zbierania statystyk.
Korzystanie z serwisu Optyczne.pl przy włączonej obsłudze plików cookies jest przez nas traktowane, jako wyrażenie zgody na zapisywanie ich w pamięci urządzenia, z którego korzystasz.
Jeżeli się na to nie zgadzasz, możesz w każdej chwili zmienić ustawienia swojej przeglądarki. Przeczytaj, jak wyłączyć pliki cookie i nie tylko »
Strona wygenerowana w 0,04 sekundy. Zapytań do SQL: 15