Przetwarzanie danych osobowych

Nasza witryna korzysta z plików cookies

Wykorzystujemy pliki cookie do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie, a także do prawidłowego działania i wygodniejszej obsługi. Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług i innych witryn.

Masz możliwość zmiany preferencji dotyczących ciasteczek w swojej przeglądarce internetowej. Jeśli więc nie wyrażasz zgody na zapisywanie przez nas plików cookies w twoim urządzeniu zmień ustawienia swojej przeglądarki, lub opuść naszą witrynę.

Jeżeli nie zmienisz tych ustawień i będziesz nadal korzystał z naszej witryny, będziemy przetwarzać Twoje dane zgodnie z naszą Polityką Prywatności. W dokumencie tym znajdziesz też więcej informacji na temat ustawień przeglądarki i sposobu przetwarzania twoich danych przez naszych partnerów społecznościowych, reklamowych i analitycznych.

Zgodę na wykorzystywanie przez nas plików cookies możesz cofnąć w dowolnym momencie.

optyczne.pl forum.optyczne.pl  
•  FAQ  •  Szukaj  •  Użytkownicy  •  Grupy  •  Statystyki  •  Rejestracja  •  Zaloguj  •  Galerie  •   Ulubione tematy

----- R E K L A M A -----



Poprzedni temat :: Następny temat
Optymalne rozmiary obrazu
Autor Wiadomość
Marian 
Optyczny


Posty: 1467
Wysłany: Nie 02 Gru, 2007   Optymalne rozmiary obrazu

Niestety dopiero niedawno spostrzegłem, że optymalny rozmiar obrazu w aparacie z filtrem Bayera, to obraz o czterokrotnie mniejszej ilości pikseli od maksymalnej, udostępnianej przez producenta.
Przykładowo w mojej lustrzance optymalny rozmiar to 1000×1504, a nie maksymalny podawany przez producenta, czyli 2000×3008.

W gruncie rzeczy jeśli się przez chwilę zastanowić, to nawet nie ma w tym nic dziwnego. Szkoda tylko, że tak długo bezmyślnie i niepotrzebnie ulegało się pogoni za maksymalną liczbą pikseli, ustawiając maksymalny rozmiar zaoferowany przez producenta.

Czy ktoś z Was też to zauważył i takiego dwukrotnie mniejszego x i y używa, jako podstawowego ustawienia?
 
 
Reklama

Pomógł: 0 razy
Posty: 1
Skąd: Optyczne.pl






maziek 
Optyczny
zdjęcia robię głową



Pomógł: 22 razy
Posty: 5163
Skąd: Chełm I stolica PRL!
Wysłany: Nie 02 Gru, 2007   

Dlaczego?
 
 
Marian 
Optyczny


Posty: 1467
Wysłany: Nie 02 Gru, 2007   

maziek napisał/a:
Dlaczego?
Te maksymalne rozmiary są "nafaszerowane" nic nie wnoszącymi (może poza artefaktami) pikselami, powielającymi lecz nie dodającymi nowej informacji o rejestrowanym zjawisku.
Spróbuj porównać oba takie obrazy przy 100 procentowym widoku (ja oglądam na monitorze o rozdzielczości 96 pikseli), a zobaczysz że ten większy jest "rozmazany, nieostry" i zmienia się na normalny jak jego widok ustawisz na 50 procent.
Z kolei nie ma takiego "rozmazania" przy 100 procentowym widoku, gdy oglądasz obraz z Sigmy SD-14 nie stosującej filtru Bayera, a także gdy zmniejszysz maksymalne dostępne w aparacie rozmiary obrazu x i y o połowę, jeśli ten aparat używa filtru Bayera.
 
 
Arv
[Usunięty]

Wysłany: Nie 02 Gru, 2007   

Marian napisał/a:
maziek napisał/a:
Dlaczego?
Te maksymalne rozmiary są "nafaszerowane" nic nie wnoszącymi (może poza artefaktami) pikselami, powielającymi lecz nie dodającymi nowej informacji o rejestrowanym zjawisku.
Spróbuj porównać oba takie obrazy przy 100 procentowym widoku (ja oglądam na monitorze o rozdzielczości 96 pikseli), a zobaczysz że ten większy jest "rozmazany, nieostry" i zmienia się na normalny jak jego widok ustawisz na 50 procent.
Z kolei nie ma takiego "rozmazania" przy 100 procentowym widoku, gdy oglądasz obraz z Sigmy SD-14 nie stosującej filtru Bayera, a także gdy zmniejszysz maksymalne dostępne w aparacie rozmiary obrazu x i y o połowę, jeśli ten aparat używa filtru Bayera.


Nie zgadzam się w całej rozciągłości.
Tak się składa, że oko dużo bardziej szczegółowo rozróżnia jasność od koloru. Fakt ten jest powszechnie wykorzystywany w rozmaitych aplikacjach (telewizory, kompresja jpeg/mpeg, DVD, matryca Bayera).
Dzięki temu aparaty wyposażone w matrycę Bayera osiągają porównywalny (lub lepszy) efekt za ułamek ceny aparatów wyposażonych w matrycę Forveon.
Pozatym, kto ogląda zdjęcia w cropie 100% ?
 
 
Arv
[Usunięty]

Wysłany: Nie 02 Gru, 2007   

Marian - Ty to naprawdę masz jakieś halo na punkcie aparatów Sigmy. Przejrzyj swoje posty:
http://forum.optyczne.pl/...h_author=Marian
:lol: :lol: :lol:
Już raz Cię podejrzewałem o zawoalowany marketing. ;-)
 
 
Marian 
Optyczny


Posty: 1467
Wysłany: Nie 02 Gru, 2007   

Arv napisał/a:

Tak się składa, że oko dużo bardziej szczegółowo rozróżnia jasność od koloru.
No a gdzie ty masz w filtrze Bayera informacje o jasności piksela, skoro każda fotodioda pokryta jest albo R albo G albo B?

Jeśli obraz nie jest "rozmazany", to dlaczego oglądać go z mniejszą ilością szczegółów od tej jaka jest w nim zawarta?

Gdy zauważyłem że wybieram niepotrzebnie maksymalne rozmiary obrazu, ponownie zajrzałem do obrazów z Sigmy, i tam rozmazania nie widać nawet przy widoku 100%. Zajrzyj sam, a polubisz oglądanie wszystkich szczegółów zdjęcia, czyli 100% widok.

Ponownie zapewniam że nie mam nic wspólnego z Sigmą.
 
 
MM 
Temu Panu już podziękujemy
GORSZY SORT POLAKA



Pomógł: 115 razy
Posty: 7589
Skąd: Łódź
Wysłany: Nie 02 Gru, 2007   

Popatrzcie sobie na dobry kadr 1:1 z Canona 5D i możecie nie poznać, że to crop. Tyle o Sigmach i innych bajerach.
 
 
maziek 
Optyczny
zdjęcia robię głową



Pomógł: 22 razy
Posty: 5163
Skąd: Chełm I stolica PRL!
Wysłany: Nie 02 Gru, 2007   

Wg mnie Marian to tez nie masz racji ale postanowiłem to organoleptycznie sprawdzić, zanim tak do końca to wypowiem. Weź jednak pod uwagę, że gdy dla uproszczenia rozpatrywać zdjęcie bw, to ponieważ aparat wie który pixel jakim filtrem jest zasłonięty, to dokonując zwykłego odejmowania jest w stanie stwierdzić jego rzeczywista jasność. Tak więc bez wątpienia w bw masz taką rozdzielczość, ile pixeli. Czy coś się zmienia po dodaniu kolorów? Nic. Ewentualnie mozna mieć zastrzeżenia, że kolory są wydumane a nie prawdziwe (aparat je wydumał). Ale nawet jeśli, to nie ma to żadnego wpływu na rozdzielczość.
 
 
Arek 
Redaktor



Pomógł: 288 razy
Posty: 14008
Skąd: Warszawa
Wysłany: Nie 02 Gru, 2007   

Nie zgodzę się z Marianem. Takie wrażenie można odnieść operując na plikach JPG i to wyostrzonych, gdzie dzieją się cuda. Rzućcie okiem na poniższy rysunek:



Górna część to wycinek 1:1 ze zdjęcia naszej tablicy wykonanego zestawem D200 plus
Sigma 1.4/30 ustawiona na f/5.6. Oczywiście RAW wołany do TIFFa bez wyostrzenia i potem zapisany bezstratnie do PNG. Poniżej ta sama sytuacja przy skalowaniu 2:1. Ja
nie mam wątpliwości gdzie widać więcej.

Dodatkowo narysowałem pionową czerwoną kreskę, żeby pokazać jeszcze jedną rzecz.
Otóż wiele osób krytykując różnego rodzaju testy powołuje się na twierdzenie Shannona
(http://pl.wikipedia.org/wiki/Twierdzenie_Kotielnikowa-Shannona ) mówiące o tym, że
sygnał ciągły może być ponownie odtworzony z sygnału dyskretnego, jeśli był próbkowany z częstotliwością co najmniej dwa razy większą od granicznej częstotliwości swego widma (tzw. częstotliwości Nyqyista). Bezpośrednie zastosowanie tego twierdzenia do danych z aparatów cyfrowych, mówi nam, że na zdjęciach np. z D200
nie powinniśmy zobaczyć niczego poniżej 1300 LWPH. Poziom ten oznaczyłem pionową czerwoną kreską. Bezpośrednie i bezmyślne zastosowanie tego twierdzenia oznacza, że
wszystko po lewej stronie czerwonej kreski to szum i wymysły programistów Nikona. Rzut okiem na poniższy wycinek pokazuje, że tak łatwo nie ma.

Postaram się napisać jakiś artykuł na ten temat, bo zbyt dużo nieporozumień z tego wynika.
 
 
Marian 
Optyczny


Posty: 1467
Wysłany: Nie 02 Gru, 2007   

Arek napisał/a:
Górna część to wycinek 1:1 ze zdjęcia naszej tablicy wykonanego zestawem D200 plus
Sigma 1.4/30 ustawiona na f/5.6. Oczywiście RAW wołany do TIFFa bez wyostrzenia i potem zapisany bezstratnie do PNG. Poniżej ta sama sytuacja przy skalowaniu 2:1. Ja
nie mam wątpliwości gdzie widać więcej.
Wydaje się, że się nie zrozumieliśmy.
Mnie nie chodziło o porównywanie przeskalowanego zdjęcia, tu mniej szczegółów nie musi być czymś zaskakującym, ale o zrobienie zdjęcia z o połowę mniejszymi x i y. I czy takie zdjęcie będzie miało mniej szczegółów od tego z maksymalnymi rozmiarami?
Może masz takie zdjęcie?

Poza tym testowa tablica ma zbyt łatwy dla algorytmów interpolacyjnych rysunek.
 
 
Arek 
Redaktor



Pomógł: 288 razy
Posty: 14008
Skąd: Warszawa
Wysłany: Nie 02 Gru, 2007   

A czym to się różni? Przecież aparat robi zdjęcia zawsze tą samą matrycą, a potem zapisuje w zadanym rozmiarze używając innej elementarnej komórki.
 
 
Marian 
Optyczny


Posty: 1467
Wysłany: Nie 02 Gru, 2007   

Arek napisał/a:
A czym to się różni? Przecież aparat robi zdjęcia zawsze tą samą matrycą, a potem zapisuje w zadanym rozmiarze używając innej elementarnej komórki.
Cztery (2×2) sąsiadujące fotodiody może potraktować jako jeden piksel i nie musi "wymyślać" (interpolować) dla tego piksela kolorów R i B, a dla G ma 2 wartości z dwóch fotodiod.
Jeśli zaś z tych fotodiod musi stworzyć cztery piksele a nie jeden, wyniki będą różne.
Ostatnio zmieniony przez Marian Nie 02 Gru, 2007, w całości zmieniany 1 raz  
 
 
maziek 
Optyczny
zdjęcia robię głową



Pomógł: 22 razy
Posty: 5163
Skąd: Chełm I stolica PRL!
Wysłany: Nie 02 Gru, 2007   

Ale to nie ma związku z rozdzielczością.
 
 
Arv
[Usunięty]

Wysłany: Nie 02 Gru, 2007   

Marian - albo nie rozumiesz, albo nie chcesz zrozumieć, że interpolacja koloru nie jest niczym złym.
Przeciwnie jest DOBRODZIEJSTWEM dzięki, któremu mamy tańsze matryce o doskonałej jakości.
Pozatym to niekoniecznie jest tak, że kolory pikseli w kwadracie 4x4 są interpolowane. Weżmy przykładowy schemat:
Kod:
|R|G|R|G|
|-+-+-+-| G - Green/Zielony
|G|B|G|B| R - Red/Czerwony
|-+-+-+-| B - Blue/Niebieski
|R|G|R|G|


Spróbuj sobie wyobrazić, że piksele wynikowe nie są tam gdzie literki tylko tam gdzie plusiki !!!
Każdy plusik ma jasność i kolor wyliczony z najbliższych mu sensorów - czerwonego, niebieskiego i dwu zielonych.
Strata z interpolacji polega tylko na tym, że wynikowy piksel (plusik) ma dwa sensory wspólne z każdym swoim sąsiadem.
Dlaczego 'tylko' ? O tym za chwilę.

W każdym urządzeniu cyfrowym musi istnieć filtr antyaliasingowy. Filtr ten w aparatach cyfrowych powoduje że na zdjęciu nie rejestrują się detale, których rozdzielczość jest większa niż rozdzielczość matrycy/2. Dlaczego ?
Bo zarejestrowanie ich skutkuje powstaniem moiry. (To konsekwencja twierdzenia Shannona-Kotielnikowa).
Moira wygląda np. tak:


Jeżeli filtr AA oraz algorytmy antyaliasingowe i demozaikujące są zaimplementowane poprawnie to SZCZEGÓŁY OBRAZU mniejsze niż dwa piksele NIE BĘDĄ WIDOCZNE na zdjęciu !!!! W przeciwnym wypadku MUSI pojawić się moira (na marynarkach w prążki, na firankach, na ogrodzeniu, na cegłach itp.)
A skoro filtr AA i tak usuwa większość detali mniejszych niż dwa piksele to fakt, że sąsiadujące piksele mają wspólne sensory nie jest już taką stratą jak wydawało się na początku prawda ?

Sigma również musi mieć filtry i algorytmy AntiAliasingowe albo obrzymią moirę i schodkowanie krawędzi. Jedno i drugie powoduje, że matryca Sigmy o tej samej liczbie pikseli co matryca Bayerowska NIE OSIĄGNIE DWUKROTNIE WIĘKSZEJ ROZDZIELCZOŚCI* !!!
Osiągnie natomiast trzykrotnie większą cenę (bo ma trzy razy więcej sensorów na piksel).
Dlatego ten wynalazek mimo naprawdę wielu zalet po prostu się nie przyjmie dopóki cena matrycy ma wpływ na cenę aparatu.

Uprzedzając protesty tych, którzy nie zgadzają się z tym, że filtr AA powinien działać tak jak napisałem ...
Popatrzcie na dowolne testy rozdzielczości. Co dzieje się z grubością zanikających linii po przekroczeniu progu częstotliwośći nyquista ?
Wiecie jak się nazywa to zjawisko ?
ALIASING.

Dobranoc.

---
* - rozdzielczości w sensie jednowymiarowym mierzonej np. w LWPH.
 
 
Marian 
Optyczny


Posty: 1467
Wysłany: Pon 03 Gru, 2007   

Arv napisał/a:
Marian - albo nie rozumiesz, albo nie chcesz zrozumieć, że interpolacja koloru nie jest niczym złym.
Przeciwnie jest DOBRODZIEJSTWEM dzięki, któremu mamy tańsze matryce o doskonałej jakości.
Pozatym to niekoniecznie jest tak, że kolory pikseli w kwadracie 4x4 są interpolowane. Weżmy przykładowy schemat:
Kod:
|R|G|R|G|
|-+-+-+-| G - Green/Zielony
|G|B|G|B| R - Red/Czerwony
|-+-+-+-| B - Blue/Niebieski
|R|G|R|G|


Spróbuj sobie wyobrazić, że piksele wynikowe nie są tam gdzie literki tylko tam gdzie plusiki !!!
Każdy plusik ma jasność i kolor wyliczony z najbliższych mu sensorów - czerwonego, niebieskiego i dwu zielonych. Strata z interpolacji polega tylko na tym, że wynikowy piksel (plusik) ma dwa sensory wspólne z każdym swoim sąsiadem...

Czy chcesz powiedzieć, że dzięki temu obraz zawiera więcej informacji od obrazu, w którym każdy piksel tworzą cztery oddzielne (RGGB) fotodiody, nie pokrywające się ?

Arv napisał/a:

...W każdym urządzeniu cyfrowym musi istnieć filtr antyaliasingowy. Filtr ten w aparatach cyfrowych powoduje że na zdjęciu nie rejestrują się detale, których rozdzielczość jest większa niż rozdzielczość matrycy/2. Dlaczego ?
Bo zarejestrowanie ich skutkuje powstaniem moiry. (To konsekwencja twierdzenia Shannona-Kotielnikowa).

Tu się mylisz. Filtr AA nie jest konieczny jeśli rozdzielczość matrycy jest większa od rozdzielczości obiektywu.
Arv napisał/a:
...
Jeżeli filtr AA oraz algorytmy antyaliasingowe i demozaikujące są zaimplementowane poprawnie to SZCZEGÓŁY OBRAZU mniejsze niż dwa piksele NIE BĘDĄ WIDOCZNE na zdjęciu !!!! W przeciwnym wypadku MUSI pojawić się moira (na marynarkach w prążki, na firankach, na ogrodzeniu, na cegłach itp.)
A skoro filtr AA i tak usuwa większość detali mniejszych niż dwa piksele to fakt, że sąsiadujące piksele mają wspólne sensory nie jest już taką stratą jak wydawało się na początku prawda ?

No to po co w takim razie "nadymać" obraz wspólnymi sensorami?
Arv napisał/a:

Sigma również musi mieć filtry i algorytmy AntiAliasingowe albo obrzymią moirę i schodkowanie krawędzi. Jedno i drugie powoduje, że matryca Sigmy o tej samej liczbie pikseli co matryca Bayerowska NIE OSIĄGNIE DWUKROTNIE WIĘKSZEJ ROZDZIELCZOŚCI* !!!
A w Bayerowskiej matrycy co dla ciebie jest pikselem? Pojedyncza fotodioda, czy jakaś czwórka fotodiod?
 
 
Wyświetl posty z ostatnich:   
Odpowiedz do tematu
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach
Nie możesz załączać plików na tym forum
Możesz ściągać załączniki na tym forum
Dodaj temat do ulubionych
Wersja do druku

Skocz do:  

Powered by phpBB modified by Przemo © 2003 phpBB Group
Template FIsilverBrown v 0.2 modified by Nasedo. Done by Forum Wielotematyczne

forum.optyczne.pl wykorzystuje pliki cookies, które są zapisywane na Twoim komputerze. Technologia ta jest wykorzystywana w celach reklamowych i statystycznych. Pozwala nam określać zachowania użytkowników na stronie, dostarczać im odpowiednie treści oraz reklamy, a także ułatwia korzystanie z serwisu, np. poprzez funkcję automatycznego logowania. Pliki cookies mogą też być wykorzystywane przez współpracujących z nami reklamodawców, a także przez narzędzie Google Analytics, które jest przez nas wykorzystywane do zbierania statystyk. Korzystanie z serwisu Optyczne.pl przy włączonej obsłudze plików cookies jest przez nas traktowane, jako wyrażenie zgody na zapisywanie ich w pamięci urządzenia, z którego korzystasz.
Jeżeli się na to nie zgadzasz, możesz w każdej chwili zmienić ustawienia swojej przeglądarki. Przeczytaj, jak wyłączyć pliki cookie i nie tylko »
Strona wygenerowana w 0,07 sekundy. Zapytań do SQL: 14