Wykorzystujemy pliki cookie do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie, a także do prawidłowego działania i wygodniejszej obsługi. Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług i innych witryn.
Masz możliwość zmiany preferencji dotyczących ciasteczek w swojej przeglądarce internetowej. Jeśli więc nie wyrażasz zgody na zapisywanie przez nas plików cookies w twoim urządzeniu zmień ustawienia swojej przeglądarki, lub opuść naszą witrynę.
Jeżeli nie zmienisz tych ustawień i będziesz nadal korzystał z naszej witryny, będziemy przetwarzać Twoje dane zgodnie z naszą Polityką Prywatności. W dokumencie tym znajdziesz też więcej informacji na temat ustawień przeglądarki i sposobu przetwarzania twoich danych przez naszych partnerów społecznościowych, reklamowych i analitycznych.
Zgodę na wykorzystywanie przez nas plików cookies możesz cofnąć w dowolnym momencie.
Wojmistrz, nie podałeś z jakiego hasła na Wiki jest ten cytat. Wiadomo, że system operacyjny potrafi obsługiwać grafikę z przezroczystością, a karty graficzne obsługują i wspomagają to sprzętowo. Przezroczystości trafiły przecież nawet do GUI systemów i działają nawet na słabych kartach wbudowanych. Ja jednak nadal twierdzę, że nie ma to nic wspólnego z wyświetlaniem, czyli sygnałem wysyłanym do monitora, które zawsze operuje na trzech składowych i z karty graficznej wysyłane jest 3 x 8-bitów, a czasem może więcej, czyli 10 czy 12.
Jeśli w Twoim Windowsie są jakieś bajerki pokazujące jak słabo wyświetla się grafika bez czegoś tam włączonego, to traktowałbym to raczej jako ciekawostkę marketingową, a nie jakiś realnie potrzebny do czegoś ficzer. Odwołuję się do tego:
Wojmistrz napisał/a:
kiedyś to sprawdzałem i jeśli przełączałem z 32bit na 24bit, miejsca wszelkich gradientów wyglądały paskudnie
W OS X jakiś czas temu znikły w ogóle opcje dotyczące ilości kolorów, od dawna nie mogę z „milionów” przełączyć na „tysiące” czy tym bardziej na tryb 256 kolorów. Po prostu nikt tego poza grami realnie nie wykorzystuje i schowali to z GUI systemu. Tylko gry przełączają kartę w niższe tryby, być może wtedy da się coś z 32- na 24-bit przełączyć.
Ale po namyśle sądzę, że być może termin „24-bit” oznaczał w Twoim przypadku 4x6-bit, czyli RGBA po 6-bitów na kanał? Może Twoja karta potrafi taki tryb obsłużyć? Analogicznie „32-bit” oznaczałby to, co zwyczajowo nazywamy 24-bitowym kolorem, czyli po 8 bitów na każdy kanał RGB, czyli 24-bit, co w przypadku doklejenia przezroczystości daje okrągłe 32 bity.
TN jak dostawał 24 lub 32 bit, obcinał sygnał do 18 bit i to był wyjątek w temacie.
Pisząc o 24bit i 32bit stale utrzymuję, że to TrueColor 8 bit na kolor. 24bit - 3x8bit RGB, a 32bit to 3x8bit + 8bit RGBA.
Fragment w wikipedii był z angielskiego hasła "Color depth".
Teraz też nie mam możliwości sprawdzić ponownie wyświetlania 32/24bit, bo moja grafika ma możliwość przełączenia wstecz jedynie do HighColor (16bit).
Pisząc o 24bit i 32bit stale utrzymuję, że to TrueColor 8 bit na kolor. 24bit - 3x8bit RGB, a 32bit to 3x8bit + 8bit RGBA.
No i z tym się zgodzę.
Wiesz, ja tak drążę, bo może dowiem się czegoś nowego, dawno tych tematów nie zgłębiałem. Ale z powodu tej dyskusji przejrzałem ostatnio opisy DVI, HDMI i DisplayPort na Wikipedii i wszystko co tam jest napisane potwierdza, że kanał Alfa nie idzie do monitora, idzie przeważnie 3x8 bit, czasem 3x10, o ile mówimy o normalnych desktopowych zastosowaniach, a nie drogich urządzeniach wizyjnych czy innych specjalistycznych.
możesz sobie mieć 128 bit na karcie graficznej a sygnał i tak idzie w 24 bitach
Andrzej.M. [Usunięty]
Wysłany: Nie 21 Wrz, 2014
Teraz do komputerów i kart graficznych ładuje się różne poprawiacze wyświetlania , które fajnie działają przy filmach i grach a nawet przy oglądaniu zdjęć z sieci , mocno modyfikując obraz. Niestety do obróbki fotografii te softy się nie nadają - bo obraz oglądany na monitorze powinien być nieprzetworzony tak by było widać to co naprawdę na nim jest od przejść gradientów po kolor najlepiej adobe RGB , ale dobre sRGB też w większości zastosowań wystarcza. Dzięki temu nie ma niespodzianek jak odbierasz zdjęcia z labu czy wydruki . Dlatego karta graficzna nie powinna ingerować w obraz (ustawienia neutralne) a kalibracja powinna odbywać się na monitorze a nie karcie graficznej komputera.
Każda ingerencja w kolor na karcie to :
1. obcięcie do 8bit na kanał
2. Obcięcie któregoś z kanałów o część koloru
W skrócie takie kalibrowanie obrazu softem w komputerze i obróbka na popularnym IPS "true color" przypomina chęć komfortowej jazdy maluchem - można jechać w miarę komfortowo ale pod warunkiem że: A. wyjedziemy na gładką drogę B. pojedziemy nie szybciej niż 70 km/godzinę C. Będzie z górki.
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach Nie możesz załączać plików na tym forum Możesz ściągać załączniki na tym forum
forum.optyczne.pl wykorzystuje pliki cookies, które są zapisywane na Twoim komputerze.
Technologia ta jest wykorzystywana w celach reklamowych i statystycznych.
Pozwala nam określać zachowania użytkowników na stronie, dostarczać im odpowiednie treści oraz reklamy,
a także ułatwia korzystanie z serwisu, np. poprzez funkcję automatycznego logowania.
Pliki cookies mogą też być wykorzystywane przez współpracujących z nami reklamodawców, a także przez narzędzie Google Analytics, które jest przez nas wykorzystywane do zbierania statystyk.
Korzystanie z serwisu Optyczne.pl przy włączonej obsłudze plików cookies jest przez nas traktowane, jako wyrażenie zgody na zapisywanie ich w pamięci urządzenia, z którego korzystasz.
Jeżeli się na to nie zgadzasz, możesz w każdej chwili zmienić ustawienia swojej przeglądarki. Przeczytaj, jak wyłączyć pliki cookie i nie tylko »
Strona wygenerowana w 0,05 sekundy. Zapytań do SQL: 15