Czy istnieje jakas wyrazna przewaga paneli 10bit nad 8 bitowymi? Gdzie tkwi hak? :-)

piotrflo

Member
No temat jak w temacie. Pytam bo jak widze na przykladzie Toski robia nowe modele i na ich stronie napisane jest ze przetwarzanie koloru 8bit plus FRC. I jakos nie kwapia sie do przejscia na 10 bit. A modele te zbieraja bardzo dobre opinie jesli chodzi o jakosc obrazu od sygnalu SD po HD. Co na to inne firmy?
 

jabba

New member
Wystarczy zobaczyć porównania SONY W5500 i W4500. Różnica niestety jest na niekorzyść oszczędnych producentów. Z drugiej strony banding jest i na 10-bitowcach...
 

mark738

New member
Zasadniczo, wiadomo, jeśli kolory opisane są 10 bitami, jest ich więcej, co daje "oryginalniejszy" ich wygląd na wyświetlaczu. Ale 10 bitów, to również ogromna masa danych, które obsłużyć musi szybszy procesor (czyli droższy i bardziej energochłonny) a podejrzewam, że 90% ludzi nie odróżni palety 8-bitowej od 10-bitowej, szczególnie podczas standardowego korzystania z telewizora. Różnice najlepiej widać na zdjęciach, czy dobrych filmach rysunkowych.

W skrócie
8-bitowa paleta kolorów daje 16.7 mln odcieni kolorów 8^8
10-bitowa paleta kolorów daje 1.1 mld odcieni kolorów 8^10

Pomysł Toshiby z FRC to takie małe oszustwo stosowane kiedyś w pierwszych monitorach komputerowych LCD. Były one 6-bitowe (tylko 262 tyś odcieni kolorów) i za pomocą FRC czyli szybkiej, naprzemiennej zamiany wyświetlania sąsiadujących kolorów uzyskiwano odcienie pośrednie, co dawało w sumie 16.2 mln odcieni kolorów. Rozwiązanie proste, ekonomiczne i poszerzające znacznie paletę barw, jednak ówczesne układy FRC i stosunkowo wolne matryce skutkowały tym, że wyświetlenie jakiegoś odcienia w ten sposób powodowało drżenie obrazu.

Toshiba po prostu poszła na kompromis. Ich układ FRC niewielkim kosztem zwiększa ilość odcieni kolorów z 16.7 mln do prawie 1 mld, co daje głębię obrazu w stosunku do paneli 8-bitowych, jednocześnie cena pozostaje przystępna (w przeciwieństwie do paneli 10-bitowych). A minimalne niedoskonałości technologii są dość skutecznie niwelowane.

Podsumowując :
10-bit daje więcej kolorów, co przekłada się na głębię obrazu i "łagodniejsze" przejścia między kolorami, ale trzeba chcieć to zobaczyć i jest droższym rozwiązaniem.

8-bit+FRC nie daje idealnie takich efektów jak 10-bit, ale jednak zwiększa ilość odcieni kolorów i pogłębia obraz, do tego jest tańsze.

Dla dociekliwych proponuję jeszcze poczytać w wikipedii o ditheringu:
pl.wikipedia.org/wiki/Dithering_(grafika_komputerowa)
 

vienna1980

Member
Bez reklam
Nie wspomnieliście o firmie Philips która w większości swoich telewizorach od modeli 9604 wzwyż stosuje 17 bitowy procesor- który może wyświetlić 2250 bilionów kolorów.
 

mark738

New member
Owszem, ale myślę, że to już sztuka dla sztuki, i metoda na wyróżnienie się na rynku, bo jak napisałem wcześniej przeciętny użytkownik nie bardzo jest w stanie odróżnić 8-bit od 10-bit, a 12-bit to już chyba rozsądne maksimum przy dzisiejszej technologii. Po co wkładać do TV potężny procesor, który produkuje biliony kolorów, których i tak nie widać??? Do tego odbija się to na wydzielaniu przez procesor ciepła, poborze prądu i cenie, które to cechy porównując do np. Toshiby mają przynajmniej dwukrotnie większą wartość (tak, wiem, że philips ma jeszcze ambilight, ale podejrzewam, że jednak główną przyczyną jest procesor obrazu, który pewnie ma moc obliczeniową porównywalną z PC z przed 3-4 lat.
 

piotrflo

Member
Fakt. To wszystko marketing. Nie ma co ukrywac. Oko ludzkie i tak wychwytuje ponizej 16 mln kolorow i to duuuuuzo ponizej. Miliard w telewizorze to juz chwyt na leszcza. Ciekawe gdzie jest granica? :blagam:
 

JackS.

New member
Bez reklam
piotrflo napisał:
Fakt. To wszystko marketing. Nie ma co ukrywac. Oko ludzkie i tak wychwytuje ponizej 16 mln kolorow i to duuuuuzo ponizej.
Nieprawda!
Weź photoshopa i podziel sobie ekranie na 4 pionowe pasy w ciemnych kolorach, każdy w kolorze różniącym się o jeden bit w 8-bitowej skali na składową koloru.

Myślisz, że nie zobaczysz pasów?

Zaręczam, że je zobaczysz, mimo, że każdy z kolorów będzie się różnił tylko o jedną 16-milionową pełnej palety barw od sąsiedniego.

Zmorą 24-bitowego koloru w tej dzisiejszej "wspaniałej cyfrowej telewizji" jest zbyt mała ilość kolorów pośrednich przy odcieniach szarości/czerni na ekranie.

Nigdy nie zauważyłeś przejść pomiędzy poziomami czerni? Takie jakby poziomice na ciemnych płaszczyznach obrazu. Wygląda to koszmarnie. Analogowa telewizja nie miała tej wady.
 
Ostatnia edycja:

pejotpe

New member
Bez reklam
piotrflo napisał:
Fakt. To wszystko marketing. Nie ma co ukrywac. Oko ludzkie i tak wychwytuje ponizej 16 mln kolorow i to duuuuuzo ponizej. Miliard w telewizorze to juz chwyt na leszcza. Ciekawe gdzie jest granica? :blagam:
Cholernie się mylisz. Dla mnie LCD 8bit to tragedia, LCD z 10bitowym przetwornikiem i plazma niewiele lepiej - a tylko stare dobre CRT potrafiło wyświetlić poprawnie niebieściutkie niebo z gradientem - i raczej trzeba być ślepym, by nie zauważyć różnicy (no, jak zdejmę okulary -3,5D na oko plus -1,0D na cylinder, to rzeczywiście nie dostrzegam różnicy - bo wtedy niewiele widzę). Nie chodzi o to, by zauważać 256 odcieni w całym zakresie, a o to, by widzieć różnicę w poszczególnych jego pasmach - albo raczej o to, by tej różnicy nie zauważać.
 

piotrflo

Member
JackS. napisał:
Nieprawda!
Weź photoshopa i podziel sobie ekranie na 4 pionowe pasy w ciemnych kolorach, każdy w kolorze różniącym się o jeden bit w 8-bitowej skali na składową koloru.

Myślisz, że nie zobaczysz pasów?

Zaręczam, że je zobaczysz, mimo, że każdy z kolorów będzie się różnił tylko o jedną 16-milionową pełnej palety barw od sąsiedniego.

Zmorą 24-bitowego koloru w tej dzisiejszej "wspaniałej cyfrowej telewizji" jest zbyt mała ilość kolorów pośrednich przy odcieniach szarości/czerni na ekranie.

Nigdy nie zauważyłeś przejść pomiędzy poziomami czerni? Takie jakby poziomice na ciemnych płaszczyznach obrazu. Wygląda to koszmarnie. Analogowa telewizja nie miała tej wady.

Wzialem photoshopa CS 4 i zrobilem dwie plansze z gradacja kolorow od czarnego do bialego. Jeden dokument 8 bitowy a drugi 16 bitowy. Nie wiem czy to tak ma byc, ale co zauwazylem na monitorze to mnie zastanowilo. Na 8 bitach mniej wyrozniaja sie przeskoki z jednego nasycenia do drugiego jest to plynne w miare, na 16 bitowym przy takim samym powiekszeniu (dokaldnie takie same parametry dokumentu jesli chodzi o nasycenia i wielkosc strony) ewidentnie granice pomiedzy kolorami sa widoczne, wyrazniejsze. To mozesz mi wytlumaczyc oco chodzi bo ja cos nie kaman w tej kwestii.
 

vienna1980

Member
Bez reklam
piotrflo napisał:
Fakt. To wszystko marketing. Nie ma co ukrywac. Oko ludzkie i tak wychwytuje ponizej 16 mln kolorow i to duuuuuzo ponizej. Miliard w telewizorze to juz chwyt na leszcza. Ciekawe gdzie jest granica? :blagam:

Polemizował bym z Tobą czy to jest tylko marketing,tak jak wspomniałem powyżej firma Philips w swoich wyższych modelach stosuje 17-bitowy przetwornik,ale tylko dzięki doskonałemu procesorowi color booster i jak kiedyś wyczytałem jest w stanie on wyświetlić 2250 bilionów kolorów i udowodniono to w testach laboratoryjnych,a że ludzkie oko tego nie wychwyci to już zupełnie inny temat.

Firma Philips w swoich tańszych modelach stosuje 14-bitowy przetwornik,a od modelu 32 9604 wzwyż już 17 bitowy przetwornik.

Jednego trzeba firmie Philips pogratulować że nie oszczędza przy produkcji swoich telewizorach na dobrych procesorach w przeciwieństwie do innych modeli konkurencyjnych firm,gdyż uważam iż obecnie 8-bitowe wyświetlanie to stanowczo za mało.

I na pewno firma Philips nie montowała by do swoich telewizorów drogich procesorów co jednocześnie podwyższa ich cenę,gdyby nie było widać efektów jeżeli chodzi o jakość wyświetlanego obrazu na ich telewizorach,w tym aspekcie nie szukają tu oszczędności i za to ich chwalę.

Ale firma Philips słynie z dobrej elektroniki wspomagającej panel w wyświetlaniu dobrego obrazu.
 

Henryk55

New member
Porównywałem 8 i 10-bitowe matryce w telewizorach Sony (seria W i Z, z BE3) i powiem, że nie trzeba się długo wpatrywać by dostrzec różnice.
Przy słabej jakości sygnału na wejściu te różnice oczywiście będą się zmniejszać.
 

JackS.

New member
Bez reklam
piotrflo napisał:
Wzialem photoshopa CS 4 i zrobilem dwie plansze z gradacja kolorow od czarnego do bialego. Jeden dokument 8 bitowy a drugi 16 bitowy. Nie wiem czy to tak ma byc, ale co zauwazylem na monitorze to mnie zastanowilo. Na 8 bitach mniej wyrozniaja sie przeskoki z jednego nasycenia do drugiego jest to plynne w miare, na 16 bitowym przy takim samym powiekszeniu (dokaldnie takie same parametry dokumentu jesli chodzi o nasycenia i wielkosc strony) ewidentnie granice pomiedzy kolorami sa widoczne, wyrazniejsze. To mozesz mi wytlumaczyc oco chodzi bo ja cos nie kaman w tej kwestii.

Nie wiem czy mi się uda, ale staram się zamieścić tu gifa (512 x 256 pixeli) w którym użyłem sąsiadujących ze sobą poziomów szarości w 8 bitach na kolor. Rozciągnij sobie ten obrazek na całym telewizorze. Czy widać na nim okręgi? Ile?

http://hdtv.com.pl/forum/attachment.php?attachmentid=3902&stc=1&d=1261262954
 

Attachments

  • kolka_512.jpg
    kolka_512.jpg
    3,8 KB · Wyś: 2108

PiotrM_

New member
JackS. napisał:
Nie wiem czy mi się uda, ale staram się zamieścić tu gifa (512 x 256 pixeli) w którym użyłem sąsiadujących ze sobą poziomów szarości w 8 bitach na kolor. Rozciągnij sobie ten obrazek na całym telewizorze. Czy widać na nim okręgi? Ile?

http://hdtv.com.pl/forum/attachment.php?attachmentid=3902&stc=1&d=1261262954

Po pierwsze pomyliłeś 8-bit z 8-bit na kolor. Mowa jest o wadach 8 bitowych matryc, a Ty mówisz o 24-bitowym kodowaniu.
Po drugie, wszyscy widzimy u siebie co innego, gdyż w większości używamy monitorów LCD i to w przytłączającej większości właśnie paneli 8-bitowych.
Po trzecie link każe mi się zarejestrować, mimo że jestem zalogowany.
 

christoff.w

Banned
8bitów = 17milionów
10bitów = 1miliard z hakiem
12bitów = 68 miliardów
Niby po co to i komu, ale lepiej więcej niż mniej ;)

Wysłane z mojego KIW-L21 przy użyciu Tapatalka
 

brodacz

Active member
Bez reklam
Ten wątek pokazuje problem stagnacji w pewnych rozwiązaniach. Minęło 8 lat a wciąż 10bit nie jest oczywistością. A twierdzi się, że 4k miało dawać większą paletę barw. Fajnie, tylko na czym ją ujrzeć?
 

christoff.w

Banned
Ten wątek pokazuje problem stagnacji w pewnych rozwiązaniach. Minęło 8 lat a wciąż 10bit nie jest oczywistością. A twierdzi się, że 4k miało dawać większą paletę barw. Fajnie, tylko na czym ją ujrzeć?
Ależ jest, w tym roku.

Wysłane z mojego KIW-L21 przy użyciu Tapatalka
 

bubafat

Well-known member
Bez reklam
Ten wątek pokazuje problem stagnacji w pewnych rozwiązaniach. Minęło 8 lat a wciąż 10bit nie jest oczywistością. A twierdzi się, że 4k miało dawać większą paletę barw. Fajnie, tylko na czym ją ujrzeć?

A nie daje?
10 bit na telewizorzei i projektorze.
12 bit na projektorze
Zreszta sam fakt, istnienia zrodla 12 bitowego koloru i mozliwosc przyjecia i obrobki takiego sygnalu przez telewizor, praktycznie niweluje banding.
 
Ostatnia edycja:
Do góry