ciemne strony 100Hz
Chciałem zwrócić uwagę, że czasami 100Hz (a tak na prawdę Motion Flow itp. mechanizmy ale będę używał krótszego hasła marketingowego) nie poprawia a pogarsza(!) obraz.
Różnice są najbardziej widoczne przy ujęciach, w których kamera równomiernie przesuwa sie w poziomie (panorama) lub w pionie. Takie ujęcia polecam do testowania. Wychwytywanie różnic przy stabilnych scenach gdzie poruszają się tylko pojedyńcze elementy (np. piłka) praktycznie sprowadza się do kwestii gustu a najczęściej różnicy wyraźnie nie widać. Bardzo wiele zależy też od tego jaki sygnał podajemy do TV. Testowałem przez miesiąc na Philipsie 37PFL9603D/10 (dzięki firmie za promocję
) właśnie po to by rozstrzygnąć czy warto zapłacić za 100Hz i poniżej przedstawiam kilka spostrzeżeń:
1. sygnał z DVD (Shrek 3 - rozdział 2: scena z przesuwaniem obrazu w bok z balkonu na sypialnię - chwilę później są napisy tytułowe, gdzie można z kolei sprawdzić przesuwanie obrazu w pionie) bez 100Hz wyraźnie rwie obraz i traci ostrość > przy włączonym 100Hz obraz idealny.
2. ta sama scena (Shrek 3) ale z komputera w FullHD 1080p (plik mkv) > bez 100Hz rwie > ze 100Hz są dłuższe (1-2s.) odcinki ostrego obrazu po czym następuje duży skok by nadrobić "utracone klatki". Efekt jest taki, że ze 100Hz jest inaczej ale wcale nie lepiej. Teoretycznie jeśli ruch kamery trwa krótko to może wystarczyć ale już kilka sekund ujęcia wystarczy by i tak było źle ("więc po co przepłacać?"). Podejrzewam, że winny jest procesor użyty w TV, który po prostu nie wyrabia się przy zbyt dużej liczbie pikseli. Przedstawiciel serwisu powiedział mi, że najprawdopodobniej model 97 (ja miałem 96) by sobie poradził i z formatem FullHD jednak nie miałem okazji tego sprawdzić. W ogóle mechanizmy "100Hz" różnych producentów mogą się zachowywać bardzo różnie. Słyszałem, że np. Toshiba Z3030 radzi sobie wybitnie ale nie sprawdzałem tego.
3. przy filmach 720p (największa część dostępnych źródeł HD z PC) zauważyłem, że niby rozmycia ruchu są mniejsze przy włączonych 100Hz ale "coś jest nie tak". Wpatrywałem się nie mogąc zdefiniować zjawiska aż nagle do pokoju weszła żona i zapytała "Co to jest? Przerobili nasz serial (SGA) na teatr telewizji?". I to było właśnie to. Procesor TV jakoś tak modyfikował obraz, że postacie poruszały się jakby w innej fazie niż elemty tła co tworzyło okropny efekt jakby np. bohaterowie nie szli przez las tylko przez dekorację w kształcie lasu. Wierzcie mi, że efekt ten jest dużo bardziej irytujący niż lekkie rozmycia ostrości przy ruchu z wyłączonym 100Hz.
4. przy sygnale z konsoli Wii wyłączenie 100Hz nie powodowało żadnego dyskomfortu. Piłeczka od tenisa była zawsze dobrze widoczna i nie było sensu do zabawy włączać trybu 100Hz.
Wnioski:
1. jeżeli głównym źródłem sygnału jest DVD lub inny "generator sygnału SD" to warto wziąć model 100Hz bo komfort oglądania w wielu scenach będzie wyższy a różnica w cenie bywa już znośna
2. jeżeli masz sygnał FullHD to koniecznie sprawdź czy konkretny model rzeczywiście podoła wymaganiom i czy będzie rzeczywiście lepiej czy tylko "inaczej"
3. koniecznie wybierz model gdzie 100Hz można wyłączyć (!) (w sklepie w menu SONY KDL40W4500 nie znalazłem takiej opcji, może przeoczyłem ale może "SONY wie lepiej" a to już może być ryzykowne)
4. jeżeli najważniejsza jest treść filmu/programu a nie nieskazitelna jakość obrazu to możesz sobie 100Hz darować bo jakiekolwiek różnice są widoczne góra w kilku % scen a zaoszczędzone pieniądze na pewno się przydadzą
5. pod koniec 30-dniowego okresu korzystania z TV (żródła sygnału to: PC (1080p), DVD (S-VHS), Wii (Composite-480p), domyślnym ustawieniem było u mnie 100Hz WYŁĄCZONE a podkreślam, że doprowadzałem żonę do szału swoimi akcjami typu "kochanie zobaczmy tę scenę jeszcze raz tylko zmienię troszkę ustawienia..."
Chętnie poznam doświadczenia innych, szczególnie w tematach radzenia sobie 100Hz z FullHD oraz wspomnianym przeze mnie efektem "teatru telewizji".
Chciałem zwrócić uwagę, że czasami 100Hz (a tak na prawdę Motion Flow itp. mechanizmy ale będę używał krótszego hasła marketingowego) nie poprawia a pogarsza(!) obraz.
Różnice są najbardziej widoczne przy ujęciach, w których kamera równomiernie przesuwa sie w poziomie (panorama) lub w pionie. Takie ujęcia polecam do testowania. Wychwytywanie różnic przy stabilnych scenach gdzie poruszają się tylko pojedyńcze elementy (np. piłka) praktycznie sprowadza się do kwestii gustu a najczęściej różnicy wyraźnie nie widać. Bardzo wiele zależy też od tego jaki sygnał podajemy do TV. Testowałem przez miesiąc na Philipsie 37PFL9603D/10 (dzięki firmie za promocję
1. sygnał z DVD (Shrek 3 - rozdział 2: scena z przesuwaniem obrazu w bok z balkonu na sypialnię - chwilę później są napisy tytułowe, gdzie można z kolei sprawdzić przesuwanie obrazu w pionie) bez 100Hz wyraźnie rwie obraz i traci ostrość > przy włączonym 100Hz obraz idealny.
2. ta sama scena (Shrek 3) ale z komputera w FullHD 1080p (plik mkv) > bez 100Hz rwie > ze 100Hz są dłuższe (1-2s.) odcinki ostrego obrazu po czym następuje duży skok by nadrobić "utracone klatki". Efekt jest taki, że ze 100Hz jest inaczej ale wcale nie lepiej. Teoretycznie jeśli ruch kamery trwa krótko to może wystarczyć ale już kilka sekund ujęcia wystarczy by i tak było źle ("więc po co przepłacać?"). Podejrzewam, że winny jest procesor użyty w TV, który po prostu nie wyrabia się przy zbyt dużej liczbie pikseli. Przedstawiciel serwisu powiedział mi, że najprawdopodobniej model 97 (ja miałem 96) by sobie poradził i z formatem FullHD jednak nie miałem okazji tego sprawdzić. W ogóle mechanizmy "100Hz" różnych producentów mogą się zachowywać bardzo różnie. Słyszałem, że np. Toshiba Z3030 radzi sobie wybitnie ale nie sprawdzałem tego.
3. przy filmach 720p (największa część dostępnych źródeł HD z PC) zauważyłem, że niby rozmycia ruchu są mniejsze przy włączonych 100Hz ale "coś jest nie tak". Wpatrywałem się nie mogąc zdefiniować zjawiska aż nagle do pokoju weszła żona i zapytała "Co to jest? Przerobili nasz serial (SGA) na teatr telewizji?". I to było właśnie to. Procesor TV jakoś tak modyfikował obraz, że postacie poruszały się jakby w innej fazie niż elemty tła co tworzyło okropny efekt jakby np. bohaterowie nie szli przez las tylko przez dekorację w kształcie lasu. Wierzcie mi, że efekt ten jest dużo bardziej irytujący niż lekkie rozmycia ostrości przy ruchu z wyłączonym 100Hz.
4. przy sygnale z konsoli Wii wyłączenie 100Hz nie powodowało żadnego dyskomfortu. Piłeczka od tenisa była zawsze dobrze widoczna i nie było sensu do zabawy włączać trybu 100Hz.
Wnioski:
1. jeżeli głównym źródłem sygnału jest DVD lub inny "generator sygnału SD" to warto wziąć model 100Hz bo komfort oglądania w wielu scenach będzie wyższy a różnica w cenie bywa już znośna
2. jeżeli masz sygnał FullHD to koniecznie sprawdź czy konkretny model rzeczywiście podoła wymaganiom i czy będzie rzeczywiście lepiej czy tylko "inaczej"
3. koniecznie wybierz model gdzie 100Hz można wyłączyć (!) (w sklepie w menu SONY KDL40W4500 nie znalazłem takiej opcji, może przeoczyłem ale może "SONY wie lepiej" a to już może być ryzykowne)
4. jeżeli najważniejsza jest treść filmu/programu a nie nieskazitelna jakość obrazu to możesz sobie 100Hz darować bo jakiekolwiek różnice są widoczne góra w kilku % scen a zaoszczędzone pieniądze na pewno się przydadzą
5. pod koniec 30-dniowego okresu korzystania z TV (żródła sygnału to: PC (1080p), DVD (S-VHS), Wii (Composite-480p), domyślnym ustawieniem było u mnie 100Hz WYŁĄCZONE a podkreślam, że doprowadzałem żonę do szału swoimi akcjami typu "kochanie zobaczmy tę scenę jeszcze raz tylko zmienię troszkę ustawienia..."
Chętnie poznam doświadczenia innych, szczególnie w tematach radzenia sobie 100Hz z FullHD oraz wspomnianym przeze mnie efektem "teatru telewizji".