HDR (ang. High Dynamic Range) to nowa technologia, która przez wiele osób uważana jest za kolejną wielką rewolucję w dziedzinie obrazowania po technologii 4K. Wychwala się ją przede wszystkim za realistyczne odwzorowanie rzeczywistości – co to jednak oznacza? Czy faktycznie jest się czym zachwycać? Czym różni się HDR dla fotografii i dla filmów? I czego potrzebujesz, by móc wyświetlać materiały w tym standardzie?

Poniższy tekst został przygotowany na podstawie angielskiego tłumaczenia japońskiego artykułu opublikowanego 22 sierpnia 2017 roku na portalu ITmedia. Copyright 2017 ITmedia Inc. Wszystkie prawa zastrzeżone.

Czym jest technologia HDR?

 

W ciągu ostatnich kilku lat pojęcie HDR zaczęło pojawiać się wszędzie tam, gdzie mowa o technologiach obrazowania. Jest to skrót angielskiego terminu High Dynamic Range, oznaczającego wyświetlanie obrazów z szeroką rozpiętością tonalną. Najłatwiej natknąć się na niego w sklepach ze sprzętem elektronicznym, które coraz częściej wykorzystują obsługę HDR do reklamowania telewizorów.

Słysząc „HDR”, amatorzy fotografii mogą pomyśleć, że chodzi tu o taki sam rodzaj HDR jak w przypadku cyfrowych zdjęć. Choć samo pojęcie HDR rzeczywiście kojarzy się głównie z fotografią, zwłaszcza odkąd aparaty smartfonów takich jak iPhone zaczęły obsługiwać robienie zdjęć w tym standardzie, HDR w fotografii działa zupełnie inaczej niż HDR używane w nowoczesnym sprzęcie wideo.

Referencyjny monitor HDR ColorEdge PROMINENCE CG3145

Różnica między HDR w fotografii i filmie

Czym różni się tryb HDR w iPhone’ach?

 

„Dynamic range” odnosi się do zakresu między najciemniejszymi i najjaśniejszymi obszarami obrazu, który jest w stanie odtworzyć dane urządzenie, zachowując jednocześnie subtelne różnice między odcieniami. Jeśli będąc w mieszkaniu zrobimy zdjęcie, na którym będzie dobrze widać wnętrze pokoju, słoneczny krajobraz za oknem będzie prześwietlony. Jeśli natomiast zrobimy zdjęcie tak, by jasna scena za oknem była dobrze widoczna, wnętrze pokoju wyjdzie za ciemne. Łatwo zaobserwować ten efekt samemu, robiąc zdjęcie zwykłym aparatem cyfrowym albo telefonem.

 

Przyczyną takiego zjawiska jest zbyt duża różnica między najjaśniejszym (słońce za oknem) i najciemniejszym (wnętrze pokoju) elementem fotografii. Aby wyeliminować ten problem, należałoby poszerzyć rozpiętość tonalną tak, by najjaśniejsze obszary nie były prześwietlone, a najciemniejsze – całkowicie ciemne. Im bardziej uda się zwiększyć ten zakres, tym bardziej realistycznie będzie wyglądało nasze zdjęcie, jego rozpiętość tonalna zbliży się bowiem do rozpiętości tonalnej postrzeganej przez ludzkie oko.

 

Rozpiętość tonalna spotykana we wszechświecie jest bardzo szeroka, np. Słońce widziane z Ziemi ma jasność na poziomie ok. 1,6 mld cd/m2 (kandeli na metr kwadratowy), podczas gdy typowa jasność spotykana na dworze wynosi ok. 2000 cd/m². Zakres postrzegany przez ludzkie oko to zaledwie 30% zakresu występującego w przyrodzie!

 

Urządzenia takie jak aparaty fotograficzne są jednak skonstruowane w oparciu o stare standardy z epoki kineskopowej (tzw. SDR – Standard Dynamic Range). Sprzęt SDR potrafi odwzorowywać bardzo wąski zakres jasności, od 0,05 do 100 cd/m². Innymi słowy, obrazy w standardzie SDR oddają zaledwie skrawek tego, co potrafi dostrzec ludzkie oko.

HDR
Rozpiętość tonalna standardu SDR obejmuje zakres od 0,05 do 100 cd/m2. W efekcie jasne obszary obrazu są prześwietlone, a ciemne przyciemnione.

W fotografii

Tryb HDR oferowany przez iPhone’a i inne smartfony bazuje na ujęciach o różnej ekspozycji (jedno dla ciemnych detali, jedno dla jasnych). Na zdjęciach robionych w ten sposób jasne obszary są odwzorowywane w oparciu o jasną ekspozycję, a ciemne obszary w oparciu o ciemną ekspozycję. Pozwala to zapobiec utracie różnych odcieni i daje efekt zbliżony do percepcji ludzkiego oka. Niestety nawet zdjęcie stworzone w wyniku połączenia dwóch ujęć o różnej ekspozycji musi zostać skompresowane do zakresu tonalnego SDR. Choć ciemne i jasne obszary nie tracą całkowicie szczegółów, ta metoda nie poszerza rzeczywistej rozpiętości tonalnej zdjęcia.

HDR
Dostępny na smartfonach tryb HDR łączy ujęcia o różnej ekspozycji, tworząc jedno zdjęcie mieszczące się w zakresie SDR.

W filmie

W kontekście nowoczesnego sprzętu wideo pojęcie HDR odnosi się natomiast do zdolności odwzorowania znacznie poszerzonego zakresu jasności (od 0,0005 do 10 000 cd/m²) bez konieczności kompresji. Łatwo policzyć, że zakres HDR jest stukrotnie większy niż zakres SDR. Oczywiście telewizory z obsługą HDR dostępne obecnie na rynku nie potrafią odtwarzać aż tak dużej rozpiętości tonalnej; standard produkcyjny ITU-R BT.2100 zakłada maksymalną jasność na poziomie 1000 cd/m², a minimalną na poziomie 0,005 cd/m². Nie ma wątpliwości, że obrazy w standardzie HDR wyglądają bardziej realistycznie niż obrazy w standardzie SDR. Sceny z wysokim kontrastem (np. promień słońca wpadający do ciemnego pokoju) zyskują wyrazistość, a sceny zachodu słońca nabierają głębi i realizmu.

HDR
W standardzie HDR obsługiwany zakres jasności wynosi od 0,0005 do 10 000 cd/m². Pozwala to odwzorować kontrast w sposób zbliżony do percepcji ludzkiego oka.
HDR
Różnica między HDR dla zdjęć (skompresowana krzywa jasności) i dla filmów (poszerzony zakres jasności).

Wideo w standardzie HDR: różnica widoczna gołym okiem

Na ten temat napisano już niejeden artykuł, ale w przeciwieństwie do technologii takich jak 4K czy 8K, które stosunkowo łatwo wyjaśnić posługując się samymi liczbami, nie da się w pełni zrozumieć zalet HDR bez porównania wzrokowego. Różnicę trzeba po prostu zobaczyć – a jest ona widoczna już na pierwszy rzut oka. Tym, którzy nie mieli jeszcze okazji, by osobiście obejrzeć obrazy w standardzie HDR, autor tego artykułu z przyjemnością przedstawi własne spostrzeżenia na temat ColorEdge PROMINENCE CG3145, referencyjnego monitora EIZO.

Obrazy HDR na monitorze ColorEdge PROMINENCE

Moją pierwszą myślą było to, że obrazy wyświetlane na monitorze HDR rzeczywiście wyglądają niesamowicie realistycznie. Dotychczas miałem styczność tylko ze zdjęciami HDR tworzonymi przez nakładanie na siebie ujęć o różnej ekspozycji, dlatego spodziewałem się czegoś z przesadnie nasyconymi kolorami. Zamiast tego zobaczyłem obraz, na którym cienie i światła oddane są z niezwykłym realizmem. Dzięki szerokiej rozpiętości tonalnej udało się wiernie odwzorować nawet drobne detale, sprawiając, że wyświetlany na ekranie obraz nabrał głębi. Faktycznie wyglądał jak prawdziwy.

Choć teoretycznie wiedziałem, że ludzkie oko potrafi dostrzec przejścia tonalne na ciemnych obszarach, doświadczenie tego na własnej skórze i tak było olbrzymią niespodzianką. Oglądając nocne zdjęcie przedstawiające miejskie światła odbijające się w wodzie, doskonale widziałem subtelne poruszenia na powierzchni wody w cieniu, a mimo to odbite obok nich światła były jasne i intensywne, bez śladu prześwietlenia czy blaknięcia. Tego rodzaju sceny – łączące głębokie cienie i jasne światła – z reguły trudno jest realistycznie odwzorować, jednak ColorEdge PROMINENCE CG3145 doskonale sobie z tym poradził.

Nawet bez pomocy stojącego obok monitora SDR od razu było widać, że różnica jest ogromna. Oczywiście oglądany przeze mnie model ColorEdge PROMINENCE CG3145 był prototypem przeznaczonym dla profesjonalnych twórców, oferującym lepszą jakość obrazu niż typowy telewizor z obsługą HDR. Mimo to na pewno warto wybrać się do lokalnego sklepu z elektroniką i zobaczyć, jak wyglądają filmy w standardzie HDR.

Wystawa sklepowa z telewizorami obsługującymi technologie 4K i HDR.

Czego potrzebujesz, by korzystać z technologii HDR

Ustaliliśmy już, że technologia HDR nie jest tylko chwytem marketingowym i rzeczywiście oferuje lepszą jakość obrazu. Teraz pora odpowiedzieć na pytanie, czego potrzebuje zwykły użytkownik, by z niej korzystać.

Po pierwsze potrzebujemy telewizora obsługującego sygnały HDR10. Będzie nim każdy telewizor reklamowany jako „kompatybilny z HDR”, pamiętaj jednak, że nawet niektóre telewizory 4K nie spełniają tego kryterium.

Istnieją także telewizory, które odbierają sygnały HDR10, ale jednocześnie mają dość niski poziom jasności i kontrast. Oczywiście im lepsza specyfikacja, tym bardziej realistycznie wyglądają wyświetlane obrazy, ale wielu producentów telewizorów w ogóle nie podaje tych parametrów. W takim wypadku można posiłkować się logo Ultra HD Premium. Jego obecność oznacza, że urządzenie otrzymało certyfikat UHD Alliance, gwarantujący zgodność ze standardem HDR.

Logo Ultra HD Premium promowane przez UHD Alliance
HDR
Logo Sony 4K HDR

Nie będziemy szczegółowo omawiać wszystkich wymagań, które muszą spełniać certyfikowane urządzenia. Warto jednak zaznaczyć, że ekran musi mieć minimalną jasność szczytową 1000 cd/m² i maksymalny poziom czerni 0,05 cd/m² (dla wyświetlaczy LCD) lub minimalną jasność szczytową 540 cd/m² i maksymalny poziom czerni 0,0005 cd/m² (dla wyświetlaczy OLED). Tym wymogom nie jest wcale łatwo sprostać, dlatego niemal wszystkie certyfikowane urządzenia są nadal bardzo drogie.

Formaty HDR

Kiedy mamy już odpowiedni wyświetlacz, pora zadbać o materiały w standardzie HDR. Do wyboru są dwa formaty: HDR10 i Dolby Vision. Pierwszy z nich to ustandaryzowany format dla treści HDR. Można spokojnie założyć, że wszystkie materiały reklamowane jako kompatybilne z HDR są kompatybilne z HDR10. Z kolei Dolby Vision to osobny standard HDR stworzony przez korporację Dolby. Ma on większą głębię bitową niż HDR10 (12 bitów zamiast 10), która zwiększa wrażenie realizmu.

Najbardziej interesującym elementem Dolby Vision jest format metadanych. W przypadku HDR10 metadane dotyczą całego materiału (np. filmu), podczas gdy w standardzie Dolby Vision własne metadane ma każda klatka z osobna, co umożliwia dynamiczne zmiany jasności dla różnych scen. Dzięki temu telewizory kompatybilne z Dolby Vision mogą optymalnie wyświetlać cyfrowe materiały, bazując na parametrach jasności danego urządzenia.

Obecnie materiały w standardzie Dolby Vision oferują m.in. Netflix i Hikari TV, japońska telewizja internetowa. Oczywiście potrzebne są także kompatybilne urządzenia. Już teraz na rynku jest ich całkiem sporo – a z pewnością będzie więcej.

Platformy streamingowe takie jak Netflix oferują już treści kompatybilne z technologiami 4K/HDR.

Oprócz telewizorów obsługę HDR oferują również konsole do gier wideo, takie jak PlayStation 4 czy Xbox One S. Technologia HDR w grafice komputerowej działa na takiej samej zasadzie, jak w przypadku filmów. Choć standard SDR nadal stanowi istotne ograniczenie, latem 2017 roku ogłoszono wprowadzenie na rynek kilku monitorów gamingowych z obsługą HDR. Można założyć, że rozwój HDR na rynku telewizorów dodatkowo wpłynie na tempo przyjęcia tego standardu przez branżę gamingową.

Niektóre konsole do gier wideo także obsługują HDR (na zdjęciu Microsoft Xbox One X).

5 elementów potrzebnych, by poprawić jakość obrazu

Ogólnie rzecz biorąc, na poprawę jakości obrazu składa się pięć czynników: rozdzielczość, głębia bitowa, szybkość klatek, gamut kolorów i jasność. Pierwsze trzy z nich są ściśle powiązane z gęstością pikseli i ulegały dość dynamicznym zmianom. W kwestii gamutu kolorów przez długi czas nic się nie działo, aż parę lat temu wprowadzono szeroką przestrzeń barwną Rec. 2020. Pozostaje więc ostatni czynnik, jasność, i to właśnie jej dotyczy technologia HDR.

Ogólnie rzecz biorąc, na poprawę jakości obrazu składa się pięć czynników: rozdzielczość, głębia bitowa, szybkość klatek, gamut kolorów i jasność. Pierwsze trzy z nich są ściśle powiązane z gęstością pikseli i ulegały dość dynamicznym zmianom. W kwestii gamutu kolorów przez długi czas nic się nie działo, aż parę lat temu wprowadzono szeroką przestrzeń barwną Rec. 2020. Pozostaje więc ostatni czynnik, jasność, i to właśnie jej dotyczy technologia HDR.

Pięć elementów umożliwiających poprawę jakości obrazu. HDR reprezentuje poprawę jasności.

Mając na uwadze zainteresowanie branży technologią HDR, EIZO stworzyło monitor ColorEdge PROMINENCE CG3145 dla profesjonalistów zajmujących się tworzeniem materiałów HDR.

ColorEdge PROMINENCE CG3145: monitor HDR dla profesjonalnych twórców

Monitor ColorEdge PROMINENCE CG3145 wykorzystuje panel IPS LCD. Z reguły wyświetlacze LCD (a zwłaszcza IPS) nie potrafią odtwarzać głębokiej czerni. Ciemne obszary obrazu mają więc stosunkowo niski kontrast. Istnieje jednak technologia pozwalająca osiągnąć wysoki kontrast na wyświetlaczach LCD – funkcja local dimming, która dzieli podświetlenie LED na różne obszary. Dzięki temu można dopasować jasność podświetlenia w każdym z wydzielonych obszarów osobno w zależności od wyświetlanego obrazu. Taki zabieg powoduje różnice jasności i reprodukcji barw na ekranie.

Z funkcją local dimming
Bez funkcji local dimming

ColorEdge PROMINENCE CG3145, zaprojektowany jako monitor referencyjny do profesjonalnego color gradingu, nie należy do najtańszych. Oczywiście są jeszcze inne etapy tworzenia materiałów – nagrywanie, edycja, proces kompozycji – które nie wymagają aż tak precyzyjnej reprodukcji. Właśnie z myślą o nich EIZO oferuje usługę aktualizacji, zapewniającą (pseudo) obsługę HDR w monitorach ColorEdge CG. Polega ona na dodaniu krzywych gamma Perceptual Quantization (PQ1000 i PQ300) oraz Hybrid-Log Gamma (HLG) do trybów wyświetlania. Aktualizację krzywych gamma poleca się twórcom, którzy chcą mieć możliwość podglądu materiałów w standardzie HDR niższym kosztem.

Aby dowiedzieć się więcej, przeczytaj artykuł „Wszystko, co chciałbyś wiedzieć o HDR”.