Nadeszła era HDR – dowiedz się, co to oznacza dla Twoich urządzeń
HDR (ang. High Dynamic Range) to nowa technologia, która przez wiele osób uważana jest za kolejną wielką rewolucję w dziedzinie obrazowania po technologii 4K. Wychwala się ją przede wszystkim za realistyczne odwzorowanie rzeczywistości – co to jednak oznacza? Czy faktycznie jest się czym zachwycać? Czym różni się HDR dla fotografii i dla filmów? I czego potrzebujesz, by móc wyświetlać materiały w tym standardzie?
Poniższy tekst został przygotowany na podstawie angielskiego tłumaczenia japońskiego artykułu opublikowanego 22 sierpnia 2017 roku na portalu ITmedia. Copyright 2017 ITmedia Inc. Wszystkie prawa zastrzeżone.
Czym jest technologia HDR?
W ciągu ostatnich kilku lat pojęcie HDR zaczęło pojawiać się wszędzie tam, gdzie mowa o technologiach obrazowania. Jest to skrót angielskiego terminu High Dynamic Range, oznaczającego wyświetlanie obrazów z szeroką rozpiętością tonalną. Najłatwiej natknąć się na niego w sklepach ze sprzętem elektronicznym, które coraz częściej wykorzystują obsługę HDR do reklamowania telewizorów.
Słysząc „HDR”, amatorzy fotografii mogą pomyśleć, że chodzi tu o taki sam rodzaj HDR jak w przypadku cyfrowych zdjęć. Choć samo pojęcie HDR rzeczywiście kojarzy się głównie z fotografią, zwłaszcza odkąd aparaty smartfonów takich jak iPhone zaczęły obsługiwać robienie zdjęć w tym standardzie, HDR w fotografii działa zupełnie inaczej niż HDR używane w nowoczesnym sprzęcie wideo.

Różnica między HDR w fotografii i filmie

„Dynamic range” odnosi się do zakresu między najciemniejszymi i najjaśniejszymi obszarami obrazu, który jest w stanie odtworzyć dane urządzenie, zachowując jednocześnie subtelne różnice między odcieniami. Jeśli będąc w mieszkaniu zrobimy zdjęcie, na którym będzie dobrze widać wnętrze pokoju, słoneczny krajobraz za oknem będzie prześwietlony. Jeśli natomiast zrobimy zdjęcie tak, by jasna scena za oknem była dobrze widoczna, wnętrze pokoju wyjdzie za ciemne. Łatwo zaobserwować ten efekt samemu, robiąc zdjęcie zwykłym aparatem cyfrowym albo telefonem.
Przyczyną takiego zjawiska jest zbyt duża różnica między najjaśniejszym (słońce za oknem) i najciemniejszym (wnętrze pokoju) elementem fotografii. Aby wyeliminować ten problem, należałoby poszerzyć rozpiętość tonalną tak, by najjaśniejsze obszary nie były prześwietlone, a najciemniejsze – całkowicie ciemne. Im bardziej uda się zwiększyć ten zakres, tym bardziej realistycznie będzie wyglądało nasze zdjęcie, jego rozpiętość tonalna zbliży się bowiem do rozpiętości tonalnej postrzeganej przez ludzkie oko.
Rozpiętość tonalna spotykana we wszechświecie jest bardzo szeroka, np. Słońce widziane z Ziemi ma jasność na poziomie ok. 1,6 mld cd/m2 (kandeli na metr kwadratowy), podczas gdy typowa jasność spotykana na dworze wynosi ok. 2000 cd/m². Zakres postrzegany przez ludzkie oko to zaledwie 30% zakresu występującego w przyrodzie!
Urządzenia takie jak aparaty fotograficzne są jednak skonstruowane w oparciu o stare standardy z epoki kineskopowej (tzw. SDR – Standard Dynamic Range). Sprzęt SDR potrafi odwzorowywać bardzo wąski zakres jasności, od 0,05 do 100 cd/m². Innymi słowy, obrazy w standardzie SDR oddają zaledwie skrawek tego, co potrafi dostrzec ludzkie oko.

W fotografii
Tryb HDR oferowany przez iPhone’a i inne smartfony bazuje na ujęciach o różnej ekspozycji (jedno dla ciemnych detali, jedno dla jasnych). Na zdjęciach robionych w ten sposób jasne obszary są odwzorowywane w oparciu o jasną ekspozycję, a ciemne obszary w oparciu o ciemną ekspozycję. Pozwala to zapobiec utracie różnych odcieni i daje efekt zbliżony do percepcji ludzkiego oka. Niestety nawet zdjęcie stworzone w wyniku połączenia dwóch ujęć o różnej ekspozycji musi zostać skompresowane do zakresu tonalnego SDR. Choć ciemne i jasne obszary nie tracą całkowicie szczegółów, ta metoda nie poszerza rzeczywistej rozpiętości tonalnej zdjęcia.

W filmie
W kontekście nowoczesnego sprzętu wideo pojęcie HDR odnosi się natomiast do zdolności odwzorowania znacznie poszerzonego zakresu jasności (od 0,0005 do 10 000 cd/m²) bez konieczności kompresji. Łatwo policzyć, że zakres HDR jest stukrotnie większy niż zakres SDR. Oczywiście telewizory z obsługą HDR dostępne obecnie na rynku nie potrafią odtwarzać aż tak dużej rozpiętości tonalnej; standard produkcyjny ITU-R BT.2100 zakłada maksymalną jasność na poziomie 1000 cd/m², a minimalną na poziomie 0,005 cd/m². Nie ma wątpliwości, że obrazy w standardzie HDR wyglądają bardziej realistycznie niż obrazy w standardzie SDR. Sceny z wysokim kontrastem (np. promień słońca wpadający do ciemnego pokoju) zyskują wyrazistość, a sceny zachodu słońca nabierają głębi i realizmu.


Wideo w standardzie HDR: różnica widoczna gołym okiem
Na ten temat napisano już niejeden artykuł, ale w przeciwieństwie do technologii takich jak 4K czy 8K, które stosunkowo łatwo wyjaśnić posługując się samymi liczbami, nie da się w pełni zrozumieć zalet HDR bez porównania wzrokowego. Różnicę trzeba po prostu zobaczyć – a jest ona widoczna już na pierwszy rzut oka. Tym, którzy nie mieli jeszcze okazji, by osobiście obejrzeć obrazy w standardzie HDR, autor tego artykułu z przyjemnością przedstawi własne spostrzeżenia na temat ColorEdge PROMINENCE CG3145, referencyjnego monitora EIZO.

Obrazy HDR na monitorze ColorEdge PROMINENCE
Moją pierwszą myślą było to, że obrazy wyświetlane na monitorze HDR rzeczywiście wyglądają niesamowicie realistycznie. Dotychczas miałem styczność tylko ze zdjęciami HDR tworzonymi przez nakładanie na siebie ujęć o różnej ekspozycji, dlatego spodziewałem się czegoś z przesadnie nasyconymi kolorami. Zamiast tego zobaczyłem obraz, na którym cienie i światła oddane są z niezwykłym realizmem. Dzięki szerokiej rozpiętości tonalnej udało się wiernie odwzorować nawet drobne detale, sprawiając, że wyświetlany na ekranie obraz nabrał głębi. Faktycznie wyglądał jak prawdziwy.
Choć teoretycznie wiedziałem, że ludzkie oko potrafi dostrzec przejścia tonalne na ciemnych obszarach, doświadczenie tego na własnej skórze i tak było olbrzymią niespodzianką. Oglądając nocne zdjęcie przedstawiające miejskie światła odbijające się w wodzie, doskonale widziałem subtelne poruszenia na powierzchni wody w cieniu, a mimo to odbite obok nich światła były jasne i intensywne, bez śladu prześwietlenia czy blaknięcia. Tego rodzaju sceny – łączące głębokie cienie i jasne światła – z reguły trudno jest realistycznie odwzorować, jednak ColorEdge PROMINENCE CG3145 doskonale sobie z tym poradził.
Nawet bez pomocy stojącego obok monitora SDR od razu było widać, że różnica jest ogromna. Oczywiście oglądany przeze mnie model ColorEdge PROMINENCE CG3145 był prototypem przeznaczonym dla profesjonalnych twórców, oferującym lepszą jakość obrazu niż typowy telewizor z obsługą HDR. Mimo to na pewno warto wybrać się do lokalnego sklepu z elektroniką i zobaczyć, jak wyglądają filmy w standardzie HDR.

Czego potrzebujesz, by korzystać z technologii HDR
Ustaliliśmy już, że technologia HDR nie jest tylko chwytem marketingowym i rzeczywiście oferuje lepszą jakość obrazu. Teraz pora odpowiedzieć na pytanie, czego potrzebuje zwykły użytkownik, by z niej korzystać.
Po pierwsze potrzebujemy telewizora obsługującego sygnały HDR10. Będzie nim każdy telewizor reklamowany jako „kompatybilny z HDR”, pamiętaj jednak, że nawet niektóre telewizory 4K nie spełniają tego kryterium.
Istnieją także telewizory, które odbierają sygnały HDR10, ale jednocześnie mają dość niski poziom jasności i kontrast. Oczywiście im lepsza specyfikacja, tym bardziej realistycznie wyglądają wyświetlane obrazy, ale wielu producentów telewizorów w ogóle nie podaje tych parametrów. W takim wypadku można posiłkować się logo Ultra HD Premium. Jego obecność oznacza, że urządzenie otrzymało certyfikat UHD Alliance, gwarantujący zgodność ze standardem HDR.


Nie będziemy szczegółowo omawiać wszystkich wymagań, które muszą spełniać certyfikowane urządzenia. Warto jednak zaznaczyć, że ekran musi mieć minimalną jasność szczytową 1000 cd/m² i maksymalny poziom czerni 0,05 cd/m² (dla wyświetlaczy LCD) lub minimalną jasność szczytową 540 cd/m² i maksymalny poziom czerni 0,0005 cd/m² (dla wyświetlaczy OLED). Tym wymogom nie jest wcale łatwo sprostać, dlatego niemal wszystkie certyfikowane urządzenia są nadal bardzo drogie.
Formaty HDR
Kiedy mamy już odpowiedni wyświetlacz, pora zadbać o materiały w standardzie HDR. Do wyboru są dwa formaty: HDR10 i Dolby Vision. Pierwszy z nich to ustandaryzowany format dla treści HDR. Można spokojnie założyć, że wszystkie materiały reklamowane jako kompatybilne z HDR są kompatybilne z HDR10. Z kolei Dolby Vision to osobny standard HDR stworzony przez korporację Dolby. Ma on większą głębię bitową niż HDR10 (12 bitów zamiast 10), która zwiększa wrażenie realizmu.
Najbardziej interesującym elementem Dolby Vision jest format metadanych. W przypadku HDR10 metadane dotyczą całego materiału (np. filmu), podczas gdy w standardzie Dolby Vision własne metadane ma każda klatka z osobna, co umożliwia dynamiczne zmiany jasności dla różnych scen. Dzięki temu telewizory kompatybilne z Dolby Vision mogą optymalnie wyświetlać cyfrowe materiały, bazując na parametrach jasności danego urządzenia.
Obecnie materiały w standardzie Dolby Vision oferują m.in. Netflix i Hikari TV, japońska telewizja internetowa. Oczywiście potrzebne są także kompatybilne urządzenia. Już teraz na rynku jest ich całkiem sporo – a z pewnością będzie więcej.

Oprócz telewizorów obsługę HDR oferują również konsole do gier wideo, takie jak PlayStation 4 czy Xbox One S. Technologia HDR w grafice komputerowej działa na takiej samej zasadzie, jak w przypadku filmów. Choć standard SDR nadal stanowi istotne ograniczenie, latem 2017 roku ogłoszono wprowadzenie na rynek kilku monitorów gamingowych z obsługą HDR. Można założyć, że rozwój HDR na rynku telewizorów dodatkowo wpłynie na tempo przyjęcia tego standardu przez branżę gamingową.

5 elementów potrzebnych, by poprawić jakość obrazu
Ogólnie rzecz biorąc, na poprawę jakości obrazu składa się pięć czynników: rozdzielczość, głębia bitowa, szybkość klatek, gamut kolorów i jasność. Pierwsze trzy z nich są ściśle powiązane z gęstością pikseli i ulegały dość dynamicznym zmianom. W kwestii gamutu kolorów przez długi czas nic się nie działo, aż parę lat temu wprowadzono szeroką przestrzeń barwną Rec. 2020. Pozostaje więc ostatni czynnik, jasność, i to właśnie jej dotyczy technologia HDR.
Ogólnie rzecz biorąc, na poprawę jakości obrazu składa się pięć czynników: rozdzielczość, głębia bitowa, szybkość klatek, gamut kolorów i jasność. Pierwsze trzy z nich są ściśle powiązane z gęstością pikseli i ulegały dość dynamicznym zmianom. W kwestii gamutu kolorów przez długi czas nic się nie działo, aż parę lat temu wprowadzono szeroką przestrzeń barwną Rec. 2020. Pozostaje więc ostatni czynnik, jasność, i to właśnie jej dotyczy technologia HDR.

Mając na uwadze zainteresowanie branży technologią HDR, EIZO stworzyło monitor ColorEdge PROMINENCE CG3145 dla profesjonalistów zajmujących się tworzeniem materiałów HDR.
ColorEdge PROMINENCE CG3145: monitor HDR dla profesjonalnych twórców
Monitor ColorEdge PROMINENCE CG3145 wykorzystuje panel IPS LCD. Z reguły wyświetlacze LCD (a zwłaszcza IPS) nie potrafią odtwarzać głębokiej czerni. Ciemne obszary obrazu mają więc stosunkowo niski kontrast. Istnieje jednak technologia pozwalająca osiągnąć wysoki kontrast na wyświetlaczach LCD – funkcja local dimming, która dzieli podświetlenie LED na różne obszary. Dzięki temu można dopasować jasność podświetlenia w każdym z wydzielonych obszarów osobno w zależności od wyświetlanego obrazu. Taki zabieg powoduje różnice jasności i reprodukcji barw na ekranie.


ColorEdge PROMINENCE CG3145, zaprojektowany jako monitor referencyjny do profesjonalnego color gradingu, nie należy do najtańszych. Oczywiście są jeszcze inne etapy tworzenia materiałów – nagrywanie, edycja, proces kompozycji – które nie wymagają aż tak precyzyjnej reprodukcji. Właśnie z myślą o nich EIZO oferuje usługę aktualizacji, zapewniającą (pseudo) obsługę HDR w monitorach ColorEdge CG. Polega ona na dodaniu krzywych gamma Perceptual Quantization (PQ1000 i PQ300) oraz Hybrid-Log Gamma (HLG) do trybów wyświetlania. Aktualizację krzywych gamma poleca się twórcom, którzy chcą mieć możliwość podglądu materiałów w standardzie HDR niższym kosztem.
Aby dowiedzieć się więcej, przeczytaj artykuł „Wszystko, co chciałbyś wiedzieć o HDR”.