Zarządzanie kolorem na urządzeniach mobilnych
W poprzednich częściach cyklu omówiliśmy podstawy zarządzania barwą oraz rolę profilów ICC w utrzymaniu spójnych kolorów między urządzeniami. Teraz przyjrzymy się, jak zagadnienia te wyglądają w świecie urządzeń mobilnych: smartfonów i tabletów. Dzisiejsze urządzenia mobilne dysponują ekranami o wysokiej rozdzielczości i coraz częściej o szerokim gamucie kolorów (wide color gamut), takim jak DCI-P3 czy Display P3, wykraczającym poza standard sRGB. Oznacza to, że poprawne zarządzanie barwą staje się równie istotne jak na komputerach. Jednak zarządzanie kolorem na platformach mobilnych przez lata miało swoje ograniczenia. W tej części przedstawimy, jak systemy zarządzania kolorem ewoluowały w Androidzie i iOS do roku 2025, jakie przestrzenie barw obsługują współczesne urządzenia mobilne, jak wygląda kwestia zgodności barw w mobilnych przeglądarkach i aplikacjach graficznych, a także poruszymy temat kalibracji ekranów, softproofingu oraz synchronizacji kolorów między urządzeniami. Na koniec omówimy nowe podejście do koloru w interfejsach: dynamiczne kolory Material You oparte o model HCT.

Android – od sRGB do szerokiego gamutu
Przez długi czas system Android nie oferował pełnego wsparcia dla zarządzania kolorem. W praktyce oznaczało to, że przestrzeń kolorów wszystkich aplikacji była traktowana domyślnie jako sRGB. Urządzenia z ekranami o szerszym gamucie (np. pokrywającymi DCI-P3) często wyświetlały treści z nadmiernym nasyceniem, ponieważ kolory poza sRGB nie były korygowane – system zakładał, że każdy wyświetlacz odpowiada standardowemu sRGB. Sytuacja zaczęła się zmieniać wraz z Androidem 8.0 Oreo (2017), który wprowadził podstawowy system zarządzania kolorem (CMS, czyli color management system) dla grafik i interfejsu. Programiści aplikacji zyskali możliwość oznaczenia, że ich aplikacja jest szerokogamutowa i może wyświetlać treści w szerszej przestrzeni (np. zdjęcia Display P3). Od strony technicznej Android udostępnił wtedy API do obsługi bardziej zaawansowanych przestrzeni barwnych: obrazy z osadzonym profilem ICC mogły być dekodowane do odpowiednich przestrzeni (ColorSpace API), a system mógł przekazywać je do ekranu z uwzględnieniem profilu urządzenia.
W kolejnych latach wsparcie to dojrzewało. Współczesne (2023–2025) wersje Androida obsługują już zarządzanie barwą w wielu obszarach: np. przeglądarka zdjęć, aplikacje systemowe i przeglądarki internetowe na Androidzie potrafią rozpoznawać profil ICC dołączony do obrazu i odpowiednio dostosować kolory. Spójność kolorów nie jest jednak gwarantowana we wszystkich aplikacjach – wiele prostych programów nadal zakłada sRGB i ignoruje profile, co może skutkować niepoprawnymi kolorami na ekranach o szerokim gamucie. Dla przykładu, zdjęcie w Adobe RGB wyświetlone w aplikacji bez zarządzania barwą może wyglądać wyblakle lub, przeciwnie, zbyt jaskrawo, w zależności od trybu wyświetlacza.
Producenci urządzeń znaleźli częściowe sposoby na obejście tych ograniczeń przed pełnym wdrożeniem CMS. W ustawieniach wielu smartfonów z Androidem można spotkać tryby ekranu: np. „Naturalny” (sRGB) i „Żywy” lub „Kinowy” (DCI-P3). Przełączenie na tryb naturalny ogranicza gamut wyświetlacza do sRGB, co poprawia odwzorowanie kolorów dla treści niezarządzanych – kolory stają się wierniejsze oryginałowi kosztem mniejszego nasycenia. Z kolei tryb szerokogamutowy pozwala w pełni wykorzystać możliwości ekranu, ale wymaga, aby wyświetlana treść była „świadoma” przestrzeni barw. Na urządzeniach Google Pixel od kilku generacji domyślnie aktywny jest tryb szerokiego gamutu (gdy dostępna jest treść z profilem), lecz w ustawieniach ekranu użytkownik może wybrać opcję dostosowującą nasycenie. Flagowe smartfony innych marek (Samsung, OnePlus, Xiaomi) również oferują prawie 100% pokrycia DCI-P3 i fabryczne kalibracje: np. Samsung w trybie „Basic” celuje w dokładne sRGB, a w trybie „Vivid” prezentuje poszerzony gamut (około DCI-P3), aby kolory były efektowniejsze.
W Androidzie ograniczeniem bywa fakt, że profil ekranu, a więc jego charakterystyka kolorystyczna, jest najczęściej na stałe wbudowany w system i niedostępny do modyfikacji. To oznacza, że przeciętny użytkownik nie wgra własnego profilu ICC dla wyświetlacza telefonu tak, jak może to zrobić na komputerze. Wyjątkiem są pewne profesjonalne rozwiązania lub potrzeba roota – na rynku pojawiały się aplikacje (np. od producentów kolorymetrów) pozwalające wygenerować korekcję barw dla danego egzemplarza telefonu, ale działały one tylko wewnątrz tych aplikacji lub wymagały specjalnych uprawnień. Generalnie jednak Android polega na fabrycznej kalibracji i udostępnionych trybach. Na szczęście jakość fabrycznej regulacji ekranów znacznie się poprawiła, a najlepsze modele mają współczynnik ΔE poniżej 2 w trybie sRGB, co oznacza bardzo wysoką wierność barw.

iOS – precyzyjne zarządzanie barwą od Apple
W świecie Apple kwestie koloru na urządzeniach mobilnych od dawna traktowane są priorytetowo. System iOS (oraz pokrewny system iPadOS) ma natywne zarządzanie kolorem, podobnie jak macOS. Apple stosuje spójną platformę ColorSync, dzięki czemu profil ekranu i profile barw obrazów są uwzględniane systemowo. Już od modelu iPhone 7 (2016) urządzenia Apple zaczęły używać ekranów Display P3 o poszerzonym gamucie. iOS został do tego przygotowany: aplikacje systemowe (Safari, Zdjęcia itp.) automatycznie renderują zdjęcia i grafiki zgodnie z profilem ICC dołączonym do pliku. Przykładowo zdjęcie o przestrzeni Adobe RGB wyświetlone w Safari na iPhonie zostanie skonwertowane do gamutu wyświetlacza tak, by zachować poprawny wygląd, a użytkownik nawet nie zauważy, że nastąpiła transformacja. Podobnie jest z materiałami wideo; np. wideo HDR w standardzie DCI-P3 czy Rec.2020 zostanie odpowiednio zmapowane do właściwości ekranu (w tym przypadku dochodzi jeszcze mapping jasności HDR).
Apple przywiązuje dużą wagę do wiernego odwzorowania kolorów na swoich urządzeniach. Każdy egzemplarz iPhone’a i iPada jest fabrycznie kalibrowany, a to oznacza pomiar parametrów wyświetlacza (gamma, punkt bieli, charakterystyka barw podstawowych) i wprowadzenie subtelnych korekt w oprogramowaniu urządzenia. Dzięki temu kolory na różnych iPhone’ach tego samego modelu są praktycznie identyczne. Wysoka dokładność sprawia, że twórcy mogą zaufać wyświetlaczom Apple w większym stopniu. Oczywiście nawet tutaj obowiązują pewne zasady. Apple wprowadziło bowiem funkcję True Tone, która dostosowuje balans bieli ekranu do oświetlenia otoczenia – dla komfortu użytkowania, ale kosztem zgodności kolorystycznej. Osoby pracujące z kolorem na iPadzie czy iPhonie zwykle wyłączają True Tone oraz tryb Night Shift (ciepłe barwy wieczorem), aby ekran trzymał neutralne parametry.
W systemie iOS cała grafika interfejsu również jest opracowana z myślą o różnych przestrzeniach barwnych. Deweloperzy aplikacji mają możliwość dołączania do swoich programów grafik @1x (sRGB) i @2x (Display P3). Dzięki temu np. ikonka aplikacji lub ilustracja UI automatycznie wygląda żywiej na ekranie P3, ale nadal poprawnie (tylko mniej intensywnie) na starszych ekranach sRGB. To pokazuje, że zarządzanie kolorem jest w ekosystemie Apple wszechobecne: system wie, jakie są możliwości danego wyświetlacza, i potrafi dostosować każdy element, od zdjęcia po kolor przycisku w aplikacji.
Warto zauważyć, że choć Apple nie pozwala użytkownikom na samodzielne zmiany profilu ekranu, to w praktyce nie ma takiej potrzeby przy typowym użytkowaniu. Ekrany Retina, a zwłaszcza te z serii urządzeń Pro (np. iPad Pro), cechują się nie tylko szerokim gamutem (P3), ale i świetną spójnością między urządzeniami. To dlatego wielu fotografów i grafików używa iPadów jako narzędzi do prezentacji portfolio czy nawet mobilnej edycji. Dają im pewność, że obraz jest względnie bliski temu, co zobaczą na skalibrowanym monitorze.
Przeglądarki mobilne a kolory
Przeglądarki internetowe na urządzeniach mobilnych odzwierciedlają podejście ich twórców do zarządzania barwą. Safari na iOS jest przykładem wzorowej implementacji: korzysta z mechanizmów ColorSync, dzięki czemu wszystkie obrazki z dołączonym profilem (czy to JPEG, PNG czy CSS z definicją koloru w formacie LCH/P3) są wyświetlane prawidłowo. Oznacza to, że projektant stron może użyć np. obrazu w Display P3, a użytkownik iPhone’a z ekranem P3 zobaczy pełnię tych kolorów, podczas gdy użytkownik starszego modelu (sRGB) zobaczy wersję skonwertowaną do sRGB. Wszystko dzieje się automatycznie i niewidocznie.
Na Androidzie sytuacja jeszcze kilka lat temu była mniej oczywista. Przeglądarka Chrome długi czas ignorowała profile ICC i traktowała wszystko jak sRGB. Jednak wraz z unowocześnieniem bibliotek graficznych Androida (Skia i spółka) także Chrome i inne mobilne przeglądarki zaczęły respektować zarządzanie barwą. Obecnie Chrome na nowoczesnym Androidzie obsługuje profil ICC w obrazach (podobnie jak desktopowa wersja), a Firefox Preview/Focus również wprowadzają poprawne wyświetlanie barw. W rezultacie oglądając zdjęcia w sieci na dobrym smartfonie z Androidem, możemy spodziewać się podobnej jakości kolorów jak na komputerze, choć oczywiście w granicach możliwości ekranu. Pewną luką pozostaje tu aspekt kolorów CSS i grafik SVG, bo nie wszystkie mobilne przeglądarki w pełni wspierają nowe specyfikacje kolorów (np. użycie koloru Display-P3 w CSS może być zignorowane). Jednak standardem de facto stało się, że obrazy rastrowe są przynajmniej dopasowywane kolorystycznie.
W przypadku multimediów mobilnych warto wspomnieć o HDR. Wielu producentów wyposaża flagowce w wyświetlacze zgodne z HDR10/Dolby Vision. Oznacza to nie tylko wyższy zakres dynamiki, ale i szersze przestrzenie barw (Rec.2020). Odtwarzanie takiego materiału, np. w aplikacji Netflix lub YouTube na telefonie, wymaga złożonego zarządzania kolorem i jasnością. Sygnał HDR musi bowiem zostać zmapowany do właściwości ekranu. Nowoczesne systemy mobilne radzą sobie i z tym: korzystają z metadanych HDR i profilu ekranu, by wykonać tone-mapping i gamut-mapping w czasie rzeczywistym. Dla użytkownika sprowadza się to do możliwości oglądania filmu z kinowymi kolorami i jasnymi rozbłyskami bez klipowania. To również element zarządzania barwą (choć specyficzny), świadczący o dojrzałości platform mobilnych.

Mobilne aplikacje graficzne i fotograficzne
Coraz więcej osób edytuje zdjęcia i tworzy grafiki bezpośrednio na urządzeniach mobilnych. Czy aplikacje mobilne dorównują desktopowym pod względem zarządzania kolorem? W dużym stopniu tak (a przynajmniej te z wyższej półki). Na przykład Adobe Lightroom Mobile i Adobe Photoshop (iPad) korzystają z tego samego silnika co wersje desktopowe, co oznacza pełne wsparcie dla profili kolorów. Lightroom na tablecie potrafi otworzyć plik RAW zawierający profil aparatu, wewnętrznie obrabia obraz w szerokiej przestrzeni (ProPhoto/Linear), a następnie wyświetla na ekranie z użyciem profilu tego ekranu. Gdy eksportujemy zdjęcie z Lightroom Mobile, możemy wybrać przestrzeń docelową (sRGB, Adobe RGB itp.), podobnie jak na komputerze.
Popularna wśród rysowników aplikacja Procreate na iPadzie pozwala wybrać profil kolorystyczny przy tworzeniu nowego płótna. Do dyspozycji jest sRGB, Display P3, a nawet CMYK (z konkretnym profilem drukarskim). To niezwykle zaawansowana funkcja, dzięki której ilustrator może od razu pracować w przestrzeni docelowej (np. CMYK Japan Color 2011 Coated dla mangi do druku) albo przynajmniej stworzyć obraz P3, wykorzystując pełnię możliwości iPada. Podobnie aplikacje Affinity Photo i Designer na iPadOS oferują profesjonalne opcje zarządzania barwą, nie ustępując ich wersjom desktopowym.
Na Androidzie wybór profesjonalnych aplikacji graficznych jest nieco mniejszy, ale wciąż obecne są np. Adobe Lightroom czy Snapseed do edycji zdjęć. Lightroom na Androidzie również obsługuje profile i eksport w Adobe RGB. Wyzwanie stanowi raczej hardware, bo niewiele tabletów z Androidem ma ekrany dorównujące iPadowi Pro pod względem odwzorowania barw. Niemniej urządzenia takie jak Samsung Galaxy Tab S oferują coraz lepsze pokrycie gamutu i mogą być używane w terenie do wstępnej obróbki. Ważne jest, by aplikacja zachowała profil przy eksporcie pliku. Renomowane programy tak właśnie robią, dzięki czemu gdy przeniesiemy zdjęcie z telefonu na komputer, zachowa ono tag przestrzeni (np. eksportowany JPEG będzie miał osadzony profil ICC sRGB lub inny wybrany).
Softproofing (podgląd wydruku) to funkcja, która na urządzeniach mobilnych dopiero raczkuje. Niektóre aplikacje mobilne (np. Affinity Publisher na iPadzie) zaczynają oferować podgląd z profilem CMYK, ale w większości przypadków jeśli chcemy przeprowadzić soft proof, musimy przenieść projekt na komputer. Ekrany mobilne, choć bardzo dobre, nie są skalibrowane pod kątem symulacji papieru i brak im np. możliwości regulacji punktu czerni jak w monitorach graficznych. Dlatego profesjonalny retusz finalny i tak odbywa się na komputerze, jednak mobilne narzędzia sprawdzają się znakomicie na etapie wstępnej edycji czy selekcji zdjęć.
Kalibracja i profilowanie ekranów mobilnych
Czy da się skalibrować smartfon lub tablet tak, jak profesjonalny monitor? Jak wspomniano wyżej, systemy mobilne nie przewidują prostego mechanizmu wgrania własnego profilu ICC dla wyświetlacza. Ekrany są kalibrowane fabrycznie i użytkownik wybiera ewentualnie jeden z predefiniowanych trybów (sRGB/P3). Nie oznacza to jednak, że kalibracja jest niemożliwa. Istnieją dedykowane rozwiązania – np. X-Rite (obecnie Calibrite) oferowało aplikację ColorTRUE, która w połączeniu z kolorymetrem potrafiła zmierzyć ekran tabletu i zastosować korekcję w wyświetlanym obrazie. Jednak taka kalibracja działała tylko wewnątrz tej konkretnej aplikacji, służącej jako przeglądarka zdjęć. Niektóre nowsze kalibratory umożliwiają pomiar ekranu telefonu i generują raport, ale bez możliwości wgrania korekty do systemu.
Mimo to można zadbać o kilka rzeczy samodzielnie. Po pierwsze, wybierając tryb „precyzyjny”/„naturalny” w ustawieniach wyświetlacza, zapewnimy sobie najlepszą fabryczną zgodność z wzorcem (najczęściej sRGB). Po drugie, warto unikać oglądania i oceniania zdjęć na mobilnych ekranach w ekstremalnych warunkach oświetleniowych, ponieważ czujniki jasności i funkcje typu True Tone mogą modyfikować obraz. Do oceny koloru najlepiej wyłączyć te ulepszenia i ustawić standardowe parametry ekranu. Po trzecie, jeśli korzystamy z wielu urządzeń (np. laptop + tablet + telefon), dobrze jest sprawdzić, czy wszystkie pokazują zbliżony obraz. Można otworzyć to samo zdjęcie na iPhonie, iPadzie i komputerze, a jeśli na którymś urządzeniu kolory znacząco odbiegają od reszty, warto zbadać ustawienia (np. czy profil monitora na komputerze jest poprawny, czy telefon nie jest w trybie Vivid).
Trzeba też pamiętać, że nawet najlepszy tablet nie zastąpi referencyjnego monitora graficznego. Do zaawansowanej pracy z kolorem, zwłaszcza pod kątem druku, nadal niezastąpiony jest wysokiej klasy monitor z kalibracją sprzętową, jak np. profesjonalne monitory EIZO ColorEdge. Urządzenia mobilne mogą służyć jako wygodne, dodatkowe narzędzia: pozwalają sprawdzić, jak obraz wygląda na innym wyświetlaczu, zaprezentować klientowi projekt w terenie czy wykonać szybkie poprawki. Jednak ostateczne decyzje dotyczące koloru lepiej podejmować na skalibrowanym monitorze o znanym spektrum.
Synchronizacja kolorów między urządzeniami
W środowisku, w którym korzysta się równolegle z komputerów i urządzeń mobilnych, istotna jest spójność kolorów (color consistency) między tymi urządzeniami. Chcemy przecież, aby zdjęcie przygotowane na komputerze stacjonarnym wyglądało tak samo na tablecie i odwrotnie. Aby to osiągnąć, należy przede wszystkim stosować te same profile przestrzeni barw. Oznacza to, że jeśli np. publikujemy zdjęcie w internecie, zapisujemy je w sRGB z osadzonym profilem ICC. Wówczas zarówno telefon, jak i komputer zinterpretują je jako sRGB. Gdy pracujemy nad projektem w Adobe RGB na komputerze, a chcemy go pokazać na iPadzie, najlepiej przekonwertować plik do sRGB lub P3 (w zależności od tego, co obsługuje iPad) i dołączyć profil. Unikniemy w ten sposób niespodzianek.
Życie mogą nam ułatwić także ekosystemy takie jak Adobe Creative Cloud. Jeśli wywołujemy zdjęcia w Lightroom Classic na komputerze i synchronizujemy je do chmury, to w Lightroom Mobile pojawią się one już w odpowiedniej, spójnej kolorystycznie postaci (Adobe dba o zarządzanie barwą w ramach swoich aplikacji). Podobnie pliki udostępniane przez iCloud Photos między komputerem Mac a iPhonem zachowują kolory, bo systemy mają wspólne podstawy ColorSync. Problem może się pojawić, gdy przenosimy obraz poprzez aplikacje, które kolory ignorują, np. wysyłając zdjęcie przez komunikator, który usuwa profile ICC. W takich przypadkach urządzenie odbiorcy traktuje obraz jak sRGB, co może być błędne. Rozwiązaniem jest korzystanie z formatów i aplikacji, które zachowują informacje o kolorze.
W praktyce uzyskanie perfekcyjnego zgrania wszystkich ekranów bywa trudne. m.in. z uwagi na różnice technologiczne (OLED vs LCD, różne podświetlenie, subpiksele) oraz warunki użytkowania. Dlatego ważne jest wypracowanie pragmatycznego podejścia: ufać urządzeniom skalibrowanym i referencyjnym, a mobilne wykorzystywać jako dodatkowy podgląd. Jeśli na skalibrowanym monitorze EIZO obraz wygląda dobrze, to na większości nowoczesnych mobilnych wyświetlaczy również będzie wyglądał poprawnie (o ile przestrzeń barw została właściwie uwzględniona).

Dynamiczne kolory Material You i model HCT
Ostatnim tematem, który warto poruszyć w kontekście urządzeń mobilnych, jest nowe podejście do kolorystyki interfejsu użytkownika. Chodzi o tzw. dynamiczne kolory wprowadzone w Androidzie 12 (Material You). Nie dotyczy ono bezpośrednio zarządzania barwą w sensie reprodukcji koloru, ale świadczy o rosnącej roli zaawansowanej kolorymetrii w projektowaniu UX. Material You potrafi automatycznie generować paletę kolorów interfejsu na podstawie tapety użytkownika. Aby te dynamiczne palety były estetyczne i czytelne, Google opracowało własny model barw HCT (Hue, Chroma, Tone). HCT bazuje na postrzeganiu barw przez człowieka, łącząc cechy modelu CIE LAB i przestrzeni barw CAM16. W uproszczeniu, HCT pozwala określić kolor poprzez jego odcień (Hue), nasycenie (Chroma) i jasność (Tone), tak by zmiany tych parametrów przekładały się na przewidywalne zmiany w odbiorze wizualnym.
Dzięki modelowi HCT system jest w stanie wziąć dowolny kolor dominujący z tapety i wygenerować z niego całą gamę odcieni o różnych jasnościach, zachowując jednocześnie spójny charakter. Paleta wygenerowana przez Material Color Utilities, czyli bibliotekę udostępnioną programistom, spełnia kryteria kontrastu (WCAG) i wygląda harmonijnie niezależnie od wybranego koloru bazowego. Przykładowo, jeśli tapetą jest zielony las, system wygeneruje paletę zieleni i kolorów dopełniających o różnych tonacjach dla akcentów UI, przy czym tekst na tych tłach wciąż będzie czytelny. Osiągnięto to właśnie dzięki podejściu opartemu na percepcji: HCT uwzględnia, że np. żółty jest postrzegany jako jaśniejszy niż niebieski przy tej samej wartości RGB, więc tone (odpowiednik jasności) jest dostosowany dla różnych wartości nasycenia (hue).
Material You i dynamiczne kolory to przykład tego, jak zaawansowana nauka o kolorze przenika do sfery użytkowej. Choć nie jest to zarządzanie barwą w sensie ICC, pokazuje zmieniające się podejście: interfejsy stają się personalizowane kolorystycznie, ale w kontrolowany sposób. Co istotne, Android generuje te kolory dynamicznie, ale w przestrzeni LAB/HCT, a następnie renderuje je na ekranie z uwzględnieniem profilu wyświetlacza. Nawet więc tak „subiektywny” element, jak personalizacja kolorów UI, korzysta pośrednio z dobrodziejstw zarządzania barwą.
Zarządzanie kolorem na urządzeniach mobilnych bardzo się rozwinęło. Android nadrabia zaległości, a iOS od lat wyznacza standardy dbałości o odwzorowanie barw. Dzięki coraz lepszemu sprzętowi i implementacji CMS nasze smartfony i tablety mogą służyć nie tylko do codziennego przeglądania treści, ale i do poważnej pracy z kolorem. Jednocześnie mobilne innowacje, takie jak dynamiczne kolory Material You, pokazują nowe sposoby myślenia o barwie. W połączeniu z tradycyjnym zarządzaniem barwą (profilami ICC, kalibracją) pozwala to mieć nadzieję, że w przyszłości kolory będą prezentować się tak samo niezależnie od tego, gdzie je zobaczymy.