HDR (High Dynamic Range) nei TV

Quando si parla di HDR è possibile che si pensi alle fotografie ad alta gamma dinamica, modalità presente nella quasi totalità degli Smartphone. HDR non è solo quello fotografico: il concetto di “elevata gamma dinamica” ha fatto il suo ingresso nel mondo del video, sia a livello hardware (Monitor, TV, Videoproiettori), sia nella produzione dei contenuti. HDR in ambito video rappresenta la svolta più importante dopo l’arrivo dell’Alta Definizione, poiché è in grado di portare la qualità dell’immagine a livelli mai visti prima. HDR va ben oltre il 4K, che si riferisce alla sola quantità di pixel presenti nell’immagine e che vengono percepiti dagli occhi umani solo a ridotta distanza di osservazione. HDR è nato per migliorare la qualità dell’insieme di pixel che compongono le immagini.

Come funziona HDR

Per capire come funziona HDR nei TV, perché è una tecnologia rivoluzionaria e quali sono gli elementi di forza di questa tecnologia, è bene partire da alcuni semplici concetti della vita reale. Quando guardiamo la realtà siamo abituati a vederla tramite i nostri occhi, due sensori “eccezionali” in grado di distinguere e percepire enormi differenze di luminosità che sono presenti in natura. Come possiamo guardare direttamente verso il sole, rischiando di venire accecati, possiamo scorgere dettagli incredibili dell’ambiente che ci circonda al chiaro di luna o in una scena illuminata da una flebile candela: i nostri occhi sono in grado di adattarsi a scene dove le differenze tra luce e ombra raggiungono bassi livelli. Si pensi ad un fuoco di artificio che esplode nelle tenebre o ad un faro che illumina la superficie del mare. HDR vuole portare questa capacità di visione, oggi possibile solo tramite i nostri occhi, anche sugli schermi dei televisori (e di videoproiezione). Gli schermi in Alta Definizione (HD e Full HD) sono in grado di rappresentare belle immagini, ma non riescono a gestire gli estremi della gamma, ovvero tutte quelle sfumature di luci e ombre che esistono nel mondo reale e che aiutano a percepire la realtà.

Entrano in gioco a questo punto gli schermi HDR, che riescono a sorpassare questa barriera avvicinandoci alle immagini del mondo reale: questi pannelli sono in grado di restituire una luminosità di picco più elevata grazie all’adozione di nuovi driver, LED, e riescono anche a garantire una palette di colori più ampia grazie a pannelli a 10 bit. I pannelli a 10 bit non sono indispensabili per raggiungere una dinamica più elevata, ma per mantenere una resa eccellente estendendo la gamma servono più colori. Possiamo pensare ad un tessuto elastico: se lo tiriamo per estenderlo si intravedono i fori della maglia, che vanno in qualche modo riempiti se si vuole ridare compattezza. Colori e gamma dinamica vanno infatti di pari passo: tutti i contenuti video tradizionali, dai DVD alle trasmissioni TV, sono registrati a 8 bit e possono quindi sfruttare 16.7 milioni di colori per comporre le immagini, ma se vogliamo rappresentare un’immagine con una dinamica molto più elevata, quindi con molte più sfumature, servono molti più colori.

Ecco perché la ricetta per l’HDR richiede un pannello a 10 bit (capace di riprodurre oltre un miliardo di sfumature di colore) e uno spazio colore più ampio del tradizionale Rec.709. Se i TV HD riescono a visualizzare solo il 35% dei colori presenti nel mondo reale, i TV HDR con pannello a 10 bit arrivano a rappresentarne il 54%, con la possibilità di raggiungere, in futuro, con pannelli a 12 bit, il 76% dei colori visibili. Non è ancora la realtà, ma ci siamo vicini: si potranno visualizzare molti colori che oggi non sono riproducibili da un pannello standard, come ad esempio le difficilissime sfumature metalliche e le cromature con i loro forti riflessi.

Spazio colore

HDR è una realtà concreta e può davvero migliorare la qualità di visione di un televisore: per farlo però deve contribuire l’intera catena, perché non servono solo TV capaci di riprodurre questi contenuti, ma anche videocamere con sensori in grado di catturare l’intera dinamica di una scena e un formato in grado di veicolare queste informazioni. Le videocamere utilizzate per le riprese cinematografiche sono in grado, da qualche anno, di catturare immagini con una dinamica decisamente elevata.

Contenuti e formati HDR, da HDR10 a Dolby Vision

Dal punto di vista dell’utente, una delle “complicazioni” legate ad HDR è l’esistenza di diversi standard. Questo ha conseguenze sia per quanto concerne la scelta dell’hardware da acquistare (i TV possono magari supportare uno standard e non l’altro), sia per quanto riguarda i contenuti.

HDR10, il punto di partenza

Lo standard di base si chiama HDR10 ed è lo standard de facto per i dispositivi e i contenuti HDR. È anche lo standard più semplice da implementare, si fonda su una serie di metadati statici (informazioni descrittive) che vengono trasmessi dalla sorgente al TV all’inizio del contenuto e istruiscono il display sulla presenza di immagini HDR e sulla modalità di gestione. Lo standard è nato per gestire luminosità di picco fino ai 4.000 nit e supporta una profondità colore a 10bit, da cui dipende l’enorme numero di sfumature riproducibili (più di 1 miliardo).

HDR10 è in sostanza la base su cui si fonda HDR: è il metodo più semplice e condiviso per la gestione dei contenuti ad alta gamma dinamica in ambito casalingo. Il fatto di essere open source e non richiedere dunque pagamento di royalties è senz’altro un punto a favore: i TV HDR sono di fatto compatibili con HDR10 e lo standard è “mandatory” (cioè obbligatorio) negli Ultra HD Blu-Ray, mentre Dolby Vision è opzionale. Il formato può contare non solo sul supporto dei produttori di TV ma anche delle console: HDR10 è lo standard usato da PS4, PS4 Pro, Xbox One S e Xbox One X per la riproduzione dei giochi ad alta gamma dinamica.

HDR10+: HDR + Metadati dinamici

Come suggerisce la sigla, HDR10+ è l’evoluzione di HDR10. Presentato al CES 2017, HDR10+ effettua l’attesissimo salto dai metadati statici a quelli dinamici: ciò significa, in poche parole, che con HDR10+ ogni singola scena, e ogni zona di un singolo fotogramma possono essere gestite indipendentemente a livello di luminosità, così da generare un effetto HDR specifico in ogni porzione del contenuto. Sotto questo profilo, HDR10+ assomiglia molto all’altro contendente, Dolby Vision, dal quale comunque si discosta per il supporto del colore a 10bit anziché 12bit.  A differenza di Dolby Vision, HDR10+ è open source.

HLG – Hybrid Log Gamma, HDR delle trasmissioni televisive

HLG è la tecnologia HDR impiegata nelle trasmissioni televisive, nel broadcast. I segnali video HDR non sono solo on-demand, come quelli di Netflix, Amazon, o provenienti da supporto fisico, come i Blu-Ray Ultra HD. Possono essere trasmessi da tradizionali emittenti televisive.
Visto che esistono già HDR10 e Dolby Vision, che bisogno c’era di una nuova variante che complicasse un po’ il tutto? Semplice: con la tecnologia HLG è possibile combinare immagini a gamma dinamica standard (SDR) e HDR in un solo segnale video. In questo modo i TV compatibili HLG riproducono la versione HDR del segnale, mentre i TV non HLG riproducono lo stesso segnale in SDR invece che in HDR. Dal punto di vista delle emittenti televisive, in questo modo è possibile trasmettere un unico segnale che si adatta ad entrambe le visioni.
Per riprodurre un contenuto HLG è necessario che i TV supportino specificatamente questa tecnologia. Questo tipo di trasmissione è utilizzata principalmente da SKY, per irradiare trasmissioni 4K. È necessario stare attenti agli spot di SKY nei quali si parla di HDR, perché un TV che supporta HDR, se non compatibile con HLG, non riprodurrà contenuti HDR provenienti da SKY.

Dolby Vision, l’alternativa di qualità

Dolby Vision è la declinazione Dolby del video ad Alta gamma dinamica. La tecnologia esiste da qualche anno e si fonda su specifiche tecniche avanzate: Dolby Vision supporta metadati dinamici, profondità colore a 12bit e pannelli fino a 10.000 nits di luminosità di picco. Fermo restando che questo è un valore puramente teorico e non esistono pannelli consumer capaci di supportare queste specifiche al 100%.
Nel mercato, però, questa non è l’unica differenza importante con HDR10: Dolby Vision è una tecnologia proprietaria (con royalties da pagare), HDR10 è open source. Inoltre, l’evoluzione di HDR10 (HDR10+) si sta avvicinando a Dolby Vision anche sotto il profilo tecnico grazie all’adozione dei metadati dinamici.

A livello di contenuti le sorgenti sono diverse, sia pur in numero limitato rispetto allo standard HDR10: alcuni Ultra HD Blu-ray offrono sia la versione HDR10 che Dolby Vision, ma è decisamente importante il sostegno di Netflix con diversi contenuti originali che offrono questa codifica.