Cosa sono e cosa significano HDR10 e HDR10+ (e non solo)

Un confronto tra i vari formati HDR, anche con HLG e Dolby Vision
Cosa sono e cosa significano HDR10 e HDR10+ (e non solo)
Alessandro Nodari
Alessandro Nodari

Se avete fatto un giro in un negozio di elettronica o semplicemente visitato un sito di ecommerce come Amazon, avrete sicuramente notato che le sigle che vogliono decantare le lodi delle TV sono sempre più numerose e complicate: 4K, OLED, QLED e Neo QLED, smart TV, HDR, Dolby Vision e molto altro. 

Queste parole, che abbiamo incontrato nel nostro approfondimento su come scegliere un televisore, sono tutte collegate alla qualità dell'immagine che un TV ci trasmette, ma in questo articolo vogliamo indagare in maniera specifica il significato di HDR. Cosa vuol dire questo acronimo, qual è la differenza tra HDR10, HDR10+ e le altre varianti come HLG e Dolby Vision e sono solo marketing o migliorano effettivamente il nostro modo di godere delle migliori serie TV? Scopriamolo insieme!  

Indice

HDR10/HDR10+: cosa sono questi due formati

Prima di analizzare la differenza tra HDR10 e HDR10+ bisogna comprendere il significato di HDR. Quando si acquista un televisore, alcuni dei parametri più importanti da tenere presente sono il contrasto e l'accuratezza dei colori, e l'HDR (High Dynamic Range) serve proprio per migliorare questi due aspetti. 

La maggioranza delle TV in circolazione si basa sulle metriche Standard Dynamic Range (SDR), una tecnologia video che rappresenta l'intensità della luce in base alle caratteristiche e ai limiti di luminosità, contrasto e colore di uno schermo a tubo catodico (CRT) e definite oltre trent'anni fa. HDR è una tecnologia molto più recente, introdotta nel 2014, che migliora la qualità dei segnali di visualizzazione cambiando il modo in cui la luminanza e i colori di video e immagini sono rappresentati nel segnale.

HDR10/HDR10+ - SDR

SDR. Fonte: Panasonic

I vantaggi sono numerosi

  • le parti più luminose di un'immagine (alte luci), possono essere più luminose, più colorate e più dettagliate, mentre la luminosità di piccole aree può essere aumentata senza accrescere la luminosità complessiva dell'immagine. In questo modo si possono ottenere riflessi luminosi da oggetti lucenti, stelle luminose in una scena notturna buia e oggetti luminosi e colorati che emettono luce (es. fuoco e tramonto)
  • le parti più scure di un'immagine (ombre o luci basse) possono essere più scure e più dettagliate
  • le parti colorate dell'immagine possono essere ancora più colorate se si utilizza un pannello ad ampia gamma di colori (WCG, come DCI-P3)

HDR10/HDR10+ - HDR

HDR. Fonte: Panasonic

Ora potrebbe però sorgere un po' di confusione, in quanto il dinamismo cromatico e la gamma più ampia di colori spesso attribuiti ai video HDR sono in realtà una conseguenza di un WCG. Mentre i display HDR in genere hanno WCG e i display con WCG sono generalmente HDR, uno non implica l'altro: per esempio ci sono display SDR con WCG. Indipendentemente da tutto questo, quando un WCG è disponibile su un display HDR, l'immagine nel suo insieme può essere più colorata grazie alla gamma più ampia di colori.

Concludendo, HDR consente una rappresentazione delle alte luci più luminosa e dettagliata, ombre più scure e dettagliate e una gamma più ampia di colori più intensi, in pratica immagini più simili a come le vediamo nel mondo reale.

HDR cos'è

SDR vs HDR. Fonte: Monclick

 

A questo punto possiamo parlare di HDR10 e HDR10+.

Introdotto nel 2015, HDR10 è la lo standard HDR più diffuso e come abbiamo visto rispetto ai normali SDR consente un'immagine più del doppio luminosa, con un corrispondente aumento del contrasto (la differenza tra i neri più neri e i bianchi più bianchi) e una tavolozza di colori che ha un miliardo di sfumature, al contrario di 16 milioni.
Ha però delle mancanze, in quanto HDR10 ha una mappatura statica dei toni, cioè metadati (le informazioni per estendere la gamma dinamica delle immagini) statici che vengono inviati con un flusso separato rispetto al segnale video. In pratica questo significa che alla pellicola viene applicata un'unica curva di mappatura dei toni fissa, determinata in base alla scena con la luminanza più elevata. Alcune scene, pertanto, potrebbero essere visualizzate in maniera non ottimale. Di conseguenza, la maggior parte del contenuto avrà una compressione della gamma dinamica e della gamma di colori maggiore del necessario, con scene troppo scure e una scarsa esperienza visiva.

Ecco quindi che nel 2017 è stato introdotto l'HDR10+ (o HDR10 Plus), che aggiunge un sistema di metadati dinamici all'HDR10. La piattaforma, aperta e royalty-free, è stata sviluppata da Samsung, Panasonic e 20th Century Fox. Con i metadati dinamici del formato HDR10+, la curva di mappatura dei toni viene regolata scena per scena al fine di consentire la migliore riproduzione visiva per ciascuna immagine.

HDR10/HDR10+: metadati

Curva dei metadati tra HDR10 e HDR10+. Fonte: Panasonic

 

HDR10/HDR10+: differenze

HDR10+ quadruplica la luminosità massima a 4.000 nits, aumentando così anche il contrasto, mentre come abbiamo visto le aree dello schermo che potrebbero essere state sovrasaturate con HDR10 visualizzeranno tutti i dettagli con HDR10+. Ma non solo, Samsung ha introdotto una tecnologia adattiva HDR10+ che consente ai TV di rilevare la luminosità dello spazio visivo e di apportare micro regolazioni alla luminosità, al contrasto e ad altri paramentri in risposta ai cambiamenti nella stanza.

Differenze HDR10/HDR10+

Differenze tra HDR10 e HDR10+. Fonte: Panasonic

Il problema qui è che, nonostante sia un formato esente da royalty e aperto, HDR10+ è, come abbiamo detto, stato sviluppato da un consorzio di tre società, pertanto, la compatibilità HDR10+ è stata finora limitata ai modelli TV di Samsung e Panasonic. Quindi non c'è molto supporto per HDR10+, anche se qualcosa sta iniziando a muoversi.

Mentre Amazon Prime Video supporta la tecnologia, Netflix e molti altri servizi di streaming devono ancora adottarla. Nell'aprile 2019, la Universal si è impegnata a rilasciare sia i titoli nuovi che quelli arretrati in HDR10+, ma la 20th Century Fox, che curiosamente fa parte del consorzio che ha creato HDR10+, ora sembra adattarsi al Dolby Vision. C'è un motivo dietro a questa scelta, e risiede nel fatto che proprio nel 2019 è stata acquisita da Disney, che invece ha deciso di adottare proprio il Dolby Vision

HDR10/HDR10+ vs HLG

HLG (Hybrid Log Gamma), è uno standard basato sulla funzione di trasferimento HLG sviluppato nel 2015 da BBC e NHK per la visualizzazione ad alta gamma dinamica (HDR) ed è royalty-free. In realtà il formato si chiamerebbe HLG10, ma è comunemente indicato anche come HLG, e oltre ad essere HDR, ha lo spazio colore BT.2020 (qui trovate la spiegazione) e una profondità di bit di 10 bit. 

Lo standard HLG è quello più semplice da implementare e, allo stesso tempo, quello che offre la qualità minore, ma, a differenza di HDR10 ha il vantaggio di essere retrocompatibile con lo standard SDR (in caso il ricevitore supporti lo spazio colore BT.2020) e non appesantisce il segnale televisivo. Per questo è lo standard più usato nelle trasmissioni satellitari o nei live (ad esempio le partite di calcio o le gare di Formula 1).

Nello standard HLG il flusso di metadati è trasmesso all'inizio alla trasmissione insieme al video, quindi per tutto il corso del video, verranno usati gli stessi metadati, il che come abbiamo visto corrisponde alla situazione dell'HDR10 quando ci sono forti differenze di contrasto e luminosità tra scene.

Tutti i televisori moderni lo supportano e se il dispositivo supporta l'HDR, un contenuto HLG verrà visualizzato in HDR, in caso contrario verrà riprodotto in SDR. Poiché è destinato alle trasmissioni in diretta, sono disponibili pochissimi contenuti HLG.

HDR10/HDR10+ vs Dolby Vision

L'abbiamo anticipato parlando di HDR10 e HDR10+, e ora finalmente possiamo parlare del Dolby Vision, probabilmente la migliore certificazione HDR al momento. Sviluppato dai Dolby Laboratories nel 2014 (è stato il primo formato HDR disponibile sul mercato), include metadati dinamici (proprio come HDR10+) per regolare e ottimizzare ogni fotogramma del video HDR in base alle capacità del display del consumatore in un modo che replichi l'intenzione del creatore di contenuti.

Questa tecnologia permette di supportare una profondità di colore fino a 12 bit (rispetto ai dieci dell'HDR 10), una palette colori visualizzabili di 70 miliardi di sfumature e una luminosità dello schermo che raggiunge anche i 10.000 nits teorici, ma gli schermi professionali raggiungono al massimo i 4.000 nits. A differenza di HDR10, Dolby Vision è a pagamento, il che significa che per ogni TV certificato il produttore deve pagare una somma di denaro a titolo di royalty, quindi i TV o i monitor costeranno di più all'utente finale. Inoltre la certificazione Dolby Vision prevede anche una serie di requisiti, necessari per ottenere il massimo dai contenuti HDR, il che garantisce la qualità dei prodotti che lo supportano e, ancora, influisce sul prezzo finale.

I contenuti Dolby Vision non sono al momento diffusi come quelli HDR10, ma se ne possono trovare su Netflix Amazon Prime Video. In ogni caso, i dispositivi Dolby Vision sono retrocompatibili con i contenuti HDR che utilizzano metadata statici (proprio come i contenuti HDR10+), ma utilizzano una tecnologia diversa.

  • come abbiamo visto, HDR10+ aggiunge metadati dinamici al contenuto HDR10, quindi se una TV HDR10+ deve visualizzare un contenuto HDR10, lo fa semplicemente senza i metadati dinamici.
  • per Dolby Vision è più complicato, perché può utilizzare qualsiasi formato HDR statico come "livello di base" e partire da quello per garantire la retrocompatibilità.

Vediamo due esempi pratici:

  • i dischi Blu-ray devono utilizzare HDR10 come livello di metadati statico, il che implica che se un disco Dolby Vision viene visualizzato su un TV HDR10+, questo lo considererà come HDR10
  • nel caso dello streaming video, dove potrebbero non esserci metadati statici, un film Dolby Vision potrebbe non essere dotato di HDR10, quindi un TV HDR10+ riprodurrà il contenuto in SDR.

HDR Pro, Super e Quantum HDR

Ora che abbiamo analizzato tutti i formati HDR, passiamo ad altri termini che vi può essere capitato di incontrare: HDR Pro, HDR Super e Quantum HDR.

Questi in realtà non sono formati standard veri e propri, ma termini commerciali utilizzati da alcuni produttori di pannelli. LG per esempio ha introdotto dei termini come HDR Pro e HDR Super per enfatizzare il supporto all'HDR (introdotto nel 2016) dei propri prodotti (e aggiungere confusione). 

  • HDR Pro è un nome dato ai TV OLED o Nano Cell per specificare il supporto al formato HDR con profondità di colore di 10bit, quindi HDR10
  • HDR Super è invece usato per gli schermi QNED, sempre con profondità di colore di 10 bit.

Samung invece nel 2018 ha introdotto il supporto allo standard HDR10+ e ha pensato bene di dare un nome diverso per distinguere i televisori che lo supportano. Nel suo caso, se sono televisori con tecnologia Quantum Dot, ha unito le parole Quantum e HDR ed è venuto fuori Quantum HDR, che indica il supporto agli standard HDR10 e HDR10+. Per quanto riguarda il numero 12x o 16x che in genere segue questo termine, è in teoria legato alla luminosità massima (12 x 100 nits o 16 x 100 nits), tenendo presente che HDR10 ha una luminosità massima di 1.000 nits e HDR10+ di 4.000 nits.

Mostra i commenti