A cosa serve l'HDR? La spiegazione di tutte le sigle e gli standard

A cosa serve l’HDR? La spiegazione di tutte le sigle e gli standard

A cosa serve l’HDR? E perché è così importante nella scelta di un televisore? Ecco la spiegazione di tutte le sigle da sapere al momento dell’acquisto

Come scegliere una TV HDR se non sappiamo nemmeno cosa significa ed a cosa serve questa sigla? Si tratta di una funzione sempre più presente, che aumenta sensibilmente la qualità delle immagini e il loro impatto sullo spettacolo. Andiamo a scoprire nel dettaglio di cosa si tratta e a cosa serve l’HDR per la vostra esperienza domestica.

I tv HDR che vi consigliamo:

Cosa è l’HDR? E a cosa serve?

HDR, che sta per High Dynamic Range, è una tecnologia sviluppata ormai qualche anno fa e che si incentra sull’ottimizzazione delle immagini. L’occhio umano osserva in QDH con una risoluzione elevatissima, ma le immagini apparse su uno schermo possono non  essere la medesima cosa. L’HDR , che sia automatico o manuale non fa alcuna differenza: laddove attivo presenta l’immagine con un contrasto maggiore fra colori scuri e chiari. Questo potrà sembrare banale, ma ai fini di una visione corretta il miglioramento è incredibile, specialmente sugli schermi di ultima generazione. La capacità dell’HDR di adattarsi alle situazioni e riuscire anche a regolare i contrasti in maniera automatica, è quanto di più spettacolare si possa desiderare, spanne al di sopra dell’immagine standard alla quale siamo abituati.

Quindi, che cos’è l’HDR? E a cosa serve l’HDR? Facile: L’High Dynamic Range è stato sviluppato per venire incontro alle esigenze di quelle aziende che volevano creare televisori sempre più performanti, e sempre più vicine a ciò che l’occhio umano è in grado di creare. Ovviamente c’è da dire che questa tecnologia si applica meglio su schermi di grandi dimensioni. L’HDR infatti da il meglio di sé su una superfice molto ampia, al contrario di schermi al di sotto dei 32 pollici il cui risultato sarebbe impercettibile.

Come funziona l’HDR nel quotidiano?

Immaginate un pannello, di qualunque dimensione. Di qualunque tecnologia esso sia, IPS, AMOLED o OLED, tutti gli schermi in commercio hanno pixel e soprattutto una retro illuminazione. L’illuminazione di uno schermo permette allo schermo stesso di rendere le immagini brillanti e nitide in ogni situazione. Capita però che in alcuni casi la luminosità non sia sufficiente comunque a restituire una immagine perfetta, ed ecco che qui entra in gioco l’HDR. Il pannello è capace tramite i suoi input derivati dalla scheda di controllo, di attenuare la propria luce nei momenti di luce esterna delle immagini, e di intensificare la sua luce nei momenti di buio completo. Laddove questo non bastasse entra in gioco l’HDR.

La sua capacità di bilanciare i colori e renderli saturi o scuri all’occorrenza, fa si che le immagini siano sempre nitide e chiare. I pixel di uno schermo, soprattutto nei pannelli di ultima generazione, hanno la capacità di spegnersi quando vengono illuminati da una luce nera, o quando devono mostrare immagini buie, stesso discorso vale anche per i LED del pannello. Grazie ad una tecnologia chiamata FALD, Full Array Local Dimming, si evita che si possano formare zone di alone o di ombra nello schermo, dato che ogni LED viene controllato in maniera individuale, e riesce a gestire la propria luce in modo uniforme.

A cosa serve l'HDR? La spiegazione di tutte le sigle e gli standard
Immagine in HDR con colori “caricati” (ma naturali)

Lo standard HDR, cosa è e come si calcola

Nel corso del tempo è stato necessario classificare i vari schermi che ancora installavano il primo modello di HDR automatico, con quelli odierni molto più aggiornati. Per questo motivo è nato lo standard HDR, che divide gli schermi fra Ultra HD Premium e True HDR. Nel primo caso abbiamo gli schermi di vecchia generazione, o comunque coloro che non sono capaci di registrare un valore di picco di 1000 nit di luminosità massima, che è stato posto come cifra di mezzo in questa classifica. Si parla di schermi che hanno ancora un HDR semi simulato, e che riescono soltanto a metà a rendere le immagini nitide e chiare fino in fondo. Gli schermi con certificazione True HDR invece non solo arrivano al limite che abbiamo appena detto, ma lo superano di diverse lunghezze, nei maggiori casi anche di due o tre volte. Si parla qui invece di schermi di ultima generazione, con un HDR vero e costante nel corso del tempo, e che riesce, grazie ad un processore abbastanza potente, a migliorare le immagini in tempo reale ed in ogni situazione.

Nei monitor per PC è la medesima cosa?

Si, lo standard per i monitor HDR è il medesimo, ma qui le truffe sono dietro l’angolo. Moltissimi schermi specialmente provenienti da oriente, promettono un HDR che in realtà viene solo simulato, dato che il range di nit tante volte non supera i 400. Questo perché ancora non è stato fissato sia per le aziende che producono i monitor (LG, HP, Philips), ma anche per coloro che creano giochi, film e supporti per PC, uno standard a cui attenersi rispetto ai televisori. Questa cosa secondo gli esperti avverrà nel corso del tempo, e permetterà non solo di avere monitor ancora più dettagliati per l’utilizzo per esempio professionale, ma anche un adeguamento dei sistemi di intrattenimento ed anche dei prodotti correlati a questi ultimi. E serve l’HDR nei monitor? In certi casi (grafica, gaming) assolutamente sì.

Gli standard HDR di cosa hanno bisogno a livello di connettività per essere rispettati?

Una volta che iniziamo a vedere immagini su uno schermo, si presuppone che senza HDR quelle immagini vengano rielaborate a livello di colori e saturazione per stare dietro alla tecnologia base dello schermo. Nei TV HDR di nuova generazione questo non accade più, ma vi è bisogno di una connettività di base assoluta. Primo fra tutti l’HDMI 2.0, la base della connettività per avere un HDR decente e che funzioni a dovere. In secondo luogo abbiamo bisogno di una Display Port 1.2, ma se abbiamo un televisore con una frequenza di aggiornamento a più di 60Hz, allora avremo o dovremo avere in dotazione una Display Port 1.4. Questo è lo standard base per riuscire a godersi le funzionalità dell’HDR in modo totale, unite magari ad un televisore con intelligenza artificiale e con una funzionalità di dimming automatico che eviti sfarfallamenti dell’immagine ed una nitidezza sempre chiara e cristallina in ogni situazione di luce ed ombra.

Come funziona l’HDR per i supporti online e fisici?

Amazon Prime Video ormai già da tempo fornisce uno streaming in HDR 10, lo standard base riconosciuto da tutti quanti come HDR puro e non come riproduzione. Netflix invece ha una storia più complessa alle spalle, dato che fornisce sì lo streaming HDR ma non in automatico, e non è HDR 10. Si tratta quindi in realtà di un UHD Premium. Esistono versioni dei contenuti Netflix in HDR 10, ma nessuno usufruirne per il momento, dato che manca la certificazione di Netflix dei televisori compatibili.

Per quanto riguarda i Blu-Ray la faccenda si fa molto più semplice. Solitamente i contenuti di un Blu-Ray sono disponibili sia per la visione in UHD Premium che in HDR-10, e sono praticamente compatibili con qualunque schermo in commercio. Unica complicazione sono i contenuti nel loro mastering originale. Non tutte le pellicole per il cinema “nascono” in HDR e vanno ritoccate in post produzione. Non è un’operazione facile e spesso si lascia perdere.

E la tv broadcasting?

Per quanto riguarda il Broadcasting (SKY ad esempio), la situazione è molto più complessa, perché in questo ambito può essere trasmesso un flusso per volta. Finirà probabilmente come ai tempi del 3D, in cui SKY si è vista costretta a creare un canale a parte dedicato per trasmettere i contenuti in questo formato. Senza contare che ancora, almeno in Italia, moltissimi utenti sono dotati di decoder vecchissimi, che non supporterebbero un formato così nuovo e così complesso da elaborare.

Dolby Vision, cos’è e come funziona?

Si è fatto strada negli ultimi tempi, ma cosa è esattamente? Dolby Vision è una sorta di HDR di nicchia che spinge il limite (teorico!) del contrasto luminoso fino a 10.000 nits. Un numero davvero impressionante, che comporta una qualità delle immagini incredibile. C’è un solo problema: Dolby richiede dei soldi alle aziende per riuscire a incorporare la sua tecnologia nei loro televisori, ed al momento ben poche se non nessuna azienda ha accettato. Moltissimi, fra cui LG con i suoi nuovi OLED ad esempio, hanno optato per la soluzione standard che non costa assolutamente nulla, ovvero l’HDR 10.

Il formato base che vanta comunque 4000 nits come limite. Pensate che Dolby Vision ne processerebbe di più (10.000 appunto) ma non esistono ancora schermi in grado di sorreggere il carico. Ed è per questo che i TV di nuova generazione sono compatibili con qualunque formato HDR… Tranne il Dolby Vision. Le cose cambieranno (Disney ci sta investendo parecchio) ma oggi il Dolby è un vizio per pochi, e con la tecnologia odierna non ha molto mercato. A cosa serve l’HDR? In poche parole, a “caricare” colori e contrasto, per una migliore esperienza spettatoria. E se volete un TV HDR come si deve, compratene uno con certificazione HDR 10. La sua capacità di rendere le immagini nitide in ogni situazione e di riuscire a coprire uno spettro di colori così ampio, vi lascerà senza fiato ogni volta. Per scegliere quale tv HDR comprare, qui trovate la guida dedicata. Di seguito invece, qualche modello che vi consigliamo personalmente.

1) Tv Samsung QLED Q60R (2019, HDR 10+)

2) Tv LG SK85 (2018, HDR con sistema FALD)

3) Hisense U7B (2019, Dolby Vision ma non sfruttato al massimo)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *