Profondità di colore

I titoli delle sottosezioni si riferiscono ai bit-per-pixel.

Colore a 1 bitEdit

Articolo principale: Immagine binaria

2 colori, spesso bianco e nero (o qualunque fosse il colore del fosforo del CRT) colore diretto. A volte 1 significava nero e 0 bianco, l’inverso degli standard moderni. La maggior parte dei primi display grafici erano di questo tipo, il sistema X window è stato sviluppato per tali display, e questo è stato assunto per un computer 3M. Alla fine degli anni ’80 c’erano display professionali con risoluzioni fino a 300dpi (lo stesso di una stampante laser contemporanea) ma il colore si dimostrò più popolare.

colore a 2 bitEdit

4 colori, di solito da una selezione di tavolozze fisse. Il CGA, la scala di grigi delle prime NeXTstation, i Macintosh a colori, l’Atari ST a media risoluzione.

3-bit colorEdit

8 colori, quasi sempre tutte combinazioni di rosso, verde e blu a piena intensità. Molti dei primi home computer con display TV, inclusi lo ZX Spectrum e il BBC Micro.

4-bit colorEdit

16 colori, solitamente da una selezione di palette fisse. Usato dall’EGA e dal minimo comune denominatore dello standard VGA ad alta risoluzione, Macintosh a colori, Atari ST a bassa risoluzione, Commodore 64, Amstrad CPC.

5-bit colorEdit

32 colori da una palette programmabile, usato dal chipset originale Amiga.

8-bit colorEdit

Articolo principale: 8-bit color

256 colori, di solito da una tavolozza completamente programmabile. La maggior parte delle prime workstation Unix a colori, VGA a bassa risoluzione, Super VGA, Macintosh a colori, Atari TT, Amiga AGA chipset, Falcon030, Acorn Archimedes. Sia X che Windows fornivano sistemi elaborati per cercare di permettere ad ogni programma di selezionare la propria tavolozza, spesso risultando in colori errati in qualsiasi finestra diversa da quella con il focus.

Alcuni sistemi mettevano un cubo di colore nella tavolozza per un sistema a colori diretto (e così tutti i programmi avrebbero usato la stessa tavolozza). Di solito venivano forniti meno livelli di blu rispetto ad altri, poiché l’occhio umano normale è meno sensibile alla componente blu che al rosso o al verde (due terzi dei recettori dell’occhio elaborano le lunghezze d’onda più lunghe) Le dimensioni popolari erano:

  • 6×6×6 (colori web-safe), lasciando 40 colori per una rampa di grigio o voci di tavolozza programmabili.
  • 8×8×4. 3 bit di R e G, 2 bit di B, il valore corretto può essere calcolato da un colore senza usare la moltiplicazione. Usato, tra gli altri, nella serie di computer del sistema MSX2 all’inizio e alla metà degli anni ’90.
  • un cubo 6×7×6, lasciando 4 colori per una tavolozza programmabile o grigi.
  • un cubo 6×8×5, lasciando 16 colori per una tavolozza programmabile o per i grigi.

12-bit colorEdit

4096 colori, di solito da una tavolozza completamente programmabile (anche se spesso era impostato su un cubo di colori 16×16×16). Alcuni sistemi Silicon Graphics, sistemi Color NeXTstation, e sistemi Amiga in modalità HAM.

Alto colore (15/16-bit)Modifica

Articolo principale: Alto colore

Nei sistemi ad alto colore, due byte (16 bit) sono memorizzati per ogni pixel. Il più delle volte, ad ogni componente (R, G e B) vengono assegnati 5 bit, più un bit inutilizzato (o usato per un canale maschera o per passare al colore indicizzato); questo permette di rappresentare 32.768 colori. Tuttavia, un’assegnazione alternativa che riassegna il bit inutilizzato al canale G permette di rappresentare 65.536 colori, ma senza trasparenza. Queste profondità di colore sono talvolta usate in piccoli dispositivi con un display a colori, come i telefoni cellulari, e sono talvolta considerate sufficienti per visualizzare immagini fotografiche. Occasionalmente vengono usati 4 bit per colore più 4 bit per l’alfa, dando 4096 colori.

Il termine “alto colore” è stato recentemente usato per indicare profondità di colore maggiori di 24 bit.

18-bitModifica

Quasi tutti gli LCD meno costosi (come i tipici tipi nematici ritorti) forniscono colori a 18 bit (64×64×64 = 262.144 combinazioni) per ottenere tempi di transizione del colore più veloci, e usano il dithering o il controllo del frame rate per approssimare il vero colore a 24 bit-per-pixel, o buttano via interamente 6 bit di informazioni sul colore. Gli LCD più costosi (tipicamente IPS) possono visualizzare una profondità di colore di 24 bit o superiore.

Vero colore (24 bit)Edit

Tutti i 16.777.216 colori (ridimensionati, clicca sull’immagine per la risoluzione completa)

24 bit usano quasi sempre 8 bit ciascuno di R, G e B (8 bpc). A partire dal 2018, la profondità di colore a 24 bit è utilizzata praticamente da tutti i display di computer e telefoni e dalla stragrande maggioranza dei formati di archiviazione delle immagini. Quasi tutti i casi di 32 bit per pixel assegnano 24 bit al colore, e i restanti 8 sono il canale alfa o inutilizzati.

224 dà 16.777.216 variazioni di colore. L’occhio umano può discriminare fino a dieci milioni di colori e poiché il gamut di un display è più piccolo della gamma della visione umana, ciò significa che questo dovrebbe coprire quella gamma con più dettagli di quanto possa essere percepito. Tuttavia, i display non distribuiscono uniformemente i colori nello spazio di percezione umana, quindi gli esseri umani possono vedere i cambiamenti tra alcuni colori adiacenti come bande di colore. Le immagini monocromatiche impostano tutti e tre i canali allo stesso valore, ottenendo solo 256 colori diversi e quindi, potenzialmente, un banding più visibile, dato che l’occhio umano medio può distinguere solo tra circa 30 sfumature di grigio. Alcuni software tentano di fare il dither del livello di grigio nei canali di colore per aumentare questo, anche se nel software moderno questo è più spesso usato per il rendering subpixel per aumentare la risoluzione spaziale sugli schermi LCD dove i colori hanno posizioni leggermente diverse.

Gli standard DVD-Video e Blu-ray Disc supportano una profondità di bit di 8 bit per colore in YCbCr con sottocampionamento della croma 4:2:0. YCbCr può essere convertito senza perdite in RGB.

I sistemi Macintosh si riferiscono al colore a 24 bit come “milioni di colori”. Il termine true color è talvolta usato per indicare ciò che questo articolo chiama colore diretto. È anche spesso usato per riferirsi a tutte le profondità di colore maggiori o uguali a 24.

Colore profondo (30-bit)Edit

Il colore profondo consiste di un miliardo o più colori. 230 è circa 1,073 miliardi. Di solito si tratta di 10 bit ciascuno di rosso, verde e blu (10 bpc). Se viene aggiunto un canale alfa della stessa dimensione, allora ogni pixel prende 40 bit.

Alcuni sistemi precedenti mettevano tre canali a 10 bit in una parola a 32 bit, con 2 bit inutilizzati (o usati come canale alfa a 4 livelli); il formato file Cineon, per esempio, usava questo. Alcuni sistemi SGI avevano convertitori digitale-analogico a 10 (o più) bit per il segnale video e potevano essere impostati per interpretare i dati memorizzati in questo modo per la visualizzazione. I file BMP definiscono questo come uno dei suoi formati, ed è chiamato “HiColor” da Microsoft.

Le schede video con 10 bit per componente hanno iniziato ad arrivare sul mercato alla fine degli anni ’90. Un primo esempio fu la scheda Radius ThunderPower per il Macintosh, che includeva estensioni per QuickDraw e plugin di Adobe Photoshop per supportare l’editing di immagini a 30 bit. Alcuni venditori chiamano i loro pannelli a 24-bit di profondità di colore con FRC pannelli a 30-bit; tuttavia, i veri display a colori profondi hanno 10-bit o più di profondità di colore senza FRC.

La specifica HDMI 1.3 definisce una profondità di bit di 30 bit (così come profondità di 36 e 48 bit).A questo proposito, le schede grafiche Nvidia Quadro prodotte dopo il 2006 supportano 30-bit deep color e le schede Pascal o successive GeForce e Titan quando accoppiate con lo Studio Driver come fanno alcuni modelli della serie Radeon HD 5900 come la HD 5970. La scheda grafica ATI FireGL V7350 supporta pixel a 40 e 64 bit (profondità di colore a 30 e 48 bit con un canale alfa).

La specifica DisplayPort supporta anche profondità di colore superiori a 24 bpp nella versione 1.3 attraverso “VESA Display Stream Compression, che utilizza un algoritmo visivamente senza perdite a bassa latenza basato su DPCM predittivo e spazio colore YCoCg-R e consente risoluzioni e profondità di colore maggiori e un consumo energetico ridotto.”

Al WinHEC 2008, Microsoft ha annunciato che le profondità di colore di 30 bit e 48 bit saranno supportate in Windows 7, insieme all’ampia gamma di colori scRGB.

High Efficiency Video Coding (HEVC o H.265) definisce il profilo Main 10, che permette 8 o 10 bit per campione con il sottocampionamento della croma 4:2:0. Il profilo Main 10 è stato aggiunto alla riunione HEVC di ottobre 2012 sulla base della proposta JCTVC-K0109 che ha proposto di aggiungere un profilo a 10 bit a HEVC per le applicazioni consumer. La proposta affermava che questo era per consentire una migliore qualità video e per supportare lo spazio colore Rec. 2020 che sarà utilizzato da UHDTV. La seconda versione di HEVC ha cinque profili che consentono una profondità di bit da 8 bit a 16 bit per campione.

A partire dal 2020, alcuni smartphone hanno iniziato a utilizzare la profondità di colore a 30 bit, come il OnePlus 8 Pro, Oppo Find X2 & Find X2 Pro, Sony Xperia 1 II, Xiaomi Mi 10 Ultra, Motorola Edge+, ROG Phone 3 e Sharp Aquos Zero 2.

36-bitEdit

Utilizzare 12 bit per canale di colore produce 36 bit, circa 68,71 miliardi di colori. Se si aggiunge un canale alfa della stessa dimensione, allora ci sono 48 bit per pixel.

48-bitEdit

Utilizzando 16 bit per canale di colore si ottengono 48 bit, circa 281,5 trilioni di colori. Se viene aggiunto un canale alfa della stessa dimensione, allora ci sono 64 bit per pixel.

I software di editing delle immagini come Photoshop hanno iniziato a usare 16 bit per canale abbastanza presto per ridurre la quantizzazione sui risultati intermedi (cioè se un’operazione viene divisa per 4 e poi moltiplicata per 4, perderebbe i 2 bit inferiori dei dati a 8 bit, ma se venissero usati 16 bit non perderebbe nessuno dei dati a 8 bit). Inoltre, le fotocamere digitali erano in grado di produrre 10 o 12 bit per canale nei loro dati grezzi; poiché 16 bit è la più piccola unità indirizzabile più grande di quella, usarla permetterebbe di manipolare i dati grezzi.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.