REC

Suggerimenti su riprese video, produzione, editing video e manutenzione delle apparecchiature.

 WTVID >> Guida alla produzione video >  >> video >> Video clip

4:2:0 vs. 4:2:2 vs. Raw:una guida per videografi al sottocampionamento cromatico

Le videocamere dedicate e persino le fotocamere ibride offrono ora una vasta gamma di formati per la ripresa video, ma qual è la differenza tra 4:2:0, 4:2:2 e Raw e come influirà sulle riprese? Conoscere i dettagli tecnici può essere utile per prendere una decisione informata su quale formato utilizzare.

La profusione di diversi formati di registrazione offerti nel menu video della tua fotocamera a volte può sembrare opprimente, ma se non togli nient'altro da questo articolo, eccone l'essenza:a seconda di fattori come la risoluzione, la profondità del colore e la frequenza dei fotogrammi del tuo filmato, operazioni come la codifica e la decodifica del video, la modifica del tuo filmato o l'archiviazione e il recupero da file possono essere estremamente dispendiose in termini di dati, tempo e calcolo. I formati video dai nomi piuttosto criptici menzionati nel titolo di questo articolo sono la risposta a questo problema, offrendo ai videografi una varietà di opzioni per trovare compromessi tra la qualità del filmato e la quantità di informazioni (o dati) necessarie per archiviarlo.

Il grande compromesso:qualità dell'immagine rispetto all'archiviazione dei dati

In generale, i formati video di qualità più elevata richiederanno la maggior parte dei dati per l'archiviazione, mentre i formati di qualità più bassa ne richiederanno meno. La quantità di dati necessari per archiviare le riprese video può avere importanti conseguenze pratiche. I set di dati più grandi generati dai formati video di alta qualità creano file più grandi che presentano alcuni potenziali svantaggi. Per archiviare il filmato sono necessari volumi più grandi di supporti di memorizzazione digitale e i tempi di scrittura più lunghi per questi file video di alta qualità possono anche imporre limiti alla capacità della fotocamera di acquisire filmati. La scelta di un formato video di qualità superiore potrebbe, ad esempio, costringerti a riprendere con una frequenza fotogrammi e/o una risoluzione inferiori per consentire al flusso di dati della fotocamera di tenere il passo.

E i problemi non finiscono con la fotocamera.

Una volta caricati questi file più grandi sul tuo computer per la modifica, il tempo e le risorse computazionali necessarie per leggere ed elaborare questi file sono corrispondentemente maggiori e il tuo computer potrebbe persino avere difficoltà a completare queste attività se non dispone della memoria o della potenza di calcolo necessarie per gestire l'elaborazione di set di dati così grandi.

Il lato positivo è che i formati video di qualità superiore ti daranno—beh... filmati di qualità superiore (ovviamente)—ma possono anche offrire un flusso di lavoro più semplice e risultati superiori all'interno della suite di editing, qualcosa di cui parleremo più avanti.

Un semplice esempio di questo tipo di compromesso tra qualità dell'immagine e dimensione del file che tutti comprendono è la profondità di bit. I pixel sul sensore di una fotocamera digitale avranno una profondità di bit specificata per la codifica dei colori durante la registrazione di video o foto. Un pixel con una profondità di colore di 8 bit può registrare 2⁸ o 256 colori per ciascuno dei canali rosso, verde e blu (RGB), per un totale di circa 16,7 milioni di colori. Un sensore della fotocamera che offre una profondità di colore a 12 bit, al contrario, può registrare circa 68,3 miliardi di colori. La resa cromatica del sensore a 12 bit sarà ovviamente di gran lunga superiore nella maggior parte dei casi a quella del sensore a 8 bit, ma un'immagine da 20 megapixel catturata con il sensore a 12 bit richiederà 90 megabyte per archiviare i dati di colore, mentre il sensore a 8 bit richiede 60 megabyte (supponendo che in entrambi i casi non sia presente alcuna compressione dell'immagine).

L'immagine a colori a 8 bit qui sotto (per gentile concessione di Wikipedia) illustra bene il tipo di compromesso tra qualità e dimensione del file di cui abbiamo discusso. Sullo sfondo blu del cielo puoi vedere chiaramente un esempio del fenomeno delle bande che può essere causato dall'uso di una profondità di bit inferiore per il colore.

Bande visibili in un'immagine a 8 bit (per gentile concessione di Steve F, Wikipedia)

È abbastanza facile capire come la scelta della profondità di bit per l'immagine video possa influenzare il compromesso tra qualità dell'immagine e dimensione del file, ma che dire di questi altri formati video dai nomi più misteriosi come 4:2:2 e 4:2:0?

Il sistema di colori vecchio di 90 anni che utilizziamo ancora oggi

Per comprendere questi formati video, dobbiamo fare un passo oltre il mondo del semplice colore RGB e osservare un diverso sistema di codifica del colore emerso alla fine degli anni '30, quando gli ingegneri televisivi stavano iniziando a pensare all'introduzione delle trasmissioni a colori. In modo analogo al modo in cui Microsoft nel 1985 aveva bisogno che il suo nuovo sistema operativo Windows fosse retrocompatibile con tutti i PC che già eseguivano il precedente sistema operativo su disco (DOS), gli ingegneri televisivi riconobbero che durante il periodo di transizione in cui la televisione a colori era ancora in fase di introduzione, le nuove trasmissioni a colori avrebbero dovuto essere compatibili anche con i televisori in bianco e nero che la maggior parte delle persone ancora utilizzava. Nel 1938 un ingegnere francese, Georges Valensi, inventò un ingegnoso sistema per separare la componente in bianco e nero dell'immagine dalle componenti a colori. Per le nuove trasmissioni a colori, i televisori in bianco e nero esistenti utilizzerebbero semplicemente la componente in bianco e nero del segnale, mentre i nuovi televisori a colori ricostruirebbero un'immagine a colori da questa componente in bianco e nero in combinazione con due canali a colori aggiuntivi.

Nonostante la sua età, il sistema di Valensi, denominato YCbCr, è ancora in uso oggi ed è, di fatto, il fondamento dei nostri moderni metodi di codifica video (compresi i formati 4:2:2 e 4:2:0 di cui parleremo qui). Invece di separare un'immagine nei canali rosso, verde e blu, il sistema YCbCr separa l'immagine in due ampie componenti denominate luminanza e crominanza. La componente luminanza (la Y in YCbCr) è essenzialmente la porzione in bianco e nero dell'immagine, mentre la componente crominanza è costituita da due canali di differenza cromatica:un canale di differenza blu (Cb) e un canale di differenza rosso (Cr).

L'aspetto veramente ingegnoso di questo sistema è che sfrutta direttamente il modo in cui l'occhio umano risponde in modo diverso alla luminanza (toni chiari e scuri) e al colore, e lo fa in un modo molto intelligente che ci consente di codificare immagini video accurate utilizzando meno informazioni.

Poiché l'occhio umano è più sensibile alla luminanza che al colore, è possibile codificare le informazioni sul colore a una risoluzione inferiore ed essere comunque in grado di ricostruire un'immagine accurata. Nel caso di un segnale televisivo trasmesso, ciò corrisponde all'utilizzo di una larghezza di banda inferiore per le componenti chroma (colore) rispetto alla componente luma (luminanza). Per un'immagine video digitale, possiamo sfruttare questo stesso concetto di risparmio di spazio utilizzando una frazione più piccola dei nostri dati per codificare i componenti della crominanza a bassa risoluzione.

Ma come dice lo spot pubblicitario, aspetta, c'è di più...

I nostri occhi sono anche più sensibili alla regione verde centrale dello spettro visibile rispetto ai colori più vicini alle estremità rossa o blu dello spettro, il che significa che possiamo ridurre ulteriormente la quantità di dati che dobbiamo archiviare per il nostro fotogramma video memorizzando meno informazioni sui colori rosso e blu rispetto alle informazioni sul colore verde:e questo è esattamente ciò che YCbCr può fare.

Ma a questo punto potresti chiederti:"Dove sono esattamente le informazioni sul canale verde? Abbiamo il componente luma (bianco e nero) e i canali chroma per le differenze di colore rosso e blu. Stiamo buttando via il canale verde?"

La risposta è no.

Poiché i nostri occhi sono più sensibili al verde, le informazioni sul colore verde vengono preservate nel componente luma ad alta risoluzione. Quando le informazioni sul colore verde sono necessarie per la ricostruzione dell'immagine originale in RGB, possono essere facilmente estratte dai dati luma.

Per inciso, questa maggiore sensibilità dell'occhio umano al verde si riflette anche nella disposizione dei filtri colorati nella matrice Bayer (o X-Trans se usi Fuji) che probabilmente si trova davanti al sensore della tua fotocamera digitale e viene utilizzato per ricostruire il colore dall'immagine di pura luminanza vista dal sensore. Se guardi il diagramma qui sotto, vedrai che ci sono due filtri verdi sulla matrice Bayer per ciascun filtro rosso o blu, ponderando maggiormente la componente verde dell'immagine in conformità con la risposta cromatica naturale dei nostri occhi.

Filtro Bayer (per gentile concessione di Amada44, Wikipedia)

Sottocampionamento cromatico:un trucco intelligente per risparmiare sull'archiviazione dei dati

Poiché i nostri occhi sono più sensibili alla luminanza di un'immagine che ai suoi colori, possiamo sacrificare una certa risoluzione nelle informazioni sul colore, in particolare nei canali blu e rosso, senza compromettere troppo la precisione della nostra immagine. Ciò ci consente di ridurre ulteriormente la quantità di dati di cui abbiamo bisogno per archiviare l'immagine, con vantaggi corrispondenti quando si tratta di eludere alcuni dei problemi con set di dati di grandi dimensioni di cui abbiamo già discusso. Un modo per ottenere questa riduzione dei dati è utilizzare selettivamente alcune informazioni sulla crominanza provenienti da determinati pixel tramite un metodo noto come sottocampionamento della crominanza.

Considera questa serie di 8 pixel di colore nell'immagine originale.

Matrice di pixel colorati| ©Gordon Webster

Possiamo separare i componenti luminanza e crominanza di questo array di pixel in questo modo.

Separare un'immagine nei componenti luminanza e crominanza | ©Gordon Webster

Prima di andare avanti, è importante notare che i pixel CbCr vengono mostrati come una singola combinazione di pixel dei canali Cb e Cr, ma nel sistema YCbCr, ciascuno di essi verrebbe effettivamente codificato come due pixel Cb e Cr separati.

Noterai che ci sono due file di pixel con quattro pixel in ciascuna riga, ed è da qui che provengono i nomi dei formati di sottocampionamento della crominanza 4:2:0 e 4:2:2. Il primo numero è la larghezza del blocco di pixel su cui stiamo campionando i colori, in questo caso 4. Il secondo numero è il numero di pixel di cui campioniamo i colori nella prima riga. Il terzo numero è il numero di pixel di cui campioniamo i colori nella seconda riga.

L'immagine successiva mostra questi protocolli di sottocampionamento in modo più chiaro e ci aiuterà a comprendere i dettagli di ciascun protocollo.

Sottocampionamento cromatico | ©Gordon Webster

Nel formato 4:2:0, campioniamo due pixel nella prima riga di CbCr (pixel 1 e 3) e nessun pixel nella seconda riga. Quindi impostiamo i pixel 1 e 2 nella prima riga sul valore del pixel 1 e i pixel 3 e 4 sul valore del pixel 3. Poiché non abbiamo campionato alcun pixel nella seconda riga, impostiamo semplicemente il valore di ciascun pixel nella seconda riga sul valore del pixel sopra di esso nella prima riga. Aggiungendo nuovamente il canale luma si ottiene il risultato che vediamo nella parte inferiore del diagramma.

Dal diagramma puoi vedere che con il sottocampionamento 4:2:0 stiamo sacrificando metà della nostra risoluzione cromatica verticalmente e metà orizzontalmente.

Nel formato 4:2:2, campioniamo due pixel nella prima riga (pixel 1 e 3) e gli stessi due pixel nella seconda riga. Quindi impostiamo i pixel 1 e 2 nella prima riga sul valore del pixel 1 e i pixel 3 e 4 sul valore del pixel 3, ma questa volta, poiché abbiamo campionato anche due pixel nella seconda riga, possiamo eseguire l'operazione equivalente per i pixel nella seconda riga.

Dal diagramma, puoi vedere che con il sottocampionamento 4:2:2 stiamo sacrificando metà della nostra risoluzione di crominanza in orizzontale ma mantenendo tutta la nostra risoluzione verticale originale.

Ma che dire del protocollo 4:4:4 nella terza colonna?

Noterai che con il sottocampionamento 4:4:4 stiamo utilizzando tutti i valori CbCr in ogni riga e quindi non stiamo sacrificando alcuna risoluzione del colore. Il protocollo 4:4:4 è quello che chiamiamo formato di codifica video senza perdita di dati e, se non l'avessi già indovinato, il sottocampionamento 4:4:4 è più comunemente definito raw.

Torniamo quindi alla domanda sulla qualità dell'immagine e sull'archiviazione dei dati

Diamo prima un'occhiata alla quantità di dati che ciascuno di questi protocolli di sottocampionamento ci salva quando codifichiamo le nostre riprese video. La buona notizia è che non è nemmeno necessario memorizzare questi numeri perché esiste una regola empirica molto semplice per capirlo solo dal nome del protocollo. Ti darò questa rapida regola tra un attimo, ma vediamo come funziona.

Se codifichiamo tutti gli 8 pixel utilizzando YCbCr (4:4:4) con una profondità di bit di 8, abbiamo bisogno di 8 bit per ciascun pixel luma, 8 bit per ciascun pixel Cb e 8 bit per ciascun pixel Cr, per un totale di 192 bit per codificare l'intero array di 8 pixel. Questo è il requisito di archiviazione per il formato raw senza perdita di dati, che possiamo prendere come base poiché non stiamo risparmiando spazio utilizzando questo protocollo.

Per 4:2:2, abbiamo solo quattro pixel Cb e quattro Cr invece di otto ciascuno, quindi possiamo codificare l'intero array di 8 pixel utilizzando solo 128 bit, con un risparmio di un terzo.

Per 4:2:0, abbiamo solo due pixel Cb e due Cr invece di otto ciascuno, quindi possiamo codificare l'intero array di 8 pixel utilizzando solo 96 bit, con un risparmio della metà.

La regola pratica semplice e veloce per capire quanto fa risparmiare ciascun formato video è sommare i numeri nel nome del protocollo e dividere per 12. Quindi 4:4:4 =12/12 =1, 4:2:2 =8/12 =0,67 e 4:2:0 =6/12 =0,5. Facile!

E la qualità delle immagini?

Con tutti i discorsi sull'eliminazione della risoluzione del colore, potresti essere tentato di pensare che 4:2:0 sia una sorta di protocollo veloce e sporco per catturare filmati di bassa qualità utilizzando uno spazio di archiviazione minimo, ma potrebbe sorprenderti apprendere che 4:2:0 è in realtà lo standard per supporti video digitali di alta qualità come Blu-ray. Se consideriamo un'analogia con il mondo della fotografia, scartiamo effettivamente un'enorme quantità di informazioni quando convertiamo un'immagine dal suo formato RAW originale a JPEG, ma possiamo comunque realizzare stampe a grandezza naturale da un'immagine JPEG se la risoluzione è sufficiente.

In verità, sarebbe difficile vedere molta, se non nessuna, differenza nella maggior parte dei casi tra il video girato utilizzando il formato raw e il video girato utilizzando 4:2:0. Le differenze sono sicuramente presenti se sei determinato a sbirciare i pixel, ma di solito sono sottili e si manifestano principalmente nelle scene in cui la cornice è divisa da bordi netti ai confini di diversi colori. L'immagine seguente mostra un confronto tra i tre protocolli di sottocampionamento discussi qui e, nella vista ingrandita, puoi vedere tracce degli artefatti di sottocampionamento per 4:2:0 e 4:2:2.

Artefatti di sottocampionamento cromatico, per gentile concessione di Janke, Wikipedia

A parte la qualità superiore delle riprese che offre, il video grezzo (4:4:4) brilla davvero quando si tratta di editing. Per tornare alla nostra analogia con la fotografia, molti fotografi professionisti scattano in formato RAW anche se alla fine consegneranno le loro immagini in un formato compresso come JPEG, perché offre loro molta più flessibilità e controllo durante il processo di editing. Lo stesso tipo di approccio è spesso seguito dai videografi professionisti.

Il video raw non è compresso (o utilizza una compressione senza perdita di dati), mantenendo il colore a piena risoluzione per ogni pixel ed evitando qualsiasi problema con artefatti di compressione in fase di editing. Poiché il video non è elaborato, l'editor video ha molta più flessibilità per manipolare e regolare il metraggio, ad esempio impostando il bilanciamento del bianco, recuperando le luci sovraesposte o le ombre scure o applicando la gradazione del colore. Per il lavoro sul chroma key, ad esempio le riprese su uno schermo verde, o qualsiasi tipo di compositing in post-produzione, l'uso di video non elaborati è essenziale per evitare artefatti come frange di colore e bordi frastagliati che possono verificarsi a seguito del sottocampionamento della crominanza.

Quindi, dopo aver letto questo articolo, spero che la prossima volta che accederai al menu video della tua fotocamera, troverai la gamma di opzioni di formati video un po' meno scoraggiante, oltre ad avere un'idea migliore di quali saranno le conseguenze della scelta di un formato rispetto a un altro quando si tratta di archiviare e gestire le riprese.


  1. I 3 modi più semplici per tagliare le clip in Adobe Premiere Pro CC

  2. Mirino:migliora continuamente

  3. Come realizzare un video promozionale

  4. VLC Media Player:regola la velocità di riproduzione video (guida passo passo)

  5. Recensione del software di punteggio musicale:Sony Cinescore

  6. Come esportare video da iMovie:una guida completa per iPhone e Mac

  7. Final Cut Pro:aggiungi e stilizza facilmente il testo sui video (Guida 2024)

  8. CANON XL H1 consente la regolazione dei dettagli della pelle

  9. I 4 migliori editor di sottotitoli per Mac nel 2022

  1. I 3 modi più semplici per tagliare le clip in Adobe Premiere Pro CC

  2. Mirino:migliora continuamente

  3. Come realizzare un video promozionale

  4. VLC Media Player:regola la velocità di riproduzione video (guida passo passo)

  5. Recensione del software di punteggio musicale:Sony Cinescore

  6. Come esportare video da iMovie:una guida completa per iPhone e Mac

  7. Final Cut Pro:aggiungi e stilizza facilmente il testo sui video (Guida 2024)

  8. CANON XL H1 consente la regolazione dei dettagli della pelle

  9. I 4 migliori editor di sottotitoli per Mac nel 2022

Video clip