Gamma è un'operazione non lineare utilizzata per codificare e decodificare i valori di luminosità in immagini fisse e in movimento. Gamma definisce come il valore numerico di un pixel si relaziona alla sua luminosità effettiva.
Sebbene la gamma sia estremamente difficile da comprendere nella sua interezza, i fotografi digitali devono capire come si applica alle immagini. La gamma influisce notevolmente sull'aspetto di un'immagine digitale sullo schermo di un computer.
Comprendere la gamma in fotografia
Il termine gamma è applicabile in termini fotografici quando vogliamo visualizzare le immagini sui monitor dei computer. Il concetto è fondamentale da cogliere (anche solo in superficie) perché l'obiettivo è quello di realizzare un'immagine digitale che appaia il più bella possibile su monitor calibrati e non calibrati.
Ci sono tre tipi di gamma coinvolti nelle immagini digitali:
- Gamma di immagini — Utilizzato dalla fotocamera o dal software di conversione delle immagini RAW per convertire l'immagine in un file compresso (JPG o TIFF).
- Visualizza gamma — Utilizzato dai monitor dei computer e dalle schede video per regolare l'output di un'immagine. Una gamma di visualizzazione elevata creerà immagini che appaiono più scure e con maggiore contrasto.
- Gamma di sistema — Chiamato anche gamma di visualizzazione , questo è rappresentativo di tutti i valori gamma utilizzati per visualizzare l'immagine:in pratica, l'immagine e la gamma di visualizzazione combinate. Ad esempio, la stessa immagine visualizzata su un monitor con una gamma di visualizzazione diversa non avrà lo stesso aspetto perché la gamma di visualizzazione risultante è diversa.
Dalla fotocamera al monitor:come funziona Gamma
Il dispositivo attribuisce a ciascun pixel di un'immagine digitale un valore che ne determina il livello di luminosità. Il monitor del computer utilizza questi valori durante la visualizzazione di immagini digitali. Tuttavia, i monitor dei computer CRT e LCD devono utilizzare questi valori in modo non lineare, il che significa che i valori devono essere regolati prima che vengano visualizzati.
Immediatamente fuori dalla scatola, il monitor di un computer di solito ha una gamma di 2,5. La maggior parte delle moderne fotocamere DSLR scatta con uno spazio colore di sRGB o Adobe RGB e funzionano su una gamma di 2,2.
Se lo schermo di un computer non è calibrato per corrispondere a questa gamma 2.2, le immagini di una DSLR possono sembrare troppo scure e del tutto diverse dalle foto scattate in primo luogo.
Perché la calibrazione del monitor è importante?
Per tutti questi motivi, è stata impostata una serie di standard in modo che l'immagine sul tuo monitor assomigli alla stessa immagine sul monitor del tuo vicino. Il processo si chiama calibrazione e utilizzato per ottenere una lettura gamma specifica simile a qualsiasi altro monitor calibrato al mondo.
Nessun fotografo, dilettante o professionista, dovrebbe lavorare con le immagini senza avere un monitor calibrato. È un piccolo investimento che assicurerà che ogni fotografia che condividi online o invii a un laboratorio fotografico per essere stampata abbia l'aspetto che desideri. Non serve assolutamente creare un'immagine che ti sembri bella e orribile per tutti gli altri!
È possibile utilizzare una varietà di metodi per calibrare il monitor, comprese le opzioni hardware e software.
È improbabile che l'utente medio di computer calibri il proprio monitor. Questo può rappresentare un problema per i fotografi che cercano di mostrare (o vendere) le loro immagini. Tuttavia, se il tuo monitor è calibrato, hai fatto del tuo meglio per mostrare le tue immagini nel miglior modo possibile. In modo ottimale, puoi spiegare la calibrazione al tuo pubblico che vede un'immagine troppo scura o troppo chiara.