Georgian Bay – Paesaggio estivo
Cambiare il modo in cui vengono scattate le fotografie
Negli ultimi anni, un certo numero di produttori ha prodotto fotocamere in grado di produrre immagini ad alta risoluzione attraverso qualcosa chiamato Sensor-Shift Technology. Questa tecnologia è stata resa possibile con l'avvento della stabilizzazione dell'immagine corporea (IBIS). I progettisti di fotocamere hanno utilizzato l'IBIS come un modo per ottenere incredibili aumenti della risoluzione dell'immagine o per migliorare le informazioni sul colore delle immagini scattate.
Esistono diversi nomi per questa tecnologia, tra cui Modalità ad alta risoluzione, Sistema di risoluzione Pixel Shifting, Modalità di scatto multiplo Pixel Shift o i nomi più generici di spostamento pixel/spostamento sensore, ma alla fine, i concetti alla base di questa tecnologia sono tutti lo stesso. Più immagini della stessa vista vengono acquisite in modo tale che le immagini vengano impilate e unite per creare un'unica immagine, generalmente grande, ad alta risoluzione.
Ci sono punti di forza e di debolezza di questa nuova tecnologia e capire come funziona può aiutarti a creare immagini migliori se hai una fotocamera in grado di farlo.
NOTA: Poiché i siti Web utilizzano immagini a risoluzione inferiore, le immagini utilizzate in questo articolo sono state ridimensionate e modificate per simulare le differenze tra le immagini ad alta risoluzione e l'output standard delle telecamere. Quando guardi le immagini per intero, le immagini sembrano simili ma quando ti avvicini ai dettagli nelle immagini è quando inizi a vedere le differenze.
Gerbera margherite indoor, risoluzione normale (20 MP) Olympus OMD EM 1 Mark II
Gerbera margherite per interni, alta risoluzione (50 MP) Olympus OMD EM 1 Mark II
Molti approcci alle immagini Sensor-Shift
L'acquisizione di immagini con spostamento del sensore è stata trasformata da costose fotocamere speciali per diventare una funzionalità sempre più disponibile sulle fotocamere più recenti orientate alla risoluzione. Oggi, oltre alla mostruosa H6D-400c di Hasselblad (immagini da 400 Megapixel), ci sono offerte di Olympus, Pentax, Sony e Panasonic.
Queste versioni utilizzano generalmente lo stesso approccio concettuale ma a prezzi molto più accessibili.
Movimento del sensore di spostamento
Chi usa Sensor-Shift?
Indipendentemente dal produttore, l'azione di base dell'acquisizione dell'immagine con spostamento del sensore rimane la stessa. Scatta più immagini ma sposta leggermente il sensore della fotocamera per ciascuna immagine per acquisire più dati dell'immagine e quindi unisci l'immagine.
Spostando il sensore, i dati sul colore dell'immagine migliorano consentendo di risolvere più dettagli superando i problemi intrinseci con i fotositi specifici del colore. Ignorando Hasselblad, i sistemi che utilizzano questa tecnologia includono fotocamere come Olympus OM-D E-M1 Mark II (Micro Four Thirds), Pentax K-1 Mark II DSLR, Sony a7R III e Panasonic Lumix DC-G9 (Micro Quattro Terzi) anche se ce ne sono altri degli stessi produttori.
Tre di queste linee sono fotocamere mirrorless con la Pentax che è una DSLR con sensore di ritaglio. È interessante notare che le fotocamere Panasonic/Olympus adottano un approccio e Pentax/Sony adottano un approccio diverso agli stessi concetti.
I sistemi Olympus/Panasonic utilizzano un approccio che crea immagini ad alta risoluzione molto grandi, mentre i sistemi Pentax e Sony utilizzano lo spostamento del sensore per migliorare le informazioni sul colore di immagini della stessa dimensione. Sia il sistema Pentax che quello Sony consentono anche la separazione delle singole immagini spostate dal sensore, mentre Olympus e Panasonic fondono le immagini impilate in un'unica fotografia.
Olympus OMD EM5 Mark II ha la tecnologia di spostamento del sensore.
Come funziona la tecnologia dei sensori?
Per capire come funziona la tecnologia di spostamento del sensore è necessario anche capire come funziona generalmente un sensore su scala molto piccola. Ai bei tempi della fotografia su pellicola, le fotocamere utilizzavano pellicole fotosensibili per registrare le immagini. Le fotocamere digitali utilizzano un approccio molto diverso per registrare la luce.
Le fotocamere digitali utilizzano fotodiodi fotosensibili per registrare la luce che colpisce il sensore. Nella maggior parte delle fotocamere digitali, ogni fotodiodo ha un filtro colore specifico (rosso, verde o blu), che forma un fotosito. Questi siti fotografici sono disposti in modo da consentire la fusione della luce per vedere il colore dell'immagine che arriva sul sensore.
I fotositi rosso, verde e blu su un sensore sono generalmente disposti secondo uno schema specifico noto come array Bayer (aka matrice Bayer, filtro). Esistono anche altre configurazioni come il sensore Fuji X-Trans (utilizzato su molti dei loro modelli di fotocamere) o Sigma che utilizza un sensore Foveon.
Con una disposizione Bayer, ci sono il doppio dei fotositi verdi rispetto al rosso o al blu perché la visione umana è più in sintonia con la risoluzione dei dettagli in verde. Questa disposizione generalmente funziona bene, ma se ci pensi, su un'immagine, viene creato un pixel di colore fondendo insieme questi siti fotografici.
Il sensore non sa quanto rosso c'è in una posizione del sensore verde o in una posizione del sensore blu, quindi è necessaria l'interpolazione. Questo può creare alcuni artefatti nelle fotografie se guardi molto da vicino e tende a significare che le immagini RAW hanno una messa a fuoco leggermente morbida. Tutte le immagini RAW necessitano di un po' di nitidezza in post-elaborazione (il verde, il rosso e il blu per un pixel vengono fusi insieme).
Schema Bayer dei siti fotografici
Sensori statici
In una normale fotocamera senza IBIS, ogni fotosito registra solo la luce di un colore in quel punto, quindi i dati che registra sono tecnicamente incompleti. È come un secchio che raccoglie luce solo da un colore particolare. Un gruppo di segmenti luminosi nel modello Bayer viene utilizzato per creare un singolo pixel nell'immagine digitale, ma all'interno di quel pixel sono presenti due segmenti verdi, uno blu e uno rosso.
Per fondere insieme l'immagine e mettere un singolo colore in quel pixel, i segnali dal gruppo di fotodiodi vengono risolti insieme. I dati raccolti vengono interpolati tramite un algoritmo di demosaicing in-camera (jpeg) o su un computer (da un'immagine RAW), un processo che assegna i valori per tutti e tre i colori per ogni fotosito in base ai valori collettivi registrati dai fotositi vicini .
I colori risultanti vengono quindi emessi come una griglia di pixel e viene creata una fotografia digitale. Questo è in parte il motivo per cui le immagini RAW hanno una messa a fuoco leggermente più morbida e devono essere rese più nitide nel flusso di lavoro di post-produzione.
Sensori mobili
IBIS significa che i sensori ora si muovono leggermente per adattarsi ai movimenti sottili di una telecamera per mantenere l'immagine stabile. Alcuni produttori affermano che i loro sistemi sono in grado di stabilizzare la combinazione di sensore e/o obiettivo per un equivalente di 6,5 stop.
Lo spostamento del sensore consente a tutti i siti di foto a colori di registrare i dati per ciascuna posizione sul sensore.
Questa stabilizzazione è ottenuta mediante micro regolazioni della posizione del sensore. Per le immagini con spostamento del sensore, vengono utilizzate le stesse micro regolazioni per esporre ciascun fotosito alla luce della singola registrazione dell'immagine. In sostanza, il sensore viene spostato non per adattarsi alle perturbazioni esterne, ma per fare in modo che ogni porzione di un'immagine contenga informazioni a colori.
Photosites piuttosto che pixel
Potresti aver notato il termine photosite invece di pixel. Le fotocamere sono spesso valutate in base ai loro megapixel come misura del loro potere risolutivo, ma questo crea confusione perché le fotocamere non hanno in realtà pixel solo photosite.
I pixel sono nell'immagine prodotta quando vengono elaborati i dati dal sensore. Anche il termine “pixel-shift” che a volte viene utilizzato è fuorviante. I pixel non si muovono, sono i sensori su cui sono presenti dei photosite che si muovono.
Nell'acquisizione di una singola immagine, ogni fotosito registra i dati per la luce rossa, verde o blu. Questi dati vengono interpolati da un computer in modo che ogni pixel nella fotografia digitale risultante abbia un valore per tutti e tre i colori.
Sensori di spostamento
Le telecamere a spostamento del sensore tentano di ridurre la dipendenza dall'interpolazione acquisendo i dati sui colori per il rosso, il verde e il blu per ogni pixel risultante spostando fisicamente il sensore della telecamera. Considera un quadrato di 2×2 pixel preso da una fotografia digitale.
L'acquisizione digitale convenzionale utilizzando un array Bayer registrerà i dati da quattro fotositi:due verdi, uno blu e uno rosso. Tecnicamente ciò significa che mancano dati per la luce blu e rossa nei fotositi verdi, dati verdi e rossi nei fotositi blu e blu e verde nei fotositi rossi. Per risolvere questo problema, i valori di colore mancanti per ciascun sito verranno determinati durante il processo di interpolazione.
Ma se non dovessi indovinare? E se potessi avere il colore effettivo (rosso, blu e verde) per ogni photosite? Questo è il concetto alla base della tecnologia di spostamento del sensore.
Un'immagine a risoluzione normale.
Immergersi in profondità
Considera un quadrato di 2 × 2 pixel su una fotografia digitale creata utilizzando la tecnologia pixel-shift. La prima foto inizia normalmente con i dati registrati dai quattro siti fotografici. Tuttavia, ora la fotocamera sposta il sensore per spostare i siti fotografici e scatta di nuovo la stessa foto ma con un sito fotografico diverso.
Ripeti questo processo in modo che tutti i fotositi abbiano tutta la luce per ogni punto esatto sul sensore. Durante questo processo, per ciascun pixel sono stati acquisiti i dati sulla luce da quattro fotositi (due verdi, uno rosso, uno blu), ottenendo valori di colore migliori per ciascuna posizione e una minore necessità di interpolazione (ipotesi plausibili).
Un'immagine ad alta risoluzione con gli stessi ISO, apertura e velocità dell'otturatore.
L'approccio Sony e Pentax
La modalità di scatto multiplo Pixel Shift di Sony e il sistema di risoluzione Pixel Shifting di Pentax funzionano in questo modo. È importante notare che l'utilizzo di queste modalità non aumenta il numero totale di pixel nell'immagine finale. Le dimensioni dei file risultanti rimangono le stesse, ma la precisione del colore e i dettagli sono migliorati.
Sony e Pentax scattano quattro immagini spostando un intero photosite per immagine per creare una singola immagine. In realtà sta semplicemente migliorando le informazioni sul colore nell'immagine.
L'approccio Olympus e Panasonic
La modalità ad alta risoluzione delle fotocamere Panasonic e Olympus, che utilizzano entrambe sensori Micro Quattro Terzi, adotta un approccio leggermente più sfumato, combinando otto esposizioni prese a ½ pixel l'una dall'altra. A differenza di Sony e Pentax, questo aumenta notevolmente il numero di pixel nell'immagine risultante.
Da un sensore da 20 megapixel, ottieni un'immagine RAW da 50-80 megapixel. C'è solo una singola immagine senza possibilità di accedere alle singole immagini di una sequenza.
Quali sono i vantaggi dell'utilizzo di Sensor-Shift?
L'uso della tecnologia di spostamento del sensore presenta diversi vantaggi. Scattando più immagini, conoscendo le informazioni sul colore per ciascuna posizione del fotosito e aumentando la risoluzione, ottieni tre cose principali. Riduci il rumore, riduci l'effetto moiré e aumenta la risoluzione complessiva delle immagini.
Rumore e risoluzione migliorata
Scattando più immagini con un leggero cambiamento nella posizione del sensore, la risoluzione dell'immagine aumenta ma anche le informazioni sul colore nelle immagini. Ciò consente a immagini simili di consentire una maggiore profondità dell'immagine con colori più uniformi, meno rumore e dettagli migliori.
Un'immagine a risoluzione normale.
Un'immagine ad alta risoluzione.
Ritagliata in base alla risoluzione normale dell'immagine, inizi a vedere il rumore che appare come la grana e la variazione di colore.
Ecco lo stesso ritaglio sulla versione ad alta risoluzione, il colore e il dettaglio sono migliori con meno rumore.
Meno moire
L'effetto moiré è l'aspetto di disturbi o pattern di artefatti che appaiono nelle immagini con pattern regolari stretti. I sensori più recenti tendono ad avere meno problemi con Moire rispetto al passato, ma in alcune immagini apparirà comunque.
La causa dell'effetto moiré tende a essere correlata ai modelli stretti che vengono registrati e la fotocamera ha problemi a risolvere il modello perché ha problemi con i modelli del fotosito del sensore. Le informazioni sul colore per i fotositi Rosso, Verde e Blu hanno problemi con i bordi in questi schemi stretti perché non tutto il colore per una singola posizione viene registrato.
Con lo spostamento del sensore, tutto il colore per ogni posizione è presente, quindi l'effetto moiré tende a scomparire.
Immagine a risoluzione normale.
Immagine ad alta risoluzione con area di ritaglio evidenziata
L'area ritagliata sull'immagine a risoluzione standard:inizia a comparire il rumore (i graffi sulla carta erano presenti prima).
L'immagine a risoluzione più alta ha meno rumore e più dettagli.
Allora perché non usarlo per ogni immagine?
Bene, il motivo principale è che devi scattare più immagini di una singola scena. Ciò significa che questo non funziona davvero bene per i soggetti in movimento. Il processo richiede, come minimo, quattro volte il tempo di esposizione dell'acquisizione di una singola immagine. Questo si traduce in quattro opportunità per far muovere una parte della tua composizione e/o la tua fotocamera durante l'acquisizione dell'immagine, degradando la qualità dell'immagine.
Tali vincoli limitano l'applicazione della tecnologia alla fotografia di nature morte e paesaggi (statici). Qualsiasi movimento nella scena catturata creerà un'area sfocata o pixelata. Questo è un problema per la fotografia di paesaggio se c'è un vento che muove piante o nuvole, nonché aree in cui è presente acqua corrente.
Ciò significa anche che di solito è necessario essere molto stabili e utilizzare un treppiede, sebbene ci siano chiare intenzioni da parte dei produttori di rendere disponibili versioni che consentano lo scatto a mano libera della fotocamera (Pentax ha questa funzione).
Immagine ad alta risoluzione scattata su un treppiede.
Gli artefatti di movimento sono visibili se visti più da vicino.
Quirks di alcuni sistemi
Poiché la tecnologia di spostamento del sensore è stata implementata in modi diversi ea seconda del sistema utilizzato, i problemi sono leggermente diversi. La particolarità principale è che generalmente hai bisogno di un treppiede, quindi niente correre e sparare.
Il sistema Sony ha altre limitazioni per cui non puoi vedere l'immagine finché non elabori le quattro immagini separate insieme. Ciò significa che non è possibile rivedere l'immagine risolta sulla fotocamera. Inoltre, a causa dell'elevato numero di pixel dell'A7R mark III, qualsiasi movimento sottile del treppiede è particolarmente evidente nell'immagine risultante. Per modificare le immagini, devi anche utilizzare il software proprietario Sony per unire le immagini.
Pentax ha alcune caratteristiche interessanti. L'utilizzo dell'applicazione software fornita con la fotocamera consente di indirizzare il movimento utilizzando un algoritmo all'interno del software per rimuovere gli artefatti di movimento. Funziona meglio del software comunemente utilizzato per la manipolazione delle immagini come Adobe.
Il sistema Olympus è in circolazione da un po' di tempo e nell'iterazione più recente dell'Olympus OMD EM1 Mark II, qualsiasi movimento rilevato avrà i pixel interessati sostituiti con parti di una delle singole immagini a risoluzione regolare nelle aree di movimento. Questo crea una risoluzione irregolare ma rende l'immagine migliore per cose come il vento. Inoltre limita soprattutto se c'è molto movimento. Spesso le immagini sembrano un po' pixelate.
Immagine a risoluzione standard di un albero:tutto è nitido.
Un'immagine ad alta risoluzione dello stesso albero ma c'era vento... L'area ritagliata è mostrata nel riquadro giallo.
Area ritagliata espansa:il movimento del vento ha generato alcuni artefatti sull'immagine.
Limitazioni
La sfida più grande che deve affrontare l'acquisizione di immagini con spostamento del sensore è il movimento dei soggetti. Inoltre, il tentativo di associare uno stroboscopio a una fotocamera utilizzando l'acquisizione dell'immagine con spostamento dei pixel può essere complicato dalla velocità di acquisizione dell'immagine, dai limiti di riciclo del flash e da problemi generali di compatibilità. I produttori sono consapevoli di questi problemi e stanno lavorando per risolverli.
Nel complesso, la tecnologia migliorerà solo
Sempre più sistemi utilizzano algoritmi per produrre queste immagini a risoluzione più elevata. Man mano che la tecnologia matura, le implementazioni otterranno risultati sempre migliori, potenzialmente in grado di affrontare il movimento e le condizioni del palmare.
Il vantaggio per i produttori è che vengono prodotte immagini di qualità migliore senza la necessità di sensori ad alta densità di pixel davvero costosi (più economici). I vantaggi per l'utente sono che le immagini possono avere migliori informazioni su rumore e colore per risultati finali migliori.
Buona caccia a quell'immagine perfetta ad alta risoluzione!