Che cos’è la fotografia computazionale?

Seguici su Google News

Nell’ambito di smartphone Android e iPhone si parla sempre più di fotografia computazionale: ma di cosa si tratta realmente?

Con questo termine si definiscono diverse tecniche votate all’elaborazione dell’immagine in grado di rendere il singolo scatto migliore rispetto a quanto è stato realmente ripreso dall’obiettivo. Ciò avviene scattando, a livello puramente pratico, più fotografie e combinando assieme le stesse. Attraverso particolari algoritmi poi, viene estrapolata una sorta di “fotografia definitiva” riunendo le migliori caratteristiche di ogni singolo scatto.

Come affermato all’inizio, i dispositivi mobile odierni (grazie a fotocamere di precisione elevatissima), hanno reso questa tecnologia praticamente alla portata di tutti, anche di chi non ha particolare dimestichezza con software di foto editing.

xiaomi fotocamera telescopica

Fotografia computazionale: tecniche sempre più alla portata di tutti

Alcuni produttori di smartphone, come Apple e Google, migliorano continuamente le capacità di scattare foto dei loro dispositivi anno dopo anno senza mai cambiare drasticamente i sensori fisici della fotocamera.

Il modo in cui una fotocamera “cattura” digitalmente una foto può essere diviso approssimativamente in due parti: lo scatto fotografico vero e proprio e l’elaborazione dell’immagine. La prima fase è costituita dal lavoro effettivo dell’obiettivo che cattura la fotografia. È qui che entrano in gioco fattori come le dimensioni del sensore, la velocità dell’obiettivo e la lunghezza focale. In questo processo una fotocamera tradizionale (come una DSLR) riesce ad avere una marcia in più rispetto a un dispositivo mobile che, seppur di fascia alta, risulta in qualche modo “adattato” alla fotografia.

La seconda parte è l’elaborazione delle immagini. Questa fase si avvia quando il software utilizza tecniche di calcolo per migliorare una foto. Le tecniche in oggetto variano a seconda del dispositivo e da produttore a produttore. In genere, però, entrambi i processi lavorano insieme per creare una fotografia impressionante.

Anche i telefoni di fascia alta tendono ad avere sensori minuscoli e lenti relativamente poco prestanti a causa delle loro dimensioni che, per forza di cose, devono essere ridotte. Questo è il motivo per cui gli smartphone attuali devono fare affidamento su metodi di elaborazione delle immagini per creare foto di grande impatto visivo. La fotografia computazionale non è necessariamente più o meno importante dell’ottica fisica: si tratta semplicemente di due fasi diverse.

Ovviamente, una fotocamera tradizionale, ha un vantaggio strategico notevole rispetto a uno smartphone, anche il più costoso. Ciò è dovuto principalmente al fatto che, su una fotocamera, i sensori e le lenti sono molto più grandi, portando a un evidente vantaggio hardware.

Detto ciò però, anche gli smartphone hanno dei vantaggi rispetto alle fotocamere e, in questo caso, entra in gioco la fotografia computazionale.

Una persona utilizza la smartphone alla guida

Le principali tecniche di fotografia computazionale

Esistono alcune tecniche sorprendenti di fotografia computazionale utilizzate dagli smartphone per creare immagini fantastiche. Una di quelle più famose e utilizzate è lo stacking.

Si tratta di un processo in cui più foto vengono scattate da una fotocamera in momenti diversi e con esposizioni o lunghezze focali diverse. I vari scatti, dunque, vengono combinati dal software per conservare i migliori dettagli di ciascuna immagine.

Lo stacking è responsabile della maggior parte degli enormi progressi che si sono verificati nel software di fotografia mobile negli ultimi anni ed è utilizzato nella maggior parte degli smartphone moderni. È anche la tecnologia su cui si basa la fotografia HDR (High Dynamic Range).

Poiché la gamma dinamica di una fotografia è limitata dall’esposizione di quella specifica ripresa, l’HDR scatta un’immagine a diversi livelli di esposizione. Quindi combina le ombre più nere e le luci più luminose per creare una foto con una gamma più ampia di colori. L’HDR è una caratteristica fondamentale di qualsiasi fotocamera per smartphone di fascia alta.

Il pixel binning è un altro processo utilizzato dalle fotocamere degli smartphone con sensori ad alto numero di megapixel. Piuttosto che “impilare” foto diverse una sopra l’altra, combina pixel adiacenti in un’immagine ad altissima risoluzione. L’output finale viene ridimensionato a un’immagine più dettagliata, ma meno grande e a una risoluzione inferiore. A meno di non voler stampare un poster, il risultato appare comunque (almeno all’occhio umano) apprezzabile.

Le fotocamere degli smartphone di oggi sono spesso tarate attraverso una rete neurale, ovvero una serie di algoritmi che elaborano i dati. Queste reti neurali sono in grado di riconoscere ciò che costituisce una buona foto, quindi il software può creare un’immagine piacevole ai nostri occhi.

Altre tecniche piuttosto diffuse

Praticamente ogni fotografia che scattiamo con il nostro smartphone utilizza la fotografia computazionale per migliorare l’immagine, in maniera più o meno accentuata. Negli ultimi anni infatti, sono state gradualmente introdotte delle tecnologie ormai diventate ben note, che utilizziamo quasi senza accorgercene, ma che rientrano in questo tipo di tecnologia. Di seguito elenchiamo le principali.

La Modalità notturna, per esempio, è forse la più comune. Questo processo utilizza tecniche di elaborazione HDR per combinare le foto scattate su una diversa gamma di lunghezze di esposizione per migliorare un’immagine scattata in condizioni di scarsa illuminazione. La foto finale conterrà più dettagli e apparirà più adeguatamente illuminata di una scattata con una singola esposizione.

Leggermente diversa è invece l’Astrofotografia, proposta dai telefoni Google Pixel. Questa modalità infatti, è totalmente votata alle fotografie del cielo notturno, dando il meglio di sé con stelle e corpi celesti.

Anche la modalità ritratto è molto in voga. Questa permette alla foto di concentrarsi su un soggetto, andando a sfocare tutto ciò che è in secondo piano. Utilizza il software per analizzare la profondità di un oggetto rispetto ad altri oggetti nell’immagine, quindi sfoca quelli che sembrano più lontani. La modalità Panorama è anch’essa alquanto diffusa. Questa permette di comporre immagini l’una accanto all’altra e quindi le combina in un’unica grande immagine ad alta risoluzione.

Deep Fusion, è una modalità relativamente recente, introdotta per la prima volta da iPhone 11. Questo processo utilizza la tecnologia della rete neurale per ridurre significativamente il rumore e migliorare i dettagli nelle riprese. È particolarmente utile per acquisire immagini in condizioni di luce medio-bassa indoor.

La Tonalità del colore invece, è un processo dello smartphone per ottimizzare automaticamente il tono di qualsiasi foto scattata. Questo viene applicato prima di modifiche manuali, attraverso filtri o modalità apposite che coinvolgono l’utente.

Le funzioni legate alla fotografia computazionale variano per efficacia a seconda del produttore e del modello specifico di smartphone su cui sono applicate. Per esempio, la Tonalità di colore su dispositivi Google ha generalmente un approccio più “naturale” mentre i modelli Samsung, generalmente, offrono un miglior rapporto di saturazione oltre a contrasti più accentuati.

Seguici su Telegram per ricevere le migliori offerte tech

Chi siamo?

OutOfBit è un progetto nato nel Maggio 2013 da un’idea di Vittorio Tiso e Khaled Hechmi. Il progetto nasce per creare un sito di blogging che sappia differenziarsi ed appagare il lettore al fine di renderlo parte fondamentale del blog stesso.
Entra nello staff
COPYRIGHT © 2023 OUTOFBIT P.IVA 04140830243, TUTTI I DIRITTI RISERVATI.
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram