Capire l’esposizione

Mettiamo il caso voi foste dei novizi in fatto di fotografia e vi trovaste di fronte ai simboli che vedete nella foto qui a sinitra…geroglifici vero? Per non parlare poi di parolacce come esposizione, iso, stop, diaframmi aperture e via discorrendo.

Con questo post intendo darvi qualche dritta cercando di non essere prolisso con esempi immagini ed anche una bellissima applet alla fine del post con la quel potrete esercitarvi su quanto appreso. Iniziamo?

Il Triangolo dell’esposizione

Prima di andare avanti e cercare di spiagare i modi di funzionamento della vostra macchina fotografica è doveroso fare una chiacchierata su quello che viene chiamato il triangolo dell’esposizione ovvero la combinazione di tre fattori, apertura del diaframma, sensibilità iso e velocità dell’otturatore. Tutto questo per capire poi come la macchina governa questi parametri attraverso l’uso dei modi operativi.

Ognuno di questi tre elementi del triangolo si riferisce alla luce e al modo in cui entra e interagisce con la fotocamera (sensore o pellicola) e abbiamo detto che sono:

1. ISO – la misura della sensibilità alla luce del sensore/pellicola.
2. APERTURA – la dimensione dell’apertura del diaframma all’interno dell’obiettivo al momento dello scatto della foto
3. VELOCITA’ DELL’OTTURATORE – il tempo durante il quale l’otturatore della macchina rimane aperto (date una letta a questo vecchio articolo da cui ho ripreso alcune parti)

Dall’intersezione di questi elementi si ricava quella che è definita l’esposizione di un’immagine.

Tenete sempre presente che cambiando uno di questi tre elementi influenzerà anche gli altri, dal momento che sono strettamente dipendenti l’uno dall’altro. Quindi quando si regola ognuno di essi, bisognerà inevitabilmente adeguare gli altri due cosi da compensare l’esposizione e riportarla al valore “corretto” (o meglio a quello voluto).

Velocità dell’otturatore

Solitamente è quello dei tre componenti del triangolo che viene frainteso. La velocità dell’otturatore non è altro che il tempo nel quale la tendina che nasconde il sensore, che poi non è una ma son due le tendine da aprire e chiedere, rimane aperto e permette alla luce di raggiungere il sensore o la pellicola.

Esistono vari tipi di otturatori ma quello che ora è più usato è quello a tendina (qui sotto) e quindi spesse volte si usa il termine di tendina come sinonimo di otturatore.

le-tendine-quando-si-scatta

Nella seconda immagine qui sotto mostra le tendine in azione a velocita (e tempi) diversi, da uno più lento ad uno più veloce.

fastshutteranimation

n.b.: le due animazioni qui sopra sono state prese da Digital Photographic School che ringraziamo per la pazienza e generosità.

Tornando a noi, più a lungo l’otturatore resta aperta e maggiore sarà il tempo in cui il sensore/pellicola sarà esposto alla luce. Questo significa, come potete dedurre dalle suddette animazioni, che ad un tempo minore (o veloce) di apertura corrisponde una minore quantità di luce che passerà al sensore/pellicola.

Se userete un tempo molto veloce, ad esempio 1/1000 di secondo,  il sensore rimarrà esposto alla luce per pochissimo tempo e di conseguenza congelerete l’azione.

Nikon D80, Esposizione 1/750 sec, Apertura f/5,6, ISO 800 con focale 300mm

Viceversa utilizzando un tempo lungo, ad esempio 1/2 o addirittura un secondo, lascerete l’otturatore aperto per un sacco di tempo e per un sacco di tempo la pellicola/sensore rimarrà esposto alla luce. Quando fotograferete con tempi cosi lunghi gli oggetti in movimento appariranno “mossi”.

Nikon D80, Esposizione 1/10 sec, Apertura f/22, ISO 200 con focale 18mm

Per concludere sull’otturatore, vi consiglio di andare a dare un’occhiata a questa bellissima animazione su Jeffrey Friedl’s Blog (passate il mouse sopra l’immagine), in cui si vede benissimo come funziona il tutto su una Nikon D3. Spettacolare non trovate?

Scrissi un post sul mosso creativo, lo potete trvare qui: Motion blur o se preferite mosso Creativo.

Apertura

Il movimento delle lamelle da luogo a quel "fenomeno" detto apertura
via HowStuffWorks.com

All’interno di ogni obiettivo ci sono delle lamelle che sembrano delle “pale”. Queste lamelle aprendosi e chiudendosi danno luogo a quella che comunemente viene chiamata l’apertura, ovviamente anch’essa contribuisce all’esposizione controllando la quantità di luce che passa attraverso la lente e che arriva al sensore/pellicola.

Queste lamelle del diaframma possono essere chiuse un po per consentire a meno luce di entrare  o aperte un po di più per consentire ad una maggiore quantità di luce di passare. Ogni obiettivo, però, ha dei limiti di apertura, e vedrete che quelli con maggiore apertura (f 1.4 o f 2.8 ad esempio) sono molto più costosi di quelli con aperture più alte.

L’apertura è anche responsabile della profondità di campo ovvero la zona o porzione di immagine che risulta correttamente a fuoco.

via HowStuffWorks.com

Immaginate una persona in piedi di fronte a una libreria. Se si utilizza un diaframma aperto come f/2, il volto della persona sarà messo a fuoco mentre la libreria risulterà sfuocata. Questo “fenomeno” si chiama profondità di campo (depth of field). Al contrario, se si utilizza un diaframma chiuso, come f/16, sia la libreria che il viso della persona saranno a fuoco.

Un’altra cosa influenzata dell’apertura o meno del diaframma e la nitidezza delle immagini ottenute. Ogni obiettivo lavora al massimo dei dettagli ad una determinata apertura di diaframma. Solitamente le migliori performance si ottengono 1 o 2 stop in meno rispetto alla maggior apertura concessa dalla lente. Ad esempio se con un obiettivo 18-55mm f/3.5-5.6 scatti alla lunghezza di 55mm, l’apertura migliore per catturare più dettagli va da f/8 a f/11.

Per approfondire la questione nitidezza potete fare riferimento a questo “vecchio” post: Come ottenere il massimo dettaglio nelle proprie foto.

L’immagine sottostante è stata ripresa con un obiettivo 105mm macro a f2.8 e come vedete la profondità di campo è davvero minima!

Nikon D300, Esposizione 1/500 sec, Apertura f/2.8, ISO 200 con focale 105mm (macro)
Nikon D300, Esposizione 1/400 sec, Apertura f/10, ISO 200 con focale 11mm

ISO

Con il termine ISO si intende la sensibilità complessiva dell’elemento sensibile, sia esso sensore digitale o pellicola, alla luce.

In particolare nella fotografia chimica (pellicola) ISO è l’indice utilizzato per determinare la sensibilità dell’emulsione utilizzata. I valori più comunemente impiegati sono: 50, 100, 125, 160, 200, 400, 800, 1000 e 1600. Quanto più questo numero è basso, tanto meno la pellicola è sensibile (veloce) e le dimensioni dei grani di alogenuro d’argento che la compongono risultano fini. Aumentando le dimensioni dei cristalli fotosensibili, incrementiamo la “capacità ricettiva” della pellicola, la rendiamo più sensibile alla luce ma, ahimè, accresciamo di conseguenza la sua “granulosità” e la perdita di dettaglio che questa cosa comporta.

Nel digitale i grandi d’argento sono stati sostituiti dai fotodiodi e la rumorosità data dalla grandezza dei grani stessi con il cosi detto rumore digitale. Ma andiamo per ordine.

Avrete sentito dire centinaio di volte credo che nella fotografia digitale l’indice ISO misura la sensibilità del sensore. Bene è una gran cazzata.

Il sensore delle nostre reflex digitali, molto sommariamente, è fatto da tutta una serie di fotodiodi (sensibili alla luce) che si caricano a seconda della quantità di radiazione luminosa che li colpisce. Questo valore (analogico) viene poi convertito in digitale da un apposito convertitore analogico/digitale il quale trasforma appunto la tensione risultante in un numero, di solito di 12 o 14 “cifre” (bit). Il trucco è quello di rendersi conto che la sensibilità/efficienza del sensore o dei vari fotodiodi non cambia quando si modifica il numero ISO. Quello che cambia è la quantità di amplificazione che il convertitore A/D applicherà.

Andate a leggere il mio vecchio post ISO base e minor rumore da dove questa citazione è presa.
Come dicevamo nel digitale il rumore esiste ancora e come nella fotografia chimica aumenta con l’aumentare del valore iso. Fortuna che ci sono molti modi per limitarne l’effetto ed altri per introdurlo artificialmente qual’ora lo si ritenesse una soluzione “artisticamente” valida.

Immagine con e senza rumore

Potreste leggere:

Aumento gli ISO o uso il flash?

E’ una domanda che mi è stata posta più di qualche volta e la risposta è tutt’altro che semplice e prevederebbe anche una lunga discussione sugli illuminatori, non fatemi sentire “con il flash le foto sono brutte” che v’accoppo!
Ci sono molte cose da considerare per decidere se in una fotografia è meglio aumentare gli ISO o utilizzare il flash m vi faccio un esempio. Il flash, per potente che sia, non può andare oltre una certa distanza per cui, ad esempio, è inutile usarlo per per fotografare paesaggi o oggetti più lontani di alcuni metri.

In quei casi, parliamo di paesaggi, l’ideale è non usare il flash, tenere gli ISO bassi, aumentare il tempo di esposizione e mettere la macchina su un bel cavalletto (o muretto e qualsiasi cosa ferma e stabile). Se invece state fotografando a mano libera senza cavalletto e c’è abbastanza luce per usare tempi abbastanza veloci (evitando il mosso) mosso aumentate gli ISO che tanto il flash non vi può aiutare.

Potreste leggere:

Il concetto di “Stop”

Ogni volta che si è spostata la ghiera dei tempi o quella dei diaframmi si sarà notato un invito meccanico a fermarsi in quella posizione, una sorta di piccolo scatto: chiamiamolo uno stop. Quando si passa da f/11 a f/8 si dice che si è aperto di uno stop, mentre da f/8 a f/11 si chiude di uno stop. Lo stesso per i tempi, da 1/125 a 1/60 si allunga di uno stop e da 1/125 a 1/250 si accorcia di uno stop, ma tra i fotografi è invalso l’ uso di dire “aprire” e “chiudere” anche riferendosi ai tempi di scatto. In pratica, per mantenere costante il valore di esposizione (EV), mentre si chiude di uno stop da una parte, dall’ altra si apre di uno, o viceversa. Gli stop raddoppiano o dimezzano il valore: 1/125 è la metà di 1/60 ed il doppio di 1/250. Diaframma f/8 fa passare il doppio della luce di f/11 e la metà di f/5,6.


L’esposizione per metafora

Questo paragrafo e relative metafore sono state scopiazzate ed adattate da quanto letto qui. Vediamo se con alcune metafore riusciamo meglio a capire il concetto di esposizione.

La finestra.

Immaginate che la vostra macchina digitale sia come una finestra con le imposte che si aprono e si chiudono. L’apertura del diaframma corrisponde alla dimensione della finestra: più è grande la finestra e maggiore sarà la quantità di luce che entra

La velocità dell’otturatore corrisponde al tempo in cui le imposte delle finestre rimangono aperte; più le lasciate aperte e più luce entra.

Ora immaginate di essere all’interno della stanza e di indossare occhiali da sole. In quel momento i vostri occhi diventano meno sensibili alla luce, e questo in pratica corrisponde alla sensibilità ISO.

Ci sono quindi vari modi per incrementare la luce all’interno della stanza ( o la vostra percezione della stessa): potete aumentare il tempo in cui tenete aperte le imposte della finestra, aumentare la dimensione della finestra o togliervi gli occhiali da sole.

Abbronzarsi al sole

Un altro esempio che può aiutare a capire il concetto dell’esposizione è quello di paragonarlo all’azione di prendere il sole.

Non tutti i tipi di pelle sono uguali: alcuni sono più scuri e tendono ad abbronzarsi più facilmente, mentre altri, più chiari, tendono a bruciarsi con poche ore di sole. Ecco, diciamo che la pelle può essere paragonata alla sensibilità iso impostata sulla una macchinetta, la sensibilità con cui questa reagisce alla luce solare.

La velocita dell’otturatore in questo esempio, è come il tempo che passate ad abbronzarvi sotto al sole. Più tempo passate sotto ai raggi solari, e maggiore è la possibilità di abbronzarsi (col rischio però di rialzarsi bruciati, o meglio “sovraesposti”)

L’apertura è come la crema protettiva che applicate alla vostra pelle. Le creme protettive bloccano i raggi solari a diversi gradi di schermatura, che possono essere ricondotti alla dimensione dell’apertura del diaframma: protezione totale significa apertura minima mentre protezione zero significa apertura totale.

Per capire come i tre elementi si combinano fra di loro ci basta immaginare che una persona di pelle sensibile dovrà applicare una protezione totale, allungando perciò il tempo di esposizione al sole; se invece utilizziamo una protezione molto bassa avremo bisogno di un minor tempo di esposizione al sole.

Conclusioni

Per toccare con mano quello di cui stiamo parlando potreste fare un po di prove con il simulatore di DSLR (macchina fotografica digitale) messo a disposizione da CameraSim, che ringrazio, presente qui sotto.

Divertente vero?

ISO base e minor rumore

immagine da wikipedia

Vi siete mai chiesti cosa sia la sensibilità ISO nativa o base della vostra reflex digitale? Probabilmente no, perché si tratta di un argomento che spesso non viene considerato.

In generale sappiamo tutti che aumentando la sensibilità ISO aumenta anche il rumore digitale. Viene da pensare che impostando la macchina fotografica, quando la luce ce lo permette, sul valore più ISO più basso che possiamo sia una mossa sempre azzeccata, è vero ma non proprio del tutto.

Il sensore delle nostre reflex digitali, molto sommariamente, è fatto da tutta una serie di fotodiodi (sensibili alla luce) che si caricano a seconda della quantità di radiazione luminosa che li colpisce. Questo valore (analogico) viene poi convertito in digitale da un apposito convertitore analogico/digitale il quale trasforma appunto la tensione risultante in un numero, di solito di 12 o 14 “cifre” (bit). Il trucco è quello di rendersi conto che la sensibilità/efficienza del sensore o dei vari fotodiodi non cambia quando si modifica il numero ISO. Quello che cambia è la quantità di amplificazione che il convertitore A/D applicherà.

Tutti i sensori in’oltre hanno una sensibilità (ISO) di base per la quale il rumore risulta il più basso in assoluto. In pratica impostando il valore ISO nativo tutti i fotodiodi si caricano di fotoni “fino all’orlo” ed il rumore complessivo risulterà il più basso possibile perché il segnale del sensore è molto “forte” rispetto al rumore introdotto dalla lettura.

Io posseggo una Nikon D300 e come valore base di ISO a 200 … un errore? significa che la mia macchina produrrà file con più rumore di un’altra che può “scendere” a iso 100?

Non è cosi e adesso sapete anche il perché ;-)

Sistemi di stabilizzazione, una piccola ricerca

Alla ricerca di nuove e sempre più interessanti argomentazioni mi è venuta la malsana idea, per via del tempo e dell’impegno per documentarmi, di parlare dei sistemi di stabilizzazione delle immagini.

[aviso]Non vi aspettate un trattato ne la bibbia ma una serie di appunti ragionati sull’argomento[/aviso]

Intanto, diamogli una definizione. Lo stabilizzatore di immagine non è altro che è un sistema che permette l’acquisizione di immagini senza l’involontario tremolio generato dalla mano o dalla nostra respirazione.

Questi sistemi sono utili sopratutto nell’utilizzo degli zoom spinti e/o dei tempi di apertura lunghi, in pratica lo stabilizzatore ha lo scopo di dare alle immagini una nitidezza maggiore di quella scattata senza.

Interessante l’animazione che Nikon ha messo nel suo sito americano:

( se l’animazione non è animata usate il bottone on – off ^__^ )

Lo stabilizzatore può essere di tipo ottico o digitale e può trovarsi all’interno della macchinetta fotografica o all’interno degli obiettivi (in questo caso solo ottico).

Lo stabilizzatore digitale funziona tramite una elaborazione delle immagini all’interno della macchinetta fotografica (compatte) ad opera di un processore e di un software di elaborazione.

In pratica il software che elabora le immagini cercando di dargli maggiore nitidezza, un po come fareste voi in Photoshop.

Attenzione, molte macchine compatte vantano di avere un sistema di stabilizzazione mentre nella realtà non fanno altro che alzare la sensibilità ISO cosi da consentire tempi di scatto più veloci. Ma come si sa alzare gli ISO comporta comunque, specialmente sulle compatte, l’introduzione di rumore digitale con conseguente perdita di qualità, occhio!!!

Juza: La “vera” stabilizzazione d’immagine muove un elemento dell’obiettivo, o il sensore, per controbilanciare le vibrazioni della fotocamera. Se non ci sono elementi in movimento, non è stabilizzazione: la stabilizzazione “elettronica” utilizzata in alcune videocamere riduce la qualità d’immagine e funziona esclusivamente col video (è una funzione che ritaglia e muove ogni fotogramma per creare un filmato più fluido); la stabilizzazione “elettronica” di alcune fotocamere è solo un falso. Molte compatte hanno questa finta stabilizzazione (due esempi sono la “Picture Stabilization” della Fuji F30 e il cosidetto “Anti Shake DSP” di Casio): in realtà si limitano ad alzare la sensibilità ISO, e non hanno niente a che fare con la vera stabilizzazione d’immagine.

Ovviamente la stabilizzazione digitale funziona solo su apparecchi digitali e non su apparecchi analogici. Questo sistema è meno costoso da realizzare in quanto non necessita di una parte meccanica ma è per sua natura meno efficace e preciso dello stabilizzatore ottico.

Lo stabilizzatore ottico funziona tramite un sistema meccanico che muove le lenti per assecondare i movimenti involontari della mano o della respirazione, controbilanciandone di fatto gli spostamenti.

Lo stabilizzatore è uno strumento a forma di anello composto da due sensori giroscopici, un Processore o CPU ed un motore. I sensori rilevano i movimenti involontari su ogni asse, li inviano alla CPU che li analizza e a sua volta invia al motore le istruzioni per muovere una lente o il sensore (vedremo più avanti cosa vuol dire).

Il risultato pratico è che l’immagine che colpisce il sensore è ferma cosi da permetterci di ottenere foto nitide anche se la fotocamera si muove leggermente.

Il primo sistema di stabilizzazione ottico fu introdotto da Canon nel suo 75-300 IS, eravamo nel 1995. Era un’obiettivo entry level, sembra che Canon testi in questa fascia di prodotti le novità per poi portarle in alto.

Da allora se n’è fatta di strada e dai 2-stop di guadagno iniziali oramai, tutte le case costruttrici, dichiarano 4-stop di guadagno rispetto al “tempo limite” di scatto.

C’è una formuletta o se preferite una consuetudine, che indica tempo di otturazione limite sotto al quale la foto verrà mossa, che sarebbe:

Tempo limite = 1 / Focale

Photoactivity: Per capire meglio, facciamo un esempio pratico: il tempo di scatto limite per il nostro 105VR utilizzato su una D-reflex è di circa 1/150sec, ovvero l’inverso della lunghezza focale effettiva (per l’appunto 105 x 1,5 = 157mm sul formato DX). Dimezzando per quattro volte questo tempo si ottiene il tempo di scatto limite con VR attivato, ovvero circa 1/8sec. Cosa decisamente non banale, dunque, scattare con un 150mm ad 1/8 secondo! Tenuto conto che l’apertura massima disponibile è f/2.8, questo significa poter scattare a mano libera con luce relativamente scarsa, appena 6 EV (sensibilità 100 iso) ! Cosa significa? Be, in teoria, poi bisognerà valutare tante altre cose, avrete la possibilità di scattare fotografie con tempi molto molto più lenti. Ad esempio se la giusta esposizione la avete a 1/125 potrete scattare 4 stop sotto e cioè ad 1/8.

Come capirete 4-stop “di respiro” sono un vantaggio non da poco, specialmente se scattate in condizioni di luce scarsa. Ad esempio un’immagine scattata a 1/60s con la stabilizzazione sarà nitida come un’immagine scattata a 1/250s.

Ma facciamo subito alcune considerazioni perché non è oro tutto ciò che luccica.

Diciamo che ad oggi ci sono due possibilità di stabilizzazione, quella ottica (Nikon e Canon), che agisce sugli obiettivi e quella sul sensore (Minolta/Sony e Pentax/Samsung).

Ma quali sono i vantaggi e gli svantaggi di questi due sistemi, lasciando stare la stabilizzazione digitale? Facciamo un piccolo schema riassuntivo che poi andremo a spiegare più avanti.

STABILIZZAZIONE OTTICA

vantaggi:

  • correzione micro mosso
  • visualizzazione dell’azione della stabilizzazione nel mirino

svantaggi:

  • non corregge il movimento rotatorio (vedi più avanti)
  • aumento di prezzo
  • piccolissimo degrado nella qualità dell’immagine

STABILIZZAZIONE DEL SENSORE

vantaggi:

  • correzione micro mosso
  • viene stabilizzato anche il movimento rotatorio R
  • si “rendono stabilizzate” tutte le ottiche del corredo

svantaggi:

  • non permettono la visualizzazione dell’azione dello stabilizzatore nel mirino
  • piccolissimo degrado nella qualità dell’immagine

L’idea che mi sono fatto dopo aver letto molto ed usato qualche sistema di stabilizzazione è che la stabilizzazione è utile ma non fa miracoli.

Tenete in’oltre presente che il sistema entra in azione con la pressione a metà corsa del pulsante di scatto, ma la stabilizzazione più efficace si ottiene attendendo un paio di secondi. Se avete la necessità di essere “sempre pronti” tenetelo presente.

L’unico sistema che può annullare qualsiasi tremolio è l’accoppiata cavalletto / scatto remoto (o autoscatto che è più economico ^_^) !

Juza: Utilizzare l’IS su treppiede solleva alcuni dubbi. Prima di tutto, può ridurre la qualità d’immagine? Con tutti gli obiettivi annunciati dopo il 1999 (dalla seconda generazione), l’IS può essere usato sul treppiede senza problemi. Le uniche ottiche Canon non compatibili col treppiede sono i pochi obiettivi di prima generazione ancora in produzione – il 300 f/4 IS, il 100-400 IS e il 28-135 IS. Se usate un’altra marca, e non siete sicuri della compatibilità con treppiede, vi suggerisco di fare questo semplice test: montate la fotocamera su un solido treppiede e scattate due esposizioni; una con la stabilizzazione e una senza. Se sono ugualmente nitide, non avete problemi; altrimenti è necessario disattivare la stabilizzazione quando di usa l’obiettivo su un treppiede ben stabile. In ogni caso, l’unico rischio è una diminuzione della qualità d’immagine – non ci sono rischi di danneggiare l’unità IS anche se lo si dimentica acceso quando si monta un obiettivo di prima generazione sul treppiede.

Un’altra considerazione è che la sua implementazione, sia sul corpo macchina come fa Sony e Pentax sia sugli obiettivi come fa Canon e Nikon, comporta una maggiore complessità costruttiva e di conseguenza, un’aumento di prezzo ed un decadimento teorico nella qualità dell’immagine.

Juza: La stabilizzazione non diminuisce la qualità d’immagine degli obiettivi: le ottiche stabilizzato sono nitide come le precedenti versioni non stabilizzate, o addirittura superiori. Ovviamente, le lenti stabilizzate aggiungo complessità al progetto, ma i miglioramenti nel campo dell’ottica permettono di mantenere o superare la qualità ottica delle versioni precedenti. La stabilizzazione è sempre più diffusa, anche in obiettivi standard e grandangolari (come il Canon 24-105 IS): è molto utile anche nelle focali corte. Se siete in grado di scattare una foto nitida a 1/20 con un obiettivo 18mm, con la stabilizzazione potresta scattare addirittura a 1/2!

Su quest’ultimo punto ci sono molti pareri contrastanti, uno è quello che avete appena letto in cui Juza dice che gli svantaggi derivanti dalla complessità costruttiva sono bilanciati dai progressi nel campo dell’ottica.

Bisogna dire che in certe condizioni di scarsa luminosità avere 4 stop in più può dare la possibilità di portare a casa foto che altrimenti sarebbero da buttare per cui il fatto di avere una piccola perdita di qualità è per cosi dire “accettabile”.

C’è anche da dire che al di sopra del 1/500 di secondo (più avanti, nella parte di post tradotto da byThom) non è utile lo stabilizzatore anzi introduce problemi la dove vorrebbe correggerli.

Altro punto da considerare è che tutti i sistemi di stabilizzazione attuali bilanciano soltanto i movimenti sull’asse X ed Y (Canon ha la possibilità nel mode 2 di escludere, per il panning, quello orizzontale) ma non tutti il movimento rotatorio R (infattisolo quelle con il sistema di stabilizzazione sul sensore possono).

Piccola precisazione sull’IS Mode 2:

Chrysis: questa nuova tecnologia determina automaticamente se il movimento è fatto consciamente e blocca la correzione. Il sistema IS Mode 2 determina inoltre la mancanza di vibrazioni per prevenire gli errori dovuti ad appoggio su treppiede.

Photoactivity: Il sistema VR è in grado di compensare le vibrazioni muovendo un gruppo di lenti sugli assi X e Y, ovvero su un piano parallelo al piano del sensore.

In pratica vengono prese in considerazione solo le oscillazioni destra/sinistra (X) e alto/basso (Y) introdotte dalla mano del fotografo, mentre il movimento roratorio “R” ed il movimento avanti/dietro “Z” non possono essere controbilanciati.

Il movimento “R” è controllabile dall’utente limitando la pressione sul pulsante di scatto, che di fatto è l’unica azione del fotografo che può indurre una rotazione.

Un altro possibile rimedio è lo scatto ritardato (funzione disponibile sulla Nikon D200) oppure lo scatto a raffica, in quanto solamente il primo scatto della serie può essere danneggiato dal movimento di rotazione.

Nota: solo le fotocamere con sensore stabilizzato possono contenere le oscillazioni “R”.

Molto meno controllabile è invece il movimento “Z”, perchè la nostra postura introduce una certa oscillazione anche sull’asse avanti/dietro rispetto al soggetto.

Questa oscillazione, generalmente di frequenza più bassa rispetto alle altre, determina uno spostamento del punto a fuoco pari all’ampiezza dell’oscillazione: il VR però non agisce sulla messa a fuoco, e dunque non può controbilanciarla in alcun modo (ndr: punto molto importante che verrà ripreso in maniera più tecnica nello spezzone tradotto da byThom).

Adesso vi presento, ho dedicato anche troppo tempo a sto articolo ^_^, una traduzione parziale dell’articolo:

Tutto sul VR – Tutto sul sistema VR della nikon (titolo originale:  ) preso e tradotto (abbiate pazienza) da byThom.

L’ultima modifica, nel momento il cui scrivo, risale al 28 aprile 2010.

Dopo aver parlato con i progettisti ho fatto alcune modifiche a questo articolo. Tuttavia, nonostante abbia cambiato alcune cose per quanto riguarda la parte tecnica, le mie raccomandazioni sono sempre valide.

La prima è più importante regola sul VR è questa: mai utilizzarlo se non è effettivamente necessario!

Si, questa affermazione cozza con tutto quello che si dice e si fa nel mondo e con quello che la Nikon stessa lascia passare nella loro pubblicità.

Il VR è nato come soluzione ad un problema ma se il problema non sussiste, lo stesso VR potrebbe diventare il problema! Per capire questa affermazione, bisogna avere chiaro il funzionamento del sistema VR.

Il sistema VR della Nikon è essenzialmente un elemento nel gruppo di lenti che si sposta per compensare movimenti bruschi della fotocamera. Siccome questo elemento è nel mezzo dell’obbiettivo, di solito vicino all’apertura del diaframma, ma non esattamente in li, si deve pensare a quanto accade al percorso ottico quando il VR è attivo.

Ci sono momenti in cui questi spostamenti comportano una modifica della qualità delle immagini? io credo di si anche se, anche se l’impatto visivo è trascurabile.

Su alcuni bokeh a media distanza le lenti dotate del VR (acceso) sembrano soffrire di questo “problemino”.

Detto in altro modo, lo sfondo della scena è leggermente fuori fuoco rispetto al punto focale nel percorso ottico. Il risultato è quello che io chiamo “busy bokeh”, un bokeh che non ha le caratteristiche di semplicità e regolarità che ci si aspettano da un ottica di alta qualità.

La maggior parte delle persone che utilizzano VR non si domandano come funziona il sistema. Credono semplicemente che sia una qualche forma di magia. Be, non lo è. E’ Fisica, non magia.

Ed una delle questioni fisiche coinvolte è la frequenza di campionamento. E’ proprio la frequenza di campionamento del meccanismo di rilevazione del movimento che determina il tipo e la quantità di movimento che deve essere rimosso. Volete sapere quant’è questa frequenza? Per nikon 1000Hz. Sapete che vuol dire, no? No? 1000Hz è 1/1000 di secondo. Nyquist (ndr: Teorema del campionamento di Nyquist-Shannon) ci dice che la minima frequenza necessaria per campionare un segnale senza perdere informazioni è pari alla metà della frequenza di campionamento, così possiamo identificare con precisione solo dei movimenti più piccoli di 500Hz (1 / 500 secondi) (ndr: ecco da dove nasce il lilmite del 1/500).

Benché questa frequenza di campionamento riguarda la fotocamera, essa non è del tutto scollegata alla velocita di scatto. Per esempio, la tendina può viaggiare sul sensore alla velocità superiori ad 1 / 250, mostrando ogni volta solo una parte dell’immagine. Un altro aspetto del sistema VR è che ri-centra l’elemento in movimento poco prima dell’apertura dell’otturatore. In poche parole, ci sono un sacco di cose che devono quadrare con tempi di posa molto brevi per avere un piccolo impatto visivo, specialmente con le lunghe focali. (ndr: ho tradotto come potevo ma vi consiglio di andare a leggere l’originale)

Regola 2: il VR dovrebbe essere normalmente spento se la vostra velocità di otturatore è superiore a 1 / 500.

Se si scende a bordo campo durante una partita di calcio e si và a controllare i fotografi presenti per vedere come hanno le impostazioni sui loro obiettivi, vi accorgerete di chi è professionista o meno: il VR è solitamente off  (a meno che non sei posizionato vicino ad un ventilatore in azione).

Questi professionisti un giorno si sono accorti di una cosa: se hai il tempo di posa più veloce della frequenza di campionamento, a volte il sistema esegue una correzione che non è in sincronia con la velocità dell’otturatore.

I risultati sembrano un po’ come quando hai la lente che soffre di Front o Back Focus (AF Fine Tune):  il punto di messa a fuoco risulta leggermente spostato da dove te lo aspettavi. La cosa interessante è che i professionisti intervistati (è il caso di Canon) per le lunghe focali, si scopre che molto raramente usano lo stabilizzatore!

Direi che meno del 10% delle riprese che faccio con il mio 400 millimetri f/2,8 le faccio con il VR acceso (e per inciso, io odio l’interruttore VR  su alcuni di questi obiettivi – è davvero difficile capire se è acceso o spento).

Un consiglio: alcune lenti della generazione precedente,  non-VR, sono veri affari. Considerate il VR una bolla di sapone. Fra qualche giorno la gente smetterà di pagare tali sistemi e prenderà i non VR. Almeno dovrebbero.

So di fotografi che hanno speso più di 3000 $ per il passaggio da lenti non-VR a versioni VR.

Questo credo sia troppo.  Ho fatto moltissime prove utilizzando il VR ad alte velocità di scatto. In centinaia di casi, quelli che ho esaminato, i risultati sono gli stessi: l’obiettivo sembra essere più efficace con il VR spento quando la velocità dell’otturatore è superiore a 1 / 500. Questo per la mia esperienza, sia chiaro. Una piccola manciata di persone hanno presentato con me, le prove del contrario (secono loro il VR migliora i risultati con i tempi sopra a 1 / 500).

Nella maggior parte dei casi sono riuscito a provare che non è il VR in sé, che ha aiutato a rimuovere il micromosso, ma che la loro mano ferma ed il sapiente uso del treppiede è tale che non traggono beneficio dal VR. La mia tesi è che avrebbero maggiori vantaggi scattando sotto 1/500.

Tuttavia, come quasi tutto in fotografia, ci sono delle controindicazioni a quanto sopra. Per esempio, cosa succede se si sta fotografando seduti su di un elicottero e si scatta ad 1/1000, si dovrebbe o no utilizzare il VR?

Una delle che Nikon non spiega bene è il concetto di “macchina fotografica in movimento” “macchina fotografica su piattaforma in movimento”.

Se l’origine del movimento siete voi vale tutto quello che ho scritto sopra a proposito dello spegnere il VR sopra 1 / 500. Idem per le situazioni di semi-ferme, come ad esempio un monopiede.

Tuttavia, se c’è una piattaforma sotto di voi che causa vibrazione (auto, nave, treno, aereo, elicottero, ecc), le cose sono un po diverse.

La differenza fra VR Active ed il VR normale è tutta qui. L’Active VR dovrebbe essere usato quando si è su una piattaforma mobile. Il VR Normale quando si è su un terreno solido ed il solo movimento da compensare è quello generato da noi. In sostanza, se il movimento è dovuto ad una causa esterna, Active VR. Se siete l’unica fonte di movimento, VR normale.

Regola # 3: Se si è su una piattaforma mobile, usate il VR attivo. Se siete l’unica causa di vibrazioni, VR normale.

La differenza fra i due modi sta nel tipo di movimento che ognuno di essi cerca di trovare e correggere.

Le vibrazioni di una piattaforma tendono ad essere frequenti, costanti e con direzione casuale. Il movimento della mano tende ad essere più lento e con un percorso prevedibile (ad esempio quando si preme il pulsante di scatto nella parte destra della macchina la si sposta verso il basso – è la legge di Newton, non una mia invenzione).

Sapere quale tipo di moto il sistema VR deve affrontare permette di ottimizzare la sua risposta.

Quindi, tornando al nostro 1/1000 durante le riprese su un elicottero, abbiamo un conflitto. Il movimento dovuto alla vostra mano non può essere corretto da parte del sistema VR perché il tempo di posa è più veloce della frequenza con cui sono fatte le correzioni.

Ma è anche vero che siamo su una piattaforma (in movimento) che imprime delle vibrazioni effettivamente correggibili (probabilmente non del tutto) dal VR. La questione è se i miglioramenti dovuti alla correzione siano più efficaci del degrado apportato dal far funzionare il VR al di sopra della frequenza di “lavoro”.

Non esiste una risposta chiara, ogni situazione è diversa da un’altra, ma la mia tendenza è quella di sperimentare i tre modi del VR per poi decidere.

Durante le riprese da piattaforme in movimento, scatto con il VR Active, il VR normale ed il VR spento, con tempi di scatto elevati, poi esamino attentamente i risultati e solo allora prendo una decisione.

Naturalmente esaminare su un monitor cosi piccolo, che di per sé può essere un problema per molti, per giunta su un veicolo in movimento non è molto semplice ne preciso.

Eppure, a volte vedo un miglioramento con VR acceso rispetto a quando è spento, sempre con velocità di scatto elevate e su veicolo in movimento dico.

Comunque questi miglioramenti non sono paragonabili a quelli ottenuti con un giroscopio dedicato. Se scattate regolarmente da elicotteri, un giroscopio è un investimento migliore rispetto ad un più costoso obiettivo con il VR.

Nota bene: Ci sono un certo numero di fotografi che sconsigliano l’uso del VR sopra 1/250 (o la velocità di sincronizzazione flash, se più lenta). Questo perché con temi superiori a quelli del syncspeed l’immagine viene catturata con esposizioni parziali piuttosto che una unica esposizione (è una semplificazione, ma è abbastanza per questa discussione). Pertanto, le correzioni effettuate dal VR, con tempi di posa superiori al syncspeed vengono effettuate su una parte dell’immagine alla volta. Nella sostanza, ho visto cambiamenti cosi impercettibili fra lo scattare a 1/500 rispetto al 1/250 (semrpe con il VR on) da non essere d’accordo. Sopra 1/500 vedo chiaramente le correzioni appartate, correzioni che non mi piacciono.

Regola # 4: Se il soggetto si muove, devi usare una velocità di scatto che blocchi detto movimento.

Questa è una cosa difficile da imparare, e di solito ci si sbatte la testa.

I produttori di fotocamere sponsorizzano il VR facendo affermazioni del tipo:
“Permette un guadagno di quattro stop”, gli utenti iniziano a pensare così: “se posso scattare a 100 mm a 1/100 senza, con il VR posso scattare anche a 1/6.”

Be’, forse. Ma l’unico movimento corretto dal VR è quello della macchina non quello del soggetto in movimento. Se il soggetto si muove, scattando ad 1/6 avrete la produzione di una macchia sfocata. Guardando la mia Nikon Field Guide (Pagina 51 per quelli di voi che hanno la mia stessa macchina), dice che 1/125 è la minima velocità dell’otturatore necessaria a congelare una persona che cammina (1/30 se sono a piedi e avanzano verso di te). Questo è, ovviamente, una generalizzazione.

C’è una tabella più dettagliata di seguito che mostra quello a cui ho fatto riferimento poco fa e che mostra come anche la distanza impatti sulla scelta della velocità di otturazione. Cosi come possa la dimensione del soggetto all’interno dell’inquadratura fare la differenza. Che il VR rimuova qualsiasi tipo di movimento è qualcosa che tutti si devono scordare:

Regola # 5: Il VR NON rimuove TUTTI i movimenti, rimuove solo il movimento della fotocamera.

Un’altro tipo di movimento è quello del panning ed il VR ha impatti anche in questo caso. Ho sentito dire da mota gente che bisogna spegnere il VR quando si insegue un soggetto. In alcuni momenti potrebbe anche essere vero, ma per la mia esperienza posso dire che il VR può stare tranquillamente acceso quando si fa panning. Il motivo è che il sistema VR di Nikon è molto efficace nel rilevare i movimenti costanti della fotocamera. Mentre state facendo il panning in una direzione, il sistema VR correggerà soltanto i movimenti degli assi opposti. E’ stato progettato anche per questo. L’importante è assicurarsi di eseguire il panning in maniera fluida, senza scatti. Molte persone fanno uno scatto mentre schiacciano il pulsante di scatto. NON fatelo, avete bisogno di pratica, continuate a seguire il soggetto (panning) quando l’otturatore è aperto, non fermatevi. Piuttosto, provate a fare pratica nella vostra zona (o nella zona dove ci sono dei corridori). Fate il panning usando i corridori come soggetti e scattate foto. Quando lo specchio ritorna al suo posto e l’immagine a sua volta torna nel viewfinder e l’immagine scattata appare sul display, il corridore è sempre nello stesso punto del frame? No? E allora devi continuare a fare pratica. Tsk tsk. Prova di nuovo. Continua a fare pratica finché non avrai una serie di scatti in cui il corridore rimarrà nello stesso punto per l’intera sequenza, sia al momento del click sia per tutta la durata dell’inseguimento. Ma non c’è bisogno che ti metti a correre dietro al soggetto.

Nota bene: Torno con la mente al periodo della scuola di fotografia, dove il mio professore mi ha fatto passare il vizio di fare movimenti scattosi durante il panning in maniera sadica: mi disse si seguire il soggetto con una TLR (twin lens reflex). Guardate dentro il mirino di una TLR. C’è una cosa da considerare : sinistra e destra sono invertiti. Cosi quando il soggetto si muove verso da destra a sinistra, nel mirino apparira come se si muovesse da sinistra a destra. Non hai speranze di seguire il soggetto con una TLR a meno che tu non rilassi la mente e non inizi a seguire il movimento del soggetto con il tuo corpo. Non si può guardare e poi reagire, tu devi guardare e reagire.

Regola # 6: Se esegui correttamente il panning, il VR dovrebbe probabilmente essere On.

Un’altro aspetto del VR che manda in confusione la gente è la sua attivazione. I manuale della Nikon non sono a riguardo molto chiari, ma è veramente semplice: solo quando schiacci il pulsante di scatto il VR si attiva.

Premere il bottono di scatto per metà attiva il sistema il quale inizia ad eseguire una serie di correzzioni. Una pressione completa e veloce sul bottone di scatto fa partire si il VR ma non da al sistema il modo di ottenere molti “campioni” sui quali basare le sue predizioni (su macchine professionali stiamo parlando di  1/33 di secondo fra la pressione del bottone di scatto ed il momento che la foto viene presa). In sostanza se fate partire il VR prima dello scatto, avrete più probabilità che i risultati sia migliori. Questo non vuol dire che dovete sempre aspettare che il VR abbia ingaggiato il soggetto prima di scattare. Se è il momento di scattare, scattate! Il VR darà il meglio di se correggendo il movimento che indurrete schiacciando il bottone di scatto. Ma ci sono due buone ragioni che rendono preferibile la scelta di aspettare che il VR ingaggi la vostra preda:

primo, il VR immagazina una serie di dati con i quali tenta di predire le correzioni da effettuare;

secondo, è difficile che voi muoviate la camera, avendo già parzialmente schiacciato il pulsante di scatto, più di quanto la avreste mossa facendo lo scatto dal principio.

La seguente dicitura dei manuali Nikon “Il VR non funziona quando si preme il bottone AF-ON.” può creare non poche incomprensioni. Questo è uno dei punti in cui la traduzione dei manuali Nikon è un po forviante. Se la dicitura fosse stata “Il VR non si attiva quanto l’AF-ON è schiacciato” sarebbe stato più corretto. Durante i miei test il VR non era “spento” usando l’AF-ON, semplicemente il sistema non entrava in funzione con la pressione su questo pulsante. Soltanto rpemendo sul bottone di scatto il sistema VR entra in azione. Questo significa che se usate l’AF-ON per focheggiare piuttosto che il pulsante di scatto a metà il VR non sarà in funzione. Ovviamente lo sarà al momento dello scatto.

Questo crea un piccolissimo problema. Per ottenere il massimo, noi vogliamo che il VR abbia un campione di dati prima di premere completamente il pulsante di scatto. Se stiamo usando il tasto AF-ON per focheggiare, le nostre dita non stanno facendo in contemporanea pressione sul tasto di scatto. Ma è proprio questo in pratica che bisogna fare. Sigh.

La mano destra sta per iniziare un balletto assai complicato: schiaccia e rischiaccia l’AF-ON per il fuoco, pulsante di scatto a metà per il VR, pollice destro fra rotella dei tempi/diaframmi per compensare l’esposizione, pobabilmente il dito medio destro per l’apertura dei diaframmi ed anche il pulsante di scatto con il dito indice.

Questo, per inciso, è uno dei motivi per cui preferisco l’ergonomia delle macchine Nikon rispetto alle Canon: quando sto facendo tutti questi giochi di prestigio le dita non sono in reale movimento, specialmente il dito per lo scatto. Con Canon si ha la tendenza a muovere l’indice destro fra la rotella superiore e il bottone dello scatto. Si può reagire più velocemente se non devi muove il dito dal pulsante di scatto.

Ma ci sono ancora altre avvertenze. Se avete una fotocamera con il flash  incorporato (sostanzialmente tutte tranne le serie D1, D2 e D3), sappiate che mentre il flash si ricarica il sistema VR non è attivo. Questo perché il VR da per scontato che la priorità sia quella di ricaricare il flash il più presto possibile. Cosi la fotocamera toglie corrente al sistema VR finché non ha caricato il condensatore del flash. Se usate il flash a tutta potenza (o giù di li) e magari eseguite scatti ravvicinati, la ricarica può durare alcuni secondi. Come fare per capire se il VR è tornato in funzione? Be, non potete, almeno non con certezza, ma potete usare l’indicatore del flash: se non è presente con il flash accesso ed attivo, il VR probabilmente è disattivato.

Regola # 7: Se proprio dovete usare il VR con il flash, se potete usate un  flash esterno

Mi sono tenuto la questione del treppiede per la fine dell’articolo perché, al contrario di quello che pensa Nikon, non è poi cosi chiara.

Acnhe se probabilmente hai già spento il VR ;~).

Parte del problema risiede nella poca chiarezza con la quale la Nikon ha etichettato e distinto i vari modi di funzionamento del VR. Tecnicamente, il VR II montato su alcune delle nuove lenti dovrebbe accorgersi se la fotocamera è montata su treppiedi e non tentare di correggere nulla. Ma non tutte le lenti moderne sono dotate di quello che molti di noi chiamano “the full VR II”. Il recente 16-35mm, ad esempio, è arrivato assai dopo l’introduzione del VR II, ma non sembrerebbe avere la funzionalità di riconoscimento del treppiede. Questo, ci porta ad una considerazione prima di arrivare al dunque:

Regola # 8: È NECESSARIO leggere il manuale dell’obiettivo per vedere cosa dice circa l’uso con il treppiedi.

Di base, esistono due possibilità:

1. Il manuale dice spegnere il VR quando si usa un cavalletto (a volte di aggiungere “a meno che la testa non sia sbloccata”)
2. Il manuale dice espressamente che il sistema VR rileva quando la fotocamera è su un treppiede

Ok, ho mentito. Dimenticate quello che dice il manuale.

Regola # 8 Quella VERA: Se la vostra macchina è sul cavalletto, anche se usi una testa Wimberley quasi sempre sbloccata, spegni il VR. Se il treppiede è su una piattaforma in movimento o se è poco stabile di suo, prendete in considerazione l’uso del VR, ma prima effettuate delle prove per vedere se ne avete davvero bisogno.

Quindi perché non sono d’accordo con Nikon? Anche con una testa libera su un cavalletto, il movimento dovrebbe essere abbastanza facile da controllare, e dovresti aver rimosso quasi completamente il movimento (idem con monopiedi).

Il problema che ho, e che molti altri professionisti avranno notato, è che il sistema di rilevazione del treppiede del VR è a volte da dei “falsi negativi”.

Il altre parole il sistema di rilevazione del treppiede del VR II dovrebbe accorgersi quanto il sistema è “abbastanza calmo” e spegnere il VR. Il più delle volte è proprio quello che accade (Nikon dice che il sistema è abbastanza intelligente da rilevare fino a tre diversi tipi di movimento – quelli della mano che tiene, quelli della piattaforma e quelli del sistema di supporto – perché le “vibrazioni” causate da ciascuno di questi movimenti hanno forma d’onda diversa e quindi riconoscibile).

Ogni tanto, però, il VR rileva che deve correggere qualcosa ma poi non lo fa (o forse sta ancora correggendo una vibrazione rilevata in precedenza non più presente nel campionamento successivo). Quando ciò accade, l’elemento VR (s) sono in movimento quando non dovrebbero. Di solito non molto, ma abbastanza da non farti raggiungere i risultati ottimali.

In effetti, questo è lo stesso problema che si presenta utilizzando il VR a più di 1/ 500: a volte funziona, a volte no. Il problema è che non ti piace quando fa cilecca, e non saprete mai quando questo accadrà. Se io ti dicessi che su 100 scatti 10 verranno male a causa del VR, utilizzereste ancora il VR? Tenete presente che quando usi un treppiede tutti i 100 scatti sarebbero buone e senza VR (se cosi non fosse avrete sicuramente sbagliato treppiede e testa, leggi questo articolo, o utilizzate una tecnica sbagliata). Io non sono un giocatore d’azzardo: io preferisco il noto all’ignoto, così non mi piace pensare che in maniera randomica avrò degli scatti sbagliati a causa del VR.

Questo ci porta a a fare una considerazione: come appare uno scatto rovinato dal VR? Be, rovinato forse è un termine troppo duro. Sub-ottimale è probabilmente il termine giusto. Uno scatto ottimo è uno scatto molto pulito e ben definito anche sui bordi. Assumendo di avere la “lente perfetta”, i bordi dovrebbero essere di base buoni, come se si applicasso i filtri anti-aliasing, sensor o Bayer demosaic (ndr.: anti-aliasing, sensor, Bayer demosaic).

Molti di noi trovano che il VR non corregga cosi come dovrebbe/potrebbe con una “crescita” dei bordi, crescita che delle volte ha una direzionalità. Simile a quello dovuto al movimento della fotocamera ma più sottile. Tendo a dire che i dettagli “looks busy” quando il VR non fa pienamente il suo lavoro o quando è accesso in situazioni per cui non lo dovrebbe. And when you apply sharpening to busy edges, that busy-ness gets busy-er. (ndr: questa proprio non sono riuscito a tradurla con un senso compiuto cosi ve la passo in inglese nella speranza che qualche anima pia mi aiuti).

Senza VR attivo, su un cavalletto stabile, è come se togliessimo improvvisamente un velo e si vedrebbe quanto sono davvero nitidi i nostri obiettivi (assumendo che tu abbia correttamente messo a fuoco il soggetto e che sia su una piattaforma stabile, questo è ;~).

Ebbene si, è proprio andare a cercare il pelo nell’uovo.

Il VR non corregge benissimo come non funziona benissimo un treppiede poco stabile od usato male ( magari fissate la lente (ndr: mi pare si riferisca a cannoni tipo da 400mm ecc) direttamente sul cavalletto con gli appositi anelli) oppure con le gambe che tremano (comperate un cavalletto adatto alla vostra attrezzatura): stiamo parlando di cose alle quali neanche ci fai caso o se ci fai caso e soltanto perché stai facendo pixel peeping (ndr: visualizzi/ingradisci l’immagine al 100%).

Ma qualcuno usa un 400mm f/2.8G VR su una D3x ed ha speso un barca di soldi per ottenere i migliori risultati. Loro si aspettano di catturare ogni singolo bit in maniera perfetta cosi da poterli traferire su stampe di grande formato.

Come dico sempre sul sito, io scrivo sempre su come ottenere il risultato migliore. Se stai scattando con un 16-85mm su D300 e metti la tua immagine sul web a 640×480, be, anche se il VR farà cilecca molto probabilmente non sarà un problema.

Se avete altri dubbi sul VR vi rimando alla fine di questa pagina. sino ad allora, eccovi il mio motto: Il VR deve stare spento a meno che non mi serva. VSOUISNI a propesità (ndr.: non chiedetemi che zzo vuol dire vsouisni perché non lo so!!!).

Per ora non intendo tradurre le domande dei lettori di byThom ma chissà, magari con il vostro aiuto.

Fonti

Alcune delle fonti, quelle principali, a cui mi riferirò sono:

Vi consiglio assolutamente di andare a leggere gli articoli che ho citato e segnalatemi vi prego eventuali imprecisioni e/o errori di traduzione.

Andate a visitare anche il sito di Nikon che spiega (in inglese) a suon di animazioni come funziona il suo VR.

Gimp: come eliminare il rumore digitale con G’MIC (iso alti)

Ho già scritto qualche tempo fa di come eliminare il rumore digitale con Photoshop ed ho pensato fosse il caso di scrivere due righe su come fare la stessa cosa con Gimp.

Per fare questo, un po come accade per NetImage, utilizzeremo il plugin G’MIC (prima conosciuto come GreyCStoration), un plug-in di Gimp molto conosciuto ed apprezzato.

G’MIC, oltre ad occuparsi della riduzione del rumore offre anche una quantità considerevole di altri filtri ed effetti disponibili oltre a dare la possibilità di crearne di propri.

Ma andiamo con ordine, vediamo come fare per installarlo. Per prima cosa dovete scaricare il software dal link che vi ho dato prima.

Adesso non dovrete fare altro che scompattare l’archivio appena scaricato nella directory dei plugin di GIMP:

  • Su Unix, la directory è generalmente $HOME/.gimp-2.x/plug-ins/.
    Il plug-in richiede che voi abbiate installate le librerie: libfftw, libpng, zlib. Usate il package manager per cercare le dipendenze.
  • Su Windows, la directory del plug-in si trova generalmente su C:\Program Files\GIMP-2.x\lib\gimp\2.0\plugins\.
    Per quanto riguarda le librerie necessarie, in questo caso sono già comprese nel pacchetto.

Il plug-in sarà disponibile dal menu Filters/G’MIC (l’ultimo della lista).

Una vola lanciata l’interfaccia del plug-in vi troverete in una situazione del genere:

In alto a sinistra avrete la preview dell’immagine che vi consiglio di ingrandire per vedere meglio l’effetto del filtro una volta applicato.

Nella parte centrale vedete una serie di titoli che rappresentano le categorie di possibili lavorazioni, quella che interessa noi è la Enhancement.

All’interno di questo menù c’è la voce Asinotropic smoothing attraverso il quale ridurremo il rumore digitale.

Le impostazioni di default vanno più che bene per cui potete anche non toccarle, nel caso state tranquilli, c’è il pulsante di reset che vi riporterà ai valori di partenza.

Per capire l’effetto che fa eccovi un particolare della stessa immagine prima e dopo l’applicazione del filtro anti rumore.

prima del filtro
dopo l'applicazione del filtro

Lightroom: aumentare la nitidezza delle immagini

Dopo aver scritto due righe su come aumentare la nitidezza delle immagini con Photoshop penso sia giunta l’ora di fare lo stesso con Lightroom.

Tralascio il come aprire un’immagine ecc ecc ecc, presumo che sappiate aprire il programma e che abbiate un minimo di dimestichezza con lo stesso.

Aprite l’immagine che volete correggere nella sezione Develop.

Selezionate, come da figura, Detail ed agite sui parametri sottostanti, in particolare su Amount e Detail. Giocate finche il risultato non vi soddisfa et voilà!

Fotografare a Teatro

DSC_7439
by adolfo.trinca - © All Rights Reserved

Ultimamente mi è capitato di dover “scattare” molte foto a teatro e non sempre sono riuscito ad ottenere risultati soddisfacenti come in questo caso.

Le foto le scatto con la mia Nikon D80 utilizzando, prima che si rompesse, il mio Sigma 80-210 f2.8 APO e/o il Nikkor 50mm f1.4.

Dopo la rottura del Sigma mi sono trovato a dover lavorare per forza, ero troppo distante dal palco con il Tamron 70-300 f4-5.6 (una lente economicissima ma cheadoro ^_^) ed è stato davvero complicato!

Ho dovuto spingere la D80 a 1600 iso (una volta detta velocità della pellicola) ed il rumore (dal sito di 3megapixel.it) si è fatto davvero fastidioso!

Ok, c’è il santo Noise Ninja che aiuta in post produzione ma ci vuole un sacco di tempo, davvero tanto e poi mi scoccia lavorare per aggiustare e non per abbellire!!!

Insomma oggi ero in cerca di qualche dritta ed ho trovato sul forum della Nikon (in particolare l’intervento di maxiclimb) questo interessante commento:

ciao,
con la d300 ho fotografato concerti spingendomi anche oltre i 3200 iso, e se l’esposizione è precisa le foto sono sempre accettabili.
Per utilizzare gli ISO più bassi possibile ad ogni scatto, preferisco lavorare in A (ndr: priorità dei diaframmi dove tu imposti il diaframma in modo manuale e la macchina calcola il giusto tempo di esposizione) con iso Auto.
Basta settare il diaframma a tutta apertura, e scegliere nelle impostazioni Iso Auto un tempo minimo di scatto che ti consenta di evitare il mosso (molto peggio il mosso del rumore).
Poi, utilizzare lo spot , per mettere a fuoco e misurare l’esposizione sul viso dei cantanti.

La difficoltà sta nel variare l’area di maf (ndr: messa a fuoco) a seconda dell’inquadratura che vuoi fare, perchè in lavorando in questo modo non si può ricomporre.
Ma grazie alle 51 aree (ndr: beato lui) sparse su tutto il fotogramma non è così complicato, basta prenderci la mano.

Io aggiungo che il WB (il bilanciamento del bianco) và impostato in automatico come sempre suggerisco si DEVE salvare in RAW (al massimo RAW + JPEG cosi da poter intervenire se necessario)!

Sempre nella stessa discussione Franco_ aggiunge

Scatta in NEF + JPG (fai contenta la tua amica per la rapidità di consegna e conservi i NEF perchè non si sa mai), WB AUTO (visto che non hai molta scelta), NR e D-Lighting OFF, ISO AUTO fino a 3200 ISO… ma soprattutto esponi bene…

Ottimo, a mio parere il consiglio di spegnere il Noise Reduction (NR) che delle volte fà più casino che altro. E adesso che ci penso ecco cosa ..zzo è andato storto nelle foto del saggio di ballo GRRRRRRRRRRRRRR

Quale flusso di lavoro utilizziamo in digitale?

Per chi suona la campana

Per chi suona la campana, inserito originariamente da adolfo.trinca.

Ho molti utenti fra gli “amici” sul profilo Flickr ma sono pochi quelli con cui mi relaziono regolarmente, uno di questi è Capannelle.

Lo ritengo una persone spiritosa e cordiale nonché un bravissimo fotografo. Ha scritto un’interessante post sul sua normale flusso di lavorazione delle immagini, dallo scatto alla loro successivo “sviluppo”.

Penso che sia interessante confrontare i nostri flussi di lavoro abituali in digitale.

Io opero così:

– Scatto in raw (d80) senza nessun intervento sulle regolazioni “on camera” (contrasto, nitidezza, saturazione, bianco e nero, etc)

– Apro il raw con Adobe Camera Raw a 16 bit con spazio colore Adobe 1998

– Regolo i parametri di sviluppo del raw (primo pannello di Camera raw)
Per le foto a colori cerco di ottenere in questa fase il contrasto e la luminosità desiderati.
Per le foto che successivamente convertirò in b/n cerco di ottenere un contrasto basso, cercando di non perdere dettagli nelle luci e nelle ombre.

– Apro l’immagine in Photoshop CS3

Se necessario intervengo sulla prospettiva della foto
Per le foto a colori, se necessario, intervengo sulle curve
Se necessario creo livelli per agire in modo differenziato sulle diverse zone dell’immagine.

Per le foto in b/n effettuo la conversione col plugin Bw Styler.
Anche in questo caso, se necessario, creo livelli per agire in modo differenziato sulle diverse zone dell’immagine.

– Se serve, riduco il rumore digitale col plugin Noise Ninja

– Converto lo spazio colore in sRGB
– Porto l’immagine a 8 bit
– Genero un jpg alla compressione minima o un TIFF

Voi come lavorate?

Io seguo praticamente la stessa scaletta ma per la riduzione del rumore digitale utilizzo la modalità di cui vi ho già parlato nel post Photoshop: come eliminare il rumore digitale (iso alti).

Ma non perché il metodo da me descritto sia migliore semplicemente perché non dispongo e non sò usare il Noise Ninja.

E voi? Come lavorate voi?

Photoshop: aumentare la nitidezza delle immagini (base)

Due o tre suggerimenti su come aumentare in post produzione la nitidezza delle proprie immagini. Non vi aspettate dei miracoli ma dei buoni risultati.

Una foto fatta bene è sempre la soluzione migliore!

Comunque per dare una bella risistemata alla vostra foto, apritela e poi dal solito menu Filtro -> Contrasta -> Maschera di Contrasto…

nitidezza1

…vi si aprirà la schermata dalla quale sarà possibile agire sui parametri che aiutano alla sistemazione della immagine.

nitidezza2

Le voci sulla quali sarà possibile agire sono Fatttore, Raggio e Soglia. Vediamo più o meno che cosa significano.

Fattore: indica a Photoshop con quanta “forza” agire sui bordi degli oggetti.  I pixel chiari saranno scheriti ulteriormente ed i pixel scuri scuriti maggiormente. Nessuna formula magica, provate finchè non siete soddisfatti del risultato ottenuto facendo attenzione a non creare tropo rumore digitale (e si si rischia).

Raggio: Indica l’ampiezza dei pixel sui quali agire. Maggiore è il suo valore e maggiore sarà l’effetto prodotto. Leggendo qua è la mi sono fatto l’idea che i valori ideali siano fra 1 ed 1,5 ma anche qui…provate e vedete cosa sta meglio alla vostra immagine.

Soglia: questo parametro permette di controllare l’incremento di contrasto per tutti i pixel adiacenti ai bordi che abbiano una luminosità particolarmente distante l’uno dall’altro. Con il valore a zero il filtro verrà applicato ad un numero maggiore di pixel mentre aumentando il valore ai pixel con sempre maggiore differenza tonale. Giocare con questo parametro può risultare fondamentale per evitare di introdurre, ma anche qui dipende da foto a foto, di introdurre rumore.

Me lo sono guadagnato anche stavolta qualche commento? Ah, la prossima “puntata” sarà sempre su come aumentare la nitidezza ma utilizzando l’altra modalità fra virgolette avanzata che è quella “Contrasta migliore”.