Quanti scatti farà la mia reflex?

Ieri abbiamo parlato, anzi abbiamo ricordato dell’esistenza di MyShutterCount.com, il servizio on line che, con il semplice upload di una foto, vi dice il numero di scatti fatti dalla vostra fotocamera, ma se volessimo sapere quanti ancora ne mancano prima che la vostra fotocamera sia kaput?

I produttori danno dei numerelli a riguardo, numerelli che rappresentano il numero minimo di scatti garantiti, ma fin dove può arrivare la mia D300 ad esempio nessuno lo sa….o no?

Be, se andate su Camera Shutter Life Expectancy Database avremo la possibilita, non appena selezionato il modello che ci interessa o scelto fra quelli maggiormente cliccati avremo la possibilità di sapere “dove sono arrivati gli altri”.

La cosa bella di questo sito è che tutti noi siamo gli altri ed inserendo il numero di scatti a cui siamo arrivati, sperando di non dover mai inserire l’ultimo scatto, possiamo anzi dobbiamo contribuire a questa iniziativa, voi che ne pensate?

Ah, la mia D300 è a 46376 scatti e scommettete che domani ne parlerà anche clickblog?

Contatore di scatti

In un vecchio articolo vi raccontai come fare a capire il numero di scatti della vostra macchina fotografica. Il sistema che trovai e adesso uso è quello on line tramite MyShutterCount. Utile sopratutto se state per acquistare una macchinetta usata e volete essere sicuri di quanti scatti abbia fatto.

link: My Shutter Count

Canon vs. Nikon: l’eterna lotta

Petapixel, che a sua volta ha appreso la notizia dalla fonte e cioè Beste Product (“best product”), ci  mostra un’immagine divertente che mette a confronto i due maggiori produttori di fotocamere.

Beste Product ha deciso di fare una specie di royal rumble fra le due case creando una comparazione con immagini tenendo conto delle opinioni di esperti del settore, la popolarità e le vendite.

Ci siete rimasti male? io un pochino si ;-)

Confrontare i flash Nikon

Un’interessante post apparso su Mansurovs Photography che compara i flash della Nikon.

Non traduco l’articolo ma vi posto soltanto la tabella riassuntiva, il resto andate a leggerlo alla fonte ^_^

Speedlight Feature SB-400 SB-600 SB-700 SB-800* SB-900
* Nikon SB-800 was discontinued in 2008
Bounce Head Tilt Yes Yes Yes Yes Yes
Bounce Head Rotate No Yes Yes Yes Yes
Master/Commander Mode No No Yes Yes Yes
Slave/Remote Mode No Yes Yes Yes Yes
Total Wireless Channels N/A 4 4 4 4
Total Wireless Groups N/A N/A 2 (A/B) 3 (A/B/C) 3 (A/B/C)
Easy Master/Remote Switch N/A No Yes No Yes
i-TTL Yes Yes Yes Yes Yes
Monitor Pre-Flashes No Yes Yes Yes Yes
Modeling Illuminator No No Yes Yes Yes
Repeating Flash No No Yes Yes Yes
Manual Mode Yes Yes Yes Yes Yes
Autofocus Assist No Yes Yes Yes Yes
PC/Sync Socket No No No Yes Yes
Power Source 2 AA 4 AA 4 AA 4/5 AA 4 AA
Recycle Time (Ni-MH) 2.5 Sec 2.5 Sec 2.5 Sec 2.7 Sec 2.3 Sec
Recycle Time (Alcaline) 3.9 Sec 3.5 Sec 2.5 Sec 6.0/4.0 Sec 4.0 Sec
Flash Duration (Full Power) 1/300 Sec 1/900 Sec 1/1042 Sec 1/1050 Sec 1/880 Sec
Flash Duration (Half Power) N/A 1/1600 Sec 1/1136 Sec 1/1100 Sec 1/1100 Sec
Minimum Number of Flashes (Alkaline) 140 200 160 130 110
Minimum Number of Flashes (Ni-MH) 210 220 230 150 165
High Speed Sync No Yes Yes Yes Yes
Rear-Curtain Sync Yes Yes Yes Yes Yes
Slow Sync Yes Yes Yes Yes Yes
LCD Screen No Yes Yes Yes Yes
Lens Coverage/Zoom 27mm 24-85mm 24-120mm 24-105mm 17-200mm
FV (Flash Value) Lock Yes Yes Yes Yes Yes
Flash Compensation N/A -3.0 to +3.0 -3.0 to +3.0 -3.0 to +3.0 -3.0 to +3.0
Flash Color Communication Yes Yes Yes Yes Yes
Firmware Update No No Yes No Yes
Diffusion Dome Included No No Yes Yes Yes
Color Gels Included No No Yes Yes Yes
Flash Stand Included No Yes Yes Yes Yes
Weight 128g 300g 360g 350g 415g
Dimensions 66 x 56.5 x 80mm 68 x 123.5 x 90mm 71 x 126 x 104.5mm 70.6 x 127.4 x 91.7mm 78.0 x 146.0 x 118.5mm

Thom Hogan, le previsioni per il 2011

Old Agfa Camera
Old Agfa Camera - by Flickr user gnackgnackgnack

Che ne dite se iniziassimo anche qui a replicare a chi ci copia senza citarci ?

Ma si dai, mica si offenderanno…prometto che cambierò ogni tanto qualche parola e qualche verbo e sistemerò la data degli RSS cosi che non se ne accorgano gh gh gh

Come ogni anno sempre Thom Hogan ha pubblicato i suoi pensieri pronostici su quello che succederà nel 2011 prossimo anno. Potete anche controllare quanto di quello che aveva previsto per il 2010 l’anno in corso si è effettivamente avverato.

Sicuramente vedremo nel 2011 le reflex full frame che quest’anno sono mancate. Prima di entrare nel dettaglio vi proponiamo le la liste lista con il posizionamento dei vari marchi secondo Thom (vuoi mettere con : dello stato dei vari marchi??? aho, meglio la mia versione!!!).

Molto successo Poco successo Difficile da stimare
Leica
Nikon
Panasonic
Canon
Fujifilm
Kodak
Sigma
Samsung
Sony
Casio
Pentax
Ricoh
Olympus

NIKON

Il 2010 per Nikon è stato un’ottima annata con crescita sotto ogni punto di vista ed un po’ di innovazione. Sembra, inoltre, che la dirigenza si renda conto che bisogna avere una politica diversa dal “more pixels, more video”.

Il 2011 potrebbe essere una grande annata per Nikon che inevitabilmente annuncerà D800, D400 e D4. Sarà interessante vedere come verranno ricevute dal mercato nei confronti degli analoghi modelli di Canon.

CANON

Sembra che Canon non si stia rendendo conto del mercato che le cambia attorno. Infatti continua a riproporre la medesima strategia del passato: più megapixel, aggiunta del video, ma la stessa reflex. Non si vede molta innovazione, mentre le altre aziende si stanno accapigliando sugli ultimi ritrovati della tecnica a partire dai sistemi di messa a fuoco a quelli di metering.

Nel 2011 sicuramente vedremo arrivare la Canon 1Ds mark IV con una risoluzione di 32 megapixel ed una Canon 5D Mark III che spingerà ancora molto nel segmento video per ripetere il successo della precedente. Oltre a questo non c’è molto all’orizzonte. Non si parla assolutamente di sistemi tipo evil e la risoluzione sulle APS-C è già arrivata al massimo possibile. Per invogliare nuovi utenti a scegliere Canon è necessario rivedere la strategia e proporre qualcosa di innovativo.

SONY

Sony quest’anno è partita per la tangente proponendo due sistemi innovativi: Nex e SLT. La loro politica con le reflex tradizionali non si è rivelata un successo, ma con questa mossa rischiosa possono riuscire ad ottenere ampie fette di mercato. Ammesso che mantengano tutte le promesse per il futuro.

Sicuramente arriverà la reflex che prenderà il posto della A700 con qualche interessante caratteristica, ma è poco probabile che possa essere al livello della concorrenza di CaNikon e di ottenere grandi fette di mercato. C’è la possibilità che abbia un sensore da 24 megapixel, ma non sono molti gli obiettivi di Sony ad essere nitidi con una simile risoluzione. Nel 2011 potrebbero arrivarne 5 nuovi, fra cui anche il 200mm. Non mancheranno nuove evil e nuovi obiettivi anche per i nuovi sistemi.

OLYMPUS

Olympus così come Sony sta scommettendo su un sistema diverso dalle reflex tradizionali decidendo di abbandonare il 4/3. A differenza di Sony oltre a produrre obiettivi per il micro quattro terzi i suoi utenti potranno utilizzare nativamente anche quelle prodotte dagli altri marchi del consorzio. Una carta che potrebbe essere vincente.

Nel 2011 vedremo probabilmente due nuovi modelli il cui scopo fondamentale sarà contenere i costi di produzioni, e quindi di vendita, mantenendo le medesime prestazioni di quelli attualmente sul mercato. Sarà interessante vedere la micro quattro terzi professionale che sicuramente debutterà il prossimo anno poiché tutto il team di sviluppo è ormai focalizzato su questo sistema.

PANASONIC

Anche in Panasonic hanno deciso di scommettere tutto sul micro quattro terzi, ma nel 2010 hanno fatto un grave errore che si spera non venga ripetuto con i nuovi modelli. La GH1 è un’ottima evil e molti hacker hanno modificato il firmware per ottenere di più, ma l’azienda ha cercato di bloccare il tutto dimostrando di non capire le esigenze dei suoi stessi utenti.

Nel 2011 vedremo sicuramente nuovi modelli di evil micro quattro terzi, ma arriveranno anche molti obiettivi, sicuramente dei fissi grandangolari su cui l’azienda essersi specializzata ultimamente. Purtroppo la scelta di nomi contenenti tutti la lettera G ed il numero 2 potrebbero confondere i potenziali utenti (GH-2, G2, G20, GF-2).

PENTAX

Purtroppo la situazione di Pentax nonostante le novità non è ancora rosea come si meriterebbe. Non ci sono molte indiscrezioni anche se potrebbe arrivare una evil.

LEICA

Il 2010 ha visto Leica lavorare per riuscire a soddisfare la domanda per i suoi nuovi modelli, ma la vera sfida la combatterà nel 2011 quando dovrà dimostrare di essere cambiata continuando ad innovare.

Nel 2011 vedremo sicuramente due nuovi obiettivi sia per il sistema S sia per il sistema M. Probabilmente arriverà una X2 con un 35mm f/2. Potrebbero sbancare il mercato producendo i loro classici fissi per il micro quattro terzi, ma sicuramente non si cimenteranno mai in quest’impresa.

SIGMA

Purtroppo nonostante l’annuncio dell’interessante DP1 non sembra ancora attirare molta attenzione da parte di nuovi potenziali utenti.

SAMSUNG

Samsung nel 2011 cercherà di trovare una nicchia di mercato in cui superare la concorrenza e la sua video camera NX100 potrebbe essere il suo cavallo di battaglia, ma al momento sta ricalcando, con un po’ di ritardo, le mosse di Panasonic. Arriveranno sicuramente nuovi corpi NX, ma la mancanza di obiettivi di qualità potrebbe penalizzare quest’azienda.

>> da  ByThom

PreviewExtractor: quanti scatti ha la tua Nikon?

Abbiamo già affrontato in passato l’argomento numero di scatti con l’articolo Quanti scatti ha la tua fotocamera? ma oggi ci ritorniamo per proporvi un’interessantissimo software: Preview Extractor.

La funzione principale di questo software in realtà è quella di estrarre, come dice lo stesso nome, le immagini jpg di anteprima contenute all’interno dei RAW.

A cosa serve una cosa del genere? Be, intanto potreste smettere di scattare RAW+JPG ma semplicemente in RAW e poi lanciare il simpatico programmino cosi da risparmiare spazio sulla memory card e sopratutto diminuire i tempi di salvataggio degli scatti in macchina.

La cosa sorprendente è che le JPG contenute nel RAW sono full e non ridotte, quindi è inutile davvero, come già detto, scattare anche in JPG.

Ottimo se volete avere subito la versione JPG perché confidenti di aver fatto un buon lavoro in fase di scatto.

Altra cosa davvero interessante è che il software in questione non necessità di alcuna installazione, leggete le raccomandazioni sul sito, ed è quindi trasportabile anche su pennetta.

Ah, questi dimenticavo…dovevamo parlare della sua funzionalità di conta scatti ^_^

Be, c’è un menù in alto a destra che si chiama “Shutter Count”. Cliccateci, si aprirà una piccola finestrella ed usando il bottone “Load Image”, oppure facendo drag and drop sulla finestra di una immagine appena scattata (sia NEF che JPG) dando ok vi dirà il numero di scatti che avete effettuato.

L’unica pecca è che non funziona sulle D100, D1H, D1X or D1. L’autore del software non è riuscito a capire dove si trova negli EXIF questa informazione.

A dire il vero c’è anche un’altra pecca, gli EXIF non vengono passate dal RAW al JPEG.

Avete suggerimenti / osservazioni o altri metodi da suggerire?

Sistemi di stabilizzazione, una piccola ricerca

Alla ricerca di nuove e sempre più interessanti argomentazioni mi è venuta la malsana idea, per via del tempo e dell’impegno per documentarmi, di parlare dei sistemi di stabilizzazione delle immagini.

[aviso]Non vi aspettate un trattato ne la bibbia ma una serie di appunti ragionati sull’argomento[/aviso]

Intanto, diamogli una definizione. Lo stabilizzatore di immagine non è altro che è un sistema che permette l’acquisizione di immagini senza l’involontario tremolio generato dalla mano o dalla nostra respirazione.

Questi sistemi sono utili sopratutto nell’utilizzo degli zoom spinti e/o dei tempi di apertura lunghi, in pratica lo stabilizzatore ha lo scopo di dare alle immagini una nitidezza maggiore di quella scattata senza.

Interessante l’animazione che Nikon ha messo nel suo sito americano:

( se l’animazione non è animata usate il bottone on – off ^__^ )

Lo stabilizzatore può essere di tipo ottico o digitale e può trovarsi all’interno della macchinetta fotografica o all’interno degli obiettivi (in questo caso solo ottico).

Lo stabilizzatore digitale funziona tramite una elaborazione delle immagini all’interno della macchinetta fotografica (compatte) ad opera di un processore e di un software di elaborazione.

In pratica il software che elabora le immagini cercando di dargli maggiore nitidezza, un po come fareste voi in Photoshop.

Attenzione, molte macchine compatte vantano di avere un sistema di stabilizzazione mentre nella realtà non fanno altro che alzare la sensibilità ISO cosi da consentire tempi di scatto più veloci. Ma come si sa alzare gli ISO comporta comunque, specialmente sulle compatte, l’introduzione di rumore digitale con conseguente perdita di qualità, occhio!!!

Juza: La “vera” stabilizzazione d’immagine muove un elemento dell’obiettivo, o il sensore, per controbilanciare le vibrazioni della fotocamera. Se non ci sono elementi in movimento, non è stabilizzazione: la stabilizzazione “elettronica” utilizzata in alcune videocamere riduce la qualità d’immagine e funziona esclusivamente col video (è una funzione che ritaglia e muove ogni fotogramma per creare un filmato più fluido); la stabilizzazione “elettronica” di alcune fotocamere è solo un falso. Molte compatte hanno questa finta stabilizzazione (due esempi sono la “Picture Stabilization” della Fuji F30 e il cosidetto “Anti Shake DSP” di Casio): in realtà si limitano ad alzare la sensibilità ISO, e non hanno niente a che fare con la vera stabilizzazione d’immagine.

Ovviamente la stabilizzazione digitale funziona solo su apparecchi digitali e non su apparecchi analogici. Questo sistema è meno costoso da realizzare in quanto non necessita di una parte meccanica ma è per sua natura meno efficace e preciso dello stabilizzatore ottico.

Lo stabilizzatore ottico funziona tramite un sistema meccanico che muove le lenti per assecondare i movimenti involontari della mano o della respirazione, controbilanciandone di fatto gli spostamenti.

Lo stabilizzatore è uno strumento a forma di anello composto da due sensori giroscopici, un Processore o CPU ed un motore. I sensori rilevano i movimenti involontari su ogni asse, li inviano alla CPU che li analizza e a sua volta invia al motore le istruzioni per muovere una lente o il sensore (vedremo più avanti cosa vuol dire).

Il risultato pratico è che l’immagine che colpisce il sensore è ferma cosi da permetterci di ottenere foto nitide anche se la fotocamera si muove leggermente.

Il primo sistema di stabilizzazione ottico fu introdotto da Canon nel suo 75-300 IS, eravamo nel 1995. Era un’obiettivo entry level, sembra che Canon testi in questa fascia di prodotti le novità per poi portarle in alto.

Da allora se n’è fatta di strada e dai 2-stop di guadagno iniziali oramai, tutte le case costruttrici, dichiarano 4-stop di guadagno rispetto al “tempo limite” di scatto.

C’è una formuletta o se preferite una consuetudine, che indica tempo di otturazione limite sotto al quale la foto verrà mossa, che sarebbe:

Tempo limite = 1 / Focale

Photoactivity: Per capire meglio, facciamo un esempio pratico: il tempo di scatto limite per il nostro 105VR utilizzato su una D-reflex è di circa 1/150sec, ovvero l’inverso della lunghezza focale effettiva (per l’appunto 105 x 1,5 = 157mm sul formato DX). Dimezzando per quattro volte questo tempo si ottiene il tempo di scatto limite con VR attivato, ovvero circa 1/8sec. Cosa decisamente non banale, dunque, scattare con un 150mm ad 1/8 secondo! Tenuto conto che l’apertura massima disponibile è f/2.8, questo significa poter scattare a mano libera con luce relativamente scarsa, appena 6 EV (sensibilità 100 iso) ! Cosa significa? Be, in teoria, poi bisognerà valutare tante altre cose, avrete la possibilità di scattare fotografie con tempi molto molto più lenti. Ad esempio se la giusta esposizione la avete a 1/125 potrete scattare 4 stop sotto e cioè ad 1/8.

Come capirete 4-stop “di respiro” sono un vantaggio non da poco, specialmente se scattate in condizioni di luce scarsa. Ad esempio un’immagine scattata a 1/60s con la stabilizzazione sarà nitida come un’immagine scattata a 1/250s.

Ma facciamo subito alcune considerazioni perché non è oro tutto ciò che luccica.

Diciamo che ad oggi ci sono due possibilità di stabilizzazione, quella ottica (Nikon e Canon), che agisce sugli obiettivi e quella sul sensore (Minolta/Sony e Pentax/Samsung).

Ma quali sono i vantaggi e gli svantaggi di questi due sistemi, lasciando stare la stabilizzazione digitale? Facciamo un piccolo schema riassuntivo che poi andremo a spiegare più avanti.

STABILIZZAZIONE OTTICA

vantaggi:

  • correzione micro mosso
  • visualizzazione dell’azione della stabilizzazione nel mirino

svantaggi:

  • non corregge il movimento rotatorio (vedi più avanti)
  • aumento di prezzo
  • piccolissimo degrado nella qualità dell’immagine

STABILIZZAZIONE DEL SENSORE

vantaggi:

  • correzione micro mosso
  • viene stabilizzato anche il movimento rotatorio R
  • si “rendono stabilizzate” tutte le ottiche del corredo

svantaggi:

  • non permettono la visualizzazione dell’azione dello stabilizzatore nel mirino
  • piccolissimo degrado nella qualità dell’immagine

L’idea che mi sono fatto dopo aver letto molto ed usato qualche sistema di stabilizzazione è che la stabilizzazione è utile ma non fa miracoli.

Tenete in’oltre presente che il sistema entra in azione con la pressione a metà corsa del pulsante di scatto, ma la stabilizzazione più efficace si ottiene attendendo un paio di secondi. Se avete la necessità di essere “sempre pronti” tenetelo presente.

L’unico sistema che può annullare qualsiasi tremolio è l’accoppiata cavalletto / scatto remoto (o autoscatto che è più economico ^_^) !

Juza: Utilizzare l’IS su treppiede solleva alcuni dubbi. Prima di tutto, può ridurre la qualità d’immagine? Con tutti gli obiettivi annunciati dopo il 1999 (dalla seconda generazione), l’IS può essere usato sul treppiede senza problemi. Le uniche ottiche Canon non compatibili col treppiede sono i pochi obiettivi di prima generazione ancora in produzione – il 300 f/4 IS, il 100-400 IS e il 28-135 IS. Se usate un’altra marca, e non siete sicuri della compatibilità con treppiede, vi suggerisco di fare questo semplice test: montate la fotocamera su un solido treppiede e scattate due esposizioni; una con la stabilizzazione e una senza. Se sono ugualmente nitide, non avete problemi; altrimenti è necessario disattivare la stabilizzazione quando di usa l’obiettivo su un treppiede ben stabile. In ogni caso, l’unico rischio è una diminuzione della qualità d’immagine – non ci sono rischi di danneggiare l’unità IS anche se lo si dimentica acceso quando si monta un obiettivo di prima generazione sul treppiede.

Un’altra considerazione è che la sua implementazione, sia sul corpo macchina come fa Sony e Pentax sia sugli obiettivi come fa Canon e Nikon, comporta una maggiore complessità costruttiva e di conseguenza, un’aumento di prezzo ed un decadimento teorico nella qualità dell’immagine.

Juza: La stabilizzazione non diminuisce la qualità d’immagine degli obiettivi: le ottiche stabilizzato sono nitide come le precedenti versioni non stabilizzate, o addirittura superiori. Ovviamente, le lenti stabilizzate aggiungo complessità al progetto, ma i miglioramenti nel campo dell’ottica permettono di mantenere o superare la qualità ottica delle versioni precedenti. La stabilizzazione è sempre più diffusa, anche in obiettivi standard e grandangolari (come il Canon 24-105 IS): è molto utile anche nelle focali corte. Se siete in grado di scattare una foto nitida a 1/20 con un obiettivo 18mm, con la stabilizzazione potresta scattare addirittura a 1/2!

Su quest’ultimo punto ci sono molti pareri contrastanti, uno è quello che avete appena letto in cui Juza dice che gli svantaggi derivanti dalla complessità costruttiva sono bilanciati dai progressi nel campo dell’ottica.

Bisogna dire che in certe condizioni di scarsa luminosità avere 4 stop in più può dare la possibilità di portare a casa foto che altrimenti sarebbero da buttare per cui il fatto di avere una piccola perdita di qualità è per cosi dire “accettabile”.

C’è anche da dire che al di sopra del 1/500 di secondo (più avanti, nella parte di post tradotto da byThom) non è utile lo stabilizzatore anzi introduce problemi la dove vorrebbe correggerli.

Altro punto da considerare è che tutti i sistemi di stabilizzazione attuali bilanciano soltanto i movimenti sull’asse X ed Y (Canon ha la possibilità nel mode 2 di escludere, per il panning, quello orizzontale) ma non tutti il movimento rotatorio R (infattisolo quelle con il sistema di stabilizzazione sul sensore possono).

Piccola precisazione sull’IS Mode 2:

Chrysis: questa nuova tecnologia determina automaticamente se il movimento è fatto consciamente e blocca la correzione. Il sistema IS Mode 2 determina inoltre la mancanza di vibrazioni per prevenire gli errori dovuti ad appoggio su treppiede.

Photoactivity: Il sistema VR è in grado di compensare le vibrazioni muovendo un gruppo di lenti sugli assi X e Y, ovvero su un piano parallelo al piano del sensore.

In pratica vengono prese in considerazione solo le oscillazioni destra/sinistra (X) e alto/basso (Y) introdotte dalla mano del fotografo, mentre il movimento roratorio “R” ed il movimento avanti/dietro “Z” non possono essere controbilanciati.

Il movimento “R” è controllabile dall’utente limitando la pressione sul pulsante di scatto, che di fatto è l’unica azione del fotografo che può indurre una rotazione.

Un altro possibile rimedio è lo scatto ritardato (funzione disponibile sulla Nikon D200) oppure lo scatto a raffica, in quanto solamente il primo scatto della serie può essere danneggiato dal movimento di rotazione.

Nota: solo le fotocamere con sensore stabilizzato possono contenere le oscillazioni “R”.

Molto meno controllabile è invece il movimento “Z”, perchè la nostra postura introduce una certa oscillazione anche sull’asse avanti/dietro rispetto al soggetto.

Questa oscillazione, generalmente di frequenza più bassa rispetto alle altre, determina uno spostamento del punto a fuoco pari all’ampiezza dell’oscillazione: il VR però non agisce sulla messa a fuoco, e dunque non può controbilanciarla in alcun modo (ndr: punto molto importante che verrà ripreso in maniera più tecnica nello spezzone tradotto da byThom).

Adesso vi presento, ho dedicato anche troppo tempo a sto articolo ^_^, una traduzione parziale dell’articolo:

Tutto sul VR – Tutto sul sistema VR della nikon (titolo originale:  ) preso e tradotto (abbiate pazienza) da byThom.

L’ultima modifica, nel momento il cui scrivo, risale al 28 aprile 2010.

Dopo aver parlato con i progettisti ho fatto alcune modifiche a questo articolo. Tuttavia, nonostante abbia cambiato alcune cose per quanto riguarda la parte tecnica, le mie raccomandazioni sono sempre valide.

La prima è più importante regola sul VR è questa: mai utilizzarlo se non è effettivamente necessario!

Si, questa affermazione cozza con tutto quello che si dice e si fa nel mondo e con quello che la Nikon stessa lascia passare nella loro pubblicità.

Il VR è nato come soluzione ad un problema ma se il problema non sussiste, lo stesso VR potrebbe diventare il problema! Per capire questa affermazione, bisogna avere chiaro il funzionamento del sistema VR.

Il sistema VR della Nikon è essenzialmente un elemento nel gruppo di lenti che si sposta per compensare movimenti bruschi della fotocamera. Siccome questo elemento è nel mezzo dell’obbiettivo, di solito vicino all’apertura del diaframma, ma non esattamente in li, si deve pensare a quanto accade al percorso ottico quando il VR è attivo.

Ci sono momenti in cui questi spostamenti comportano una modifica della qualità delle immagini? io credo di si anche se, anche se l’impatto visivo è trascurabile.

Su alcuni bokeh a media distanza le lenti dotate del VR (acceso) sembrano soffrire di questo “problemino”.

Detto in altro modo, lo sfondo della scena è leggermente fuori fuoco rispetto al punto focale nel percorso ottico. Il risultato è quello che io chiamo “busy bokeh”, un bokeh che non ha le caratteristiche di semplicità e regolarità che ci si aspettano da un ottica di alta qualità.

La maggior parte delle persone che utilizzano VR non si domandano come funziona il sistema. Credono semplicemente che sia una qualche forma di magia. Be, non lo è. E’ Fisica, non magia.

Ed una delle questioni fisiche coinvolte è la frequenza di campionamento. E’ proprio la frequenza di campionamento del meccanismo di rilevazione del movimento che determina il tipo e la quantità di movimento che deve essere rimosso. Volete sapere quant’è questa frequenza? Per nikon 1000Hz. Sapete che vuol dire, no? No? 1000Hz è 1/1000 di secondo. Nyquist (ndr: Teorema del campionamento di Nyquist-Shannon) ci dice che la minima frequenza necessaria per campionare un segnale senza perdere informazioni è pari alla metà della frequenza di campionamento, così possiamo identificare con precisione solo dei movimenti più piccoli di 500Hz (1 / 500 secondi) (ndr: ecco da dove nasce il lilmite del 1/500).

Benché questa frequenza di campionamento riguarda la fotocamera, essa non è del tutto scollegata alla velocita di scatto. Per esempio, la tendina può viaggiare sul sensore alla velocità superiori ad 1 / 250, mostrando ogni volta solo una parte dell’immagine. Un altro aspetto del sistema VR è che ri-centra l’elemento in movimento poco prima dell’apertura dell’otturatore. In poche parole, ci sono un sacco di cose che devono quadrare con tempi di posa molto brevi per avere un piccolo impatto visivo, specialmente con le lunghe focali. (ndr: ho tradotto come potevo ma vi consiglio di andare a leggere l’originale)

Regola 2: il VR dovrebbe essere normalmente spento se la vostra velocità di otturatore è superiore a 1 / 500.

Se si scende a bordo campo durante una partita di calcio e si và a controllare i fotografi presenti per vedere come hanno le impostazioni sui loro obiettivi, vi accorgerete di chi è professionista o meno: il VR è solitamente off  (a meno che non sei posizionato vicino ad un ventilatore in azione).

Questi professionisti un giorno si sono accorti di una cosa: se hai il tempo di posa più veloce della frequenza di campionamento, a volte il sistema esegue una correzione che non è in sincronia con la velocità dell’otturatore.

I risultati sembrano un po’ come quando hai la lente che soffre di Front o Back Focus (AF Fine Tune):  il punto di messa a fuoco risulta leggermente spostato da dove te lo aspettavi. La cosa interessante è che i professionisti intervistati (è il caso di Canon) per le lunghe focali, si scopre che molto raramente usano lo stabilizzatore!

Direi che meno del 10% delle riprese che faccio con il mio 400 millimetri f/2,8 le faccio con il VR acceso (e per inciso, io odio l’interruttore VR  su alcuni di questi obiettivi – è davvero difficile capire se è acceso o spento).

Un consiglio: alcune lenti della generazione precedente,  non-VR, sono veri affari. Considerate il VR una bolla di sapone. Fra qualche giorno la gente smetterà di pagare tali sistemi e prenderà i non VR. Almeno dovrebbero.

So di fotografi che hanno speso più di 3000 $ per il passaggio da lenti non-VR a versioni VR.

Questo credo sia troppo.  Ho fatto moltissime prove utilizzando il VR ad alte velocità di scatto. In centinaia di casi, quelli che ho esaminato, i risultati sono gli stessi: l’obiettivo sembra essere più efficace con il VR spento quando la velocità dell’otturatore è superiore a 1 / 500. Questo per la mia esperienza, sia chiaro. Una piccola manciata di persone hanno presentato con me, le prove del contrario (secono loro il VR migliora i risultati con i tempi sopra a 1 / 500).

Nella maggior parte dei casi sono riuscito a provare che non è il VR in sé, che ha aiutato a rimuovere il micromosso, ma che la loro mano ferma ed il sapiente uso del treppiede è tale che non traggono beneficio dal VR. La mia tesi è che avrebbero maggiori vantaggi scattando sotto 1/500.

Tuttavia, come quasi tutto in fotografia, ci sono delle controindicazioni a quanto sopra. Per esempio, cosa succede se si sta fotografando seduti su di un elicottero e si scatta ad 1/1000, si dovrebbe o no utilizzare il VR?

Una delle che Nikon non spiega bene è il concetto di “macchina fotografica in movimento” “macchina fotografica su piattaforma in movimento”.

Se l’origine del movimento siete voi vale tutto quello che ho scritto sopra a proposito dello spegnere il VR sopra 1 / 500. Idem per le situazioni di semi-ferme, come ad esempio un monopiede.

Tuttavia, se c’è una piattaforma sotto di voi che causa vibrazione (auto, nave, treno, aereo, elicottero, ecc), le cose sono un po diverse.

La differenza fra VR Active ed il VR normale è tutta qui. L’Active VR dovrebbe essere usato quando si è su una piattaforma mobile. Il VR Normale quando si è su un terreno solido ed il solo movimento da compensare è quello generato da noi. In sostanza, se il movimento è dovuto ad una causa esterna, Active VR. Se siete l’unica fonte di movimento, VR normale.

Regola # 3: Se si è su una piattaforma mobile, usate il VR attivo. Se siete l’unica causa di vibrazioni, VR normale.

La differenza fra i due modi sta nel tipo di movimento che ognuno di essi cerca di trovare e correggere.

Le vibrazioni di una piattaforma tendono ad essere frequenti, costanti e con direzione casuale. Il movimento della mano tende ad essere più lento e con un percorso prevedibile (ad esempio quando si preme il pulsante di scatto nella parte destra della macchina la si sposta verso il basso – è la legge di Newton, non una mia invenzione).

Sapere quale tipo di moto il sistema VR deve affrontare permette di ottimizzare la sua risposta.

Quindi, tornando al nostro 1/1000 durante le riprese su un elicottero, abbiamo un conflitto. Il movimento dovuto alla vostra mano non può essere corretto da parte del sistema VR perché il tempo di posa è più veloce della frequenza con cui sono fatte le correzioni.

Ma è anche vero che siamo su una piattaforma (in movimento) che imprime delle vibrazioni effettivamente correggibili (probabilmente non del tutto) dal VR. La questione è se i miglioramenti dovuti alla correzione siano più efficaci del degrado apportato dal far funzionare il VR al di sopra della frequenza di “lavoro”.

Non esiste una risposta chiara, ogni situazione è diversa da un’altra, ma la mia tendenza è quella di sperimentare i tre modi del VR per poi decidere.

Durante le riprese da piattaforme in movimento, scatto con il VR Active, il VR normale ed il VR spento, con tempi di scatto elevati, poi esamino attentamente i risultati e solo allora prendo una decisione.

Naturalmente esaminare su un monitor cosi piccolo, che di per sé può essere un problema per molti, per giunta su un veicolo in movimento non è molto semplice ne preciso.

Eppure, a volte vedo un miglioramento con VR acceso rispetto a quando è spento, sempre con velocità di scatto elevate e su veicolo in movimento dico.

Comunque questi miglioramenti non sono paragonabili a quelli ottenuti con un giroscopio dedicato. Se scattate regolarmente da elicotteri, un giroscopio è un investimento migliore rispetto ad un più costoso obiettivo con il VR.

Nota bene: Ci sono un certo numero di fotografi che sconsigliano l’uso del VR sopra 1/250 (o la velocità di sincronizzazione flash, se più lenta). Questo perché con temi superiori a quelli del syncspeed l’immagine viene catturata con esposizioni parziali piuttosto che una unica esposizione (è una semplificazione, ma è abbastanza per questa discussione). Pertanto, le correzioni effettuate dal VR, con tempi di posa superiori al syncspeed vengono effettuate su una parte dell’immagine alla volta. Nella sostanza, ho visto cambiamenti cosi impercettibili fra lo scattare a 1/500 rispetto al 1/250 (semrpe con il VR on) da non essere d’accordo. Sopra 1/500 vedo chiaramente le correzioni appartate, correzioni che non mi piacciono.

Regola # 4: Se il soggetto si muove, devi usare una velocità di scatto che blocchi detto movimento.

Questa è una cosa difficile da imparare, e di solito ci si sbatte la testa.

I produttori di fotocamere sponsorizzano il VR facendo affermazioni del tipo:
“Permette un guadagno di quattro stop”, gli utenti iniziano a pensare così: “se posso scattare a 100 mm a 1/100 senza, con il VR posso scattare anche a 1/6.”

Be’, forse. Ma l’unico movimento corretto dal VR è quello della macchina non quello del soggetto in movimento. Se il soggetto si muove, scattando ad 1/6 avrete la produzione di una macchia sfocata. Guardando la mia Nikon Field Guide (Pagina 51 per quelli di voi che hanno la mia stessa macchina), dice che 1/125 è la minima velocità dell’otturatore necessaria a congelare una persona che cammina (1/30 se sono a piedi e avanzano verso di te). Questo è, ovviamente, una generalizzazione.

C’è una tabella più dettagliata di seguito che mostra quello a cui ho fatto riferimento poco fa e che mostra come anche la distanza impatti sulla scelta della velocità di otturazione. Cosi come possa la dimensione del soggetto all’interno dell’inquadratura fare la differenza. Che il VR rimuova qualsiasi tipo di movimento è qualcosa che tutti si devono scordare:

Regola # 5: Il VR NON rimuove TUTTI i movimenti, rimuove solo il movimento della fotocamera.

Un’altro tipo di movimento è quello del panning ed il VR ha impatti anche in questo caso. Ho sentito dire da mota gente che bisogna spegnere il VR quando si insegue un soggetto. In alcuni momenti potrebbe anche essere vero, ma per la mia esperienza posso dire che il VR può stare tranquillamente acceso quando si fa panning. Il motivo è che il sistema VR di Nikon è molto efficace nel rilevare i movimenti costanti della fotocamera. Mentre state facendo il panning in una direzione, il sistema VR correggerà soltanto i movimenti degli assi opposti. E’ stato progettato anche per questo. L’importante è assicurarsi di eseguire il panning in maniera fluida, senza scatti. Molte persone fanno uno scatto mentre schiacciano il pulsante di scatto. NON fatelo, avete bisogno di pratica, continuate a seguire il soggetto (panning) quando l’otturatore è aperto, non fermatevi. Piuttosto, provate a fare pratica nella vostra zona (o nella zona dove ci sono dei corridori). Fate il panning usando i corridori come soggetti e scattate foto. Quando lo specchio ritorna al suo posto e l’immagine a sua volta torna nel viewfinder e l’immagine scattata appare sul display, il corridore è sempre nello stesso punto del frame? No? E allora devi continuare a fare pratica. Tsk tsk. Prova di nuovo. Continua a fare pratica finché non avrai una serie di scatti in cui il corridore rimarrà nello stesso punto per l’intera sequenza, sia al momento del click sia per tutta la durata dell’inseguimento. Ma non c’è bisogno che ti metti a correre dietro al soggetto.

Nota bene: Torno con la mente al periodo della scuola di fotografia, dove il mio professore mi ha fatto passare il vizio di fare movimenti scattosi durante il panning in maniera sadica: mi disse si seguire il soggetto con una TLR (twin lens reflex). Guardate dentro il mirino di una TLR. C’è una cosa da considerare : sinistra e destra sono invertiti. Cosi quando il soggetto si muove verso da destra a sinistra, nel mirino apparira come se si muovesse da sinistra a destra. Non hai speranze di seguire il soggetto con una TLR a meno che tu non rilassi la mente e non inizi a seguire il movimento del soggetto con il tuo corpo. Non si può guardare e poi reagire, tu devi guardare e reagire.

Regola # 6: Se esegui correttamente il panning, il VR dovrebbe probabilmente essere On.

Un’altro aspetto del VR che manda in confusione la gente è la sua attivazione. I manuale della Nikon non sono a riguardo molto chiari, ma è veramente semplice: solo quando schiacci il pulsante di scatto il VR si attiva.

Premere il bottono di scatto per metà attiva il sistema il quale inizia ad eseguire una serie di correzzioni. Una pressione completa e veloce sul bottone di scatto fa partire si il VR ma non da al sistema il modo di ottenere molti “campioni” sui quali basare le sue predizioni (su macchine professionali stiamo parlando di  1/33 di secondo fra la pressione del bottone di scatto ed il momento che la foto viene presa). In sostanza se fate partire il VR prima dello scatto, avrete più probabilità che i risultati sia migliori. Questo non vuol dire che dovete sempre aspettare che il VR abbia ingaggiato il soggetto prima di scattare. Se è il momento di scattare, scattate! Il VR darà il meglio di se correggendo il movimento che indurrete schiacciando il bottone di scatto. Ma ci sono due buone ragioni che rendono preferibile la scelta di aspettare che il VR ingaggi la vostra preda:

primo, il VR immagazina una serie di dati con i quali tenta di predire le correzioni da effettuare;

secondo, è difficile che voi muoviate la camera, avendo già parzialmente schiacciato il pulsante di scatto, più di quanto la avreste mossa facendo lo scatto dal principio.

La seguente dicitura dei manuali Nikon “Il VR non funziona quando si preme il bottone AF-ON.” può creare non poche incomprensioni. Questo è uno dei punti in cui la traduzione dei manuali Nikon è un po forviante. Se la dicitura fosse stata “Il VR non si attiva quanto l’AF-ON è schiacciato” sarebbe stato più corretto. Durante i miei test il VR non era “spento” usando l’AF-ON, semplicemente il sistema non entrava in funzione con la pressione su questo pulsante. Soltanto rpemendo sul bottone di scatto il sistema VR entra in azione. Questo significa che se usate l’AF-ON per focheggiare piuttosto che il pulsante di scatto a metà il VR non sarà in funzione. Ovviamente lo sarà al momento dello scatto.

Questo crea un piccolissimo problema. Per ottenere il massimo, noi vogliamo che il VR abbia un campione di dati prima di premere completamente il pulsante di scatto. Se stiamo usando il tasto AF-ON per focheggiare, le nostre dita non stanno facendo in contemporanea pressione sul tasto di scatto. Ma è proprio questo in pratica che bisogna fare. Sigh.

La mano destra sta per iniziare un balletto assai complicato: schiaccia e rischiaccia l’AF-ON per il fuoco, pulsante di scatto a metà per il VR, pollice destro fra rotella dei tempi/diaframmi per compensare l’esposizione, pobabilmente il dito medio destro per l’apertura dei diaframmi ed anche il pulsante di scatto con il dito indice.

Questo, per inciso, è uno dei motivi per cui preferisco l’ergonomia delle macchine Nikon rispetto alle Canon: quando sto facendo tutti questi giochi di prestigio le dita non sono in reale movimento, specialmente il dito per lo scatto. Con Canon si ha la tendenza a muovere l’indice destro fra la rotella superiore e il bottone dello scatto. Si può reagire più velocemente se non devi muove il dito dal pulsante di scatto.

Ma ci sono ancora altre avvertenze. Se avete una fotocamera con il flash  incorporato (sostanzialmente tutte tranne le serie D1, D2 e D3), sappiate che mentre il flash si ricarica il sistema VR non è attivo. Questo perché il VR da per scontato che la priorità sia quella di ricaricare il flash il più presto possibile. Cosi la fotocamera toglie corrente al sistema VR finché non ha caricato il condensatore del flash. Se usate il flash a tutta potenza (o giù di li) e magari eseguite scatti ravvicinati, la ricarica può durare alcuni secondi. Come fare per capire se il VR è tornato in funzione? Be, non potete, almeno non con certezza, ma potete usare l’indicatore del flash: se non è presente con il flash accesso ed attivo, il VR probabilmente è disattivato.

Regola # 7: Se proprio dovete usare il VR con il flash, se potete usate un  flash esterno

Mi sono tenuto la questione del treppiede per la fine dell’articolo perché, al contrario di quello che pensa Nikon, non è poi cosi chiara.

Acnhe se probabilmente hai già spento il VR ;~).

Parte del problema risiede nella poca chiarezza con la quale la Nikon ha etichettato e distinto i vari modi di funzionamento del VR. Tecnicamente, il VR II montato su alcune delle nuove lenti dovrebbe accorgersi se la fotocamera è montata su treppiedi e non tentare di correggere nulla. Ma non tutte le lenti moderne sono dotate di quello che molti di noi chiamano “the full VR II”. Il recente 16-35mm, ad esempio, è arrivato assai dopo l’introduzione del VR II, ma non sembrerebbe avere la funzionalità di riconoscimento del treppiede. Questo, ci porta ad una considerazione prima di arrivare al dunque:

Regola # 8: È NECESSARIO leggere il manuale dell’obiettivo per vedere cosa dice circa l’uso con il treppiedi.

Di base, esistono due possibilità:

1. Il manuale dice spegnere il VR quando si usa un cavalletto (a volte di aggiungere “a meno che la testa non sia sbloccata”)
2. Il manuale dice espressamente che il sistema VR rileva quando la fotocamera è su un treppiede

Ok, ho mentito. Dimenticate quello che dice il manuale.

Regola # 8 Quella VERA: Se la vostra macchina è sul cavalletto, anche se usi una testa Wimberley quasi sempre sbloccata, spegni il VR. Se il treppiede è su una piattaforma in movimento o se è poco stabile di suo, prendete in considerazione l’uso del VR, ma prima effettuate delle prove per vedere se ne avete davvero bisogno.

Quindi perché non sono d’accordo con Nikon? Anche con una testa libera su un cavalletto, il movimento dovrebbe essere abbastanza facile da controllare, e dovresti aver rimosso quasi completamente il movimento (idem con monopiedi).

Il problema che ho, e che molti altri professionisti avranno notato, è che il sistema di rilevazione del treppiede del VR è a volte da dei “falsi negativi”.

Il altre parole il sistema di rilevazione del treppiede del VR II dovrebbe accorgersi quanto il sistema è “abbastanza calmo” e spegnere il VR. Il più delle volte è proprio quello che accade (Nikon dice che il sistema è abbastanza intelligente da rilevare fino a tre diversi tipi di movimento – quelli della mano che tiene, quelli della piattaforma e quelli del sistema di supporto – perché le “vibrazioni” causate da ciascuno di questi movimenti hanno forma d’onda diversa e quindi riconoscibile).

Ogni tanto, però, il VR rileva che deve correggere qualcosa ma poi non lo fa (o forse sta ancora correggendo una vibrazione rilevata in precedenza non più presente nel campionamento successivo). Quando ciò accade, l’elemento VR (s) sono in movimento quando non dovrebbero. Di solito non molto, ma abbastanza da non farti raggiungere i risultati ottimali.

In effetti, questo è lo stesso problema che si presenta utilizzando il VR a più di 1/ 500: a volte funziona, a volte no. Il problema è che non ti piace quando fa cilecca, e non saprete mai quando questo accadrà. Se io ti dicessi che su 100 scatti 10 verranno male a causa del VR, utilizzereste ancora il VR? Tenete presente che quando usi un treppiede tutti i 100 scatti sarebbero buone e senza VR (se cosi non fosse avrete sicuramente sbagliato treppiede e testa, leggi questo articolo, o utilizzate una tecnica sbagliata). Io non sono un giocatore d’azzardo: io preferisco il noto all’ignoto, così non mi piace pensare che in maniera randomica avrò degli scatti sbagliati a causa del VR.

Questo ci porta a a fare una considerazione: come appare uno scatto rovinato dal VR? Be, rovinato forse è un termine troppo duro. Sub-ottimale è probabilmente il termine giusto. Uno scatto ottimo è uno scatto molto pulito e ben definito anche sui bordi. Assumendo di avere la “lente perfetta”, i bordi dovrebbero essere di base buoni, come se si applicasso i filtri anti-aliasing, sensor o Bayer demosaic (ndr.: anti-aliasing, sensor, Bayer demosaic).

Molti di noi trovano che il VR non corregga cosi come dovrebbe/potrebbe con una “crescita” dei bordi, crescita che delle volte ha una direzionalità. Simile a quello dovuto al movimento della fotocamera ma più sottile. Tendo a dire che i dettagli “looks busy” quando il VR non fa pienamente il suo lavoro o quando è accesso in situazioni per cui non lo dovrebbe. And when you apply sharpening to busy edges, that busy-ness gets busy-er. (ndr: questa proprio non sono riuscito a tradurla con un senso compiuto cosi ve la passo in inglese nella speranza che qualche anima pia mi aiuti).

Senza VR attivo, su un cavalletto stabile, è come se togliessimo improvvisamente un velo e si vedrebbe quanto sono davvero nitidi i nostri obiettivi (assumendo che tu abbia correttamente messo a fuoco il soggetto e che sia su una piattaforma stabile, questo è ;~).

Ebbene si, è proprio andare a cercare il pelo nell’uovo.

Il VR non corregge benissimo come non funziona benissimo un treppiede poco stabile od usato male ( magari fissate la lente (ndr: mi pare si riferisca a cannoni tipo da 400mm ecc) direttamente sul cavalletto con gli appositi anelli) oppure con le gambe che tremano (comperate un cavalletto adatto alla vostra attrezzatura): stiamo parlando di cose alle quali neanche ci fai caso o se ci fai caso e soltanto perché stai facendo pixel peeping (ndr: visualizzi/ingradisci l’immagine al 100%).

Ma qualcuno usa un 400mm f/2.8G VR su una D3x ed ha speso un barca di soldi per ottenere i migliori risultati. Loro si aspettano di catturare ogni singolo bit in maniera perfetta cosi da poterli traferire su stampe di grande formato.

Come dico sempre sul sito, io scrivo sempre su come ottenere il risultato migliore. Se stai scattando con un 16-85mm su D300 e metti la tua immagine sul web a 640×480, be, anche se il VR farà cilecca molto probabilmente non sarà un problema.

Se avete altri dubbi sul VR vi rimando alla fine di questa pagina. sino ad allora, eccovi il mio motto: Il VR deve stare spento a meno che non mi serva. VSOUISNI a propesità (ndr.: non chiedetemi che zzo vuol dire vsouisni perché non lo so!!!).

Per ora non intendo tradurre le domande dei lettori di byThom ma chissà, magari con il vostro aiuto.

Fonti

Alcune delle fonti, quelle principali, a cui mi riferirò sono:

Vi consiglio assolutamente di andare a leggere gli articoli che ho citato e segnalatemi vi prego eventuali imprecisioni e/o errori di traduzione.

Andate a visitare anche il sito di Nikon che spiega (in inglese) a suon di animazioni come funziona il suo VR.

Gocce d’acqua con riflesso dentro qualcosa di bello

Il titolo originale è How to put pretty stuff in those drops ed è un’articolo preso da Flickr postato da Steve took it il 26 maggio del 2007, tenetelo presente quando parla della sua attrezzatura. L’ho voluto postare perché è un’argomento affascinate, le foto sono indubbiamente belle e le si possono fare senza essere dei nostri come si potrebbe pensare. E poi è una delle foto che voglio realizzare per il 2010, devo battere Lisa.

Tutorial su come fotografare le Gocce D’acqua

Ovvero come inserire dei bei soggetti all’interno di qualche piccola gocciolina d’acqua.

by Steve Wall

ndr: salto tutta l’introduzione nella quale descrive, il suo amore per le gocce d’acqua, la natura ecc ecc.

Molte persone, dice, credono che queste fotografie siano soltanto frutto di complesse elaborazioni in Photoshop, ma non è cosi.

Le gocce d’acqua si comportano come delle lenti che, come sappiamo, capovolgono l’immagine, come farebbe, provate, il vostro tolto dalla fotocamera, provate :-)

Ci racconta di come il suo stream, davvero interessante, sia il frutto di molto, molto lavoro, di innumerevoli prove ed errori e che la fortuna, cosi come la pazienza, gioca un ruolo molto importante nella realizzazione di questo tipo di fotografia. Pensate che usa una lattina di Diet Coke come cavalletto ah ah ah

Da tutto questo lavoro mi ha portato a focalizzare l’attenzione su alcune semplici ma importanti cose:

1. Focus
2. Focus
3. Composizione
4. Sfondo

1. Focus

No, non è un’errore di battitura; c’è scritto davvero due volte Focus ma c’è una buonissima ragione. Bisogna considerare sia il fuoco sulla goccia in se per se sia sull’oggetto (in questo caso il fiore) contenuto (o meglio visibile) all’interno della goccia. All’inizio mi concetravo soltanto sulla goccia e sulla pianta a cui era attaccata. Mi piace impostare la mia fotocamera su priorità di diaframmi per controllare meglio la profondità di campo. Il trucco è quello di avere abbastanza profondità di campo da mettere ben a fuoco la goccia, la pianta (magari anche qualche goccia vicina) ma lasciare lo sfondo sufficientemente sfocato in modo che non rubi attenzione. Generalmente uso f8 o f10 ma qualche volta uno stop sopra fino a f18, questo se lo sfondo non era cosi invadente da necessitare uno sfocato maggiore. Alla ricerca di una messa a fuoco migliore, preferisco fare un sempre un passettino indietro e poi ricomporre (croppare) la foto in post produzione, piuttosto che scattare alla minima distanza possibile per quella inquadratura.

2. Focus

Come si può vedere nell’esempio sopra, la goccia d’acqua è a fuoco, l’immagine del fiore visto attraverso la goccia è a fuoco ma il fiore vero e proprio non lo è. Questo effetto non è ottenuto regolando le impostazioni o la messa a fuoco sulla fotocamera, ma utilizzando la goccia d’acqua come se fosse una lente a focale fissa. In altre parole, invece di agire sulla fotocamera agisco sull’oggetto che voglio far apparire all’interno della goccia d’acqua. In pratica mi sono semplicemente spostato avanti o indietro fino a quando non ho trovato la nitidezza e la messa a fuoco che volevo. Alcune foto sono più belle con rifrazioni sfocate. Per una maggiore nitidezza ho sperimentato che l’oggetto deve trovarsi 3-4 centimetri dietro la goccia d’acqua. Questo, naturalmente, può variare se si utilizza una lente macro diversa. Assicurati di sperimentare.

ndr: per la cronaca questi sono alcuni degli exif della foto

Camera: Nikon D200
Exposure: 0.017 sec (1/60)
Aperture: f/14
Focal Length: 60 mm
ISO Speed: 200
Exposure Bias: 0/6 EV

Immagino abbia usato, come obiattivo, il 60mm macro della Nikon ma non ho modo di saperlo con certezza.

3. Composizione

Ovviamente le regole per una buona composizione non possono non applicarsi anche a questo tipo di fotografia. Una particolare attenzione sarà data alla Regola dei terzi, alla semplicità, alle geometrie all’interno della cornice, ed a tutti i consueti elementi di composizione. L’importante è che ricordiate, però, che è la forma della goccia ossia la goccia stessa (ndr: la lente organica come la chiama lui) ad influenzare la vostra composizione. Siccome la forma della goccia e sferica (o quasi), piccoli movimenti…sinistra, destra, sopra, sotto…possono creare effetti radicalmente diversi in quello che si vede attraverso la goccia. Ancora una vola, sperimentate.

4. Sfondo

Siccome stai lavorando con la natura, il controllo che hai sullo sfondo è minimo. Devi arrangiarti con quello che hai a disposizione. Come detto prima, proprio per la forma particolare della “lente organica” formata dalla goccia piccolissimi movimenti permettono di ottenere risultati nettamente diversi su quello che si vede all’interno della goccia. Quando ci sono pochi oggetti in scena, si riesce sicuramente ad avere un maggior controllo sullo sfondo. Per esempio, io spesso utilizzo un grande foglio di carta con un alto blu. All’inizio lo usavo per bloccare il vento, poi mi sono accorto che anche nei giorni più brutti si può simulare che ci sia un bellissimo cielo azzurro.

Altre considerazioni

Ogni volta che sono andato a fotografare gocce d’acqua ho imparato qualche cosa di nuovo. C’è sempre qualche cosa di nuovo (fattore) da mettere in considerazione (ndr: questo vale per tutti i tipi di fotografia!). Ho imparato per esempio, che potevo trovare gocce più grosse e belle nei giorni umidi (ndr: un genio!). Ho scoperto che il vento può avere effetti disastrosi sulla messa a fuoco mentre si è in macro. Ho scoperto che abbassare l’esposizione (da – 0.3EV a – 0.7EV) compensa la “lucentezza” della goccia d’acqua impedendo che vi siano zone bruciate. Ma la cosa più importante è che ho dovuto imparare che la lente organica formata dalla goccia presenta le immagini speculari, sarebbe a dire destra a sinistra e sopra sotto (come succede in una camera a foto stenopeico o una grande formato).

Cosi sono diventato una delle poche persone che ama ed aspetta le giornate afose ed umide. Ed anche se adesso il mio agognato obiettivo Nikkor 18-200mm è arrivato, io continuo ad utilizzare per più della metà del tempo il mio macro. Le foto alle gocce d’acqua non sono soltanto reali (ndr: vi ricordate? mota gente pensa che sia photoshop ecc ecc), ma ti spingono a migliorare.

Questo è tutto. Questo è come faccio. E semplice come imparare a muovere pezzi degli scacchi, ed ha anche la stessa complessità di una partita a cacchi. Buona fortuna e pensate piccolo.