#15
Message Ven 17 Sep 2010 11:28
Je ne suis pas un praticien assidu du lHDR "terrestre", mais comme dit au début, le principe est le suivant (la pratique est visiblement devenue plus simple avec les progrès des logiciels HDR, mais cela permet au moins de comprendre la problématique et le pourquoi de ce qui ne marche pas):
Face à une scène dont la dynamique lumineuse dépasse celle de la surface sensible, on fait plusieurs photos de cette scène, l'expo de chacune étant adaptée à l'une des fourchettes de luminosité de la scène, fourchette entrant dans la dynamique de la surface sensible.
Plutot que de faire un bracketting systématique (type -3/0//+3IL), Il vaudrait mieux idéalement en utilisant la mesure spot regarder l'amplitude totale de luminosité de sa scène et en déterminer le nombre de photo à faire et l'amplitude des décalages.
En argentique, le dynax 7 affiche sur son écran les décalages d'IL sur une plage de +/-3IL sur les zones de mesure de l'expo multizone, c'est bien pratique même si moins précis que la spot On voit quelles zones entrent en moyenne dans la fourchette de 6/7 Il centrée sur l'expo, et lesquelles sont au-dessus ou en-deça de cette fourchette. J'ignore pourquoi ce genre d'affichage a disparu
Le but est d'obtenir donc une série de photo exposée différemment, l'une exposant correctement la zones des plus basses lumière de la scène (en brulant toutes les autres zones), la suivante la fourchette au-dessus (les plus BL étant bouchées et les zones plus éclairées brulées), et ainsi de suite jusqu'à celle des plus hautes lumières qu'on veut restituer dans la scène (tout les reste étant bouché).
Probable que sur beaucoup de scènes, 3 prises suffisent, mais leur nombre (il faut à priori restituer toute la continuité de la gamme des luminances)et leur décalage doit être estimé à partir de l'amplitude totale de luminosité de la scène par rapport à la dynamique de son capteur (regarder en mesure spot l'expo pour la zone la plus sombre et la zone la plus lumineuse qu'on veut restituer; sachant que la dynamique de capteur d'un D7D n'est pas celle des capteurs les plus récents...). Avec l'expérience ont peut sans doute arriver à estimer les décalages au lieu de les mesurer.
Ensuite on isole sur chaque photo chaque zone correctement exposée , puis on raboute le tout. En manuel, via des détourages sur calques (on peut déjà sélectionner par ex. sur les niveaux de luminance) qu'on superpose ensuite pour juste garder à chaque fois les zones bien exposées; les logiciels HDR automatisent l'opération. Certainement deviennent-ils de plus en plus performants et pardonnent plus d'approximation à la prise de vue.(cf. les posts de jean michel)
En photo astronomique, on gère des écarts bien plus violents... et souvent sans continuité dans la plage des luminances (une nébuleuse qui ne ressort même pas du noir au départ sur les photos posées pour elle, et des étoiles très lumineuses en comparaison).
Comme dit plus haut, utiliser les commandes de luminosités d'un logiciel de post-traitement ne permet que de faire du pseudo HDR: par logiciel on ne peut créer des infos qui n'existent pas sur le fichier: dans la faible limite des possibilités de récupération sur une ou deux couches de couleur, ce qui est brulé restera brulé (ou sera restitué par cet horrible aplat grisâtre sans détail qu'on voit parfois sur des "HDR"), et dans les zones bouchées, le bruit montera autant que les détails utiles.
SRT101, 9xi, D7, D9, Z3, NEX 5N (+viseur), D5D, Alpha 700, Alpha 900 et pas mal de cailloux qui se montent dessus.
Viseur optique... what else?
Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet