Dynamique des capteurs ?
Eh bien en fait c'est la démarche inverse, car on part d'un signal analogique (c'est à dire un signal qui peut être constitué d'une infinité de valeurs différentes: si on le représentait graphiquement, on aurait une belle courbe bien continue) à un signal numérique (constitué de 2^n valeurs différentes, où n est le nombre de bits: sa représentation graphique ressemblerait à un escalier avec 2^n marches utilisables).
Plus n est grand, plus le signal est fidèle à la réalité: en effet, quand n tend vers l'infini, le signal numérique tend vers le signal analogique de départ.
Donc on aurait tout intérêt à mettre des nombres de bits monstrueux: plus fidèle à la réalité, plus de souplesse de traitement. Mais l'électronique / l'informatique embarquée ont leur mot à dire, et un signal comportant plus de bits est bien plus lourd à traiter...
Donc pour récapituler, on part d'un "nombre de bits infini" dans la nature, et on choisit de l'abaisser à une valeur qui présente un bon compromis pour le RAW. Ensuite, en basculant en Jpeg, on adopte un espace de couleurs qui n'est pas infini non plus, en général c'est 8 bits (donc 2^8 = 256 teintes de bleu, 256 teintes de rouge et 256 teintes de vert: on multiplie les trois, et on a en fait plus de seize millions de couleurs)
Pour augmenter le nombre de bits, c'est délicat... On est obligé de faire de l'interpolation, c'est à dire qu'on cherche fluidifie les transitions d'une couleur à une autre, mais on n'obtiendra pas le même résultat que si on avait adopté ce nombre de bits au départ!
Plus n est grand, plus le signal est fidèle à la réalité: en effet, quand n tend vers l'infini, le signal numérique tend vers le signal analogique de départ.
Donc on aurait tout intérêt à mettre des nombres de bits monstrueux: plus fidèle à la réalité, plus de souplesse de traitement. Mais l'électronique / l'informatique embarquée ont leur mot à dire, et un signal comportant plus de bits est bien plus lourd à traiter...
Donc pour récapituler, on part d'un "nombre de bits infini" dans la nature, et on choisit de l'abaisser à une valeur qui présente un bon compromis pour le RAW. Ensuite, en basculant en Jpeg, on adopte un espace de couleurs qui n'est pas infini non plus, en général c'est 8 bits (donc 2^8 = 256 teintes de bleu, 256 teintes de rouge et 256 teintes de vert: on multiplie les trois, et on a en fait plus de seize millions de couleurs)
Pour augmenter le nombre de bits, c'est délicat... On est obligé de faire de l'interpolation, c'est à dire qu'on cherche fluidifie les transitions d'une couleur à une autre, mais on n'obtiendra pas le même résultat que si on avait adopté ce nombre de bits au départ!
D700+MB-D10 | AF-S 24-70mm f/2,8 | AF-S 50mm f/1,4 G | 70-200mm f/2,8 SP
Elinchrom D-Lite RX 2/4 | SB-900 | YN-560 II et des accessoires d'éclairage en tous genres
055XPROB+496RC2 | Flipside 400AW | Pro Messenger 180AW
Elinchrom D-Lite RX 2/4 | SB-900 | YN-560 II et des accessoires d'éclairage en tous genres
055XPROB+496RC2 | Flipside 400AW | Pro Messenger 180AW
RefleXx a écrit :Donc on aurait tout intérêt à mettre des nombres de bits monstrueux: plus fidèle à la réalité, plus de souplesse de traitement. Mais l'électronique / l'informatique embarquée ont leur mot à dire, et un signal comportant plus de bits est bien plus lourd à traiter...
D'oĂą les RAW monstrueux de 70Mb du D800...

Je me permets
Les bits n'existent pĂ´ dans la nature (enfin, c'est pĂ´ les mĂŞmes
), il faut prendre le numérique comme un magnétophone amélioré qui permet de faire plein de trucs avec ce que l'on a enregistré. Mais le soucis reste :
- l'enregistrement : traduire un signal analogique en numérique, ça se fait par des convertisseurs Analogique/Numérique. La qualité des convertisseurs, leur capacité à retranscrire une réalité analogique en numérique ( 0,1,0) est un vrai soucis. C'est une recherche permanente, mais elle est, quelque part, limité par un autre vecteur :
- la lecture : les supports de lecture sont limitants, car ils doivent être accessible au plus grand nombre. En audio, on peut enregistrer en 24bits/96 Khz, alors que la lecture de base (le CD) est en 16 bits/44.1 Khz, et je ne parle pô des MP3. La dynamique des capteurs performants ne se retrouvent pô vraiment sur nos écrans et nos tirages, ce n'est pô possible techniquement. Par contre, un "échantillonnage" plus poussé permet de retravailler les fichiers avec plus de potentiel, même si on doit les lire avec des "lecteurs" moins performants en terme de reconstitution.
Les paramètres d'échantillonnage des capteurs (fréquence à laquelle ils numérisent les informations) est défini, il me semble, par un suédois agacé du nom de Nyquist (et Shanon). En gros, on définit les besoins standard d'un humain (pour l'audio, de mémoire, c'est 8 bits/20 Khz, une oreille en bonne santé peut écouter ça) et on double cette valeur en échantillonnage (transformation en numérique) pou être sûr d'être pô trop mauvais.
Mais le numérique n'arrive pô à la finesse de l'analogique sur certaines données. Des fréquences audio sont délicates à retranscrire en numérique, par exemple.
Une courbe audio, représenté par un histogramme, représente une sinusoïde, avec un trait lisse. En numérique, cette sinusoïde existe mais elle constituée de petites marches d'escalier. Plus les bits sont importants, plus ces marches d'escaliers sont faibles, donnant l'impression d'une sinusoïde avec un trait lisse. Plus le nombre de bits est faible, plus les marches d'escaliers sont grossières, tronquant un certain nombre d'informations.
La dynamique est un élément analogique, elle est perçue par nos yeux ( et on a tous des yeux différents
). Aucun capteur ne peut encore la retranscrire, la tentative de s'en approcher est une bonne chose, mais les progrès en la matière, pose des vrais soucis.
Il y a certaines imprécisions dans ce que je raconte, mais c'est pour simplifier. Que ceux qui veulent corriger n'hésitent pô !!
Pitaing, pour un dimanche d'élection, je suis à donf !!!
Allez voter

Les bits n'existent pĂ´ dans la nature (enfin, c'est pĂ´ les mĂŞmes

- l'enregistrement : traduire un signal analogique en numérique, ça se fait par des convertisseurs Analogique/Numérique. La qualité des convertisseurs, leur capacité à retranscrire une réalité analogique en numérique ( 0,1,0) est un vrai soucis. C'est une recherche permanente, mais elle est, quelque part, limité par un autre vecteur :
- la lecture : les supports de lecture sont limitants, car ils doivent être accessible au plus grand nombre. En audio, on peut enregistrer en 24bits/96 Khz, alors que la lecture de base (le CD) est en 16 bits/44.1 Khz, et je ne parle pô des MP3. La dynamique des capteurs performants ne se retrouvent pô vraiment sur nos écrans et nos tirages, ce n'est pô possible techniquement. Par contre, un "échantillonnage" plus poussé permet de retravailler les fichiers avec plus de potentiel, même si on doit les lire avec des "lecteurs" moins performants en terme de reconstitution.
Les paramètres d'échantillonnage des capteurs (fréquence à laquelle ils numérisent les informations) est défini, il me semble, par un suédois agacé du nom de Nyquist (et Shanon). En gros, on définit les besoins standard d'un humain (pour l'audio, de mémoire, c'est 8 bits/20 Khz, une oreille en bonne santé peut écouter ça) et on double cette valeur en échantillonnage (transformation en numérique) pou être sûr d'être pô trop mauvais.
Mais le numérique n'arrive pô à la finesse de l'analogique sur certaines données. Des fréquences audio sont délicates à retranscrire en numérique, par exemple.
Une courbe audio, représenté par un histogramme, représente une sinusoïde, avec un trait lisse. En numérique, cette sinusoïde existe mais elle constituée de petites marches d'escalier. Plus les bits sont importants, plus ces marches d'escaliers sont faibles, donnant l'impression d'une sinusoïde avec un trait lisse. Plus le nombre de bits est faible, plus les marches d'escaliers sont grossières, tronquant un certain nombre d'informations.
La dynamique est un élément analogique, elle est perçue par nos yeux ( et on a tous des yeux différents

Il y a certaines imprécisions dans ce que je raconte, mais c'est pour simplifier. Que ceux qui veulent corriger n'hésitent pô !!
Pitaing, pour un dimanche d'élection, je suis à donf !!!
Allez voter

Dernière édition par ceferid le Dim 22 Avr 2012 15:19, édité 1 fois.
NEX Cévennes* Zeiss 24* 50 sony* 19 sigmuche* viseur électronique
-
Manus - Messages : 31498
- Photos : 534
- Inscription : 14 Sep 2010
- Localisation : Corbeil-Essonnes
- donnés / reçus
Et est-ce pourquoi la taille des photosites influence aussi la dynamique ?
Désolé, je vous embete avec mes questionc...
Désolé, je vous embete avec mes questionc...

Nikon D3s - 18-35/3.5-4.5G ED - 50/1.8D - 85/1.8G - 70-200/2.8G ED VR II ; Sigma 150-600/5-6.3 DG Sport
Sony A7RII - FE 16-35/4 ZA OSS - FE 24-70/4 ZA OSS - FE 70-200/4 G OSS - FE 100/2.8 STF GM OSS ; Samyang AF 45/1.8 FE
Fujifilm X-Pro3 - 27/2.8 WR - X100T - WCL-X100 - TCL-X100
Flickr - Mon fil perso
Sony A7RII - FE 16-35/4 ZA OSS - FE 24-70/4 ZA OSS - FE 70-200/4 G OSS - FE 100/2.8 STF GM OSS ; Samyang AF 45/1.8 FE
Fujifilm X-Pro3 - 27/2.8 WR - X100T - WCL-X100 - TCL-X100
Flickr - Mon fil perso
Manus a écrit :Et est-ce pourquoi la taille des photosites influence aussi la dynamique ?
Schématiquement : plus un photosite est grand, plus il capte de la lumière donc plus la dynamique du capteur est meilleure avec une technologie donnée.
Dernière édition par ASM le Dim 22 Avr 2012 15:43, édité 2 fois.
Manus a écrit :Et est-ce pourquoi la taille des photosites influence aussi la dynamique ?
Désolé, je vous embete avec mes questionc...
La taille des photosites, et leur espacement, devrait permettre une meilleure lecture du signal. Mébon, là , ça serait à vérifier. Des progrès sont faits, on essaye de maximiser ce potentiel pour optimiser cette lecture, et toutes le R&D vont dans le sens de l'accroissement des pixous sur une surface de capteur donnée. On n'a pô la possibilité de comparer un capteur avec de vrais gros pixels, avec un développement récent. je ne suis pô assez calé là -dessus (d'ailleurs, je suis pô bien calé tout court

Y a pĂ´ de questionc...

Si ce n'est celles qu'on n'ose pĂ´ poser

NEX Cévennes* Zeiss 24* 50 sony* 19 sigmuche* viseur électronique
Pour revenir un peu à à la conversion analogique/numérique --> l’œil humain fait la même chose : encodage les signaux lumineux (cône de la rétine) en signal électrique (potentiels d'action neuronale) puis traitement par les aires visuelles du cerveau (région occipitale). Donc l’œil humain ayant une limite, les capteurs pourront un jour peut-être encoder la même quantité d'information donc image quasiment identique à "notre réalité"
-
Bug Killer - Messages : 13225
- Photos : 1195
- Inscription : 12 Fév 2007
- Localisation : Loir-et-Cher
- Contact :
D'un point de vue statique, la dynamique des cônes et des bâtonnets est d'environ... 14 IL, tiens donc. C'est l'écart maximal d'une scène dans laquelle un humain moyen distingue au centre de son champ de vision à la fois les détails les plus lumineux sans être ébloui et ceux qui sont dans les ombres. Ensuite, la pupille "ajoute" 10 IL environ en décalant dynamiquement ces 14 IL vers le haut ou le bas. Néanmoins, pour un physiologiste amateur photographe :
"La dynamique de l'oeil est un miroir aux alouettes ! L'image perçue est le fruit d'un post-traitement avancé dans le cerveau, et les variations de luminosité que notre oeil "n'encaisse pas" sont compensées par la reconstitution mentale... en plus, la sensibilité à la lumière n'est pas du tout la même au centre (fovéa) et à la périphérie du champ visuel ! Sans compter que la perception des couleurs varie aussi... bref, retrouver "l'impression visuelle" oui, mais il est à mon avis inutile de trop se fixer sur des valeurs de dynamique idéales."
"La dynamique de l'oeil est un miroir aux alouettes ! L'image perçue est le fruit d'un post-traitement avancé dans le cerveau, et les variations de luminosité que notre oeil "n'encaisse pas" sont compensées par la reconstitution mentale... en plus, la sensibilité à la lumière n'est pas du tout la même au centre (fovéa) et à la périphérie du champ visuel ! Sans compter que la perception des couleurs varie aussi... bref, retrouver "l'impression visuelle" oui, mais il est à mon avis inutile de trop se fixer sur des valeurs de dynamique idéales."
BK : EOS 7D+BG-E7, 10-22, 15-85 IS, 70-200/4L IS, 100-400L IS, Sigma 30/1.4, 580 EX II, PowerShot G5X
KB : EOS D40D+BG-E2, 18-200 IS, 70-300 IS, RX10M3
MK : EOS 80D, 10-18 STM, 15-85 IS, 50/1.8
CK : EOS 700D, 24 pancake, S17-70, T70-300
Sites Errances photographiques et Vintage pin-ups
KB : EOS D40D+BG-E2, 18-200 IS, 70-300 IS, RX10M3
MK : EOS 80D, 10-18 STM, 15-85 IS, 50/1.8
CK : EOS 700D, 24 pancake, S17-70, T70-300
Sites Errances photographiques et Vintage pin-ups
ceferid a écrit :...et on double cette valeur en échantillonnage (transformation en numérique) pou être sûr d'être pô trop mauvais.
Nein, on double cette valeur pour ne pas avoir de repliement (d'où le fameux filtre anti-aliasing). Ce n'est pas une marge de sécurité, ce n'est même pas une marge du tout. En dessous de 2 fmax on a du repliement.
ceferid a écrit :Une courbe audio, représenté par un histogramme, représente une sinusoïde, avec un trait lisse. En numérique, cette sinusoïde existe mais elle constituée de petites marches d'escalier. Plus les bits sont importants, plus ces marches d'escaliers sont faibles, donnant l'impression d'une sinusoïde avec un trait lisse. Plus le nombre de bits est faible, plus les marches d'escaliers sont grossières, tronquant un certain nombre d'informations.
En audio on fait beaucoup plus fort que ça. Ce que tu décris est un fonctionnement linéaire (chaque "marche" fait la même taille). Or dans la pratique, par exemple une conversation téléphonique, les sons de faibles amplitudes sont statistiquement beaucoup plus nombreux que ceux de forte amplitude (on parle plus qu'on ne crie). On a donc mis en place un échantillonnage logarithmique. On code les signaux de faibles amplitude avec plus de précision que ceux de forte amplitude.
Dernière édition par Nicolaaas le Dim 22 Avr 2012 16:30, édité 1 fois.
Sony α700 | M50:1.7 | Tamron SP 70-300 | Metz 44AF-1
Minolta x500 | 50:1.7 | 28:2.8
Fuji x10
-
Manus - Messages : 31498
- Photos : 534
- Inscription : 14 Sep 2010
- Localisation : Corbeil-Essonnes
- donnés / reçus
Et c'est quoi du "repliement" ?
Nikon D3s - 18-35/3.5-4.5G ED - 50/1.8D - 85/1.8G - 70-200/2.8G ED VR II ; Sigma 150-600/5-6.3 DG Sport
Sony A7RII - FE 16-35/4 ZA OSS - FE 24-70/4 ZA OSS - FE 70-200/4 G OSS - FE 100/2.8 STF GM OSS ; Samyang AF 45/1.8 FE
Fujifilm X-Pro3 - 27/2.8 WR - X100T - WCL-X100 - TCL-X100
Flickr - Mon fil perso
Sony A7RII - FE 16-35/4 ZA OSS - FE 24-70/4 ZA OSS - FE 70-200/4 G OSS - FE 100/2.8 STF GM OSS ; Samyang AF 45/1.8 FE
Fujifilm X-Pro3 - 27/2.8 WR - X100T - WCL-X100 - TCL-X100
Flickr - Mon fil perso
Manus a écrit :Et c'est quoi du "repliement" ?
Une erreur générée par le processus d’échantillonnage qui fait que toutes les fréquences supérieures à 1/2 de la fréquence d’échantillonnage vont se replier (comme une feuille de papier) sur le spectre du signal qu'on veut garder.
PS : Manus je suis chaud là -dessus, j'ai médian de RE04 demain

Sony α700 | M50:1.7 | Tamron SP 70-300 | Metz 44AF-1
Minolta x500 | 50:1.7 | 28:2.8
Fuji x10
-
Manus - Messages : 31498
- Photos : 534
- Inscription : 14 Sep 2010
- Localisation : Corbeil-Essonnes
- donnés / reçus
Demain ?! Chaud...
Courage alors ! Moi je débarque à Troyes ce soir pour 1 ou 2 semaine(s), on risque de se croiser au foyer ! Et sans doutes
Courage alors ! Moi je débarque à Troyes ce soir pour 1 ou 2 semaine(s), on risque de se croiser au foyer ! Et sans doutes

Nikon D3s - 18-35/3.5-4.5G ED - 50/1.8D - 85/1.8G - 70-200/2.8G ED VR II ; Sigma 150-600/5-6.3 DG Sport
Sony A7RII - FE 16-35/4 ZA OSS - FE 24-70/4 ZA OSS - FE 70-200/4 G OSS - FE 100/2.8 STF GM OSS ; Samyang AF 45/1.8 FE
Fujifilm X-Pro3 - 27/2.8 WR - X100T - WCL-X100 - TCL-X100
Flickr - Mon fil perso
Sony A7RII - FE 16-35/4 ZA OSS - FE 24-70/4 ZA OSS - FE 70-200/4 G OSS - FE 100/2.8 STF GM OSS ; Samyang AF 45/1.8 FE
Fujifilm X-Pro3 - 27/2.8 WR - X100T - WCL-X100 - TCL-X100
Flickr - Mon fil perso
Bug Killer a écrit :D'un point de vue statique, la dynamique des cônes et des bâtonnets est d'environ... 14 IL, tiens donc. C'est l'écart maximal d'une scène dans laquelle un humain moyen distingue au centre de son champ de vision à la fois les détails les plus lumineux sans être ébloui et ceux qui sont dans les ombres. Ensuite, la pupille "ajoute" 10 IL environ en décalant dynamiquement ces 14 IL vers le haut ou le bas. Néanmoins, pour un physiologiste amateur photographe :
"La dynamique de l'oeil est un miroir aux alouettes ! L'image perçue est le fruit d'un post-traitement avancé dans le cerveau, et les variations de luminosité que notre oeil "n'encaisse pas" sont compensées par la reconstitution mentale... en plus, la sensibilité à la lumière n'est pas du tout la même au centre (fovéa) et à la périphérie du champ visuel ! Sans compter que la perception des couleurs varie aussi... bref, retrouver "l'impression visuelle" oui, mais il est à mon avis inutile de trop se fixer sur des valeurs de dynamique idéales."
De toute manière comparer l'oeil humain à nos APN est une cause perdue.
La vision nette se situe sur la macula (dont le point central est la fovéa). La netteté est maximale sur un champs ridicule (couverture de la macula est presque équivalente à la couverture d'un 500mm) mais comme l'oeil humain fonctionne par balayage, on a une impression de netteté du l'ensemble de la scène.
En basse lumière, la macula n'est pas sollicitée et c'est le reste de la rétine qui prend le relais : on capte plus de lumière mais la résolution baisse de manière exponentielle. C'est la "basse vision" que l'on utilise pour rééduquer les patients atteints de DMLA dont la macula est détruite.
Après le post-traitement par le cerveau est extraordinaire puis que les infos venant de la rétine sont interprétées en fonction du vécu de chaque personne (on parle donc de perception).
Autre preuve irréfutable du post-traitement à la hache du cerveau : nous avons tous un point aveugle dans chaque œil (point de départ du nerf optique) dépourvu de rétine au centre. Pourtant, nous ne le percevons jamais car le cerveau extrapole les données manquantes pour reconstituer une image sans trou. Fascinant !
Nicolaaas a écrit :Manus a écrit :Et c'est quoi du "repliement" ?
Une erreur générée par le processus d’échantillonnage qui fait que toutes les fréquences supérieures à 1/2 de la fréquence d’échantillonnage vont se replier (comme une feuille de papier) sur le spectre du signal qu'on veut garder.
PS : Manus je suis chaud là -dessus, j'ai médian de RE04 demain
C'est pourquoi il faut un filtre passe bas pour supprimer toutes les fréquences supérieures à 1/2 de la fréquence d'échantillonnage.
Alpha550, Alpha 100, Tamron 10-20 3.5-4.5, Tamron 17-50 2.8, Tamron 90 2.8 Macro, Minolta 50 1.7, Minolta 75-300 4.5-5.6, Sigma EF-530 DG Super, Slingshot 200 aw, filtre polarisant, ND 8
Dynax 500 SI en morceaux, Minolta 35-70
Dynax 500 SI en morceaux, Minolta 35-70
Revenir vers « Questions pratiques ou techniques »
Qui est en ligne ?
Utilisateurs parcourant ce forum : Aucun utilisateur inscrit et 10 invités
