Résolution capteur vs qualité objectifs
Toutes mes optiques sont des Minolta argentiques sauf le 16 mm f/2,8 de Sony. Elles sont peut-être éligibles pour le plein format… À vrai dire j'en sais rien, vu que j'ai jamais eu entre les mains un Alpha 900.
-
tilu - Messages : 1966
- Photos : 88
- Inscription : 16 Avr 2007
- Localisation : Baie de Somme
- donnés / reçus
bon je reviens sur ce fil.
Déjà une remarque sur la forme, un preambule en bleu garas pour bien montrer que le fil remonte à 2 ans s'impose, sinon forcemment on voit des gens dire noir d'abord puis blanc ensuite et vice versa et réciproquement...
Pour revenir au problème qui nous occupe.
Je ne suis pas Physicien et je ne connais Nyquist que de nom
Shannon je connais un théorème d'échantillonage sur les fonction à fréquence bornée...mais je suis bien incapable d'en voir une application quelconque en photo...
Ce que je dis, et là Sébastien à raison pas besoin d'Einstein ni de Schwartz pour répondre au problème, c'est qu'un test mener en A3 avec une optique litigieuse (faudrait la prendre chez Canikon mais ils doivent en avoir aussi (20/24 2.8 ) et un FF 12MP/24MP/ et un argentique chargé en velvia ou en ektar ou en technical pan suivit d'un tirage devrait permettre à l'oeil nu de trancher.
Pour le réechantillonage, je pense qu'on peut le tourner dans tous les sens ya qu'à laisser faire les tireuse, j'imagine que les ingénieurs qui ont conçu les algo savaient leur métier.
Stingray semble être aller vers ce test...
apres comme je l'ai dit quand on imprime moins de points que le capteur n'en fournit, forcemment on en élimine.
rien ne garantit apriori que l'on élimine ce qu'il faut.
c'est là que le bât blesse...
En 2007 j'avais du mal à le comprendre...aujourd'hui ça me parait une vrai question.
Exemple pour se faire une idée
j'ai une ligne brisée avec 8 points. -^-^-
je veux en conserver 3 je choisit quoi --- ou ___ou^ ?
le problème n'est pas simple et si empiriquement on peut avoir une réponse pratique à la question pratique posée
(cf post d'alpha)
c'est je trouve hatif de faire des raisonnement théoriques hatifs qui au final (mais peut être je me trompe) ignore une partie du problème.
Déjà une remarque sur la forme, un preambule en bleu garas pour bien montrer que le fil remonte à 2 ans s'impose, sinon forcemment on voit des gens dire noir d'abord puis blanc ensuite et vice versa et réciproquement...
Pour revenir au problème qui nous occupe.
Je ne suis pas Physicien et je ne connais Nyquist que de nom
Shannon je connais un théorème d'échantillonage sur les fonction à fréquence bornée...mais je suis bien incapable d'en voir une application quelconque en photo...
Ce que je dis, et là Sébastien à raison pas besoin d'Einstein ni de Schwartz pour répondre au problème, c'est qu'un test mener en A3 avec une optique litigieuse (faudrait la prendre chez Canikon mais ils doivent en avoir aussi (20/24 2.8 ) et un FF 12MP/24MP/ et un argentique chargé en velvia ou en ektar ou en technical pan suivit d'un tirage devrait permettre à l'oeil nu de trancher.
Pour le réechantillonage, je pense qu'on peut le tourner dans tous les sens ya qu'à laisser faire les tireuse, j'imagine que les ingénieurs qui ont conçu les algo savaient leur métier.
Stingray semble être aller vers ce test...
apres comme je l'ai dit quand on imprime moins de points que le capteur n'en fournit, forcemment on en élimine.
rien ne garantit apriori que l'on élimine ce qu'il faut.
c'est là que le bât blesse...
En 2007 j'avais du mal à le comprendre...aujourd'hui ça me parait une vrai question.
Exemple pour se faire une idée
j'ai une ligne brisée avec 8 points. -^-^-
je veux en conserver 3 je choisit quoi --- ou ___ou^ ?
le problème n'est pas simple et si empiriquement on peut avoir une réponse pratique à la question pratique posée
(cf post d'alpha)
c'est je trouve hatif de faire des raisonnement théoriques hatifs qui au final (mais peut être je me trompe) ignore une partie du problème.
____________________________
Le film c'est bien.
Le film c'est bien.
-
Aguares - Messages : 13624
- Photos : 766
- Inscription : 24 Juin 2009
- Localisation : Toulon
- donnés / reçus
- Contact :
reflex69 a écrit :Serauga a écrit :Je serais curieux de voir ce que donne un beercan sur un A900. D'après ce que certains disent il ne devait pas y avoir de soucis pour tirage en A4 ? Ai je bien compris ou...
Si tu peux déjà faire du A4 alors c'est pas le A900 qui va t'en empêcher.
Il y a un test ici avec le A900 :
http://kurtmunger.com/minolta__af_70_210mm_f_4__reviewid25.html
Apparemment c'est pas trop mal mais comme d'habitude les angles en prennent un coup mais ça n'a pas de rapport avec la résolution du capteur...
Ok je peux donc en conclure que si demain je fais peter un A550 je peux garder ma signature en objos !
Hasselblad 500CM - 2.8/80 Zeiss - 3.5/135 Makro Plannar -
Crowngraphic 4" x 5" + Kodak Ektar 5.6/127
Sinar F 4"x5" + Fujinon W 5.6/150
A9 - 4/16-35 Zeiss - 1.8/55 Zeiss - 4/24-105 G
Crowngraphic 4" x 5" + Kodak Ektar 5.6/127
Sinar F 4"x5" + Fujinon W 5.6/150
A9 - 4/16-35 Zeiss - 1.8/55 Zeiss - 4/24-105 G
… et une imprimante A3 ! Une !
-
AlphaDream - Messages : 11328
- Photos : 48
- Inscription : 12 Déc 2006
- Localisation : Toulouse
- Contact :
Tilu, ton exemple ressemble à l'interpolation la plus basique qui est de prendre le point le plus proche. Les meilleures méthodes d'interpolation sont heureusement beaucoup plus efficientes que ça. Et les points ne s'éliminent pas, comme tu le dis, ils se moyennent.
Mais à la limite, continuons avec ton exemple. Tu ne vois dans le cliché haute résolution puis l'interpolation que de la dégradation potentielle. Ce que tu sembles oublier, c'est que ton capteur à faible résolution n'aura vu que 3 gros points, qui sont déjà des sortes de gros "grains" moyennes des plus petits grains qu'aura vus le capteur très pixellisé. Ce dernier va être capable de voir beaucoup plus de détails, et en particulier tous les petits grains qui sont englobés dans le gros. A partir de ces petits grains, il va fabriquer des gros grains synthétique par interpolation. La question est donc : le gros grains capté (et filtré) directement par le capteur faiblement pixellisé est-il meilleur que la fabrication logicielle du gros grain à partir de petits grains ? Dans mon domaine, on parle d'erreur de représentativité spatiale, et celle issue de l'interpolation est souvent inférieure.
J'ai un peu parlé avec les mains, j'espère que c'est compréhensible...
Mais à la limite, continuons avec ton exemple. Tu ne vois dans le cliché haute résolution puis l'interpolation que de la dégradation potentielle. Ce que tu sembles oublier, c'est que ton capteur à faible résolution n'aura vu que 3 gros points, qui sont déjà des sortes de gros "grains" moyennes des plus petits grains qu'aura vus le capteur très pixellisé. Ce dernier va être capable de voir beaucoup plus de détails, et en particulier tous les petits grains qui sont englobés dans le gros. A partir de ces petits grains, il va fabriquer des gros grains synthétique par interpolation. La question est donc : le gros grains capté (et filtré) directement par le capteur faiblement pixellisé est-il meilleur que la fabrication logicielle du gros grain à partir de petits grains ? Dans mon domaine, on parle d'erreur de représentativité spatiale, et celle issue de l'interpolation est souvent inférieure.
J'ai un peu parlé avec les mains, j'espère que c'est compréhensible...

J'adore les explications d'AlphaDream, surtout avec les mains 
Désolé, je taquine mais je suis d'accord avec son histoire de petits grains englobés dans le gros

Désolé, je taquine mais je suis d'accord avec son histoire de petits grains englobés dans le gros

Sony A550, 16-80CZ
Nikon D7000, AFS 55-300, AFS 300/4, AFS 70-200/2.8 VR2
Nikon D7000, AFS 55-300, AFS 300/4, AFS 70-200/2.8 VR2
-
AlphaDream - Messages : 11328
- Photos : 48
- Inscription : 12 Déc 2006
- Localisation : Toulouse
- Contact :

Ben c'est important cette notion de taille de grains dans l'histoire. Dans l'exemple de tilu, on choisit des petits grains parmi d'autres petits grains. On fait donc une projection basique alors qu'il s'agit d'une interpolation, qui n'élimine pas d'information de petite échelle mais qui la moyenne. Les gros grains interpolés sont donc gorgés de l'information issue de tous les petits grains.
Qui plus est, dans la phase de dématriçage, le logiciel peut faire un boulot bien plus précis s'il dispose d'informations de très petite échelle, surtout des softs comme DxO qui sont en partie basés sur des processus de reconnaissance de forme. Après, tu moyennes, mais tu moyennes des éléments mieux définis, mieux reconstitués, donc tu peux très bien aboutir à un résultat meilleur.
Bon, je connais un gars qui a un D700 et un 24-70 2,8 ... j'en connais un qui pourrais passer avec son a900, et je suis prêt à payer de ma personne en amenant le même 24-70 2,8... à 24mm 2,8, les angles sont bof... reste à organiser tout ça...
Nex 7 + 18-55 + 18-200 + Voigtlander 15 et 35 1,7 + Zeiss G 28, 45 et 90 | Nex 3 défiltré. 50 1,7 et 35 2,8 Zeiss ; 24 2,8 ; ... ; 50 2,8 macro ; 100 2,8 macro ; 17-35 2,8-4 ; 85 1,4 CZ Contax ; 24-105 ; Tokina 500 f8 MD ; .
sebastien a écrit :La dernière réponse de Stingray est d'ailleurs emblématique: il s'agit d'une réponse très nourrie, très précise, invoquant un vocabulaire technique difficilement accessible à un non physicien. Tilu employant lui même un vocab. mathématique, on peut supposer qu'il comprend de quoi ça parle, mais la théorie du signal et de son échantillonnage c'est un pavé...
Il est possible d'expliquer les choses assez simplement, mais c'est assez difficile en 10 min sur un forum ...
Il faut notamment illustrer les choses et cela prend du temps, je vais essayer de vous donner quelques exemples en image dans la journée.
Le problème ici est que l'on n'est plus dans les explications grossière pour expliquer ce qui se passe, on est dans les détails et ce sont ces détails qui font la différences. Mais on doit pouvoir faire comprendre la chose au plus grand nombre

Avant d'entrer dans le vif du sujet, j'entends souvent des choses qui me chagrinent au sujet des capteurs, par exemple : "un capteur est exigeant" ou "un capteur demande des optiques de compète"... Un capteur ne demande rien et n'a aucune exigence ! Un capteur est là pour enregistrer des informations afin de reproduire au mieux l'image qu'il a reçu.
Pour ceux qui ne comprennent pas pourquoi on parle d'échantillonnage, le but du capteur est justement d'échantillonner l'image projeté par l'objectif. Cela veux dire que l'on remplace une image "continue" par une série de points régulièrement espacé (les pixels) et qui permettent sous certaines conditions de décrire parfaitement l'image de départ. Ces conditions sont justement cette histoire de théorème de Shannon et de fréquence de Nyquist. Pour faire simple, il faut que les évolutions de l'image (les détails) ne soient pas trop rapides par rapport à l'espacement des points d'échantillonnage (les pixels), c'est le rôle du filtre anti-repliement, qui va "lisser" les détails afin de satisfaire a ces conditions avant la capture par le capteur.
Sony : A700 - 16-105 KM : D5D, 18-70, M 24-85/3.5-4.5
M42 : Mamiya 28/2.8, CZJ Flektogon 35/2.4, Mamiya 55/1.8, Helios 44-2 58/2, Jupiter 9 85/2, Tair 11A 135/2.8, CZJ Sonnar135/3.5
Tamron Adaptall2 : 24/2.5, 28/2.5, 90/2.5, 200/3.5 Volé ...
Reste Rokkor : 35/1.8, 58/1.4 | Nikkor : 85/2 adaptés en MA
Nex 6, SEL 16-50, Sigma 30/2.8, Sigma 19/2.8, SEL 50/1.8
M42 : Mamiya 28/2.8, CZJ Flektogon 35/2.4, Mamiya 55/1.8, Helios 44-2 58/2, Jupiter 9 85/2, Tair 11A 135/2.8, CZJ Sonnar135/3.5
Tamron Adaptall2 : 24/2.5, 28/2.5, 90/2.5, 200/3.5 Volé ...
Reste Rokkor : 35/1.8, 58/1.4 | Nikkor : 85/2 adaptés en MA
Nex 6, SEL 16-50, Sigma 30/2.8, Sigma 19/2.8, SEL 50/1.8
-
Lonewolf1300 - Messages : 886
- Photos : 61
- Inscription : 16 Sep 2008
- Localisation : Capitale des Alpes
- Contact :
... lequel t'en remerciera grandement !stingray a écrit :(...)Il est possible d'expliquer les choses assez simplement, mais c'est assez difficile en 10 min sur un forum ...
(..) on doit pouvoir faire comprendre la chose au plus grand nombre

voilà qui me donne l'occasion de poser une question qui me semble en rapport direct avec le (vaste) sujet !stingray a écrit :(...)Pour ceux qui ne comprennent pas pourquoi on parle d'échantillonnage, le but du capteur est justement d'échantillonner l'image projeté par l'objectif. Cela veux dire que l'on remplace une image "continue" par une série de points régulièrement espacé (les pixels) et qui permettent ...
Un capteur, quelque soit son format ou sa densité, est constitué d'une mosaïque de photosites. En gros, c'est comme un carrelage. Ma question se situe là : il y a les joints ! Ceux-ci représentent un pourcentage de surface qui n'est pas négligeable, en fonction de la taille des carreaux et de la surface totale dallée.
Je me suis toujours demandé quelle importance pouvait avoir cet espace qui existe forcément entre chaque photosite dans la qualité de l'image "collectée" par le capteur. Il doit y avoir une perte d'information. Quand la taille du capteur varie, et/ou quand la densité (le nb de Mpx) varie, quelle est l'influence de cette part de surface inactive dans l'image enregistrée par le capteur ?
SONY A700 + VG-C70AM
SONY A550 + VG-C70AM
SIGMA : 30 1,4 DC EX | 70-200 2,8 II APO DG EX HSM | 300 2,8 APO DG EX
ZEISS : 16-80 3,5/4,5 T* DT Vario Sonnar ZA (MAP cassée) --> Sony DT 18-70 3,5/5,6 (pour dépannage)
Flash EF-530DG - Trépied GITZO Gilux | Monopode | Crosse ROWI[/size]
SONY A550 + VG-C70AM
SIGMA : 30 1,4 DC EX | 70-200 2,8 II APO DG EX HSM | 300 2,8 APO DG EX
ZEISS : 16-80 3,5/4,5 T* DT Vario Sonnar ZA (MAP cassée) --> Sony DT 18-70 3,5/5,6 (pour dépannage)
Flash EF-530DG - Trépied GITZO Gilux | Monopode | Crosse ROWI[/size]
-
jr56 - Messages : 24349
- Photos : 369
- Inscription : 21 Mars 2005
- Localisation : A l'orée de la forêt des carnutes
Les "joints" ont d'abord vu leur importance (% de la surface totale) diminuer du fait des progrès dans la conception et la fabrication pratique des capteurs (maintenant on implémente même une partie des fonctions annexes qu'ils effectuent sur l'autre face du capteur), et surtout les micro lentilles les recouvrent de façon quasi jointives, renvoyant dans le puit utile du photosite les rayons qui avant allaient se perdre sur ces joints.
Mais ils ne diminuent pas la résolution (qui dépend simplement de la distance entre deux photosites, le centre de chaque carreau dans ton exemple), ils diminuent juste l'efficacité /sensibilité (les photons qui s'y perdent ne se transforment pas en électron dans le photosite).
Mais ils ne diminuent pas la résolution (qui dépend simplement de la distance entre deux photosites, le centre de chaque carreau dans ton exemple), ils diminuent juste l'efficacité /sensibilité (les photons qui s'y perdent ne se transforment pas en électron dans le photosite).
SRT101, 9xi, D7, D9, Z3, NEX 5N (+viseur), D5D, Alpha 700, Alpha 900 et pas mal de cailloux qui se montent dessus.
Viseur optique... what else?
Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet
Viseur optique... what else?
Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet
-
jr56 - Messages : 24349
- Photos : 369
- Inscription : 21 Mars 2005
- Localisation : A l'orée de la forêt des carnutes
En complément, pourquoi il n'y a pas de perte de résolution due aux joints? Un détail dont l'image sur le capteur ne recouvrirait qu'un joint, sans empiéter sur les photosites proprement dit, serait d'une finesse (résolution) inférieure, voire très inférieure à la résolution du capteur, déterminée par la distance entre deux centres de photosites adjacents.
Il correspond à une fréquence spatiale qui justement sera arrêtée par le filtre passe-bas placée devant le capteur.
En fait, c'est toujours la même notion: En théorie (et en ne prenant pas en compte les différentes sources de bruit), un capteur restitue sans perte les détails jusqu'à une résolution limite dépendant de l'écartement des photosites (Shannon, Nyquist). Et les détails plus fins sont purement et simplement éliminés en amont du capteur, car celui-ci ne saurait les restituer correctement (filtre anti repliement du spectre).
Un exemple que j'espère simple pour expliquer cette fréquence/résolution limite: imaginons une suite de points blancs et noirs (damier) dans lequel un point noir et un point blanc une fois projetés par l'objectif sur le capteur sont écartés pile de la demi distance entre deux photosites (la fréquence spatiale du damier, distance de répétition du motif, donc distance entre 2 pts blancs ou 2 pts noirs est donc celle du motif des photosites: distance entre le centre de 2 photoites adjacents).
Si on cadre de telle façon que le centre du premier photosite à gauche du capteur correspond à un point blanc, tous les photosites ne verront que des points blancs, les noirs tombant entre deux photosites. Bref le capteur va restituer une surface uniforme blanche (Ok, c'est un peu schématique, chaque photosite va recevoir autant de blanc que de noir vu sa surface, et l'image sera gris moyen uniforme). Mais ce qui compte, c'est qu'en envoyant des détails à la fréquence spatiale des photosites, on récupère une image de fréquence spatiale nulle (signal uniforme).
Pour qu'il restitue l'alternance de points blancs et noirs, il faut qu'au pire le premier photosite reçoive un point blanc, le second un point noir, le troisième un point blanc, etc..
Bref il faut que la fréquence max. des détails de l'image soit LA MOITIE de celle des photosites. C'est justement le role du filtre passe bas de limiter à cette fréquence spatiale moitié les détails de l'image arrivant à la surface du capteur.
Il correspond à une fréquence spatiale qui justement sera arrêtée par le filtre passe-bas placée devant le capteur.
En fait, c'est toujours la même notion: En théorie (et en ne prenant pas en compte les différentes sources de bruit), un capteur restitue sans perte les détails jusqu'à une résolution limite dépendant de l'écartement des photosites (Shannon, Nyquist). Et les détails plus fins sont purement et simplement éliminés en amont du capteur, car celui-ci ne saurait les restituer correctement (filtre anti repliement du spectre).
Un exemple que j'espère simple pour expliquer cette fréquence/résolution limite: imaginons une suite de points blancs et noirs (damier) dans lequel un point noir et un point blanc une fois projetés par l'objectif sur le capteur sont écartés pile de la demi distance entre deux photosites (la fréquence spatiale du damier, distance de répétition du motif, donc distance entre 2 pts blancs ou 2 pts noirs est donc celle du motif des photosites: distance entre le centre de 2 photoites adjacents).
Si on cadre de telle façon que le centre du premier photosite à gauche du capteur correspond à un point blanc, tous les photosites ne verront que des points blancs, les noirs tombant entre deux photosites. Bref le capteur va restituer une surface uniforme blanche (Ok, c'est un peu schématique, chaque photosite va recevoir autant de blanc que de noir vu sa surface, et l'image sera gris moyen uniforme). Mais ce qui compte, c'est qu'en envoyant des détails à la fréquence spatiale des photosites, on récupère une image de fréquence spatiale nulle (signal uniforme).
Pour qu'il restitue l'alternance de points blancs et noirs, il faut qu'au pire le premier photosite reçoive un point blanc, le second un point noir, le troisième un point blanc, etc..
Bref il faut que la fréquence max. des détails de l'image soit LA MOITIE de celle des photosites. C'est justement le role du filtre passe bas de limiter à cette fréquence spatiale moitié les détails de l'image arrivant à la surface du capteur.
SRT101, 9xi, D7, D9, Z3, NEX 5N (+viseur), D5D, Alpha 700, Alpha 900 et pas mal de cailloux qui se montent dessus.
Viseur optique... what else?
Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet
Viseur optique... what else?
Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet
-
Lonewolf1300 - Messages : 886
- Photos : 61
- Inscription : 16 Sep 2008
- Localisation : Capitale des Alpes
- Contact :
Merci pour l'explication.
Peut-on faire un rapprochement avec le comportement des grains d'une émulsion argentique ? Autrement dit, la nécessité du filtre passe-bas est-elle un handicap par rapport au film argentique ?
(dans lequel les grains sont "distribués" aléatoirement, sans "séparation" comme sur les capteurs, où les sites sont soigneusement ordonnés)

Peut-on faire un rapprochement avec le comportement des grains d'une émulsion argentique ? Autrement dit, la nécessité du filtre passe-bas est-elle un handicap par rapport au film argentique ?
(dans lequel les grains sont "distribués" aléatoirement, sans "séparation" comme sur les capteurs, où les sites sont soigneusement ordonnés)
SONY A700 + VG-C70AM
SONY A550 + VG-C70AM
SIGMA : 30 1,4 DC EX | 70-200 2,8 II APO DG EX HSM | 300 2,8 APO DG EX
ZEISS : 16-80 3,5/4,5 T* DT Vario Sonnar ZA (MAP cassée) --> Sony DT 18-70 3,5/5,6 (pour dépannage)
Flash EF-530DG - Trépied GITZO Gilux | Monopode | Crosse ROWI[/size]
SONY A550 + VG-C70AM
SIGMA : 30 1,4 DC EX | 70-200 2,8 II APO DG EX HSM | 300 2,8 APO DG EX
ZEISS : 16-80 3,5/4,5 T* DT Vario Sonnar ZA (MAP cassée) --> Sony DT 18-70 3,5/5,6 (pour dépannage)
Flash EF-530DG - Trépied GITZO Gilux | Monopode | Crosse ROWI[/size]
-
jr56 - Messages : 24349
- Photos : 369
- Inscription : 21 Mars 2005
- Localisation : A l'orée de la forêt des carnutes
A chaud, deux considérations:
1) D'abord la pellicule argentique ne fait pas de numérisation, avec traitement du signal derrière. Elle reste strictement analogique. Donc toutes ces considération de restitution des détails après traitement de valeurs numériques successives n'a pas d'objet.
Autrement dit, les phénomènes n'ont aucun rapport entre eux, on ne peut pas vraiment comparer.
Le filtre passe bas est inhérent à l'aspect numérisation. mais ce n'est pas un handicap, d'autant plus que la résolution d'une pellicule argentique correspond à celle qu'on obtient avec un capteur de 6 à 10 mpixels APS-C: on fait mieux maintenant en numérique qu'en argentique.
Ce sont les "artefacts" qui sont de nature différente.
2) Comme tu le soulignes toi-même, il y a bien un échantillonnage spatial par les molécules de colorants, mais les tailles de ces grains de colorants est très variables, et surtout ils ne sont pas disposés selon une disposition géométrique implacable comme les photosites d'un capteur, mais répartis de façon aléatoire.
Ce qui explique que même quand il devient visible (grain élevé à forte sensibilité car il faut des paquets de colorants de taille plus grande pour collecter plus de photons), cela n'a pas l'effet que pourraient avoir des grains de colorants disposés sur la pellicules selon une disposition géométrique rigoureuse.
L'analogie vaut ce qu'elle vaut, mais je dirai bien que l'oeil ne voit qu'un fouilli informe dans le feuillage d'arbres à une certaine distance, tandis qu'il repérera sans faille à la même distance la structure régulière des mailles d'une cloture même en partie noyée dans une haie.
Par contre la géométrie rigoureuse est indispensable en numérique, si on veut pouvoir faire (simplement) les calculs ultérieurs pour restituer une image à partie des valeurs numériques du fichier.
Mais je me suis déjà demandé quelle serait l'amélioration subjective apportée par un capteur à photosites de taille et disposition aléatoire... (en supposant qu'un Bionz+++ arrive à en traiter le signal!).
1) D'abord la pellicule argentique ne fait pas de numérisation, avec traitement du signal derrière. Elle reste strictement analogique. Donc toutes ces considération de restitution des détails après traitement de valeurs numériques successives n'a pas d'objet.
Autrement dit, les phénomènes n'ont aucun rapport entre eux, on ne peut pas vraiment comparer.
Le filtre passe bas est inhérent à l'aspect numérisation. mais ce n'est pas un handicap, d'autant plus que la résolution d'une pellicule argentique correspond à celle qu'on obtient avec un capteur de 6 à 10 mpixels APS-C: on fait mieux maintenant en numérique qu'en argentique.
Ce sont les "artefacts" qui sont de nature différente.
2) Comme tu le soulignes toi-même, il y a bien un échantillonnage spatial par les molécules de colorants, mais les tailles de ces grains de colorants est très variables, et surtout ils ne sont pas disposés selon une disposition géométrique implacable comme les photosites d'un capteur, mais répartis de façon aléatoire.
Ce qui explique que même quand il devient visible (grain élevé à forte sensibilité car il faut des paquets de colorants de taille plus grande pour collecter plus de photons), cela n'a pas l'effet que pourraient avoir des grains de colorants disposés sur la pellicules selon une disposition géométrique rigoureuse.
L'analogie vaut ce qu'elle vaut, mais je dirai bien que l'oeil ne voit qu'un fouilli informe dans le feuillage d'arbres à une certaine distance, tandis qu'il repérera sans faille à la même distance la structure régulière des mailles d'une cloture même en partie noyée dans une haie.
Par contre la géométrie rigoureuse est indispensable en numérique, si on veut pouvoir faire (simplement) les calculs ultérieurs pour restituer une image à partie des valeurs numériques du fichier.
Mais je me suis déjà demandé quelle serait l'amélioration subjective apportée par un capteur à photosites de taille et disposition aléatoire... (en supposant qu'un Bionz+++ arrive à en traiter le signal!).
SRT101, 9xi, D7, D9, Z3, NEX 5N (+viseur), D5D, Alpha 700, Alpha 900 et pas mal de cailloux qui se montent dessus.
Viseur optique... what else?
Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet
Viseur optique... what else?
Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet
-
AlphaDream - Messages : 11328
- Photos : 48
- Inscription : 12 Déc 2006
- Localisation : Toulouse
- Contact :
Tain... c'est bien plus compréhensible que dans mes bouquins de traitement du signal. Bel exploit, Jean ! 

-
Lonewolf1300 - Messages : 886
- Photos : 61
- Inscription : 16 Sep 2008
- Localisation : Capitale des Alpes
- Contact :
Effectivement, pour le littéraire de formation que je suis, après ta lecture (et celles de plusieurs d'entre vous !) ma focale personnelle tend plus vers les f2.8 qu'avant !
Disons que je me demandais aussi ce que donnerait comme avantage un capteur dont les photosites se répartiraient à plusieurs sur des surfaces identiques, se chevaucheraient afin d'éliminer les "joints". Mais à te lire, on peut penser que l'électronique de traitement y perdrait son latin...

Disons que je me demandais aussi ce que donnerait comme avantage un capteur dont les photosites se répartiraient à plusieurs sur des surfaces identiques, se chevaucheraient afin d'éliminer les "joints". Mais à te lire, on peut penser que l'électronique de traitement y perdrait son latin...

SONY A700 + VG-C70AM
SONY A550 + VG-C70AM
SIGMA : 30 1,4 DC EX | 70-200 2,8 II APO DG EX HSM | 300 2,8 APO DG EX
ZEISS : 16-80 3,5/4,5 T* DT Vario Sonnar ZA (MAP cassée) --> Sony DT 18-70 3,5/5,6 (pour dépannage)
Flash EF-530DG - Trépied GITZO Gilux | Monopode | Crosse ROWI[/size]
SONY A550 + VG-C70AM
SIGMA : 30 1,4 DC EX | 70-200 2,8 II APO DG EX HSM | 300 2,8 APO DG EX
ZEISS : 16-80 3,5/4,5 T* DT Vario Sonnar ZA (MAP cassée) --> Sony DT 18-70 3,5/5,6 (pour dépannage)
Flash EF-530DG - Trépied GITZO Gilux | Monopode | Crosse ROWI[/size]
Qui est en ligne ?
Utilisateurs parcourant ce forum : Aucun utilisateur inscrit et 21 invités
