Oui, pour quelqu'un qui semble sinon débutant en photo du moins dans la maitrise des paramètres techniques, le meilleur conseil est de se mettre en multizones qui depuis une dizaine d'années fait quand même face à 95 voire 99% des cas.
Par contre il faut peut-être expliquer plus en détail l'origine du problème rencontré:
Sur une telle scène (ciel blanc très lumineux, et sujet sombre en contre-jour, c'est à dire pas éclairé par le soleil) l'écart de luminosité entre les zones les plus claires (les nuages blancs du ciel en général, le ciel bleu est moins lumineux que les nuages, ou dans ton cas, la partie du ciel la plus proche du soleil) et les plus sombres qu'on veut restituer (la façade à l'ombre du monument) est bien plus grand que ce que le capteur sait restituer.
Un capteur (comme une pellicule argentique) est en effet limité dans les écarts de luminosité qu'il sait restituer (on parle de sa dynamique maximale).
Notre oeil aussi, sauf qu'il s'adapte plus facilement: quand on regarde le monument, la pupille va se régler sur l'ombre, et si déporte le regard vers le paysage environnant, elle va presque instantanément se fermer et on verra correctement le paysage. L'oeil a aussi ses limites, mais elles sont plus éloignées que celle d'un capteur: c'est quand on est ébloui par la lumière ou qu'il faut plusieurs dizaines de secondes pour "s'adapter à l'obscurité".Pour en revenir au capteur, en pareil cas, le système d'exposition soit se cale au milieu, et les ombres seront trop sombres et les zones claires brulées. Soit il privilégie les hautes lumières (zones claires) et les ombres seront encore plus largement noires, sans détail. Soit plus rarement (par ex. photo sans flash en intérieur, avec une petite fenêtre fortement éclairée de l'extérieur), il privilégie les ombres = basses lumières, mais dans ce cas ce sont les zones lumineuses = hautes lumières qui sont encore plus largement brulées (tout blanc, sans aucun détail).
En mesure multizone, le boitier compare les répartitions de la lumière dans le viseur à plusieurs dizaines de milliers maintenant de situations pré-enregistrée type, et sélectionne le réglage associé à la situation qui semble la plus proche de celle photographiée. Ce qui lui permet de ne plus se faire piéger par des éclairages/scènes particulières dans la quasi totalité des cas.
Mais il ne peut augmenter la dynamique du capteur, tout au plus peut-il décider s'il faut sacrifier les hautes lumières ou les basses lumières, ou adopter une moyenne mal taillée...
Il faut s'y faire, un capteur ne peut tout faire.
L'expérience permet d'anticiper les cas où on dépasse les possibilités du capteur. Dans ce cas, soit on s'abstient de photographier (quitte à revenir à une heure ou un jour où la lumière sera plus favorable), soit il faut sortir des automatismes:
Pour faire mieux dans les cas extrêmes, il faut en effet sortir des automatismes, et donc maitriser en manuel tous ces paramètres.
Les solutions que propose EGr, c'est utiliser la mesure spot (qui ne tient compte de la luminosité que dans le petit rond central du viseur) pour ne pas bruler les hautes lumières (donc on choisit soi même quelle petite zone de lumière la plus forte doit être correctement restituée, en acceptant de trop assombrir les zones les moins éclairées), puis utiliser les possibilités plus larges du développement d'un raw (par rapport au jpeg) pour essayer d'éclaircir les zones les plus sombres, sans trop faire monter le bruit. Là aussi, seule l'expérience permet de savoir jusqu'où on peut aller.
D'autres solutions consistent à faire du HDR (on fait deux ou plusieurs photos avec des expositions différentes (pour les hautes lumières, les moyennes lumière, les ombres...) puis on combine ces différentes photos (des logiciels le font automatiquement, ou alors on utilise des calques logiciels superposés et partiellement masqués) pour retenir dans chacune d'elle les zones les mieux exposées.
Ou dans les cas simples (paysage avec limite ciel/terre à peu près horizontale), dès la prise de vue, on met devant l'objectif unj filtre dégradé, qui assombrit le haut (ciel lumineux) et est transparent pour le bas (terre, plus sombre) en ajustant la limite clair/sombre du filtre sur la séparation ciel/terre (limite qui est dégradée = progressive, pour ne pas induire un changement brusque de luminosité dans la photo).
A noter que le mode de mesure d'expo central pondéré (conçu longtemps avant la multizone, qui réclame beaucoup plus de calculs) est justement conçu pour ces situations: dans le cas classique notamment où le paysage où le haut de l'image est plus clair que le bas, ce mode de mesure tient compte très globalement de la luminosité générale moyenne de l'image (c'est le "central", rond central dans le viseur) en le pondérant (corrigeant) par la luminosité en général de la partie basse de l'image.
C'est correct pour le photographe peu expérimenté qui fait des photos de paysages en mettant à peu près l'horizon au milieu de l'image (ce qu'il vaut mieux éviter artistiquement) et son sujet principal (monument, personnage...) lui aussi au centre (à éviter aussi sauf exception pour la beauté de la photo...). Mais la multizone comme expliqué au-dessus est bien plus performante aujourd'hui (ou plus précisément, en centrale pondérée, il faut savoir dans quelles situations elle est adaptée, et savoir corriger un peu en sur ex. ou sous exposition selon la situation réelle... bref, elle nécessite de fonctionner en "semi automatique", le photographe sachant avec son expérience quand elle est adaptée et comment la corriger un peu).
SRT101, 9xi, D7, D9, Z3, NEX 5N (+viseur), D5D, Alpha 700, Alpha 900 et pas mal de cailloux qui se montent dessus.
Viseur optique... what else?
Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet