Cellules : toujours plus précises
|Si la course à la définition des capteurs semble se calmer un peu, celle des cellules bat son plein. Sur les D500 et D5, Nikon a ainsi encore doublé le compte avec une mesure de lumière sur 180 000 points RGB, tandis que l’EOS-1D X Mk II de Canon pousse la barre encore plus haut : il dispose d’une cellule de 360 000 points, RGB+IR. Mais concrètement, à part exiger encore plus de calculs (chez Canon, c’est un processeur d’image dédié, du type qui gérait les images des capteurs Cmos il n’y a pas longtemps, qui s’en occupe), ça sert à quoi ?
La cellule
Les premières cellules étaient tenues à la main (près de l’appareil ou près du sujet, pour une mesure réfléchie ou une mesure incidente) ou collées sur l’appareil (forcément en mesure réfléchie). Leur champ de mesure était très approximatif et variable d’un modèle à l’autre. Pour simplifier, je me cantonnerai aux cellules intégrées en partant du principe que leur champ est identique au cadrage — ce qui a commencé avec les cellules placées à l’intérieur des appareils et non plus plaquées sur le devant.
Pour notre démonstration, imaginons qu’on photographie une scène de rallye tout à fait ordinaire.

Le but de la cellule était de mesurer la lumière pour permettre une exposition ni trop claire, ni trop sombre. Pour cela, elle était étalonnée sur un gris moyen (on dit souvent qu’il s’agit d’un gris uniforme renvoyant 18 % de la lumière reçue, mais en réalité l’étalonnage varie d’un constructeur et d’une époque à l’autre et cette valeur reste purement indicative).

Cette méthode avait une grosse limite : la cellule renvoyait une valeur liée à la lumière reçue, quelle que soit sa couleur et quelle que soit son origine. Un point très lumineux en bordure du cadre pouvait amener à une violente sous-exposition ; inversement, si le sujet était entouré d’un cadre sombre, il risquait d’être surexposé. Le photographe devait donc évaluer lui-même la différence de luminosité entre son sujet et l’ensemble du cadre pour corriger au besoin.

Pour améliorer les choses, on a donc rapidement mis au point la cellule pondérée centrale. Celle-ci vise toujours un gris moyen, mais elle accorde plus d’importance au centre de l’image, permettant de diminuer l’impact d’un point lumineux ou d’un cadre sombre. C’est désormais la mesure de base proposée par les appareils.

C’est mieux, ça fonctionne bien dans la grande majorité des cas, mais il reste des pièges que la pondérée centrale ne sait résoudre, comme les sujets très ponctuels entourés d’éléments parasites de luminosité très variée. Dans ce cas, c’est la mesure spot qui est utile : la cellule ne prend en compte qu’un point précis et ignore totalement le reste. Le photographe doit donc verrouiller l’exposition sur son sujet, mais c’est très efficace.
Efficace, mais ça demande encore une réflexion de l’utilisateur. La fainéantise étant le plus puissant moteur de l’humanité, notre photographe aimerait pouvoir encore plus se reposer sur l’appareil. Et c’est là qu’arrivent les mesures dites matricielles ou multizones, qui tirent profit de l’ordinateur embarqué pour analyser l’image.
C’est la zone
L’idée de la mesure multizone est, comme son nom l’indique, de découper l’image en plusieurs zones, permettant non seulement d’appliquer la mesure dans son ensemble mais aussi d’analyser pour essayer de deviner où sont les éléments importants et où sont ceux qu’on peut sur- ou sous-exposer sans regret. Par exemple, le K10D qui a pris cette photo avait une cellule à 16 zones.

Il a ainsi pu décider de lui-même d’ignorer la zone plus sombre en périphérie, trop différente du reste, pour exposer correctement le centre de l’image, où la lumière plus homogène lui disait que le sujet devait être. Évidemment, plus il y a de zones, plus la reconnaissance de scènes peut être fine, permettant d’ignorer ou de pondérer les différentes zones plus efficacement et d’assurer une exposition plus fiable dans des conditions plus variées.
Nikon a apporté une nouveauté avec le D2X : ce fut le premier appareil équipé d’une cellule RGB — en fait un capteur CCD de 1005 points.

L’image vue par la cellule était donc loin de la haute définition, mais la capture des couleurs permettait de mieux trier les sujets et les parasites, ainsi que de comparer la scène à une base de données plus complète. Ceci dit, c’est surtout en matière de suivi de sujet que cette approche a immédiatement changé les choses : si l’autofocus avait été verrouillé sur un sujet jaune, il n’allait pas le perdre parce qu’une branche verte passait au premier plan…
Aujourd’hui, on arrive donc à 180 000 points RGB, soit 300×200 px complets. Par un heureux hasard, c’est précisément les dimensions de l’image sur sur les vignettes ci-dessus : vous n’aurez pas de mal à comprendre que si le détail n’est pas parfait, il devient possible de détecter très finement un sujet. Les derniers reflex adoptent même une technologie issue directement des compacts, la détection de visages, permettant de donner une pondération supplémentaire aux faces — qui sont les sujets les plus souvent photographiés.
Et le RGB+IR, direz-vous ?

Et bien, en gros, l’image est décomposée en deux, l’une visible en couleurs et l’autre dans l’infrarouge. Celle-ci permet en particulier de distinguer la végétation, ce qui peut être utile en pleine nature pour les paysages. Cela permet également d’améliorer la sensibilité de la cellule, et donc l’efficacité de la reconnaissance des scènes en basse lumière.