Cellules : toujours plus précises

Si la course à la défi­ni­tion des cap­teurs semble se cal­mer un peu, celle des cel­lules bat son plein. Sur les D500 et D5, Nikon a ain­si encore dou­blé le compte avec une mesure de lumière sur 180 000 points RGB, tan­dis que l’EOS-1D X Mk II de Canon pousse la barre encore plus haut : il dis­pose d’une cel­lule de 360 000 points, RGB+IR. Mais concrè­te­ment, à part exi­ger encore plus de cal­culs (chez Canon, c’est un pro­ces­seur d’i­mage dédié, du type qui gérait les images des cap­teurs Cmos il n’y a pas long­temps, qui s’en occupe), ça sert à quoi ?

La cellule

Les pre­mières cel­lules étaient tenues à la main (près de l’ap­pa­reil ou près du sujet, pour une mesure réflé­chie ou une mesure inci­dente) ou col­lées sur l’ap­pa­reil (for­cé­ment en mesure réflé­chie). Leur champ de mesure était très approxi­ma­tif et variable d’un modèle à l’autre. Pour sim­pli­fier, je me can­ton­ne­rai aux cel­lules inté­grées en par­tant du prin­cipe que leur champ est iden­tique au cadrage — ce qui a com­men­cé avec les cel­lules pla­cées à l’in­té­rieur des appa­reils et non plus pla­quées sur le devant.

Pour notre démons­tra­tion, ima­gi­nons qu’on pho­to­gra­phie une scène de ral­lye tout à fait ordinaire.

rallye Terres du Diois 2007, ES4, Gillouin-Roissac
Gil­louin et Rois­sac, Terres du Diois 2007.

Le but de la cel­lule était de mesu­rer la lumière pour per­mettre une expo­si­tion ni trop claire, ni trop sombre. Pour cela, elle était éta­lon­née sur un gris moyen (on dit sou­vent qu’il s’a­git d’un gris uni­forme ren­voyant 18 % de la lumière reçue, mais en réa­li­té l’é­ta­lon­nage varie d’un construc­teur et d’une époque à l’autre et cette valeur reste pure­ment indicative).

Avec une seule zone de mesure, la cellule voyait tout comme un gris uniforme plus ou moins clair.
Avec une seule zone de mesure, la cel­lule voyait tout comme un gris uni­forme plus ou moins clair.

Cette méthode avait une grosse limite : la cel­lule ren­voyait une valeur liée à la lumière reçue, quelle que soit sa cou­leur et quelle que soit son ori­gine. Un point très lumi­neux en bor­dure du cadre pou­vait ame­ner à une vio­lente sous-expo­si­tion ; inver­se­ment, si le sujet était entou­ré d’un cadre sombre, il ris­quait d’être sur­ex­po­sé. Le pho­to­graphe devait donc éva­luer lui-même la dif­fé­rence de lumi­no­si­té entre son sujet et l’en­semble du cadre pour cor­ri­ger au besoin.

Une cellule uniforme aurait fait la moyenne des branches et de la voiture, donnant une image surexposée et plate.
Une cel­lule uni­forme aurait fait la moyenne des branches et de la voi­ture, don­nant une image sur­ex­po­sée et plate.

Pour amé­lio­rer les choses, on a donc rapi­de­ment mis au point la cel­lule pon­dé­rée cen­trale. Celle-ci vise tou­jours un gris moyen, mais elle accorde plus d’im­por­tance au centre de l’i­mage, per­met­tant de dimi­nuer l’im­pact d’un point lumi­neux ou d’un cadre sombre. C’est désor­mais la mesure de base pro­po­sée par les appareils.

La mesure pondérée centrale permet de réduire l'impact des branches.
La mesure pon­dé­rée cen­trale per­met de réduire l’im­pact des branches.

C’est mieux, ça fonc­tionne bien dans la grande majo­ri­té des cas, mais il reste des pièges que la pon­dé­rée cen­trale ne sait résoudre, comme les sujets très ponc­tuels entou­rés d’élé­ments para­sites de lumi­no­si­té très variée. Dans ce cas, c’est la mesure spot qui est utile : la cel­lule ne prend en compte qu’un point pré­cis et ignore tota­le­ment le reste. Le pho­to­graphe doit donc ver­rouiller l’ex­po­si­tion sur son sujet, mais c’est très efficace.

Effi­cace, mais ça demande encore une réflexion de l’u­ti­li­sa­teur. La fai­néan­tise étant le plus puis­sant moteur de l’hu­ma­ni­té, notre pho­to­graphe aime­rait pou­voir encore plus se repo­ser sur l’ap­pa­reil. Et c’est là qu’ar­rivent les mesures dites matri­cielles ou mul­ti­zones, qui tirent pro­fit de l’or­di­na­teur embar­qué pour ana­ly­ser l’image.

C’est la zone

L’i­dée de la mesure mul­ti­zone est, comme son nom l’in­dique, de décou­per l’i­mage en plu­sieurs zones, per­met­tant non seule­ment d’ap­pli­quer la mesure dans son ensemble mais aus­si d’a­na­ly­ser pour essayer de devi­ner où sont les élé­ments impor­tants et où sont ceux qu’on peut sur- ou sous-expo­ser sans regret. Par exemple, le K10D qui a pris cette pho­to avait une cel­lule à 16 zones.

La cellule du K10D comptait 16 zones, dont deux larges permettant éventuellement d'ignorer les cadres.
La cel­lule du K10D comp­tait 16 zones, dont deux larges per­met­tant éven­tuel­le­ment d’i­gno­rer les bordures.

Il a ain­si pu déci­der de lui-même d’i­gno­rer la zone plus sombre en péri­phé­rie, trop dif­fé­rente du reste, pour expo­ser cor­rec­te­ment le centre de l’i­mage, où la lumière plus homo­gène lui disait que le sujet devait être. Évi­dem­ment, plus il y a de zones, plus la recon­nais­sance de scènes peut être fine, per­met­tant d’i­gno­rer ou de pon­dé­rer les dif­fé­rentes zones plus effi­ca­ce­ment et d’as­su­rer une expo­si­tion plus fiable dans des condi­tions plus variées.

Nikon a appor­té une nou­veau­té avec le D2X : ce fut le pre­mier appa­reil équi­pé d’une cel­lule RGB — en fait un cap­teur CCD de 1005 points.

1005 points RGB, ça ne fait pas une définition énorme : environ 23×15 px.
1005 points RGB, ça ne fait pas une défi­ni­tion énorme : envi­ron 23×15 px.

L’i­mage vue par la cel­lule était donc loin de la haute défi­ni­tion, mais la cap­ture des cou­leurs per­met­tait de mieux trier les sujets et les para­sites, ain­si que de com­pa­rer la scène à une base de don­nées plus com­plète. Ceci dit, c’est sur­tout en matière de sui­vi de sujet que cette approche a immé­dia­te­ment chan­gé les choses : si l’au­to­fo­cus avait été ver­rouillé sur un sujet jaune, il n’al­lait pas le perdre parce qu’une branche verte pas­sait au pre­mier plan…

Aujourd’­hui, on arrive donc à 180 000 points RGB, soit 300×200 px com­plets. Par un heu­reux hasard, c’est pré­ci­sé­ment les dimen­sions de l’i­mage sur sur les vignettes ci-des­sus : vous n’au­rez pas de mal à com­prendre que si le détail n’est pas par­fait, il devient pos­sible de détec­ter très fine­ment un sujet. Les der­niers reflex adoptent même une tech­no­lo­gie issue direc­te­ment des com­pacts, la détec­tion de visages, per­met­tant de don­ner une pon­dé­ra­tion sup­plé­men­taire aux faces — qui sont les sujets les plus sou­vent photographiés.

Et le RGB+IR, direz-vous ?

exposition_360k_RGB_IR
La même vue dans le visible et dans l’in­fra­rouge (prise par une web­cam bri­co­lée). La défi­ni­tion de l’en­semble cor­res­pond à celle de l’EOS-1D X Mk II, mais j’i­gnore exac­te­ment com­ment Canon a conçu son sys­tème donc ne pre­nez pas ça pour argent comptant.

Et bien, en gros, l’i­mage est décom­po­sée en deux, l’une visible en cou­leurs et l’autre dans l’in­fra­rouge. Celle-ci per­met en par­ti­cu­lier de dis­tin­guer la végé­ta­tion, ce qui peut être utile en pleine nature pour les pay­sages. Cela per­met éga­le­ment d’a­mé­lio­rer la sen­si­bi­li­té de la cel­lule, et donc l’ef­fi­ca­ci­té de la recon­nais­sance des scènes en basse lumière.