Lytro : vidéo et sélection par profondeur
|Lytro poursuit son travail sur les champs lumineux et a présenté à quelques semaines d’intervalle deux nouveautés marquantes : Immerge, à ma connaissance le premier système vidéo plénoptique, et la version 5 de son logiciel de développement photo, avec la sélection par profondeur.
Plénoptique, vous dites ?
Pour ceux qui auraient raté les articles sur le sujet, un mot sur l’enregistrement plénoptique. Un capteur d’appareil photo classique dit : “à tel endroit, j’ai reçu telle quantité de lumière”. Et c’est tout. Ça permet de savoir si c’est blanc ou noir, ou rouge ou vert, mais pas de savoir d’où le rayon venait ni ce qu’on aurait vu juste un millimètre plus loin.
Le principe d’un appareil plénoptique est simple : dire “à tel endroit, j’ai reçu un rayon qui venait d’ici, un autre qui venait de là, un troisième qui venait d’ici”, et ainsi de suite. Je vais pas rentrer dans la technique, qui est beaucoup plus compliquée que la théorie, mais l’idée est donc d’enregistrer non pas la projection des rayons sur un capteur, mais la trajectoire individuelle de chaque rayon pénétrant dans l’appareil.
Les avantages sont multiples. Le premier, c’est la possibilité de refaire la mise au point à volonté : vu qu’on a toutes les informations sur les rayons qui passent, on peut les projeter (cette fois mathématiquement) sur un capteur virtuel qu’on place où on veut. Il est possible de générer autant de photos qu’on le souhaite, avec à chaque fois des mises au point différentes. Deux exemples typiques : le photographe de mariage peut shooter une table une fois, puis générer vingt photos focalisées sur chacun des vingt convives ; le photographe de sport peut shooter sa mêlée de rugby et choisir tranquillement, chez lui, de faire le point sur le ballon ou sur la tête d’un joueur. Dans le cadre ci-dessus, cliquez pour modifier la mise au point.
Le deuxième, c’est la possibilité d’ignorer certains rayons lors du calcul de la photo : on peut donc ajouter un diaphragme virtuel et choisir sa profondeur de champ à l’édition (de f/1 à f/16 pour le Lytro Illum), sans modifier l’exposition de la scène ! Notez qu’en mélangeant ces deux fonctions, la version 4 du logiciel Lytro avait permis d’ajouter l’extension de mise au point : choisir le premier plan net, le dernier plan net, et garder les avant- et arrière-plans cotonneux d’une large ouverture. Absolument génial en portrait (“net du nez à l’oreille, mais l’arrière-plan de la pleine ouverture, merci”).
La troisième, c’est que le capteur virtuel peut également être déplacé et incliné où l’on veut dans l’appareil : il est donc possible de faire du décentrement et de la bascule — lorsque je l’avais testé, j’avais ainsi pu rendre nets une personne à moins de deux mètres de moi et un drapeau au fond de la place, toujours dans une image à “pleine ouverture”.
Il n’y a qu’un inconvénient, mais il est majeur : la quantité de données à générer, enregistrer, puis traiter. L’Illum manque de réactivité, il produit des fichiers énormes qui bouffent une carte mémoire comme qui rigole, et même un ordinateur bien costaud va ensuite mettre un bon bout de temps à mouliner tout ça pour générer des images — et les photos de sortie ne font que 4 Mpx !
Vidéo plénoptique
Avec Immerge, Lytro passe donc à la vidéo sphérique et plénoptique. Sphérique, cela veut dire que leur bouboule voit à 360°, comme un appareil de Google Street View ou un Ricoh Theta. Plénoptique, ça n’a pas changé : elle enregistre pour chaque rayon qu’elle capture sa trajectoire exacte. Et tout cela, une trentaine de fois par seconde, je vous laisse imaginer la gueule du serveur qui doit digérer ça.
Mais ensuite, comme pour les photos, il doit être possible de gérer mise au point, profondeur de champ et déplacements du point d’observation (dans la limite du champ lumineux capturé) à volonté. Et comme avec toute vidéo sphérique, il est également permis d’orienter la zone visualisée à volonté. C’est le but d’Immerge : permettre d’observer une vidéo avec un casque de réalité virtuelle, avec non seulement la possibilité de tourner la tête (déjà offerte avec un casque Oculus et un Ricoh Theta S par exemple), mais également celle de se déplacer de quelques centimètres, de modifier la netteté, etc. En somme, le fils caché de la réalité virtuelle et du cinéma. On imagine déjà les applications que cela pourrait avoir (je pense que chez Dorcel, on suit ça avec beaucoup d’intérêt).
Sélection par profondeur
Si Immerge marque les esprits, une nouvelle fonction de la version 5 du logiciel photo qui accompagne l’Illum est au moins aussi intéressante. Rappelez-vous : dans la version 4, nous avions vu apparaître l’extension de mise au point, où la zone de netteté n’était plus limitée à un plan (“mise au point à 3 m”), mais passait à un volume (“mise au point de 2,5 à 4 m”).
Cette fois, Lytro permet carrément d’utiliser la profondeur pour sélectionner des zones. Voilà qui devrait simplifier bien des détourages : pour extraire le premier plan de votre image, plutôt que d’utiliser une brosse de sélection en vous embêtant à l’utiliser cheveu par cheveu, un coup de curseur sur la bonne distance s’occupera de l’extraction voulue.
Ensuite, toutes les opérations habituellement effectuées par détourage sont possibles : régler séparément les couleurs, l’exposition, les détails des différents plans, mais aussi éventuellement remplacer un plan par un autre. Là encore, on imagine volontiers ce que cela pourrait donner pour les cinéastes friands d’effets spéciaux : au lieu de tout filmer sur fond vert pour permettre les incrustations, l’héritier de Michael Bay pourra juste sélectionner tout ce qui est à plus de trois mètres de la caméra et le remplacer à volonté.
La version 5 du logiciel ne sera lancée que dans les prochaines semaines, et il faut s’inscrire pour espérer tester un jour l’Immerge. Mais Lytro poursuit donc son défrichage, en photo et désormais en vidéo, et les perspectives à long terme peuvent être surprenantes.