Motion capture

La capture d’image au cinéma a été totalement révolutionnée avec l’arrivée de l’image 3D. Dès lors, les réalisateurs ne se sont plus contentés de simplement filmer les acteurs, ils ont souhaité enregistrer leur gestuelle, leur façon de bouger, afin de pouvoir les contrôler. La motion capture est un procédé utilisé pour enregistrer les positions et les mouvements des objets ou des êtres vivants afin de pouvoir les contrôler virtuellement à l’aide d’un ordinateur. On peut ainsi créer des doublures numériques d’acteurs, multiplier virtuellement le nombre de figurants ou encore faire un film qui se déroule dans l’espace sans quitter Los Angeles. Trois grandes méthodes sont aujourd’hui utilisées pour faire ce qu’on appelle la motion capture: la capture optique, la capture magnétique et la capture mécanique. Chacune d’entre elles est basée sur différentes technologies.

  • Caméra avec marqueurs passifs

Motion_Capture_with_Chad_Phantom

Pour cette technique, les acteurs sont vêtus d’une combinaison noire en latex, sur laquelle on dispose, à des points stratégiques (souvent les articulations) des marqueurs. Ce sont de petites boules constituées d’une matière blanche, réfléchissante. Les images filmées sont donc en noir et blanc, sur 2 bits (1 pour chaque couleur). Les caméras envoient un rayonnement infrarouge qui est alors réfléchi par la surface des marqueurs, vers ces mêmes caméras.

Une fois la capture d’image terminée, les images filmées sont envoyées vers un logiciel de traitement d’image. Ce logiciel  associé à un moteur de rendu 3D permet  d’extraire le mouvement des acteurs depuis les images filmées. De nombreuses entreprises sont spécialisées dans ce type de capture optique, les plus importantes étant Vicon, MotionAnalysis ou encore NaturalPoint.

  • La caméra Kinect : une révolution

La caméra Kinect est une caméra permettant de filmer en 3D. Par le biais d’une caméra, une trame de lumière infrarouge est projetée sur les objets, qui, en la réfléchissant, permettent de définir l’image 3D. Cette technologie avait à l’origine été conçue pour la Xbox en septembre 2008,  et elle a  très vite été détournée de son utilisation première.

Dynamixyz, start-up rennaise qui s’est spécialisée dans la capture 3D des images faciales, associe ces deux techniques pour reproduire avec une exactitude étonnante les expressions du visage. Pour cela, elle a développé « Performer », un casque, qui possède une caméra de technologie type Kinect. A l’aide de 3 capteurs placés sur le torse, il permet de détecter les mouvements du visage. Pour le bon traitement de l’image filmée par cette caméra embarquée.

Dynamixyz a également développé un software, un plug-in s’installant sur MAYA, logiciel de traitement d’image 3D, et qui permet de venir sélectionner une centaine de points sur le visage du comédien. Ces points se situent essentiellement au niveau du contour des yeux et des sourcils, autour de la bouche et du nez. L’avantage de ce produit par rapport aux autres caméras de ce type est le rendu en temps réel : à l’aide du software vendu avec le casque, on peut voir en temps réel ce que donneront les expressions des comédiens sur le personnage numérique qu’il interprète. Les technologies de Dynamixyz ont notamment été utilisées lors de la réalisation d’Avatar. En effet, les principaux clients de cette entreprise, et de façon générale les principaux clients des entreprises spécialisées dans les technologies numériques au cinéma, sont nord-américains.

  •  Une avancée technologique sans précédent?

ADN (Agence de Doublure Numérique), entreprise française, est actuellement en train de révolutionner le cinéma numérique tel qu’on le connaît aujourd’hui. En effet, leur technologie dépasse la simple motion capture, elle permet de créer intégralement un double numérique que l’on peut ensuite utiliser à sa convenance. Cette doublure peut remplacer complètement l’acteur numérisé lors d’un film ce qui peut soulever des problèmes d’éthique. En effet, la doublure numérique créée est un produit de ADN,  elle lui appartient, elle peut donc la commercialiser. Pourtant le droit à l’image de chacun pourrait amener un acteur à refuser qu’on commercialise sa doublure pour plusieurs films différents. De plus, on pourrait imaginer un futur proche dans lequel les doublures numériques créées remplaceraient complétement les acteurs.

ADN commercialise un système de scan 3D permettant de numériser entièrement la morphologie de l’acteur. Le réalisateur peut alors utiliser ces images numériques que ce soit sous forme d’un avatar numérique ou de personnage réel, c’est-à-dire qu’on retranscrit l’image 3D de l’acteur telle qu’elle est, sans transférer les mouvements de son corps et de son visage dans un personnage fictif. C’est alors l’artiste qui, à l’aide de son ordinateur, va venir « piloter » l’acteur numérique, pour lui faire faire les mouvements qu’il veut ; l’acteur est complètement remplacé.

Qu’est-ce que la post production

C’est ici que le numérique à le plus apporté au cinéma, du montage au son, tous les processus de finition du film se sont vus améliorés grâce aux progrès remarquables dans le domaine de l’art numérique (les outils informatiques pour la création visuelle se sont beaucoup développés et sont de plus en plus accessibles). Aucune des étapes qui composent la post production ne se font sans l’aide d’un outil numérique. Il y a ainsi trois grandes étapes dans la post production.

Voici une vidéo tirée du Making-Of du film The Hobbit de Peter Jackson. Le réalisateur explique ici toutes facettes de la post production.

Le montage

Les différentes séquences enregistrées pour le film sont visionnées, triées, sélectionnées et agencées dans l’ordre qui sera celui du film. Toutes ces séquences sont alors assemblées pour former la base du film. Exclusivement réalisée sur ordinateur, cette étape s’est trouvée facilitée avec le numérique.  À l’époque des pellicules, l’équipe de tournage devait se retrouver en salle de projection et regarder les innombrables bobines sur grand écran, marquer les bandes à garder, les assembler à la main et éventuellement les numériser pour y appliquer des effets spéciaux.

montage
Studio de montage

Le traitement de l’image

Après le montage, le film monté est envoyé aux équipes de traitement de l’image. Basé sur le visuel du film animé, les concepteurs artistiques vont tout d’abord récupérer les différents points de repère placés sur l’image lors du tournage, pour qu’il y ait une cohérence entre l’échelle des acteurs et des différents effets qui devront être ajoutés. Une fois ces calculs réalisés par ordinateur, les concepteurs vont pouvoir créer un premier environnement « cartoonisé ». Après divers traitements, les décors vont être implantés, les personnages virtuels ajoutés, puis l’éclairage va être appliqué afin de compléter le tableau.

post prod
Salle de visualisation pour l’équipe de post production

Mise en Place du film

C’est la partie qui consiste à réunir toutes les personnes nécessaires afin que le réalisateur puisse tourner son film dans les meilleures conditions. Avant tout, le film est illustré sur un storyboard afin de donner une idée plus précise de ce à quoi l’ambiance visuelle du film doit ressembler.

storyboard
Exemple de storyboard

Dans certains films à gros budget, une version animée du film est réalisée. Cette version très complète, bien que basique visuellement, permet au réalisateur de fixer beaucoup de détails concernant les différentes scènes et ainsi de réaliser son plan de travail (voir définition sur wikipédia : ici). Ce film d’animation permet donc de montrer le type de décor traversé, choisir l’angle de la caméra, le type de plan filmé ou encore le timing de la scène. C’est aussi pendant cette étape que les différents lieux de tournage vont être sélectionnés. Là encore, des outils tels que Google Earth sont utilisés pour faire une première sélection, permettant ainsi un réel gain de temps et d’argent.

L’apport de cet outil informatique est indéniable sur le plan financier: les acteurs et le réalisateur ayant déjà un visuel de la scène, le temps de tournage en est logiquement diminué.