Dolby ATMOS

On a tous en tête la véritable révolution qu’a représentée l’apparition de la 3D dans nos salles de cinéma. Si aujourd’hui, le bilan de ces premières années d’expérience semble mitigé, l’image 3D semble encore avoir de beaux jours devant elle. D’ailleurs, en parlant de 3D, une nouvelle technologie va très prochainement faire son apparition dans nos salles : le Dolby ATMOS.

Vous ne voyez pas le rapport avec la 3D ? C’est pourtant simple, ATMOS est en fait le son en 3D. Depuis plusieurs années, nos salles sont, pour la plupart, équipées de systèmes sonores 5.1 ou 7.1. Ces systèmes-là sont les précurseurs de la spatialisation du son. Comme vu précédemment, le 5.1, système le plus fréquent, correspond simplement au nombre de sources sonores de la salle : 5 comme le nombre d’enceintes et 1 pour le nombre de caisson de basses.  Alors que ce dernier est situé devant nous, 4 des 5 enceintes sont positionnées aux 4 coins de la salle tandis que la dernière est positionnée devant nous, au milieu. C’est grâce à ça que l’on a la sensation que les sons peuvent provenir de différentes directions.

Atmos, c’est en quelque sorte l’évolution ultime du système 5.1. En terme de nombre d’enceintes, cela pourrait s’apparenter à du 62.2. Le nombre de sources différentes est multiplié, ce qui permet une plus grande précision de la direction du son. Mais le plus important, c’est que les enceintes sont maintenant disposées au-dessus de nos têtes, ce qui rend l’immersion d’autant plus impressionnante.

De nouvelles caméras

En Juillet 2014 sortira le quatrième volet de la saga Transformers, réalisé par Michael Bay. A cette occasion, nous pourrons voir les premiers résultats offerts par une toute nouvelle technologie de capture d’image : la caméra IMAX 3D 4K.

  • IMAX, Kesako ?

On a tous déjà vu ou déjà entendu parler de films IMAX, mais au final, on ne sait pas vraiment de quoi il s’agit. IMAX est en réalité la contraction d’Image et Maximum et la société Canadienne qui en porte le nom est à l’origine de la création du dernier format de pellicule utilisé.format pellicule

Connue pour sa qualité d’image nettement supérieure aux films avec pellicules classiques, la diffusion de films certifiés IMAX requiert un aménagement particulier de la salle : l’écran est plus grand (200m² à 350m² de surface) et s’étend de mur à mur et de sol à plafond. Il est aussi positionné plus proche de la première rangée de spectateurs. Voilà les conditions qu’impose la firme Canadienne pour pouvoir diffuser un film estampillé IMAX.

IMAX intervient tout le long du processus de fabrication d’un film : réalisation avec leurs caméras, traitement de l’image et sélection des salles respectant leurs critères pour la distribution.

  • Et l’IMAX 3D 4K, concrètement, c’est quoi ?

Après les premières caméras IMAX utilisant leur format de pellicule, les caméras numériques IMAX sont apparues. Exit les grosses bobines, ces caméras se trouvaient amincies de quelques 113kg, facilitant ainsi le tournage dans des conditions extrêmes. La possibilité de filmer en 3D est ensuite venue se greffer sur ces outils. Enfin, le 4K définit simplement la résolution de capture d’image.

tableau caméras

Cette technologie devrait ainsi se démocratiser dans les mois à venir. C’est en tout cas ce que prédit Michael Bay puisque d’après ses dires, le futur du cinéma est incarné par ce type de technologie. Reste à savoir comment sera accueillie sa dernière réalisation, véritable porte-drapeau de cette techno. Pour cela, rendez-vous dans les salles pour Transformer 4 : Age of Extinction en Juillet !


Traitement de l’image

Vous vous êtes toujours demandé comment faire apparaître des aliens dans un film ou exploser la maison banche? La réponse à ces questions tient en un mot : le traitement de l’image. Le traitement d’image a pour but de transformer image filmée pour améliorer sa qualité. La synthèse d’image 3D s’effectue en deux grandes étapes : la modélisation de l’image, et le rendu, au cours duquel on va visualiser l’image précédemment modélisée. Pour cela, on utilise des logiciels de traitement d’image 3D. Ce sont ces logiciels qui permettent de rajouter des effets spéciaux sur les images déjà tournées.

Les effets spéciaux
Les effets spéciaux

 

  • Premiers pas vers les effets spéciaux : la modélisation de l’image

Avant de pouvoir faire apparaître King-Kong à l’écran, il faut d’abord réussir à modéliser un objet en trois dimensions. Pour cela, les techniques se basent toutes sur la même notion : celle de l’espace vectoriel. On définit une base vectorielle pour l’espace, cette base étant constituée de 3 vecteurs, tous trois unitaires, orthogonaux entre eux. Ils seront pointés vers les trois directions de l’espace : le vecteur x pointe vers la droite, le vecteur y pointe vers l’avant,  le vecteur z pointe vers le haut. Chaque point de l’image pourra alors être représenté selon un triplet de coordonnées qui définira sa position dans l’espace. Les volumes (polyèdres) pourront eux, être représentés par les coordonnées des points constituant leurs sommets. Après avoir défini les positions d’un objet dans l’espace, il ne reste plus qu’à le modéliser. On distingue alors deux types de modélisation : la modélisation polygonale, et la modélisation par courbes.

  • La modélisation polygonale

Elle consiste à définir chaque objet de l’image comme étant un polygone : l’objet est décrit par une liste de sommets et d’arêtes. Cependant, à ce stade de la modélisation, chaque objet présente un aspect anguleux. Ce fâcheux effet sera corrigé par un effet de lissage réalisé par le processeur 3D de l’ordinateur.

  • Modélisation par courbe

La seconde technique de modélisation d’image 3D, est la modélisation par courbe. Elle consiste à définir un réseau de courbes, créé à partir de certains points (dits de contrôle). Par le biais d’un algorithme, le logiciel  3D va mettre en relation les courbes et les points entre eux. Cette méthode présente l’avantage d’être nettement plus précise, mais elle est également plus compliquée.

Modélisation polygonale et lissage
Modélisatioj pol{gnale et lissage
  • Effets spéciaux : le rendu

Modéliser un objet en 3D dimensions ne suffit pas, il faut être capable de l’afficher à l’écran sans qu’on puisse remarquer que l’objet est un faux! C’est là que le rendu intervient. En effet, même si l’objet est, à ce point, modélisé, il faut encore adapter son aspect pour qu’il s’intègre parfaitement à la scène qu’on souhaite réaliser. Un paramètre essentiel est alors l’éclairage de l’objet. Il doit parfaitement se fondre dans l’image en fonction des différentes sources lumineuses. Cette étape est appelée illumination. Pour se faire, deux algorithmes sont majoritairement utilisés : les ombrages de Phong et Gouraud.

  • Dernière étape : intégrer les effets à l’image

Nous savons maintenant comment créer des images, ou plutôt certaines parties d’une image, que nous pourrons utiliser pour produire un effet spécial. Encore faut-il que nous soyons capable de les intégrer dans l’image filmée initialement. Cette étape est appelée le dessin. Ici encore, il existe un algorithme qui est couramment utilisé : l’algorithme du peintre. C’est une technique qui dessine les objets en partant du fond de l’image puis les sujets de plus en plus rapprochés.

Heureusement, toutes ces étapes peuvent être réalisées aujourd’hui à l’aide d’un seul et même logiciel : le moteur de rendu 3D. Ce logiciel utilise la carte graphique 3D de l’ordinateur afin de combiner les trois phases du rendu (illumination, rendu, dessin). Pour calculer les images, il a recours au processeur et à la mémoire vive de l’ordinateur. Il en existe de nombreux, parmi les plus célèbres on peut citer : MAYA, Artlantis Lightscape, V-RAY ou encore Nova.

Motion capture

La capture d’image au cinéma a été totalement révolutionnée avec l’arrivée de l’image 3D. Dès lors, les réalisateurs ne se sont plus contentés de simplement filmer les acteurs, ils ont souhaité enregistrer leur gestuelle, leur façon de bouger, afin de pouvoir les contrôler. La motion capture est un procédé utilisé pour enregistrer les positions et les mouvements des objets ou des êtres vivants afin de pouvoir les contrôler virtuellement à l’aide d’un ordinateur. On peut ainsi créer des doublures numériques d’acteurs, multiplier virtuellement le nombre de figurants ou encore faire un film qui se déroule dans l’espace sans quitter Los Angeles. Trois grandes méthodes sont aujourd’hui utilisées pour faire ce qu’on appelle la motion capture: la capture optique, la capture magnétique et la capture mécanique. Chacune d’entre elles est basée sur différentes technologies.

  • Caméra avec marqueurs passifs

Motion_Capture_with_Chad_Phantom

Pour cette technique, les acteurs sont vêtus d’une combinaison noire en latex, sur laquelle on dispose, à des points stratégiques (souvent les articulations) des marqueurs. Ce sont de petites boules constituées d’une matière blanche, réfléchissante. Les images filmées sont donc en noir et blanc, sur 2 bits (1 pour chaque couleur). Les caméras envoient un rayonnement infrarouge qui est alors réfléchi par la surface des marqueurs, vers ces mêmes caméras.

Une fois la capture d’image terminée, les images filmées sont envoyées vers un logiciel de traitement d’image. Ce logiciel  associé à un moteur de rendu 3D permet  d’extraire le mouvement des acteurs depuis les images filmées. De nombreuses entreprises sont spécialisées dans ce type de capture optique, les plus importantes étant Vicon, MotionAnalysis ou encore NaturalPoint.

  • La caméra Kinect : une révolution

La caméra Kinect est une caméra permettant de filmer en 3D. Par le biais d’une caméra, une trame de lumière infrarouge est projetée sur les objets, qui, en la réfléchissant, permettent de définir l’image 3D. Cette technologie avait à l’origine été conçue pour la Xbox en septembre 2008,  et elle a  très vite été détournée de son utilisation première.

Dynamixyz, start-up rennaise qui s’est spécialisée dans la capture 3D des images faciales, associe ces deux techniques pour reproduire avec une exactitude étonnante les expressions du visage. Pour cela, elle a développé « Performer », un casque, qui possède une caméra de technologie type Kinect. A l’aide de 3 capteurs placés sur le torse, il permet de détecter les mouvements du visage. Pour le bon traitement de l’image filmée par cette caméra embarquée.

Dynamixyz a également développé un software, un plug-in s’installant sur MAYA, logiciel de traitement d’image 3D, et qui permet de venir sélectionner une centaine de points sur le visage du comédien. Ces points se situent essentiellement au niveau du contour des yeux et des sourcils, autour de la bouche et du nez. L’avantage de ce produit par rapport aux autres caméras de ce type est le rendu en temps réel : à l’aide du software vendu avec le casque, on peut voir en temps réel ce que donneront les expressions des comédiens sur le personnage numérique qu’il interprète. Les technologies de Dynamixyz ont notamment été utilisées lors de la réalisation d’Avatar. En effet, les principaux clients de cette entreprise, et de façon générale les principaux clients des entreprises spécialisées dans les technologies numériques au cinéma, sont nord-américains.

  •  Une avancée technologique sans précédent?

ADN (Agence de Doublure Numérique), entreprise française, est actuellement en train de révolutionner le cinéma numérique tel qu’on le connaît aujourd’hui. En effet, leur technologie dépasse la simple motion capture, elle permet de créer intégralement un double numérique que l’on peut ensuite utiliser à sa convenance. Cette doublure peut remplacer complètement l’acteur numérisé lors d’un film ce qui peut soulever des problèmes d’éthique. En effet, la doublure numérique créée est un produit de ADN,  elle lui appartient, elle peut donc la commercialiser. Pourtant le droit à l’image de chacun pourrait amener un acteur à refuser qu’on commercialise sa doublure pour plusieurs films différents. De plus, on pourrait imaginer un futur proche dans lequel les doublures numériques créées remplaceraient complétement les acteurs.

ADN commercialise un système de scan 3D permettant de numériser entièrement la morphologie de l’acteur. Le réalisateur peut alors utiliser ces images numériques que ce soit sous forme d’un avatar numérique ou de personnage réel, c’est-à-dire qu’on retranscrit l’image 3D de l’acteur telle qu’elle est, sans transférer les mouvements de son corps et de son visage dans un personnage fictif. C’est alors l’artiste qui, à l’aide de son ordinateur, va venir « piloter » l’acteur numérique, pour lui faire faire les mouvements qu’il veut ; l’acteur est complètement remplacé.

Ça tourne !

Il s’agit de la partie que tout le monde connaît : les acteurs sur le plateau,  et le réalisateur les dirigeant, derrière la caméra. L’intervention du numérique se fait ici dans la partie matériel. L’arrivée des caméras numériques, qui enregistrent toutes les données directement en format dématérialisé, ont grandement facilité le travail du réalisateur car il a désormais un accès direct aux images capturées. De plus, les logiciels de traitement d’image en temps réel permettent d’avoir un aperçu quasiment instantané de ce que donnera la scène après l’application des effets spéciaux, et autres trucages numériques. Encore une fois, ces améliorations qui sont aux services du réalisateur lui permettent d’économiser du temps ainsi que le coûts des nombreuses pellicules.

lpateau tournage
Plateau de tournage de Star Wars Episode III : La revanche des Sith

Voici une vidéo extraite du blog de Peter Jackson, le réalisateur de la trilogie du Seigneur des Anneaux, et qui travaille actuellement sur l’adaptation du livre The Hobbit de Tolkien. Sur ces images, Peter Jackson explique  le processus de tournage en 3D et les différents changements qu’il y a par rapport au matériel conventionnel.

Comment fabrique-t-on un film ?

Le cinéma évolue en profitant de la technologie numérique pour s’améliorer, et ce processus d’évolution du cinéma ne se restreint pas seulement à la caméra 3D et aux effets spéciaux.  En effet, le numérique a bouleversé non seulement l’aspect technique, mais touche à la façon même dont sont fabriqués les films. Ici nous allons suivre le plus fidèlement possible les différentes étapes nécessaires à la sortie d’un film, tout en ciblant les endroits où les technologies numériques interviennent.

Le financement

La pré production

La production

La post production

La projection