Le cinéma, plus qu’une salle de projection

Le 16 Octobre 2013,  à côté de l’aéroport Charles-de-Gaulle à Roissy, Luc Besson a inauguré son premier multiplexe qu’il a qualifié de révolutionnaire. Il se compose de douze salles, parmi lesquelles se trouvent les installations les plus innovantes de France. En plus d’améliorer la qualité de la projection, ce complexe a pour ambition de changer la vision que le spectateur a du cinéma en tant que lieu. Depuis leur création, les cinémas n’ont jamais changé leur mode de fonctionnement : on entre dans le lieu, on achète sa place, on achète quelques friandises pour les plus gourmands et on s’assied sur son siège, afin de profiter pleinement du grand écran qui se dresse devant nous.

Alors que le piratage de films ne cesse d’augmenter et, par la même occasion, de fragiliser le cinéma, il faut encourager les spectateurs à se rendre dans les salles. Il faut leur proposer quelque chose d’exclusif, quelque chose qui les pousserait à laisser leur home cinéma éteint et à se déplacer pour profiter d’un film.

Comme notre sondage le révèle, vous êtes 75% à aller au cinéma pour profiter d’un bon moment entre amis. C’est pour cela que des propositions sont à l’étude pour améliorer l’esprit de convivialité dans le lieu public qu’est le cinéma.

Ainsi, pour en revenir au nouveau multiplexe de Luc Besson, le confort des salles qui le composent a été amélioré. Par exemple, les sièges sont plus confortables, plus larges, et on ne se déplace plus pour aller acheter boissons ou biscuits : une tablette tactile et individuelle nous attend à notre siège pour nous permettre de commander et de nous faire livrer ce dont on a besoin, sans ne rien rater de ce qui se dit dans nos conversations d’avant film.

Pour renforcer la convivialité, certains cinémas envisagent de fusionner trois lieux en un seul : restaurant, cinéma et bar seraient réunis dans un seul et même complexe. On ne donnerait plus rendez-vous à ses amis 20 minutes avant le début de la séance, mais on viendrait plus tôt afin de manger ensemble, d’assister à la projection, et enfin de donner son avis sur le film autour d’une bière. Aux États-Unis, il est même question de pouvoir manger devant le film, un peu à la manière des plateaux repas que chacun peut se faire chez-soi devant sa télévision. Ainsi, chaque spectateur passerait sa commande et celle-ci lui serait apportée par un serveur, et ce sans gêner la vue. Les menus proposés pourraient même être adaptés au film diffusé : il serait possible de commander un civet de lapin façon « Hobbit » devant Le Seigneur des Anneaux, ou bien le fameux « five dollar milkshake » de Pulp Fiction.

salle-de-cinéma
Une des 12 salles du cinéma Aéroville-Europacorp de Luc Besson

ATMOS et la 4D, c’est pour bientôt donc ?

Alors que les prochaines salles devraient être équipées du système ATMOS, rien n’est encore sur concernant le cinéma sensoriel. Cette perspective intéresse particulièrement les spectateurs (voir notre sondage) mais même si certains salles équipées ont vu le jour en Corée du Sud, rien n’est sur concernant son arrivée dans les salles Européennes. En effet, le prix d’une place dans une telle salle semble être un obstacle de poids à son expansion.

Quand le cinéma et le jeu vidéo se rencontrent

En 1992 sortait un court métrage d’une vingtaine de minutes : I’m Your Man. Réalisé par Bob Dejan, ce film méconnu du grand public a pour caractéristique d’être le premier film interactif. En effet, il est donné au spectateur la possibilité de choisir quelle tournure vont prendre certains évènements du film.

272331
Affiche du jeu Heavy Rain

Ce mécanisme n’est pas sans rappeler un autre produit culturel pionnier dans son genre : Heavy Rain. Ce jeu-vidéo sorti en 2010 a apporté quelque chose de nouveau au jeu vidéo puisque ce dernier était lui aussi qualifié de film interactif.

Pour la première fois, le cinéma s’immisçait dans le jeu vidéo.  En effet, le joueur incarne quatre personnages différents et, à défaut de pouvoir maitriser leurs moindres mouvements comme dans les jeux plus classiques, le joueur doit « simplement » faire des choix tout au long de l’aventure qui ont tous une incidence sur la suite du jeu. Par rapport aux jeux traditionnels, l’expérience est totalement différente. Le jeu a recueilli un franc succès et un nouveau titre du même genre a fait son apparition en 2013 : Beyond : Two Souls.

Contrairement à ces jeux-vidéos, le vrai cinéma interactif ne semble pas promis à un grand avenir. Les contraintes techniques et financières semblent trop importantes pour qu’un réalisateur demande à ses acteurs de jouer une même scène de manières différentes, simplement pour offrir différents choix possibles au spectateur.

Cependant, alors que le cinéma a déjà été intégré au jeu-vidéo, il ne serait pas étonnant de voir le jeu-vidéo s’introduire dans le monde du cinéma. En effet, grâce aux progrès réalisés concernant les moteurs graphiques des jeux-vidéos, on peut tout à fait imaginer que, dans les années à venir, ils pourraient être utilisés pour réaliser de véritables scènes de cinéma.

De nouvelles caméras

En Juillet 2014 sortira le quatrième volet de la saga Transformers, réalisé par Michael Bay. A cette occasion, nous pourrons voir les premiers résultats offerts par une toute nouvelle technologie de capture d’image : la caméra IMAX 3D 4K.

  • IMAX, Kesako ?

On a tous déjà vu ou déjà entendu parler de films IMAX, mais au final, on ne sait pas vraiment de quoi il s’agit. IMAX est en réalité la contraction d’Image et Maximum et la société Canadienne qui en porte le nom est à l’origine de la création du dernier format de pellicule utilisé.format pellicule

Connue pour sa qualité d’image nettement supérieure aux films avec pellicules classiques, la diffusion de films certifiés IMAX requiert un aménagement particulier de la salle : l’écran est plus grand (200m² à 350m² de surface) et s’étend de mur à mur et de sol à plafond. Il est aussi positionné plus proche de la première rangée de spectateurs. Voilà les conditions qu’impose la firme Canadienne pour pouvoir diffuser un film estampillé IMAX.

IMAX intervient tout le long du processus de fabrication d’un film : réalisation avec leurs caméras, traitement de l’image et sélection des salles respectant leurs critères pour la distribution.

  • Et l’IMAX 3D 4K, concrètement, c’est quoi ?

Après les premières caméras IMAX utilisant leur format de pellicule, les caméras numériques IMAX sont apparues. Exit les grosses bobines, ces caméras se trouvaient amincies de quelques 113kg, facilitant ainsi le tournage dans des conditions extrêmes. La possibilité de filmer en 3D est ensuite venue se greffer sur ces outils. Enfin, le 4K définit simplement la résolution de capture d’image.

tableau caméras

Cette technologie devrait ainsi se démocratiser dans les mois à venir. C’est en tout cas ce que prédit Michael Bay puisque d’après ses dires, le futur du cinéma est incarné par ce type de technologie. Reste à savoir comment sera accueillie sa dernière réalisation, véritable porte-drapeau de cette techno. Pour cela, rendez-vous dans les salles pour Transformer 4 : Age of Extinction en Juillet !


Le cinéma de demain

Dans cette section, notre but est tout simplement de vous donner un avant-goût de ce que vous pourriez retrouver dans le cinéma de votre ville dans un futur proche. Nous ne sommes certainement pas en mesure de vous révéler en exclusivité le portrait du cinéma de demain. En revanche, en se basant sur certaines innovations apparues ces derniers mois ou sur le point d’être mises en place, nous voulons vous donner quelques éléments sur comment seront réalisés les prochains films à l’affiche, sur les moyens de diffusion qui pourraient être utilisés et sur l’environnement dans lequel ils seront diffusés.

De nouvelles caméras

Cinéma et jeu vidéo

3D, et après ?

Le cinéma, plus qu’une salle de projection

L’histoire du cinéma numérique

Pour afficher la timeline en plein écran, cliquez ici

Traitement sonore

Même si le son n’est apparu qu’après l’image, le concept d’associer son et image remonte 6 ans avant la première projection publique d’un film (1895). Lorsque, le 27 février 1888, Thomas Edison  rencontre le photographe Eadweard Muybridge, les deux hommes évoquent alors l’idée de la synchronisation du son et de l’image. Au cours de l’histoire du cinéma sonore, les cinéastes ont accordé de plus en plus d’importance à la bande son, dont la richesse est aujourd’hui un facteur essentiel de qualité esthétique et de succès public.

La gestion du son dans un film se déroule évidemment en deux parties : l’enregistrement et la diffusion. Vous trouverez dans ce tableau les différents moyens d’enregistrement sonore :

tableau son

Au cinéma, la diffusion du son permet d’immerger le spectateur dans l’univers du film. Celle-ci doit être parfaite, et, pour cela, tous les sons du film ne doivent pas venir du même endroit. C’est pour cela que la musique, les bruit des explosions, les voix des acteurs, ne sont pas tous émis du même endroit de la salle.

  • Dolby a pensé à tout !

En 1976, Ray Dolby crée le premier format de diffusion sonore : le célèbre Dolby Surround 5.1 ! Ce format de diffusion sonore est adapté à une salle de cinéma constitué de 5 enceintes satellites et d’un caisson de basse. Les 5 enceintes sont disposées en carré autour de la salle, et le haut-parleur subwoofer, placé au milieu, a pour rôle d’émettre tous les sons de basse fréquence.

Plus récemment, avec la sortie de Toy Story 3 en 2010, Dolby a mis à jour son système de diffusion sonore avec le Dolby Surround Sound 7.1. Ce format est basé sur le même principe que le précédent, mais inclus deux enceintes supplémentaires.

Dolby Surround Sound 5.1 et 7.1
Dolby Surround Sound 5.1 et 7.1

La vidéo suivante est une des bandes annonces de Dolby pour le 7.1, attention à vos oreilles !

Traitement de l’image

Vous vous êtes toujours demandé comment faire apparaître des aliens dans un film ou exploser la maison banche? La réponse à ces questions tient en un mot : le traitement de l’image. Le traitement d’image a pour but de transformer image filmée pour améliorer sa qualité. La synthèse d’image 3D s’effectue en deux grandes étapes : la modélisation de l’image, et le rendu, au cours duquel on va visualiser l’image précédemment modélisée. Pour cela, on utilise des logiciels de traitement d’image 3D. Ce sont ces logiciels qui permettent de rajouter des effets spéciaux sur les images déjà tournées.

Les effets spéciaux
Les effets spéciaux

 

  • Premiers pas vers les effets spéciaux : la modélisation de l’image

Avant de pouvoir faire apparaître King-Kong à l’écran, il faut d’abord réussir à modéliser un objet en trois dimensions. Pour cela, les techniques se basent toutes sur la même notion : celle de l’espace vectoriel. On définit une base vectorielle pour l’espace, cette base étant constituée de 3 vecteurs, tous trois unitaires, orthogonaux entre eux. Ils seront pointés vers les trois directions de l’espace : le vecteur x pointe vers la droite, le vecteur y pointe vers l’avant,  le vecteur z pointe vers le haut. Chaque point de l’image pourra alors être représenté selon un triplet de coordonnées qui définira sa position dans l’espace. Les volumes (polyèdres) pourront eux, être représentés par les coordonnées des points constituant leurs sommets. Après avoir défini les positions d’un objet dans l’espace, il ne reste plus qu’à le modéliser. On distingue alors deux types de modélisation : la modélisation polygonale, et la modélisation par courbes.

  • La modélisation polygonale

Elle consiste à définir chaque objet de l’image comme étant un polygone : l’objet est décrit par une liste de sommets et d’arêtes. Cependant, à ce stade de la modélisation, chaque objet présente un aspect anguleux. Ce fâcheux effet sera corrigé par un effet de lissage réalisé par le processeur 3D de l’ordinateur.

  • Modélisation par courbe

La seconde technique de modélisation d’image 3D, est la modélisation par courbe. Elle consiste à définir un réseau de courbes, créé à partir de certains points (dits de contrôle). Par le biais d’un algorithme, le logiciel  3D va mettre en relation les courbes et les points entre eux. Cette méthode présente l’avantage d’être nettement plus précise, mais elle est également plus compliquée.

Modélisation polygonale et lissage
Modélisation polygonale et lissage
  • Effets spéciaux : le rendu

Modéliser un objet en 3D dimensions ne suffit pas, il faut être capable de l’afficher à l’écran sans qu’on puisse remarquer que l’objet est un faux! C’est là que le rendu intervient. En effet, même si l’objet est, à ce point, modélisé, il faut encore adapter son aspect pour qu’il s’intègre parfaitement à la scène qu’on souhaite réaliser. Un paramètre essentiel est alors l’éclairage de l’objet. Il doit parfaitement se fondre dans l’image en fonction des différentes sources lumineuses. Cette étape est appelée illumination. Pour se faire, deux algorithmes sont majoritairement utilisés : les ombrages de Phong et Gouraud.

  • Dernière étape : intégrer les effets à l’image

Nous savons maintenant comment créer des images, ou plutôt certaines parties d’une image, que nous pourrons utiliser pour produire un effet spécial. Encore faut-il que nous soyons capable de les intégrer dans l’image filmée initialement. Cette étape est appelée le dessin. Ici encore, il existe un algorithme qui est couramment utilisé : l’algorithme du peintre. C’est une technique qui dessine les objets en partant du fond de l’image puis les sujets de plus en plus rapprochés.

Heureusement, toutes ces étapes peuvent être réalisées aujourd’hui à l’aide d’un seul et même logiciel : le moteur de rendu 3D. Ce logiciel utilise la carte graphique 3D de l’ordinateur afin de combiner les trois phases du rendu (illumination, rendu, dessin). Pour calculer les images, il a recours au processeur et à la mémoire vive de l’ordinateur. Il en existe de nombreux, parmi les plus célèbres on peut citer : MAYA, Artlantis Lightscape, V-RAY ou encore Nova.

Motion capture

La capture d’image au cinéma a été totalement révolutionnée avec l’arrivée de l’image 3D. Dès lors, les réalisateurs ne se sont plus contentés de simplement filmer les acteurs, ils ont souhaité enregistrer leur gestuelle, leur façon de bouger, afin de pouvoir les contrôler. La motion capture est un procédé utilisé pour enregistrer les positions et les mouvements des objets ou des êtres vivants afin de pouvoir les contrôler virtuellement à l’aide d’un ordinateur. On peut ainsi créer des doublures numériques d’acteurs, multiplier virtuellement le nombre de figurants ou encore faire un film qui se déroule dans l’espace sans quitter Los Angeles. Trois grandes méthodes sont aujourd’hui utilisées pour faire ce qu’on appelle la motion capture: la capture optique, la capture magnétique et la capture mécanique. Chacune d’entre elles est basée sur différentes technologies.

  • Caméra avec marqueurs passifs

Motion_Capture_with_Chad_Phantom

Pour cette technique, les acteurs sont vêtus d’une combinaison noire en latex, sur laquelle on dispose, à des points stratégiques (souvent les articulations) des marqueurs. Ce sont de petites boules constituées d’une matière blanche, réfléchissante. Les images filmées sont donc en noir et blanc, sur 2 bits (1 pour chaque couleur). Les caméras envoient un rayonnement infrarouge qui est alors réfléchi par la surface des marqueurs, vers ces mêmes caméras.

Une fois la capture d’image terminée, les images filmées sont envoyées vers un logiciel de traitement d’image. Ce logiciel  associé à un moteur de rendu 3D permet  d’extraire le mouvement des acteurs depuis les images filmées. De nombreuses entreprises sont spécialisées dans ce type de capture optique, les plus importantes étant Vicon, MotionAnalysis ou encore NaturalPoint.

  • La caméra Kinect : une révolution

La caméra Kinect est une caméra permettant de filmer en 3D. Par le biais d’une caméra, une trame de lumière infrarouge est projetée sur les objets, qui, en la réfléchissant, permettent de définir l’image 3D. Cette technologie avait à l’origine été conçue pour la Xbox en septembre 2008,  et elle a  très vite été détournée de son utilisation première.

Dynamixyz, start-up rennaise qui s’est spécialisée dans la capture 3D des images faciales, associe ces deux techniques pour reproduire avec une exactitude étonnante les expressions du visage. Pour cela, elle a développé « Performer », un casque, qui possède une caméra de technologie type Kinect. A l’aide de 3 capteurs placés sur le torse, il permet de détecter les mouvements du visage. Pour le bon traitement de l’image filmée par cette caméra embarquée.

Dynamixyz a également développé un software, un plug-in s’installant sur MAYA, logiciel de traitement d’image 3D, et qui permet de venir sélectionner une centaine de points sur le visage du comédien. Ces points se situent essentiellement au niveau du contour des yeux et des sourcils, autour de la bouche et du nez. L’avantage de ce produit par rapport aux autres caméras de ce type est le rendu en temps réel : à l’aide du software vendu avec le casque, on peut voir en temps réel ce que donneront les expressions des comédiens sur le personnage numérique qu’il interprète. Les technologies de Dynamixyz ont notamment été utilisées lors de la réalisation d’Avatar. En effet, les principaux clients de cette entreprise, et de façon générale les principaux clients des entreprises spécialisées dans les technologies numériques au cinéma, sont nord-américains.

  •  Une avancée technologique sans précédent?

ADN (Agence de Doublure Numérique), entreprise française, est actuellement en train de révolutionner le cinéma numérique tel qu’on le connaît aujourd’hui. En effet, leur technologie dépasse la simple motion capture, elle permet de créer intégralement un double numérique que l’on peut ensuite utiliser à sa convenance. Cette doublure peut remplacer complètement l’acteur numérisé lors d’un film ce qui peut soulever des problèmes d’éthique. En effet, la doublure numérique créée est un produit de ADN,  elle lui appartient, elle peut donc la commercialiser. Pourtant le droit à l’image de chacun pourrait amener un acteur à refuser qu’on commercialise sa doublure pour plusieurs films différents. De plus, on pourrait imaginer un futur proche dans lequel les doublures numériques créées remplaceraient complétement les acteurs.

ADN commercialise un système de scan 3D permettant de numériser entièrement la morphologie de l’acteur. Le réalisateur peut alors utiliser ces images numériques que ce soit sous forme d’un avatar numérique ou de personnage réel, c’est-à-dire qu’on retranscrit l’image 3D de l’acteur telle qu’elle est, sans transférer les mouvements de son corps et de son visage dans un personnage fictif. C’est alors l’artiste qui, à l’aide de son ordinateur, va venir « piloter » l’acteur numérique, pour lui faire faire les mouvements qu’il veut ; l’acteur est complètement remplacé.