TERMINOLOGIE CINEMATOGRAPHIQUE DE BASE
TERMINOLOGIE CINEMATOGRAPHIQUE DE BASE
(Franco-américaine)
Taille de plan/ Distance of shot (frame size)
Gros plan/close up (extreme)
Plan moyen (Américain, Italien)medium shot (American or Italian)
Plan-sequence/Long Shot (Long Take-full shot)
Plan d'ensemble /Establishing Shot (Master Shot)
Camera angles
Plongée/high angle shot (looking down)
Contre-plongée/Low angle shot (looking up)
straight angle shot (eye-level)
Caméra subjective / point of view shot
Plan en suivi / Follow shot
Plan d'Insert / Insert shot
Champ-contre-champ / Shot-reverse-shot
Reaction shot
Surcadrage (“montage dans le plan”)/“Two shot” (double focus in same frame)
Mouvements de caméra/Camera movements :
Panoramique (horizontal, vertical, “vissé”, dévissé”, circulaire)/Pan (horizontal, vertical, circular)
Travelling (avant, arrière, rotatif)/ tracking shot or Dolly shot (in, out, with, beside, circular, “zolly”)
Zoom (avant, arrière)/Zooming (in, out)
Caméra portée/Follow shot
Profondeur de champ/Depth of field and focus :
- Zone floue, claire/ field with different sharpness,blur,clear zone
- Dépends de la lumière, ouverture de l'iris, distance focale/it depends on : light,Iris aperture,focal distance
Premier plan, second plan, arrière-plan/ Background, Mid-ground, foreground
Techniques d'éclairage/Lighting technique (in 4 and 3 points lighting systems)
Lumière d'ambiance/ background lighting (set)
Lumière principale/ High key lighting (Main source)
Lumière compensatoire/fill light (reduce the contrast with hig key light – Main light)
La découpe / back light (Third point light)
Poursuite/cameo light. (focus on a face)
Clair-obscur/Low key lighting (Chiaroscuro)
Reflecteur / Reflection
Le Son/Sound :
Son diégétique (source visible à l'écran ou impliquée/Diegetic sound (sources visible on screen or implied by action)
Son extra-diégétique (hors diégèse, voix off et musique d'orchestre)/Non-diegetic sound (Voice of narrator, sound effects, additional music)
Les règles du montage(les raccords)/Editing rules (the cuts):
Raccord dans le mouvement/cut in movement
Raccord dans l'axe/axial cut
L'insert/insert cut
Montage parallèle/cross cuting
jump cut
action/reaction cutting system
Feuille de préparation tournage (fra-ang)
Plan/ Shot n° |
Durée/ duration |
Prise de vue (angle, taille cadre, mouvement)/Cinematography (angle/frame size/movement) |
Effet de lumière/Lighting effect |
Son/ Sound effect |
Description/Descriptions |
Dialogues/Dialogues |
Notes (calendrier de tournage)/Notes (shooting schedule) |
Cours d’initiation aux techniques audiovisuelles
Cours d’initiation aux techniques audiovisuelles
1. Le dispositif de production
1.1. L’équipe de fabrication
1.1.1. L’auteur
1.1.2. Le réalisateur
1.1.3. Le directeur de la photographie
1.1.4. Opérateur image
1.1.5. Opérateur son
1.1.6. Script
1.1.7. Monteur
1.1.8. Mixeur
1.2. Les techniques de tournage
1.2.1. La perception visuelle
1.2.1.1. La lumière
1.2.1.2. La température de couleur
1.2.1.3. L’oeil et la vision
1.2.2. La prise de vue
1.2.2.1. L’objectif : La focale, Le Diaphragme, La Profondeur de champ, L’obturateur
1.2.2.2. L’enregistreur : Le capteur C.C.D, La température de couleur et La balance des blancs
1.2.2.3. Les accessoires de la prise de vue : Le pied , Le moniteur, Les autres accessoires
1.2.3. La prise de son
1.2.3.1. La perception du son.
1.2.3.1.1. Qu’est-ce qu’une oreille : La physiologie de l’oreille et la perception spatiale.
1.2.3.1.2. Le champ auditif
1.2.3.1.3. L’écoute et l’audition
1.2.3.2. Les outils de la prise de son
1.2.3.2.1. Les micros
1.2.3.2.1.1. Le principe mécanique
1.2.3.2.1.2. Le principe électrique : Electrodynamique et Électrostatique
1.2.3.2.1.3. La directivité : Bi directionnelle, Omni directionnelle et Uni directionnel
1.2.3.2.1.4. Son frontal et latéral
1.2.3.2.2. La mixette : Le Vumètre, l’étalonnage des niveaux et le contrôle de l’écoute
1.2.3.2.3. L’enregistrement sonore avec la caméra
1.2.3.2.4. Les accessoires : la perche, la suspension et la bonnette
1.2.3.2.5. La mise en place d’un dispositif de captation sonore
1.2.4. L’éclairage
..
1.2.4.1. Les fonctions de l’éclairage
1.2.4.1.1. Lumière artificielle et naturelle
1.2.4.1.2. Eclairage direct et indirect
1.2.4.2. Les Principes de l’éclairage
1.2.4.3. Les outils de l’éclairage
1.2.4.3.1. Les projecteurs
1.2.4.3.2. Les accessoires
1.3. Le dispositif de post-production
1.3.1. Organisation du montage
1.3.1.1. Le dérushage
1.3.1.2. Le pré-montage
1.3.1.3. L’ours
1.3.1.4. La maquette
1.3.1.5. Le montage
1.3.1.5.1. Montage OFF LINE
1.3.1.5.2. Montage ONE LINE
1.3.1.6. La conformation
1.3.1.7. Le mixage
1.3.2. Les outils du montage
1.3.2.1. Le système de montage analogique : Un procédé LINEAIRE
1.3.2.2. Le système de montage virtuel : Un procédé NON LINEAIRE
1.3.2.2.1. Les principes du support non linéaire
1.3.2.2.2. Les avantages du système non linéaire
1.3.2.3. Configuration d’une station de montage
1.3.2.3.1. l’ordinateur
1.3.2.3.2. La partie HARDWARE
1.3.2.3.3. La partie SOFTWARE
1.3.2.3.4. Les périphériques
1 Le dispositif filmique
Le dispositif de fabrication audiovisuel est constitué d’une équipe technique, des outils de
fabrication et des techniques employées pour leurs utilisations.
1.1 L’équipe
1.1.1 L’auteur -scénariste
C'est celui qui est à l'origine de l'idée et de la conception du film, il écrit le scénario du film.
1.1.2 Le réalisateur
C'est celui qui écrit le découpage technique, c'est aussi souvent le metteur en scène du film. Il
dirige les membres de l'équipe technique (tournage et montage).
Il est secondé par le 1er assistant de réalisation qui est chargé de coordonner le tournage et
d'assurer son suivi (plan de travail, feuille de service, préparation de la mise en scène,
dépouillement...). Il est supervisé par le producteur qui s'assure d'un suivi rigoureux du plan de
tournage prévu à partir du découpage technique.
1.1.3 Le directeur de la photographie
Il a la responsabilité de la qualité technique et artistique de la photographie du film, en suivant les
directives du réalisateur conformément au découpage technique. Il règle l'éclairage en fonction de
l'ambiance que souhaite créer le réalisateur.
1.1.4 Opérateur image (chef opérateur)
Il travaille avec le directeur de la photo, il a la responsabilité du cadrage de l'image, il doit donc
choisir l'objectif (ou la focale) en fonction du plan. Il doit s'occuper de la composition des images, il
assure les mouvements d'appareils et il est le responsable de la netteté de l’image.
Il est soutenu par l'assistant opérateur pour la mise en place du dispositif et des réglages
(installer le pied, charger et changer la batterie, faire les rattrapages de diaphragme ou de mise au
point …). Il donne les indications d'erreurs techniques à la script.
1.1.5 Opérateur son (Ingénieur du son)
L’ingénieur du son est responsable, en collaboration avec le réalisateur, de la conception sonore
du film. Il exerce sa fonction technique et artistique sur les films. Il est le responsable des
enregistrements sonores. Il est donc chargé d'enregistrer le son (il contrôle le rendu du son et les
niveaux d'enregistrement) et de placer les micros, de choisir leur directivité en fonction de la source
sonore et de l'effet cherché par le réalisateur. L’assistant son assure le placement des micros et la
tenue de la perche.
1.1.6 Scripte
L’auxiliaire principal du réalisateur, il veille à la continuité du film et établit un rapport plan par plan
afin de vérifier les éléments de raccord de chaque séquence. Il note les bonnes prises et les erreurs
1.1.7 Monteur
Il assure l'assemblage des images et des sons en étroite collaboration avec le réalisateur. Il opère
suivant 4 étapes principales: le dérushage, l'ours, le pré montage et le montage. Les opérations
annexes ( copies des rushes, synchronisations audio-vidéo, numérisation) sont réalisées par
l'assistant monteur.
1.1.8 Mixeur
Il assure la qualité et la cohérence du rendu sonore, il ajuste les niveaux sonores. Il est le
responsable du mélange des enregistrements effectués par l'ingénieur du son.
1.2 Les techniques de tournage
1.2.1 La perception visuelle (optionnel)
L’action de percevoir n’est pas seulement de combiner et de pondérer des informations; c’est aussi
une action de sélection. Percevoir, c’est choisir, dans la masse des informations disponibles, celles
qui sont pertinentes par rapport à l’action envisagée.
La transmission et l'enregistrement des images et des sons ne sont possibles que par la
conversion électrique d'impressions visuelles et auditives :
L'image: à partir de la transformation d'impressions lumineuses (perception visuelle d'un
objet) en variations électriques (le signal vidéo).
Le son: à partir de la transformation d'impressions auditives (variations de pression
atmosphérique, en variations électriques (signal audio).
1.2.1.1 La lumière
Le monde scientifique a été longtemps divisé sur la nature de la lumière. Deux théories se sont
"affrontées", la théorie corpusculaire et la théorie des ondes. En fait, on peut dire aujourd'hui, en
simplifiant, qu'elle est à la fois onde et corpuscule :
La lumière est un phénomène ondulatoire : La lumière est un rayonnement d'énergie
électromagnétique provenant d'une source lumineuse naturelle (soleil, étoiles, ...) ou artificielle
(ampoule électrique, c'est-à-dire: tout corps incandescent). Ce rayonnement est la partie visible du
spectre d'ondes électromagnétiques qui nous environnent. Toutes les ondes sont de même nature,
mais elles se distinguent par leur fréquence et par leur longueur.
La fréquence, c'est-à-dire le nombre d'oscillations accomplies par une onde pendant une seconde,
elle s'exprime en Hertz (symbole Hz.).
La longueur d'onde se mesure par le système métrique conventionnel. Elle se mesure en
microns, les longueurs d'ondes dans le spectre visible : dans le rouge de 765 à 620 rira (avant 765:
infra rouge), au violet: de 435 à 380 nm (au delà ultra violet).
La lumière comme phénomène corpusculaire : La lumière est donc matérialisée par la présence
des corpuscules appelés: photons (un des éléments atomiques de toutes matières). Ces particules
"véhiculées" grâce au mouvement ondulatoire de la lumière (toujours pour simplifier) sont porteurs
d'énergie et agissent sur de nombreuses substances : photosynthèse des plantes par exemple, mais
aussi sur des sels d'argent (action photochimique, principe de la photographie), ou des métaux
alcalins (action photoélectrique, principe de l'image vidéo).
La propagation de la lumière : Ainsi, si un objet émet de la lumière, un objet éclairé reçoit cette
lumière qui est réfléchie en quantité variable, cette variation dépend de la nature (physio-chimique) de
cet objet. En effet, certains corps transmettent intégralement la lumière (verre blanc) alors que
d'autres la transmettent de manière diffuse (corps translucide, les nuages par exemple). Le corps
opaque ne laisse pas passer la lumière. Il peut en absorber la totalité, ou une partie, et dans ce cas il
réfléchit la partie non absorbée. C'est donc la lumière réfléchie qui nous permet de voir, de
photographier ou de filmer ce corps et ceux qui l'environnent.
PRATIQUE: Un personnage devant un fond de décor clair, éclairé d'une manière uniforme avec le fond, et, selon le cadre choisi, peut être sous exposé, parce que la lumière réfléchie par le fond est importante et peut créer un phénomène de contre-jour. A l'inverse placé devant un fond trop foncé, il peut être sur exposé, parce que la lumière absorbée par le fond va faire apparaître le personnage sur éclairé (bien sûr la technique ad hoc, consistera, soit à éviter d'éclairer le fond, soit à
travailler avec le diaphragme de l'objectif).
La mesure de la lumière : La photométrie traite de la mesure des intensités lumineuses
(l’éclairement). L'éclairement, est le flux de lumière reçu par unité de surface d'un élément éclairé.
II s'exprime en lux. Le lux est donc l'unité de mesure d'une intensité de l'illumination d'un lieu. C'est
une des mesures les plus utiles en photométrie. Une journée ensoleillée de 50 000 à 100 000 lux; un
ciel couvert environ 32 000 lux; un comptoir d'un grand magasin 500 à 700 lux, un appartement avec
lampes domestiques 100 à 300 lux, une rue de nuit bien éclairée 20 à 100 lux, pleine lune 0,1 à 1 lux.
La couleur de la lumière : Le rayonnement lumineux est composé d'un ensemble d'ondes
électromagnétiques qui génèrent dans des conditions "normales" (ambiance lumière du jour
ensoleillé) l'impression de lumière dite "blanche" : Les composantes de cette lumière ont été mises en
évidence par la fameuse expérience de Newton, avec "son" prisme de verre. En déviant inégalement
les lumières colorées, le prisme révèle ainsi la composition de la lumière "blanche" qui le frappe qui
est en fait formée d'une infinité de couleurs allant du violet au rouge. Physiquement, la décomposition
est produite en raison des différentes longueurs d'ondes de chacune des couleurs.
Cette expérience met en évidence que chaque couleur peut être définie par sa longueur d'onde et
donc aussi, par sa fréquence. Ainsi le spectre des ondes électromagnétiques visibles s'étend de 380nm (rappel: nano-mètre) pour le violet (fréquences autour de 7,9. 10 p14Hz) à 765 nm pour le
rouge.(fréquences autour de 3,85.10p14Hz). Avant le rouge nous nous trouvons dans l'infrarouge et
en deçà du violet nous nous engageons dans l'ultraviolet. Dans les deux cas nous pénétrons dans
l'invisible.
La sensation de couleur est le résultat d'une perception par l'oeil d'une ou de plusieurs radiations
simples du spectre visible. Si un objet nous apparaît d'une certaine couleur, c'est que sa substance
physio-chimique absorbe toutes les radiations lumineuses à l'exception d'une seule qui, définie par sa
longueur d'onde, vient "frapper" notre rétine. Par exemple, un objet est rouge s'il absorbe toutes les
composantes autres que, celles correspondant au rouge. Il réfléchit la couleur rouge. Ainsi on dira
d'un corps qu'il est blanc, s'il réfléchit toutes les radiations visibles, sans aucune absorption; noir si au
contraire il absorbe toutes les radiations; gris s'il réfléchit partiellement et de façon identique toutes les
radiations.
La température de couleur de la lumière : La lumière est composée de différentes tonalités de
couleur, ces tonalités vont du bleu appelé LUMIERE FROIDE, jusqu'à l’ORANGE appelé LUMIERE
CHAUDE. On mesure ces températures de couleur en degré Kelvin, une lumière chaude a une
température de couleur basse (3200°K), alors qu'une lumière froide a une température de couleur
froide (5600°k) : La lumière froide Naturelle (bleuté) c'est-à-dire la lumière du jour qui correspond à
5600K°. La lumière froide Artificielle : Lumière H.M.I (halogénure métallique) correspond aussi à
5600K°. La lumière chaude naturelle (orangé) par exemple un lever de soleil correspond à 2000 K° et
enfin la lumière Artificielle tel que les éclairages au Tungsten correspondent à 3200 K°.
1.2.1.2 L’oeil et la vision
Les étapes de la vision: Ce que nous voyons est le résultat d'un processus complexe qui se
décline en trois opérations successives: optiques, chimiques et nerveuses.
L’oeil pour former une image sur la rétine fait travailler la cornée, le cristallin et l'iris. D’abord un flux
lumineux frappe notre oeil, il pénètre dans la cornée qui assure en majorité la convergence des
rayons lumineux. Puis il traverse successivement l'iris (la pupille commandé de façon réflexe, s'ouvre
pour laisser passer plus de lumière si celle ci est peu intense et se ferme ans le cas contraire).
Il passe ensuite par le cristallin qui est une lentille (bi convexe), à convergence variable: c'est ce
que l'on appelle l'accommodation. C'est ce processus réflexe qui permet de rendre plus ou moins
bombé le cristallin et ainsi assurer une netteté de vision. Cette "mise au point" est assez lente et
demande en moyenne une seconde. Et il atteint la rétine qui constitue le traducteur image/influx
nerveux. En effet le fond de l'oeil est tapissé par la rétine, membrane truffée de récepteurs de lumière:
les cônes et les bâtonnets. Ces éléments contiennent une substance, la rhodopsine, qui en absorbant
la lumière, par réaction chimique, se décompose en d'autres substances, véritables informations
chimiques n'ayant rien à voir avec une quelconque image. Chaque récepteur de la rétine est en
liaison synaptique avec le nerf optique, par une arborescence de fibres et de synapses. Ce niveau a
des liaisons horizontales et verticales d'une grande complexité, et l'ensemble aboutit à une région du
cerveau. C'est le dernier stade du traitement de l'information, le premier niveau a été optique, puis
c’est le stade chimique et enfin c'est le stade neurologique.
Les éléments de la vision : (FIGURE 4) On peut considérer que la vision est un phénomène
qui se compose de deux éléments, la sensation colorée (teinte) et la sensibilité à la luminosité. Ces
sensations sont directement liés aux cellules photosensibles qui constituent la rétine : Les bâtonnets
et les cônes. Les cônes qui sont responsables de la sensation colorée. Ils sont le siège de la vision
colorée, mais sont peu sensibles à la lumière. Les bâtonnets n'interprètent que la lumière en terme
de luminosité. Ceux-ci ne perçoivent que le noir, le blanc et les nuances de gris, mais ils sont mille fois
plus sensibles que les cônes.
Le champ visuel : L’oeil dont nous venons de détailler le fonctionnement est limité par son
champ et son acuité. Le champ correspond à l’espace visible pour un regard immobile, c’est le champ
visuel, représenté par un cône, qui contient les objets visibles. L’acuité c’est l’aptitude de l’oeil à
distinguer deux points très voisins.
La persistance rétinienne : L’oeil réalise la reconstitution du mouvement à partir des images
fixes, en effet la sensation de l’information lumineuse issue du champ visuel est conservé un court
instant (un dixième de seconde) dans la rétine.
1.3 Les techniques de tournage.
1.3.1 La prise de vue et la caméra
Tous les instruments qui permettent la "capture"de l’image, reprennent le principe de l'oeil humain.
Dans un caméscope, comme dans tout appareil de prise de vue, l'enregistrement d'une image, fixe ou
animée, fait appel à des principes à peu près identiques. Le sujet ou la scène à enregistrer est placé
devant un objectif qui va focaliser l'image. Derrière cet objectif se trouve une chambre noire dont le
fond est occupé par la surface photosensible. Le capteur électronique ou L'oeil électronique est
chargé de transformer cette lumière en électricité :
La caméra est donc composée de deux parties distinctes l'objectif qui capture l’image et
l’enregistreur qui la fixe sur un support.
1.3.1.1 L’objectif
Définition : L'objectif est un système optique composé d'un assemblage de lentilles. Sa fonction
principale est de composer une image à partir de la lumière venant de la scène cadrée qui le traverse.
Il est l'organe de la caméra chargé de former une image sur la surface sensible, à partir des rayons
lumineux réfléchis par le sujet filmé.
Les étapes de la constitution de l’image : Les rayons lumineux réfléchis par le l’objet filmé
frappent la lentille qui concentre le rayon vers un séparateur optique. Le séparateur optique
décompose les couleurs de la lumière en Rouge, Vert, Bleu et les envoie sur un dispositif de surface
sensible le CCD : système à transfert de charge.
Les variations lumineuses sont alors traduites en signaux électriques qui sont analysés par les
circuits électroniques de la partie magnétoscope où ils sont enregistrés.
Le fonctionnement de l’objectif est contrôlé par une série de réglages sur l’objectif même : la focale,
le diaphragme et la mise au point. l’obturateur.
1.3.1.1.1 La focale
Elle permet de régler la taille et l’angle du champ. Attention, l'utilisation d'une focale est fonction de
l'effet recherché par le réalisateur, ainsi vous devrez justifier la focale choisie dans le découpage
technique. C’est la distance focale d'un objectif que l'on nommera focale. C'est la distance qui sépare
le centre optique de l'objectif du foyer image (surface sensible). Cette distance, exprimée en mm,
caractérise chaque objectif par l'angle de champ, c'est-à-dire la portion d'espace couverte par ce
dernier (en degré). Pour un format d'image donné, plus la focale est courte, plus le champ couvert est
large; plus la focale est longue, plus le champ couvert est étroit.
Il existe trois types d'objectifs qui peuvent être réunis dans un même objectif variable appelé
ZOOM OPTIQUE :
L'Objectif grand angle ou courte focale ( focale 28 en photo, 7 mm pour une caméra 1/2 pouce)
permet de composer un champ visuel important (on dit aussi le cadre ). Il permet de combiner un
espace très large avec une grande profondeur de champ. Il est utilisé pour diverses raisons, il est utile
lorsqu'il faut suivre un sujet en caméra portée et les mouvements dans le cadre sont accélérés.
L'Objectif normal ou focale moyenne ( focale de 45 mm en photo, 9mm en 1/2 pouce), permet de
composer un champ de vision qui se rapproche le plus de la vision humaine.
Le Téléobjectif ou longue focale ( + de 100 mm en photo, 102mm en 1/2 pouce, voir plus ); on dit
qu'il "écrase" la profondeur de champ en réduisant la perspective, c'est à dire que l'impression
visuelle est plate. Il permet de faire un point de vue rapproché d'un sujet lointain et les mouvements
dans le cadre semblent ralentis. Il est indispensable de l'utiliser avec un pied pour stabiliser la vision.
La bague de réglage de la distance FOCALE (n’existe pas sur un objectif fixe): C'est la bague de
réglage du zoom qui permet de choisir la focale de l'objectif.
Le zoom est un dispositif mécanique ou électronique de réglage des lentilles il ne remplace pas le
travelling, les perspectives ne changent pas comme lorsque la caméra se rapproche ou s'éloigne du
sujet. Les variations sont comprises entre 7 et 102mm sur la caméra que vous allez utiliser.
1.3.1.1.2 Le diaphragme
Définition: le diaphragme est un cache circulaire de diamètre réglable, dont le rôle est de doser la
quantité de lumière qui traverse l'objectif pour que l'image formée soit correctement exposée. En
ouvrant le diaphragme on augmente la quantité de lumière d'une scène sombre. En le fermant on
diminue la quantité de lumière d'une scène trop lumineuse.
Les valeurs qui caractérisent le degré d'ouverture sont conventionnelles, et sont (sur du matériel
professionnel) gravées sur une bague de l'objectif. Ces valeurs sont inversement proportionnelles au
diamètre de l'ouverture
La bague de réglage du DIAPHRAGME : C'est l’iris qui permet de régler la luminosité de votre
caméra, c'est donc la bague qui règle l'ouverture de la lumière. Les réglages vont de 2,8 jusqu’à 22.
Plus le sujet est éclairé plus il faut fermer le diaphragme. Plus le diaphragme est fermé plus la
profondeur de champ est importante.
Une valeur de diaphragme en dessous de 5,6 est caractérisée par un piqué d'image (grain), il faut
donc essayer de travailler autant que possible avec une valeur de diaph supérieure à 5,6.
Une bonne exposition de l'image est caractérisée par une luminosité contrastée, où le blanc n'est
pas saturé et où le noir est visible.
La profondeur de champ : C'est la zone de netteté plus ou moins grande de l'image entre le
premier plan et le dernier plan net du cadre. Lorsque l'on doit faire la mise au point sur une image, il
faut toujours commencer par amener la focale en téléobjectif, ouvrir le diaphragme, utiliser la bague
de mise au point pour faire le point dans le viseur et enfin ramener l'objectif à la focale initiale.
La profondeur de champ détermine quels seront les objets flous et les objets nets comme l'illustrent
les deux photos ci-dessous. Si la profondeur de champ est une science importante en photographie
argentique, on s'aperçoit que la vidéo (et la photographie numérique) gomme son usage. Donc la
profondeur de champ est la zone de netteté devant et derrière le sujet sur lequel est faite la mise au
point.
Elle dépend De l'ouverture du diaphragme (Plus le diaphragme est ouvert (2.8, 4), plus la
profondeur de champ est faible), De la focale de l'objectif (Plus la focale est longue (100, 200 mm),
plus la profondeur de champ est faible), et De la distance du sujet (Plus le sujet est proche, plus la
profondeur de champ est faible).
La profondeur de champ se répartit pour 1/3 à l'avant du sujet et 2/3 à l'arrière : le premier plan
sera plus flou que l'arrière-plan (sauf en macrophotographie où elle est à peu près égale à l'avant et à
l'arrière).Ainsi, si l'on veut que le premier plan et le sujet principal soient nets, on aura intérêt à faire la
mise au point entre les deux plans plutôt que sur le sujet principal.
..
Pratique : Le contrôle du réglage du diaphragme par le ZEBRA : Il existe pour vous aider un
système de contrôle sur la caméra (en plus du moniteur vidéo) appelé ZEBRA : on choisit une
référence de blanc à la limite de saturation (700mv) et des zébrures se surimposent à l'image cadrée
dans le viseur pour cette valeur de blanc et plus (Pour le contrôle de la luminosité voir aussi contrôle
du shutter).
1.3.1.1.3 La bague de MISE AU POINT ( FOCUS)
C'est la bague qui permet de régler la netteté de l'image et qui permet de faire la mise au point de
l'image. Pour cela vous devez : Avec la bague de focale « zoomer » au maximum sur votre objet qui
doit être net. Avec la bague de mise au point faire la netteté.
Avec la bague de focale, revenir à votre position initiale.
1.3.1.1.4 La bague du tirage optique
C’est un réglage du bloc optique pour que la mise au point soit identique quelle que soit la focale
du zoom. En effet, il arrive parfois que l'on fasse un point correct en téléobjectif puis lorsque l'on réajuste
la distance focale de l'objectif en grand angle le point devient flou, dans ce cas il s'agit d'un
problème de tirage optique. Cette bague est verrouillée de façon à ne pas modifier son réglage par
erreur, il faut utiliser une mire spéciale pour refaire le réglage.
Méthode opératoire : Disposer la mire face à la caméra et décoincer la bague de tirage optique.
Faire un zoom avant maximun sur la mire et faire la netteté avec la bague de tirage optique. Revenir
en grand angle. (Fig. 15 : exemple de mire de réglage)
1.3.1.2 L'enregistreur
Les capteurs CCD : Dans le caméscope, c'est un capteur photosensible électronique qui va
analyser et transformer l'image, issue de l'objectif, en signal électrique. Tous les courants émis sont
traités par les circuits électroniques du caméscope et vont permettre de reconstituer l'image du sujet
sous la forme d'un signal vidéo puis de l'enregistrer sur la bande vidéo. Les capteurs électroniques
sont appelés C.C.D. (couple charged device).
TRI CCD et MONO CCD : Une caméra professionnelle présente trois capteurs, un pour le rouge,
un pour le vert et un pour le bleu. Un séparateur optique "aiguille" et filtre la lumière reçue et focalise
sur chaque capteur les parties du spectre lumineux correspondant aux trois images, qui sont ensuite
traitées dans des circuits "capteur", pour recréer une seule image. Bien sûr, ce dispositif permet
d'augmenter la qualité de la définition de l'image. Les caméscopes amateur dispose d’un seul capteur
on dit alors mono-CCD (généralement de type grand public) il ne propose donc qu'une seule surface
sensible (un seul capteur).
Il existe différents réglages à effectuer pour obtenir une image naturelle.
Ces réglages sont élaborés en fonction de trois paramètres :
-la température de couleur de la lumière,
-la balance des blancs
-la vitesse d'obturation.
1.3.1.2.1 La température de couleur
Notre oeil est capable d'intégrer les différences de température de couleur lorsque la lumière
change de tonalité, alors qu'une caméra ne choisit pas automatiquement la bonne colorimétrie pour
l'image en fonction du type d’éclairage que vous utilisez. Il faut donc impérativement choisir le filtre
qui correspond à la bonne température de couleur et il faut le faire à chaque changement d'éclairage.
Il existe une bague de réglage qui permet de sélectionner le FILTRE équivalent à la température de
couleur de l'image :
Position 1 : filtre 3200 K c'est la position en éclairage artificiel (intérieur).
Position 2 : filtre 5600 K c'est la position en éclairage naturel (extérieur).
Position 3 : filtre 5600 K + 1/4 neutre c'est la position en éclairage naturel contrasté (extérieur
soleil au zénith, situation de tournage extrême à la neige...).
1.3.1.2.2 La balance des blancs :
Nous avons dit que puisque la caméra ne peut pas s'adapter comme l’oeil humain au changement
de colorimétrie de la lumière il fallait lui disposer un filtre de couleur.
Mais pour qu'elle puisse restituer fidèlement les couleurs des objets sans y ajouter de dominante, il
faut en plus effectuer un étalonnage colorimétrique à chaque changement de température de couleur
de l'environnement lumineux. C’est l’opération de la balance des blancs.
Le réglage de la balance des blancs est réalisé pour compenser les variations de la température de
couleur de la lumière pour que les blancs soient reproduits comme blancs. C'est donc l'opération qui
permet d'équilibrer le réglage colorimétrique de la caméra à partir d'un blanc et d'un noir externe.
Méthode pour régler la balance des blancs sur la caméra :
a Mettre la caméra en position diaphragme automatique
b Choisir le filtre 1, 2 ou 3 en fonction de l'éclairage c
Choisir la position A ou B
d Placer un papier blanc bien éclairé devant la caméra
e Zoomer sur le papier pour ne cadrer que le blanc
f Appuyer sur le commutateur WHITE AUTO, et Attendez le Message "Auto White Ok"
La caméra permet d'enregistrer 2 réglages (A et B) afin de pouvoir réutiliser ultérieurement un
réglage ou retrouver le même réglage. Il existe aussi un réglage automatique, c'est le mode PRESET.
1.3.1.2.3 L'obturateur
L'obturateur électronique doit régler l’importance de l’arrivée de lumière en augmentant ou
réduisant le temps de l'exposition du capteur vidéo. C'est l'option appelée "Shutter". C’est le réglage
de la vitesse d’obturation : on peut avoir une vitesse d'obturation jusqu'à 1/2000ème de seconde.
Au plus la vitesse est importante, au mieux il saisit les mouvements rapides avec netteté,de la
même façon il augmente ou diminue la luminosité.
En vidéo on a un temps de pose de 1/50ème de seconde, cette durée correspond au temps ou le
capteur va se charger en intensité électrique.
La vitesse d'obturation : C'est le temps pendant lequel le photogramme ou le CCD est
impressionné par la lumière. En vidéo, la vitesse d'obturation est fixe : 25 images par seconde soit 50
trames par seconde : La vitesse d'obturation est donc de 1/50ème de seconde. En photo, au cinéma
la vitesse d'obturation est variable. Sur un appareil photo on a la bague des vitesses qui va en
moyenne de 1/2000 à 1 seconde.
Si l'on prolonge le temps d'exposition au-delà du 1/50ème de seconde pour engranger plus de
lumière (il faut que l'image soit statique) cela permet d'avoir un excellent rapport signal sur bruit (la
qualité de l'enregistrement est améliorée).
Attention le GAIN ET LE SHUTTER sont deux réglages indépendants : Par exemple, si vous
tournez dans des conditions de faible éclairage, à la tombé de la nuit, vous devrez diminuer la vitesse
d’obturation ou augmenter le gain afin de rendre l'image plus lumineuse.
Le gain : amplificateur électronique. Le gain amplifie le signal en multipliant la tension, le problème
du gain est que l'on ajoute du bruit.
1.3.1.3 Les accessoires de la prise de vue
1.3.1.3.1 Le pied de la caméra
Le pied vidéo permet de faire les mouvements panoramiques et les plans fixes. Il faut une semelle
pour stabiliser la caméra sur le pied et une bulle pour faire le niveau au sol.
1.3.1.3.2 Le moniteur de contrôle
Il permet de vérifier le rendu de l'image enregistrée par la caméra notamment pour les réglages de
couleur (filtre et balance des blancs) et d'exposition (sous exposé ou sur ex).
La mise au point ne se fait pas sur le moniteur, mais sur le viseur de la caméra.
Il permet aussi au réalisateur de contrôler la composition du cadre et à la script de vérifier qu'il n'y
ait pas de fautes de raccords (accessoires, entrée-sortie,…), elle doit aussi faire attention à ce que le
micro n'entre pas dans le champ.
1.3.2 La prise de son
1.3.2.1 Qu'est-ce qu'un son ?
Un son est une vibration de l'air que l’on perçoit parce qu’il fait vibrer le tympan de notre oreille.
Imaginez une pierre qu'on envoie dans l'eau : l'onde se déplace de l'endroit où est tombée la pierre
vers l'extérieur jusqu'à la rive. C’est le principe du haut-parleur qui est constitué de plusieurs
membranes qui font vibrer ( bouger ) l'air autour d'elles et créent une onde qui se propage dans
l'environnement.
Rappel physique : Nous entendons des sons, car la pression de l'air change légèrement dans nos
oreilles. On peut représenter cette variation de pression par rapport au temps sous forme graphique.
De la même façon c’est cette pression qui lorsqu’elle est récupérée par un capteur (microphone...),
peut être représentée sous forme de tension et donc traduit en données électrique.
La nature du son : Le son est donc un phénomène vibratoire qui est issu de la vibration de l'air.
Un son est caractérisé par sa fréquence (quand le son est grave ou aigu, mesuré en Hertz) et son
amplitude (quand le son est fort ou faible, c’est le niveau sonore en Décibel).
La perception du son : Le son est créé lorsqu'un objet vibrant transmet sa vibration à l'air
ambiant. La vibration de l'air se propage alors et atteint nos oreilles où elle fait vibrer nos tympans.
L'oreille interne transforme alors cette information mécanique en signaux chimiques que le cerveau
sait interpréter.
Le son est donc une grandeur analogique qu'il convient de transformer si on veut le stocker pour le
reproduire. C'est le rôle du microphone (qui transforme la vibration acoustique en un signal électrique.
1.3.2.2 Qu'est-ce qu'une oreille ?
Physiologie de l’oreille : Elle est constituée de trois parties : l’oreille externe qui comprend le
PAVILLON et Le début du CANAL AUDITIF, c’est le lieu de la captation sonore (localisation de la
source et concentration du son. Ensuite il y a l’oreille moyenne qui est constituée de la fin du CANAL
AUDITIF, du TYMPAN et des OSSELETS, son principe est équivalent à celui du microphone, elle
amplifie le son puis cette énergie acoustique (extérieure) est transformée en énergie mécanique.
Le Tympan ressemble à la membrane du micro, c’est la vibration de cette membrane (principe
mécanique) qui génère les informations à transmettre au cerveau par l’intermédiaire de la chaîne des
osselets (le marteau, l’enclume et l’étrier). Et enfin il y a l’oreille interne constituée de la TROMPE
d’EUSTACHE, LA CHOCLEE et les NERFS AUDITIFS, qui servent à transformer l’énergie mécanique
en énergie électrique qui sera analysée par le cerveau pour produire une sensation auditive. En effet,
la choclée contient un liquide, la lymphe, dans lequel baignent les cellules ciliées, c’est l ‘excitation de
ces cellules qui produit un micro courant électrique, les cellules sont reliées aux nerfs auditifs qui se
chargent de transmettre le flux nerveux au cortex.
La perception spatiale du son : C’est parce que nous avons deux oreilles que nous pouvons
repérer une source sonore dans l’espace. En effet, le cerveau se sert de la différence d’intensité reçue
entre les deux oreilles, ainsi que du décalage dans le temps.
Grâce à la présence des deux oreilles on peut saisir l'effet stéréophonique par estimation de la
différence d'intensité ou de phase du même signal perçu par les deux oreilles. Par exemple un son
sera perçu à gauche si on diminue le volume du signal de droite ou si on le retarde.
1.3.2.3 Le champ auditif et la BANDE PASSANTE
L'oreille peut donc entendre des sons de fréquences comprises entre une valeur minimum
(fréquence basse ) et une valeur maximum (fréquence haute ), on dit que la bande passante de
l’oreille est l'intervalle de fréquences entre la fréquence basse et la fréquence haute . On parle aussi
de CHAMP AUDITIF .
L'oreille humaine commence à percevoir les sons à partir de 20 hertz (c'est-à-dire 20 cycles par
seconde). En dessous, il s'agit d'infra-sons, inaudibles, mais que le corps ressent et qui peuvent être
dangereux à un niveau très élevé.
Par exemple, le bruit provoqué par le roulement des camions sur une route pavée peut causer des
perturbations de l'audition et des troubles psychologiques chez les riverains.
De même, l'oreille entend les sons jusqu'à 20 000 hertz -mais pas au-dessus alors que les
animaux et les insectes les perçoivent.
Enfin, L'oreille humaine est plus sensible aux fréquences moyennes (entre 500 et 12000 kHz), de
plus elle est sélective alors qu'un microphone ne l'est pas ( par exemple une conversation dans un
milieu bruyant).
*EXEMPLES : Si le son est trop fort (grande vibration) le tympan se déplace trop ; il s'enfonce
comme un membrane. Le tympan peut s'arracher de son support, on devient sourd !.
Si le son est trop faible (petite vibration) le tympan envoie une vibration d'amplitude trop faible. Le
cerveau ne peut pas l'interpréter.
Si le son est très aigu (fréquence très haute, vibration très rapide) le tympan vibre très vite autour
de sa position d'équilibre et tout se passe comme s'il ne vibrait pas du tout. Le nerf auditif ne transmet
rien au cerveau.
Si le son est trop grave (fréquences très basses, vibration très lente) le tympan vibre trop
lentement et le nerf optique ne reçoit rien,
1.3.2.4 La psycho acoustique : écoute et audition
Il convient de bien distinguer l'Ecoute de l'Audition, car "entendre n'implique pas pour autant la
présence d'un champ conscient.
Entendre, c'est en quelque sorte subir un son ou un message qui nous est adressé.
Écouter, c'est désirer appréhender ce son ou ce message. Il s'agit là de deux postures différentes".
Nos oreilles ENTENDENT, alors que notre cerveau ECOUTE, c’est à dire qu’il filtre les sons de
façon intelligente. Entendre est donc le résultat d'une perception répondant à une stimulation venant
de l'extérieur. Écouter se base, sur cette stimulation venant également de l'extérieur, mais devant être
intérieurement, intentionnellement recherchée. Les notions de capteur, de choix, de filtre apparaissent
alors, l'élément conscient devient ainsi le facteur essentiel sur lequel repose toute la différence entre
ces deux activités qui évoluent en parallèle.
"Voir et vouloir voir" sont deux mécanismes totalement différents, le second utilisant le premier.
Vouloir voir, c'est viser. Il en est de même pour entendre et écouter.
L'Ecoute résulte du vouloir entendre et est l'équivalent de la visée.
L'Ecoute est à l'oreille, ce que la visée est à l’oeil. Cette distinction doit être constamment présente
dans l'esprit de l’ingénieur du son.
1.3.2.5 Les outils de la prise de son
1.3.2.5.1 Les micros
Le micro est pour le son l'équivalent de l'objectif pour l’image, il détermine un champ et une
esthétique sonore. Il s'agit d'un "capteur qui traduit une réalité physique (la vibration de l’air) en une
autre réalité physique (le courant électrique).
Le microphone comprend donc une partie mécanique liée à l'acoustique (la membrane et ses
accessoires) et une partie électrique (le moteur du micro)lié à la reproduction du son. Se sont ces
deux éléments qui déterminent les diverses possibilités de microphones.
1.3.2.5.1.1 Le principe mécanique
Les membranes réagissent à pression de l'air environnant : les variations de pression de l’air
provoquées par le déplacement des ondes sonores mettent en mouvement une membrane.
Les variations de la membrane sont utilisées pour produire une tension électrique qui est l’analogie
(le reflet) des vibrations acoustiques. C’est le moteur (transducteur) mécanique ou électrique, qui a
une vibration donnée de la membrane fait correspondre une vibration électrique, et qui peut prendre
lui aussi plusieurs formes : les systèmes électrodynamiques et les systèmes électrostatiques.
1.3.2.5.1.2 Le principe électrique
Il existe donc principalement deux types de principe électrique pour le fonctionnement des
microphones : le principe électrostatique et le principe électrodynamique.
Le principe électrodynamique
Le fonctionnement des micros dynamiques est le plus simple à comprendre, cette technologie
classique fonctionne à l’inverse de celle des haut-parleurs ordinaires.
Un diaphragme en plastique ou en métal est fixé à une bobine en cuivre, située dans un champ
magnétique. Les ondes de pression sonore qui percutent le diaphragme provoquent son déplacement,
qui entraîne à son tour celui de la bobine située dans le champ magnétique. Les variations
magnétiques qui en résultent se traduisent par des variations électriques correspondant généralement
aux variations physiques de l’onde sonore d’origine.
Le principe du micro dynamique permet de supprimer une source externe d'énergie, il permet un
micro robuste qui est peu sensible aux contacts, difficilement saturable, il s'adapte très bien aux
situations de tournage de type reportage, mais il doit toujours être très proche de la source sonore (30
cm max).
Le principe électrostatique
Le principe électrostatique utilise l’énergie électrique. Les micros électrostatiques utilisent un
condensateur : les ondes sonores percutant le diaphragme modifient la capacitance dans le champ
entre le diaphragme chargé et la plaque arrière. Le micro est constitué d'un corps dans lequel on doit
mettre une pile, et d'une tête qui est le capteur sonore. C'est un micro très performant selon le capteur
il peut être hyper sensible. Attention il est très sensible aux contacts et il doit être tenue par une
perche.
1.3.2.5.1.3 La directivité
Le terme directivité est employé pour décrire la réaction d’un micro aux sources sonores provenant
de plusieurs directions. Chacune des directivités a sa place et son utilisation dans le processus
d’enregistrement. il existe trois grandes directivités : Omni, bi et uni – directionnel. En effet, tous les
micros ne captent pas les sons de la même manière et dans toutes les directions.
La directivité d'un micro correspond à sa sensibilité constitué de son champ et de sa puissance (on
peut comparer les différentes directivités des micros à la longueur focale des caméras, selon que l'on
utilise une courte focale ou longue focale on sélectionne un champ de captation plus ou moins grand,
on retrouve la même chose selon que le micro sera plus ou moins directif).
ATTENTION : Le choix du micro est relatif à puissance et au champ de la source sonore. Il est
primordial d'utiliser le micro adapté à la source sonore pour effectuer une bonne prise son.
Bidirectionnel : La directivité en 8 ou bidirectionnelle est sensible sur les deux faces opposées du
micro et rejette les sons venant sur les côtés.. Comme les directivités cardioïdes, elle présente un
effet de proximité.
Omni directionnel : Comme son nom le suggère, le diagramme « omni » recueille les sons
provenant de toutes les directions avec la même précision. Les micros omnidirectionnels permettent
de capturer la résonance de la salle ainsi que la source sonore, et produisent un son plus ouvert
comparé à la qualité de captation plus “directionnelle” des cardioïdes. L’omni offre d’excellents
résultats avec les ensembles vocaux, les effets sonores et les instruments acoustiques au son
réaliste, lorsque la dimension acoustique de l’environnement d’enregistrement est souhaitable.
Il capte indifféremment les sons autour de sa tête, il doit être à proximité de la source sonore car sa
puissance de captation est hyper faible. Il est utilisé essentiellement dans des prises de son à
effectuer à proximité de la source (moins de 20 cm) d'où son nom de micro de proximité.
Uni directionnelle : Se sont les microphones cardioïdes et hyper cardioide qui sont
unidirectionnels, c’est-à-dire qu’ils reçoivent le son principalement à l’avant de la capsule. L’arrière de
la capsule rejette les sons qui lui parviennent, permettant ainsi à l’ingénieur du son d’isoler la source
des signaux d’autres sons et bruits de fond.
Cardioïde : La directivité cardioïde est probablement la plus répandue. C’est sa ressemblance
avec la forme d’un coeur qui lui a donné son nom.
Les diagrammes cardioïdes présentent généralement un effet de proximité, c’est à dire, un
accroissement des fréquences moyennes-basses à mesure que la distance entre la source sonore et
le micro se réduit. Il capte les sons en avant et sur les cotés de la tête du micro. Il a une sensibilité
moyenne, sa caractéristique principale est de capter les sons d'une manière égale. Il est relativement
sensible aux bruits de contacts, il doit donc être disposé sur une perche, il est très sensible aux bruits
de vents et aux plosives. C'est un micro adapté pour une prise de sons d'ambiances, à la perche et
dans le cas où il peut être disposé près de la source sonore, ou lorsque l'ambiance est assez tenue.
Hyper cardioïde (ou canon) : La directivité super cardioïde présente un champ de sensibilité
encore plus étroit que le diagramme cardioïde classique et s’utilise pour les enregistrements très
“focalisés”. Il est parfait lorsque l’on souhaite capturer le point d’enregistrement idéal d’instruments
tels que le piano ou certains éléments de la batterie. Les super-cardioïdes sont également parfaits
pour les enregistrements en direct, où il est très important d’isoler les différentes sources, par exemple
quand il s’agit d’éviter que les signaux de la voix et de l’instrument joué par le chanteur “débordent”
l’un sur l’autre. Les micros à directivité élevée se prêtent particulièrement aux prises de sons lorsque
la source est lointaine et au travail à la perche. Il est hyper sensible aux bruits de vents ( il faut le
protéger avec une bonnette en extérieur).
1.3.2.5.2 La mixette
C'est l'appareil qui permet de moduler le niveau sonore à distance et afin de l'enregistrer dans les
meilleures conditions possibles sur la caméra. En effet la mixette, comme la caméra, dispose d'un
vumètre qui permet de contrôler le niveau d'enregistrement sonore. Elle dispose aussi d'un signal de
référence (1000 hz) pour étalonner l'enregistrement sonore de la caméra.
Le réglage des niveaux sonores (le vumètre) : Le vu-mêtre est l'indicateur du volume sonore, il
est paramétré en Décibels (dB), de -30 db à +3db. Un niveau sonore d’enregistrement correct
correspond à une oscillation entre -5db et O db. Au-delà, le son risque d'être saturé, en deçà le son
risque d'être sous modulé.
L’étalonnage : Etant donné que l'on ne peut pas avoir les yeux sur le vumètre de la mixette et sur
le vumètre de la caméra, il faut que les deux niveaux se correspondent.
Pour cela, il faut étalonner les niveaux d'entrée : il s'agit de régler le niveau d'enregistrement de la
mixette afin que le 0 db sur le vumètre de la mixette et celui de la caméra corresponde au 1000 Htz
de la mixette. (Attention : la mixette que l'on va utiliser a un 1000 Mhz calé à -10db).
Protocole pour l’étalonnage de la mixette :
-relier les deux appareils avec un câble (sortie de la mixette vers entrée de la caméra).
-enclencher le générateur de 1000Hz de la mixette.
-régler le potentiomètre MASTER de la mixette à Odb.
-régler maintenant le 1000hz à Odb sur la caméra
Contrôle de l’écoute avec la mixette : Pour l’écoute et le contrôle du son la mixette dispose d’une
sortie casque pour contrôler le son, mais attention, le son qui sera entendu par cette voie n’est pas
celui qui sera enregistré sur la caméra, il faut donc obligatoirement brancher une écoute sur la sortie
de la caméra pour vérifier la qualité finale d’enregistrement du son.
1.3.2.5.3 L'enregistrement sonore avec la caméra
Il est possible d’enregistrer le son sur un support indépendant de la caméra si on dispose d’un
enregistreur. Il existe des supports numériques (minidisc, …) ou des supports analogiques (D.A.T, …)
Cette solution est toujours préconisé en cinéma beaucoup moins en vidéo.
Les réglages sur la caméra : Au secteur cinéma, nous utilisons la caméra comme enregistreur
image et son, la mixette sert d’intermédiaire pour le contrôle de l'enregistrement sonore. La caméra
permet d'enregistrer séparément deux pistes sonores CH1 et CH2 (par exemple, pour enregistrer
séparement un son d'ambiance et un son principal).
La mixette dispose de trois entrée micro, qui permettent de connecter trois micros différents,
cependant elle dispose d’un seul canal de sortie, c'est-à-dire que les trois sons seront mixés dès la
prise de son et ils seront enregistrés sur une seule piste (CH1 ou CH2) sur la caméra.
Le volume d'enregistrement est réglé indifféremment sur chaque piste à partir d'un VUMETRE qui
indique le niveau sonore.
Le contrôle de l’enregistrement se fait par l’écoute avec un casque qui a un volume réglable
indépendamment du niveau d’enregistrement sonore. Attention, il ne faut pas confondre le niveau
d'écoute (au casque) avec le niveau d'enregistrement (à la caméra). Il ne faut pas changer le réglage
d’écoute pendant un tournage, c’est le niveau d’enregistrement qui doit être modifié.
1.3.2.5.4 Les accessoires : la perche, la suspension et la bonnette
La perche est utilisée pour éviter les bruits de contacts sur les micros. il faut isoler le micro de
tous les bruits parasites possibles. On enroule le câble autour du corps de la perche afin d'éviter les
bruits de frottement.
La suspension est l'articulation entre la perche et le micro, elle permet d'amortir les secousses
en cas de mouvements.
La bonnette est une protection anti-vent en extérieur, elle est aussi utilisée pour se protéger des
autres parasites, c’est alors une protection « anti-plop ». Il existe la bonnette simple en mousse
creuse pour l'intérieur et il existe la bonnette rigide appelée aussi "Rycotte" qui est constituée d'une
enveloppe de protection grillagée sur laquelle on peut ajouter une housse anti-vent pour l'extérieur.
1.3.2.5.5 Mise en place du dispositif sonore
Pour déterminer le dispositif de captation sonore vous devez tenir compte de plusieurs facteurs
importants :
-la nature de la source sonore (voix, musique, bruits (ambiances)...)
-la dynamique de la source sonore.
-l'acoustique des lieux (réverbération, écho...)
-l'environnement (bruyant, calme, zones magnétiques, champ électrique...)
-l'emplacement du micro (caché, perché, à la main)
-Le cadrage de l'image (plan rapproché, plan d'ensemble...).
Pour le dispositif :
-Exigez de voir le cadre avant de positionner votre micro.
-Positionnez le micro le plus près possible de la source.
-Exigez toujours un son d’essai afin de préparer les niveaux d'enregistrement.
-Ne jamais modifier le réglage d'écoute du casque pour garder toujours la même référence.
1.3.3 L'éclairage
1.3.3.1 Les fonctions de l'éclairage
L'éclairage a pour fonction d'assurer une exposition correcte (ouverte de diaph correcte),
donnant des images nettes, aux couleurs saturées et de contraste agréable.
Il permet de mettre en scène le jeu de la lumière et de l'ombre afin de suggérer la notion de
profondeur. Il permet de créer l'atmosphère et l'ambiance du film comme les sons et les images, il
transmet des émotions au spectateur.
1.3.3.2 Lumière naturelle et artificielle
Il existe deux sorte de lumière, celle du jour (l’éclairage solaire est pauvre en rayonnement orange)
6500 K, et la lumière générée par les lampes d’éclairage (tungstène et halogène) qui donnent une
lumière de 3200 K (pauvre en rayonnement bleu).
La caméra n’est pas capable de reconnaître automatiquement le type d’éclairage, elle dispose de
filtres qui permettent d’adapter la sensibilité chromatique de l’enregistrement de l’image à l’une ou
l’autre de ses lumières.
Lorsque vous éclairez une scène avec un seul type d’éclairage il vous suffit de positionner le bon
filtre équivalent à la bonne température de couleur. Par contre s’il y a un mélange d’éclairage ayant
des températures de couleurs différentes, il faut ajouter des gélatines de couleur :
Il existe deux couleurs principales de gélatine, le bleu et l’orange qui permettent d’équilibrer les
températures de couleurs, l’une pour la lumière du jour l’autre pour la lumière artificielle.
Ainsi en ajoutant une gélatine de correction bleutée à une lumière artificielle, on change la
dominante rougeâtre de cette lumière, elle était à 3200°K au départ et a été transformé en 5600°k.
1.3.3.3 Eclairage direct, indirect ou diffusé
Lorsque l’on compose un éclairage il faut contrôler l’intensité et la forme des faisceaux lumineux.
La projection de la lumière peut être directe, indirecte ou diffusée.
Lumière directe : elle provoque un éclairage dur, les ombres sont fortes, et les contrastes sont
accentués. C’est en général la source principale.
La lumière diffusée : elle est diffusée grâce à un filtre (spoun) placé devant la source lumineuse. Il
en résulte un éclairage doux, sans ombre marquée.
Lumière indirecte : elle s’obtient par réflexion de la lumière sur une surface claire. La réflexion
diminue l’intensité lumineuse. Le réflecteur utilisé généralement en extérieur pour réfléchir la lumière
naturelle du soleil peut être utilisé pour réfléchir la lumière artificielle d’un projecteur en intérieur. Il est
particulièrement utile pour éclairer les visages car il ne gène pas le sujet et éclaircir les ombres avec
beaucoup de finesse.
1.3.3.4 Les Principes de l’éclairage
Un éclairage élaboré est constitué de plusieurs sources lumineuses agencées de façon à donner
une impression d'éclairage naturel. Il s’agit de placer au moins trois sources lumineuses en position
de triangle chaque source ayant une fonction précise et une intensité différente. C’est La règle des
trois points :
-La source principale (Keylight) : qui crée le modelé du sujet principal, elle est puissante, placée
à 45 degrés en hauteur. C’est la source qui va situer le sujet dans l’espace en délimitant les formes et
les volumes. Cette source clé met en valeur les traits du visage, mais elle crée aussi des ombres
puissantes dans le visage (sous le nez, dans les yeux) et sur l’arrière plan.
-La source de remplissage (Fill in) : elle a pour objectif d’éclaircir les ombres de la source
principale. Elle est placée à l’opposé de la source principale, elle est diffusée et donc moins intense
afin de ne pas créer de nouvelles ombres sur le sujet et l’arrière plan.
-La source d’effet (contre jour) : Elle sépare le sujet du fond en créant un liseré lumineux, il
décolle le sujet du fond afin de créer un effet de profondeur. Elle est positionnée à l’arrière et au dessus
du sujet. On peut modifier ce système de base et intégrer d’autres sources lumineuses dans
divers axes afin par exemple d’éclairer un point particulier du décor ou du sujet. Ainsi souvent un
projecteur est utilisé pour éclairer le fond de la scène, il crée un contraste avec le sujet, son intensité
doit être beaucoup plus faible et éclairer le décors de façon régulière.
Lorsque l’on utilise une seule source lumineuse comme par exemple une torche l’image qui en
résulte sera plate et des ombres disgracieuses seront projetées en arrière plan. Cependant il peut
arriver parfois que l’on utilise une seule source lumineuse pour éclairer rapidement un décor, il faut
réfléchir en diffusant la lumière par les murs ou les plafonds, on obtient une lumière douce, créant une
ambiance plus naturelle.
1.3.3.5 Les outils de l’éclairage
Les projecteurs : se sont les sources lumineuses que l'on va utiliser pour éclairer la scène. Il
existe différents types de projecteurs que l'on choisit en fonction de leur puissance, de leur
température de couleur et de leur système de diffusion (lentille).
Les projeteurs à ampoule de tungstène (mandarine, blonde …) sont utilisés pour l'éclairage
d'intérieur, ils sont différenciés par leur puissance et leur lentille : Les projecteurs de type mandarine
ou blonde (850 et 2000 Watts) n’ont pas de lentille de réflexion. Les projecteurs de type "FRESNEL"
(1000 Watt) disposent de lentille convergente qui focalise la lumière. Les projecteurs à halogénures
métalliques (H.M.I) sont utilisés pour les tournages extérieurs car ils ont une température de couleur
de 5600 K.
Chaque projecteur dispose d'un pied et d'une fenêtre pour appliquer des filtres de couleur ou de
diffusion. Les mandarines que vous allez utiliser ont des volets métalliques orientables qui permettent
de limiter et régler la forme du flux lumineux.
2 Le montage
C’est la dernière phase de fabrication d’un document audiovisuel, la Post-production.
2.1 Les étapes du montage
On peut définir cinq étapes communes à tout travail de montage : Le Dérushage, le Pré montage,
le Montage, la Conformation et le Mixage.
2.1.1 Le dérushage
C’est le visionnage des rushes et sa transcription précise sur une feuille de dérushage.
Le monteur s’appuie sur le rapport de script pour visionner les rushes, il utilise une feuille de
dérushage où il note le numéro de plan, le numéro de cassette, le numéro de Time Code, les
remarques techniques (flous, bougés, micro apparent…) et ses appréciations personnelles.
Cette première opération permet au monteur de prendre contact avec le matériel filmique brut et de
se sensibiliser à sa particularité. L’objectif est de trier les prises pour faire une première sélection des
éléments filmiques à utiliser.
Définition du Time Code :
C'est un système de repérage des images et des sons par un nombre de huit chiffres dont
la progression est calquée sur celle de l'heure. Les deux premiers chiffres marquent les
heures puis les minutes, secondes et enfin images. (Exemple: 02.15.36.06). Le time code
est inscrit sur le support d'enregistrement que ce soit une bande magnétique ou un disque
dur. C'est une étiquette sur chaque image, les images sont nommées, donc individualisées.
C'est comme une adresse d'image que l'on retrouve facilement et précisément. C'est
l'instrument de la gestion en post-production
Attention il faut toujours faire une copie des rushes originaux avant de les visionner afin
de ne pas abîmer la bande originale, sinon vous risquez de ne plus pouvoir lire vos images…
2.1.2 Le pré-montage
Après avoir fait le dérushage, on fait le plan de montage. Il faut éviter de commencer le pré
montage avant d'avoir fait ce plan. C'est une phase très importante du montage.
Le plan de montage, c'est la construction du discours à partir des images et des sons. En fonction
du genre de film on va pouvoir s’appuyer sur un découpage technique (fiction) ou l’on va devoir
inventer une structure originale (reportage). Le pré-montage est réalisé en deux temps, en premier on
compose un ours, puis on définit la maquette :
2.1.2.1 L’ours
C’est l’assemblage bout à bout des prises choisies au dérushage dans l’ordre prévu par le
découpage technique. On appelle le résultat un OURS. La vision de l’ours permet au réalisateur et au
monteur de se faire une première impression sur la structure du film.
2.1.2.2 La maquette
C’est l’assemblage des séquences dans l’ordre définitif qui peut être différent de celui prévu par le
découpage technique.
Il existe des situations de montage où le monteur n’a pas de structure préétablie pour commencer
le montage. Il doit alors discuter avec le réalisateur et lui faire une proposition de structure avant de
commencer la maquette, la structure évoluera au fur et à mesure de l’élaboration de la maquette.
2.1.3 Le montage
Le monteur doit affiner les raccords entre chaque séquence, chaque plan pour donner le rythme
définitif du film. C’est une opération minutieuse qui demande beaucoup de temps, de réflexion et
d’expérimentation.
C’est le travail de la partie (sur le plan) qui doit toujours être réalisé en prenant garde à l’ensemble
du film. Le monteur doit prendre suffisamment de recul pour imaginer le film dans son ensemble et à
la fois travailler le détail des raccords ( cut, effets ) plan par plan pour construire le rythme voulu par le
réalisateur.
Il existe deux procédures de travail qui organisent le montage en fonction des nécessités de la
production et surtout de la diffusion : Le montage ON LINE et le montage OFF LINE.
2.1.3.1 Le montage OFF LINE
C’est le montage du film à partir d’une copie des rushes dans un format de moindre qualité. Ce
dispositif permet de minimiser les coûts de production, de prendre le temps nécessaire à la fabrication
et de ne pas détériorer les bandes originales.
Lorsque le film est monté il faut sortir une liste EDL.
EDL (Edite décision list): c’est la liste des Time Code de référence indiquant tous les points de
montage d’entrée et de sortie pour tous les plans du montage, ainsi que les transitions, les titres et les
effets . Une liste EDL peut être intégrée dans un éditeur de montage,c'est-à-dire qu’il interprète les
points de montage et gère les platines ou autres magnétoscopes en vue de recréer le programme à
partir des éléments originaux (Les éléments sources : c’est à dire à partir des Time code de la
cassette de rush).
En vidéo analogique le montage de la maquette se déroule à partir de copies de rushes effectués
sur un support de basse qualité (VHS ou UMATIC) et avec un banc de montage cut simplifié (un
lecteur et un enregistreur).
En vidéo numérique on numérise les rushs originaux en basse qualité en les compressant
fortement. C’est une méthode utile pour bien gérer l’espace disque lorsqu’il y a beaucoup de ruhes à
numériser.
En pellicule on monte avec une copie de travail du positif.
2.1.3.2 Montage ONE LINE
C’est le montage d’un film à partir des rushes originaux quelque soit le format et que l’on diffuse
directement. Il n’y a pas de recopie ni de conformation.
Ce type de dispositif est utilisé dans les structures ne disposant des moyens de pré-monter… ou
bien dans des situations d‘urgence (montage de reportage pour le JT…)
Conclusion : Plus on a besoin de temps de travail au montage, plus on utilise la procédure OFF
LINE.
2.1.4 La conformation
C’est une opération qui consiste à recopier à l’identique les plans montés sur la maquette à partir
des rushes originaux en utilisant la liste EDL des points de montage de la maquette. On ajoute les
effets et les trucages images (fondu, incrustation, volet…).
C’est aussi la phase d’étalonnage du signal vidéo, on ajuste les contrastes, la luminosité et la
colorimétrie des images en fonction des séquences à partir d’un appareil de réglage appelé
l’OSCIlLOSCOPE. Cet outil permet de modifier précisément la qualité du signal vidéo.
A la fin de la conformation on obtient l’original image du film que l’on nomme le MASTER IMAGE.
On réalise alors une copie DUB (DUB : copie d’une bande vidéo à l’identique sur une autre bande
vidéo) du master afin de ne pas l’utiliser et le détériorer.
2.1.5 Le mixage
C’est la dernière opération pendant laquelle l’ingénieur du son va évaluer chaque plan sonore afin
de doser et de corriger, les sons entre eux : Ajout des effets (réverbération…), des fondus, des
corrections de fréquence (médium, aiguë, grave) … Ajout des musiques, des ambiances et du
commentaire.
2.2 Les outils du montage
Il existe différentes technologies de montage qui ont été développées en fonction du support utilisé
pour la production (vidéo analogique ou numérique, pellicule).
C’est le montage pellicule qui est le plus ancien et le plus lourd au niveau du fonctionnement,
ensuite il y a eu l’apparition de la bande vidéo avec sa manipulation plus simple mais avec une
technologie plus complexe, et enfin est apparu récemment le support disque qui ouvre l’ère de la
vidéo numérique.
Nous allons étudier dans ce cours les techniques développées à partir des supports vidéo
analogique et numérique.
2.2.1 LE SYSTEME DE MONTAGE ANALOGIQUE : Un procédé LINEAIRE
L’analogie de la machine à écrire : le montage traditionnel à partir de supports cassettes pourrait
être comparé à la frappe d’un message, un courrier à la machine à écrire : si vous voulez modifier une
lettre ou un mot dans votre message vous devez tout recommencer à zéro.
Le système de montage vidéo analogique procède par recopie de l’original (le rush) sur une bande
– le MASTER -où sont assemblés les éléments ( PLANS ) sélectionnés dans l’ordre choisi par le
monteur.
La configuration de base de ce système comprend deux magnétoscopes (un lecteur et un
enregistreur) et enfin un pupitre de commande :
LECTEUR : un magnétoscope pour lire les rushes
ENREGISTREUR : un magnétoscope pour copier les rushes.
La commande des magnétoscopes est dirigée par le pupitre de montage qui permet de définir
précisément les éléments qui doivent être copiés ainsi que leur localisation et leur durée sur le master.
C’est à dire que d’une part vous allez identifier dans le pupitre les points d’entrée et de sortie du plan
sélectionné sur les rushes et les points d’entrée et de sortie du plan sur la bande master.
Cette configuration simplifiée permet d’effectuer un montage CUT (sans effet de mixage ou de
page). On peut ensuite imaginer l’ajout d’un certain nombre de périphériques afin de mixer et truquer
des images et des sons : 2ème Lecteur, Table d’effet vidéo, Ordinateur de titrage, table de mixage…
2.2.1.1 Les modes ASSEMBLAGE ET INSERTION
Il existe deux modes de montage analogique : le mode de montage par ASSEMBLAGE et le mode
de montage par INSERTION.
-ASSEMBLAGE : Il y a une recopie du rush sélectionné (image et son) à l’identique sur la
bande master. Ce mode peut fonctionner à partir d’une cassette vierge qui n’a pas été codée
(tracker : enregistrer un signal vidéo sur toute la bande vierge pour permettre à un pupitre de montage
de piloter la cassette), il suffit d’ajouter un signal d’accroche au début de la cassette. Ce mode efface
systématiquement les éléments déjà présents sur le master (image et son), mais rien n’empêche de
venir après rajouter un élément en mode insert.
-INSERTION : ce mode permet de sélectionner précisément un élément de votre rush : par
exemple audio (CH1 OU CH2 ) avec ou sans la vidéo et de le copier précisément sur la bande master
. Ce mode permet d’ajouter des éléments sur votre master sans effacer les éléments déjà présents.
Ce mode fonctionne uniquement à partir d’une cassette master trackée.
2.2.2 Le montage virtuel : un procédé non linéaire
Le montage virtuel, appelé aussi montage NON LINEAIRE est un système de montage sur disque
assisté par ordinateur. Il ne faut pas confondre montage virtuel et système numérique. Le système
numérique n’est pas directement lié au procédé non linéaire que l’on appelle virtuel, il est lié à la
numérisation des signaux. Il existe des systèmes de montages par assemblage numérique (il suffit de
relier deux magnétoscopes numériques avec un éditeur de montage).
L’évolution globale des technologies tend vers les systèmes tous numériques. Mais c’est le support
disque qui est numérique, c’est un support dit à accès aléatoire et non linéaire, au contraire de la
bande qui est un support à accès linéaire et séquentiel.
2.2.2.1 Le montage virtuel : Les principes du support non linéaire
Le signal vidéo généré par le magnétoscope (la source vidéo) est numérisé (enregistré) dans
l’ordinateur. Tout ce qui a été capturé (les images et les sons) est enregistré sur les disques durs dans
des fichiers informatiques.
L’ordinateur est doté de logiciels pouvant traiter les fichiers. ils sont assemblés dans un certain
ordre afin d’être diffusé (visionnage, enregistrement sur une bande vidéo, sur une site web…).
Pour ce faire le logiciel de montage va piloter les disques afin d’assurer la lecture dans l’ordre
demandé, quel que soit l’emplacement des images et des sons sur les disques.
La virtualité du montage correspond à ce système de travail sans recopie préliminaire au
visionnage du montage. Il n’y a pas de changement de savoir faire du monteur, par contre il y a un
changement d’outil de travail. La station de montage virtuel permet une plus grande souplesse
d’exécution au monteur. Les coûts de fabrication et de production sont diminués.
2.2.2.2 Les avantages du système non linéaire
Le mode de stockage non linéaire qui permet un accès immédiat aux rushes sans altération, ni
recopie. Le monteur peut aller instantanément à n’importe quelle partie des rushes sans en passer par
les aller -retour sur la bande d’une cassette vidéo. L’ordre des plans est mémorisé par l’ordinateur qui
n’utilise que la référence des fichiers. La visualisation s’effectue sans qu’il soit nécessaire de recopier
les plans. Le signal est régénérable, la copie est effectuée sans perte de qualité. Les effets, titres et
trucages sont réalisés facilement.
2.2.2.2.1 Configuration d’une station de montage
Les stations de montages non linéaires sont composées d’un ordinateur et des périphériques de
montage (magnétoscope vidéo, moniteur de diffusion, table de mixage, haut parleur...).
2.2.2.2.1.1 L’ordinateur :
La partie HARDWARE (matériel):
D’une part il y a le HARDWARE, c’est à dire l’ordinateur, la carte d’acquisition, les disques durs et
ses périphériques. La numérisation exige un ordinateur avec un processeur rapide (les calculs sont
importants), beaucoup de mémoire vive et un espace disque important avec un débit rapide afin de
disposer d’un accès disque rapide.
La carte d’acquisition vidéo est le périphérique indispensable à la numérisation, elle doit être
rapide : le débit maximal autorisé permet de connaître le taux de compression des séquences.
Il faut aussi connaître les types d’entrées / sorties dont dispose la carte, il faut choisir des entrées /
sorties correspondant aux entrées / sorties de vos périphériques utilisés couramment en production.
La palette des cartes d’acquisition vidéo est de plus en plus importante. En commençant par les
systèmes intégrés, en allant jusqu’aux cartes broadcast de MEDIA 1OO, AVID…
La partie SOFTWARE (logiciels) :
La partie matérielle d’un ordinateur est utilisée par un système d’exploitation (windows, mac os,
linux…) et par les logiciels informatiques. Se sont les logiciels qui pilotent le matériel. Ces logiciels
sont nombreux car chaque constructeur de carte vidéo développe le sien : Adobe première, Avid,
Media 100 ; Final Cut Pro… Ces logiciels font office d’interface d’utilisation pour les multiples
périphériques nécessaires au montage virtuel.
On peut décrire les principales fonctions de ces logiciels :
1 La Fenêtre Projet
L’édition de vidéos se fait à partir d’éléments importés dans le projet. Pour importer un fichiers dans
la fenêtre de projet, il suffit de faire Menu Fichier > Importation > Fichier. Il est possible d’importer
toute sorte de fichiers : images fixes, images animées, clips, sons, titres. La fenêtre projet regroupe
tous les éléments importés. L’utilisation de l’un de ces éléments est possible à l’aide d’un simple
« Drag & Drop ».
2 La fenêtre Moniteur
C’est dans cette fenêtre que l’on peut visualiser les séquences vidéos ; on peut ainsi contrôler le
montage vidéo en cours de réalisation.
3 La fenêtre de Montage
La fenêtre de montage permet de placer et de manipuler les clips vidéos , les extraits sonores, et
les images fixes. Il est possible d’y ajouter des transitions, des titres, ainsi que des effets spéciaux.
L’ajout d’une séquence dans la fenêtre de montage se fait par un simple glissement d’un élément se
trouvant dans la fenêtre de projet en maintenant le bouton gauche de la souris appuyé.
..
Bibliographie
Les techniques audiovisuelles :
-BELLAICHE Philippe, Les secrets de l’image vidéo, Eyrolles Sonovision, 1997.
-CLOQUET Arthur, Initiation à l’image de film, Ferais, 1992.
-BROIT René, Les techniques cinématographiques, Esra, 1988.
Les techniques de la prise de vue :
-ALMENDROS Nestor, Un homme à la caméra, Hatier, 1980.
-VILLAIN Dominique, Le cadrage au cinéma, Éditions de l'Étoile, 1984.
-SAMUELSON David, La caméra et les techniques de l’opérateur, Dujarric, 1985.
Les techniques du son :
-Le livre des techniques du son, Dunod, trois tomes, 1998.
-AUGOYARD J.F et TORGUE H., A l’écoute de l’environnement, Parenthèses, 1995.
-HUGONNET C. et WALDER P.,Théorie et pratique de la prise de son stéréophonique, Eyrolles,
1998.
La lumière :
-REVAULT D’ALLONNES Fabrice, La lumière au cinéma, Cahiers du cinéma, 1991.
-ALEKAN Henri, Des lumières et des ombres, Le Sycomore, 1984.
-MILLERSON Gérald, Méthode d’éclairage pour le film et la T.V., Dujarric, 1982.
Les techniques de réalisation :
-BRESSON Robert, Notes sur le cinématographe, Gallimard, 1975.
-RUIZ Raoul, Poétique du cinéma, Dis Voir, 1995.
-S.M EISENSTEIN et S. NINJY, Leçons de mise en scène, Ferais, 1989.
Quelques approches théoriques:
-CHION Michel. Audio-vision, New York, Columbia University Press,1990
-PINEL Vincent, Les Métiers du cinéma, Toulouse, Édition Milan, 1996,
-BAZIN André, Qu’est-ce que le cinéma, Les cahiers du cinéma, 1985.
-LEBLANC Gérard, Cinéma et dernières technologies, DeBoeck Université,1998.
Quelques articles :
COMOLLI Jean Louis, « Technique et idéologie », Cahiers du cinéma , N°229 à 234.
L'IMAGE, LE MONDE N°1, dossier sur la révolution numérique (Éditions Léo Scheer)
ENCYCLOPEDIE UNIVERSALIS : Cinéma, techniques, vidéo, histoire et technique
Sites WEB :
La réalisation vidéo :
http://www.videaste.8m.com/guide/5eclairage.html (site dédié à la réalisation vidéo****)
http://www.videotruc.com (les cahiers de la vidéo)
La vidéo numérique :
http://www.repaire.net/navig/mont_choisir/essentiel/01.php (la vidéo numérique)
http://perso.wanadoo.fr/soeurs.lumiere/index.htm (comment faire un film)
http://realisation.video.free.fr (site intéressant pour amateur vidéaste)
http://www.dvforever.com (info caméra numérique actualisée)
La photographie :
http://pedagene.creteil.iufm.fr/ressources/image/
http://gdesroches.free.fr/formation/liste.htm (le cours de photo)
http://www.focale31.com/index.htm (leçons de photo)
Les métiers du cinéma :
http:// www.focal.ch/list/index-f.htm (détails des métiers)
http://www.nidinfo.com (portail d'info sur le cinéma et la vidéo)
..