Canalblog
Suivre ce blog Administration + Créer mon blog

CINE ESIL

17 décembre 2007

Liens Internet exemples cours TV

Publicité
Publicité
17 décembre 2007

Cours TV5

14 décembre 2007

PPP COURS TV 4

14 décembre 2007

PPP COURS TV 3

14 décembre 2007

PPP COURS TV 2

Publicité
Publicité
14 décembre 2007

PPP COURS TV 1

22 octobre 2007

Feuille de préparation tournage (fra-ang)

22 octobre 2007

TERMINOLOGIE CINEMATOGRAPHIQUE DE BASE

TERMINOLOGIE CINEMATOGRAPHIQUE DE BASE

(Franco-américaine)

Taille de plan/ Distance of shot (frame size)

  • Gros plan/close up (extreme)

  • Plan moyen (Américain, Italien)medium shot (American or Italian)

  • Plan-sequence/Long Shot (Long Take-full shot)

  • Plan d'ensemble /Establishing Shot (Master Shot)

Camera angles

  • Plongée/high angle shot (looking down)

  • Contre-plongée/Low angle shot (looking up)

  • straight angle shot (eye-level)

  • Caméra subjective / point of view shot

  • Plan en suivi / Follow shot

  • Plan d'Insert / Insert shot

  • Champ-contre-champ / Shot-reverse-shot

  • Reaction shot

  • Surcadrage (“montage dans le plan”)/“Two shot” (double focus in same frame)

Mouvements de caméra/Camera movements :

  • Panoramique (horizontal, vertical, “vissé”, dévissé”, circulaire)/Pan (horizontal, vertical, circular)

  • Travelling (avant, arrière, rotatif)/ tracking shot or Dolly shot (in, out, with, beside, circular, “zolly”)

  • Zoom (avant, arrière)/Zooming (in, out)

  • Caméra portée/Follow shot

Profondeur de champ/Depth of field and focus :

- Zone floue, claire/ field with different sharpness,blur,clear zone

- Dépends de la lumière, ouverture de l'iris, distance focale/it depends on : light,Iris aperture,focal distance

  • Premier plan, second plan, arrière-plan/ Background, Mid-ground, foreground

Techniques d'éclairage/Lighting technique (in 4 and 3 points lighting systems)

  • Lumière d'ambiance/ background lighting (set)

  • Lumière principale/ High key lighting (Main source)

  • Lumière compensatoire/fill light (reduce the contrast with hig key light – Main light)

  • La découpe / back light (Third point light)

  • Poursuite/cameo light. (focus on a face)

  • Clair-obscur/Low key lighting (Chiaroscuro)

  • Reflecteur / Reflection

Le Son/Sound :

  • Son diégétique (source visible à l'écran ou impliquée/Diegetic sound (sources visible on screen or implied by action)

  • Son extra-diégétique (hors diégèse, voix off et musique d'orchestre)/Non-diegetic sound (Voice of narrator, sound effects, additional music)

Les règles du montage(les raccords)/Editing rules (the cuts):

  • Raccord dans le mouvement/cut in movement

  • Raccord dans l'axe/axial cut

  • L'insert/insert cut

  • Montage parallèle/cross cuting

  • jump cut

  • action/reaction cutting system

22 octobre 2007

Feuille de préparation tournage (fra-ang)

Plan/

Shot n°

Durée/

duration

Prise de vue (angle, taille cadre, mouvement)/Cinematography (angle/frame size/movement)

Effet de lumière/Lighting effect

Son/ Sound effect

Description/Descriptions

Dialogues/Dialogues

Notes (calendrier de tournage)/Notes (shooting schedule)

22 octobre 2007

Cours d’initiation aux techniques audiovisuelles

Cours d’initiation aux techniques audiovisuelles

1. Le dispositif de production

1.1. L’équipe de fabrication

1.1.1. L’auteur

1.1.2. Le réalisateur

1.1.3. Le directeur de la photographie

1.1.4. Opérateur image

1.1.5. Opérateur son

1.1.6. Script

1.1.7. Monteur

1.1.8. Mixeur

1.2. Les techniques de tournage

1.2.1. La perception visuelle

1.2.1.1. La lumière

1.2.1.2. La température de couleur

1.2.1.3. L’oeil et la vision

1.2.2. La prise de vue

1.2.2.1. L’objectif : La focale, Le Diaphragme, La Profondeur de champ, L’obturateur

1.2.2.2. L’enregistreur : Le capteur C.C.D, La température de couleur et La balance des blancs

1.2.2.3. Les accessoires de la prise de vue : Le pied , Le moniteur, Les autres accessoires

1.2.3. La prise de son

1.2.3.1. La perception du son.

1.2.3.1.1. Qu’est-ce qu’une oreille : La physiologie de l’oreille et la perception spatiale.

1.2.3.1.2. Le champ auditif

1.2.3.1.3. L’écoute et l’audition

1.2.3.2. Les outils de la prise de son

1.2.3.2.1. Les micros

1.2.3.2.1.1. Le principe mécanique

1.2.3.2.1.2. Le principe électrique : Electrodynamique et Électrostatique

1.2.3.2.1.3. La directivité : Bi directionnelle, Omni directionnelle et Uni directionnel

1.2.3.2.1.4. Son frontal et latéral

1.2.3.2.2. La mixette : Le Vumètre, l’étalonnage des niveaux et le contrôle de l’écoute

1.2.3.2.3. L’enregistrement sonore avec la caméra

1.2.3.2.4. Les accessoires : la perche, la suspension et la bonnette

1.2.3.2.5. La mise en place d’un dispositif de captation sonore

1.2.4. L’éclairage

..

1.2.4.1. Les fonctions de l’éclairage

1.2.4.1.1. Lumière artificielle et naturelle

1.2.4.1.2. Eclairage direct et indirect

1.2.4.2. Les Principes de l’éclairage

1.2.4.3. Les outils de l’éclairage

1.2.4.3.1. Les projecteurs

1.2.4.3.2. Les accessoires

1.3. Le dispositif de post-production

1.3.1. Organisation du montage

1.3.1.1. Le dérushage

1.3.1.2. Le pré-montage

1.3.1.3. L’ours

1.3.1.4. La maquette

1.3.1.5. Le montage

1.3.1.5.1. Montage OFF LINE

1.3.1.5.2. Montage ONE LINE

1.3.1.6. La conformation

1.3.1.7. Le mixage

1.3.2. Les outils du montage

1.3.2.1. Le système de montage analogique : Un procédé LINEAIRE

1.3.2.2. Le système de montage virtuel : Un procédé NON LINEAIRE

1.3.2.2.1. Les principes du support non linéaire

1.3.2.2.2. Les avantages du système non linéaire

1.3.2.3. Configuration d’une station de montage

1.3.2.3.1. l’ordinateur

1.3.2.3.2. La partie HARDWARE

1.3.2.3.3. La partie SOFTWARE

1.3.2.3.4. Les périphériques

1 Le dispositif filmique

Le dispositif de fabrication audiovisuel est constitué d’une équipe technique, des outils de

fabrication et des techniques employées pour leurs utilisations.

1.1 L’équipe

1.1.1 L’auteur -scénariste

C'est celui qui est à l'origine de l'idée et de la conception du film, il écrit le scénario du film.

1.1.2 Le réalisateur

C'est celui qui écrit le découpage technique, c'est aussi souvent le metteur en scène du film. Il

dirige les membres de l'équipe technique (tournage et montage).

Il est secondé par le 1er assistant de réalisation qui est chargé de coordonner le tournage et

d'assurer son suivi (plan de travail, feuille de service, préparation de la mise en scène,

dépouillement...). Il est supervisé par le producteur qui s'assure d'un suivi rigoureux du plan de

tournage prévu à partir du découpage technique.

1.1.3 Le directeur de la photographie

Il a la responsabilité de la qualité technique et artistique de la photographie du film, en suivant les

directives du réalisateur conformément au découpage technique. Il règle l'éclairage en fonction de

l'ambiance que souhaite créer le réalisateur.

1.1.4 Opérateur image (chef opérateur)

Il travaille avec le directeur de la photo, il a la responsabilité du cadrage de l'image, il doit donc

choisir l'objectif (ou la focale) en fonction du plan. Il doit s'occuper de la composition des images, il

assure les mouvements d'appareils et il est le responsable de la netteté de l’image.

Il est soutenu par l'assistant opérateur pour la mise en place du dispositif et des réglages

(installer le pied, charger et changer la batterie, faire les rattrapages de diaphragme ou de mise au

point …). Il donne les indications d'erreurs techniques à la script.

1.1.5 Opérateur son (Ingénieur du son)

L’ingénieur du son est responsable, en collaboration avec le réalisateur, de la conception sonore

du film. Il exerce sa fonction technique et artistique sur les films. Il est le responsable des

enregistrements sonores. Il est donc chargé d'enregistrer le son (il contrôle le rendu du son et les

niveaux d'enregistrement) et de placer les micros, de choisir leur directivité en fonction de la source

sonore et de l'effet cherché par le réalisateur. L’assistant son assure le placement des micros et la

tenue de la perche.

1.1.6 Scripte

L’auxiliaire principal du réalisateur, il veille à la continuité du film et établit un rapport plan par plan

afin de vérifier les éléments de raccord de chaque séquence. Il note les bonnes prises et les erreurs

1.1.7 Monteur

Il assure l'assemblage des images et des sons en étroite collaboration avec le réalisateur. Il opère

suivant 4 étapes principales: le dérushage, l'ours, le pré montage et le montage. Les opérations

annexes ( copies des rushes, synchronisations audio-vidéo, numérisation) sont réalisées par

l'assistant monteur.

1.1.8 Mixeur

Il assure la qualité et la cohérence du rendu sonore, il ajuste les niveaux sonores. Il est le

responsable du mélange des enregistrements effectués par l'ingénieur du son.

1.2 Les techniques de tournage

1.2.1 La perception visuelle (optionnel)

L’action de percevoir n’est pas seulement de combiner et de pondérer des informations; c’est aussi

une action de sélection. Percevoir, c’est choisir, dans la masse des informations disponibles, celles

qui sont pertinentes par rapport à l’action envisagée.

La transmission et l'enregistrement des images et des sons ne sont possibles que par la

conversion électrique d'impressions visuelles et auditives :

L'image: à partir de la transformation d'impressions lumineuses (perception visuelle d'un

objet) en variations électriques (le signal vidéo).

Le son: à partir de la transformation d'impressions auditives (variations de pression

atmosphérique, en variations électriques (signal audio).

1.2.1.1 La lumière

Le monde scientifique a été longtemps divisé sur la nature de la lumière. Deux théories se sont

"affrontées", la théorie corpusculaire et la théorie des ondes. En fait, on peut dire aujourd'hui, en

simplifiant, qu'elle est à la fois onde et corpuscule :

La lumière est un phénomène ondulatoire : La lumière est un rayonnement d'énergie

électromagnétique provenant d'une source lumineuse naturelle (soleil, étoiles, ...) ou artificielle

(ampoule électrique, c'est-à-dire: tout corps incandescent). Ce rayonnement est la partie visible du

spectre d'ondes électromagnétiques qui nous environnent. Toutes les ondes sont de même nature,

mais elles se distinguent par leur fréquence et par leur longueur.

La fréquence, c'est-à-dire le nombre d'oscillations accomplies par une onde pendant une seconde,

elle s'exprime en Hertz (symbole Hz.).

La longueur d'onde se mesure par le système métrique conventionnel. Elle se mesure en

microns, les longueurs d'ondes dans le spectre visible : dans le rouge de 765 à 620 rira (avant 765:

infra rouge), au violet: de 435 à 380 nm (au delà ultra violet).

La lumière comme phénomène corpusculaire : La lumière est donc matérialisée par la présence

des corpuscules appelés: photons (un des éléments atomiques de toutes matières). Ces particules

"véhiculées" grâce au mouvement ondulatoire de la lumière (toujours pour simplifier) sont porteurs

d'énergie et agissent sur de nombreuses substances : photosynthèse des plantes par exemple, mais

aussi sur des sels d'argent (action photochimique, principe de la photographie), ou des métaux

alcalins (action photoélectrique, principe de l'image vidéo).

La propagation de la lumière : Ainsi, si un objet émet de la lumière, un objet éclairé reçoit cette

lumière qui est réfléchie en quantité variable, cette variation dépend de la nature (physio-chimique) de

cet objet. En effet, certains corps transmettent intégralement la lumière (verre blanc) alors que

d'autres la transmettent de manière diffuse (corps translucide, les nuages par exemple). Le corps

opaque ne laisse pas passer la lumière. Il peut en absorber la totalité, ou une partie, et dans ce cas il

réfléchit la partie non absorbée. C'est donc la lumière réfléchie qui nous permet de voir, de

photographier ou de filmer ce corps et ceux qui l'environnent.

PRATIQUE: Un personnage devant un fond de décor clair, éclairé d'une manière uniforme avec le fond, et, selon le cadre choisi, peut être sous exposé, parce que la lumière réfléchie par le fond est importante et peut créer un phénomène de contre-jour. A l'inverse placé devant un fond trop foncé, il peut être sur exposé, parce que la lumière absorbée par le fond va faire apparaître le personnage sur éclairé (bien sûr la technique ad hoc, consistera, soit à éviter d'éclairer le fond, soit à

travailler avec le diaphragme de l'objectif).

La mesure de la lumière : La photométrie traite de la mesure des intensités lumineuses

(l’éclairement). L'éclairement, est le flux de lumière reçu par unité de surface d'un élément éclairé.

II s'exprime en lux. Le lux est donc l'unité de mesure d'une intensité de l'illumination d'un lieu. C'est

une des mesures les plus utiles en photométrie. Une journée ensoleillée de 50 000 à 100 000 lux; un

ciel couvert environ 32 000 lux; un comptoir d'un grand magasin 500 à 700 lux, un appartement avec

lampes domestiques 100 à 300 lux, une rue de nuit bien éclairée 20 à 100 lux, pleine lune 0,1 à 1 lux.

La couleur de la lumière : Le rayonnement lumineux est composé d'un ensemble d'ondes

électromagnétiques qui génèrent dans des conditions "normales" (ambiance lumière du jour

ensoleillé) l'impression de lumière dite "blanche" : Les composantes de cette lumière ont été mises en

évidence par la fameuse expérience de Newton, avec "son" prisme de verre. En déviant inégalement

les lumières colorées, le prisme révèle ainsi la composition de la lumière "blanche" qui le frappe qui

est en fait formée d'une infinité de couleurs allant du violet au rouge. Physiquement, la décomposition

est produite en raison des différentes longueurs d'ondes de chacune des couleurs.

Cette expérience met en évidence que chaque couleur peut être définie par sa longueur d'onde et

donc aussi, par sa fréquence. Ainsi le spectre des ondes électromagnétiques visibles s'étend de 380nm (rappel: nano-mètre) pour le violet (fréquences autour de 7,9. 10 p14Hz) à 765 nm pour le

rouge.(fréquences autour de 3,85.10p14Hz). Avant le rouge nous nous trouvons dans l'infrarouge et

en deçà du violet nous nous engageons dans l'ultraviolet. Dans les deux cas nous pénétrons dans

l'invisible.

La sensation de couleur est le résultat d'une perception par l'oeil d'une ou de plusieurs radiations

simples du spectre visible. Si un objet nous apparaît d'une certaine couleur, c'est que sa substance

physio-chimique absorbe toutes les radiations lumineuses à l'exception d'une seule qui, définie par sa

longueur d'onde, vient "frapper" notre rétine. Par exemple, un objet est rouge s'il absorbe toutes les

composantes autres que, celles correspondant au rouge. Il réfléchit la couleur rouge. Ainsi on dira

d'un corps qu'il est blanc, s'il réfléchit toutes les radiations visibles, sans aucune absorption; noir si au

contraire il absorbe toutes les radiations; gris s'il réfléchit partiellement et de façon identique toutes les

radiations.

La température de couleur de la lumière : La lumière est composée de différentes tonalités de

couleur, ces tonalités vont du bleu appelé LUMIERE FROIDE, jusqu'à l’ORANGE appelé LUMIERE

CHAUDE. On mesure ces températures de couleur en degré Kelvin, une lumière chaude a une

température de couleur basse (3200°K), alors qu'une lumière froide a une température de couleur

froide (5600°k) : La lumière froide Naturelle (bleuté) c'est-à-dire la lumière du jour qui correspond à

5600K°. La lumière froide Artificielle : Lumière H.M.I (halogénure métallique) correspond aussi à

5600K°. La lumière chaude naturelle (orangé) par exemple un lever de soleil correspond à 2000 K° et

enfin la lumière Artificielle tel que les éclairages au Tungsten correspondent à 3200 K°.

1.2.1.2 L’oeil et la vision

Les étapes de la vision: Ce que nous voyons est le résultat d'un processus complexe qui se

décline en trois opérations successives: optiques, chimiques et nerveuses.

L’oeil pour former une image sur la rétine fait travailler la cornée, le cristallin et l'iris. D’abord un flux

lumineux frappe notre oeil, il pénètre dans la cornée qui assure en majorité la convergence des

rayons lumineux. Puis il traverse successivement l'iris (la pupille commandé de façon réflexe, s'ouvre

pour laisser passer plus de lumière si celle ci est peu intense et se ferme ans le cas contraire).

Il passe ensuite par le cristallin qui est une lentille (bi convexe), à convergence variable: c'est ce

que l'on appelle l'accommodation. C'est ce processus réflexe qui permet de rendre plus ou moins

bombé le cristallin et ainsi assurer une netteté de vision. Cette "mise au point" est assez lente et

demande en moyenne une seconde. Et il atteint la rétine qui constitue le traducteur image/influx

nerveux. En effet le fond de l'oeil est tapissé par la rétine, membrane truffée de récepteurs de lumière:

les cônes et les bâtonnets. Ces éléments contiennent une substance, la rhodopsine, qui en absorbant

la lumière, par réaction chimique, se décompose en d'autres substances, véritables informations

chimiques n'ayant rien à voir avec une quelconque image. Chaque récepteur de la rétine est en

liaison synaptique avec le nerf optique, par une arborescence de fibres et de synapses. Ce niveau a

des liaisons horizontales et verticales d'une grande complexité, et l'ensemble aboutit à une région du

cerveau. C'est le dernier stade du traitement de l'information, le premier niveau a été optique, puis

c’est le stade chimique et enfin c'est le stade neurologique.

Les éléments de la vision : (FIGURE 4) On peut considérer que la vision est un phénomène

qui se compose de deux éléments, la sensation colorée (teinte) et la sensibilité à la luminosité. Ces

sensations sont directement liés aux cellules photosensibles qui constituent la rétine : Les bâtonnets

et les cônes. Les cônes qui sont responsables de la sensation colorée. Ils sont le siège de la vision

colorée, mais sont peu sensibles à la lumière. Les bâtonnets n'interprètent que la lumière en terme

de luminosité. Ceux-ci ne perçoivent que le noir, le blanc et les nuances de gris, mais ils sont mille fois

plus sensibles que les cônes.

Le champ visuel : L’oeil dont nous venons de détailler le fonctionnement est limité par son

champ et son acuité. Le champ correspond à l’espace visible pour un regard immobile, c’est le champ

visuel, représenté par un cône, qui contient les objets visibles. L’acuité c’est l’aptitude de l’oeil à

distinguer deux points très voisins.

La persistance rétinienne : L’oeil réalise la reconstitution du mouvement à partir des images

fixes, en effet la sensation de l’information lumineuse issue du champ visuel est conservé un court

instant (un dixième de seconde) dans la rétine.

1.3 Les techniques de tournage.

1.3.1 La prise de vue et la caméra

Tous les instruments qui permettent la "capture"de l’image, reprennent le principe de l'oeil humain.

Dans un caméscope, comme dans tout appareil de prise de vue, l'enregistrement d'une image, fixe ou

animée, fait appel à des principes à peu près identiques. Le sujet ou la scène à enregistrer est placé

devant un objectif qui va focaliser l'image. Derrière cet objectif se trouve une chambre noire dont le

fond est occupé par la surface photosensible. Le capteur électronique ou L'oeil électronique est

chargé de transformer cette lumière en électricité :

La caméra est donc composée de deux parties distinctes l'objectif qui capture l’image et

l’enregistreur qui la fixe sur un support.

1.3.1.1 L’objectif

Définition : L'objectif est un système optique composé d'un assemblage de lentilles. Sa fonction

principale est de composer une image à partir de la lumière venant de la scène cadrée qui le traverse.

Il est l'organe de la caméra chargé de former une image sur la surface sensible, à partir des rayons

lumineux réfléchis par le sujet filmé.

Les étapes de la constitution de l’image : Les rayons lumineux réfléchis par le l’objet filmé

frappent la lentille qui concentre le rayon vers un séparateur optique. Le séparateur optique

décompose les couleurs de la lumière en Rouge, Vert, Bleu et les envoie sur un dispositif de surface

sensible le CCD : système à transfert de charge.

Les variations lumineuses sont alors traduites en signaux électriques qui sont analysés par les

circuits électroniques de la partie magnétoscope où ils sont enregistrés.

Le fonctionnement de l’objectif est contrôlé par une série de réglages sur l’objectif même : la focale,

le diaphragme et la mise au point. l’obturateur.

1.3.1.1.1 La focale

Elle permet de régler la taille et l’angle du champ. Attention, l'utilisation d'une focale est fonction de

l'effet recherché par le réalisateur, ainsi vous devrez justifier la focale choisie dans le découpage

technique. C’est la distance focale d'un objectif que l'on nommera focale. C'est la distance qui sépare

le centre optique de l'objectif du foyer image (surface sensible). Cette distance, exprimée en mm,

caractérise chaque objectif par l'angle de champ, c'est-à-dire la portion d'espace couverte par ce

dernier (en degré). Pour un format d'image donné, plus la focale est courte, plus le champ couvert est

large; plus la focale est longue, plus le champ couvert est étroit.

Il existe trois types d'objectifs qui peuvent être réunis dans un même objectif variable appelé

ZOOM OPTIQUE :

L'Objectif grand angle ou courte focale ( focale 28 en photo, 7 mm pour une caméra 1/2 pouce)

permet de composer un champ visuel important (on dit aussi le cadre ). Il permet de combiner un

espace très large avec une grande profondeur de champ. Il est utilisé pour diverses raisons, il est utile

lorsqu'il faut suivre un sujet en caméra portée et les mouvements dans le cadre sont accélérés.

L'Objectif normal ou focale moyenne ( focale de 45 mm en photo, 9mm en 1/2 pouce), permet de

composer un champ de vision qui se rapproche le plus de la vision humaine.

Le Téléobjectif ou longue focale ( + de 100 mm en photo, 102mm en 1/2 pouce, voir plus ); on dit

qu'il "écrase" la profondeur de champ en réduisant la perspective, c'est à dire que l'impression

visuelle est plate. Il permet de faire un point de vue rapproché d'un sujet lointain et les mouvements

dans le cadre semblent ralentis. Il est indispensable de l'utiliser avec un pied pour stabiliser la vision.

La bague de réglage de la distance FOCALE (n’existe pas sur un objectif fixe): C'est la bague de

réglage du zoom qui permet de choisir la focale de l'objectif.

Le zoom est un dispositif mécanique ou électronique de réglage des lentilles il ne remplace pas le

travelling, les perspectives ne changent pas comme lorsque la caméra se rapproche ou s'éloigne du

sujet. Les variations sont comprises entre 7 et 102mm sur la caméra que vous allez utiliser.

1.3.1.1.2 Le diaphragme

Définition: le diaphragme est un cache circulaire de diamètre réglable, dont le rôle est de doser la

quantité de lumière qui traverse l'objectif pour que l'image formée soit correctement exposée. En

ouvrant le diaphragme on augmente la quantité de lumière d'une scène sombre. En le fermant on

diminue la quantité de lumière d'une scène trop lumineuse.

Les valeurs qui caractérisent le degré d'ouverture sont conventionnelles, et sont (sur du matériel

professionnel) gravées sur une bague de l'objectif. Ces valeurs sont inversement proportionnelles au

diamètre de l'ouverture

La bague de réglage du DIAPHRAGME : C'est l’iris qui permet de régler la luminosité de votre

caméra, c'est donc la bague qui règle l'ouverture de la lumière. Les réglages vont de 2,8 jusqu’à 22.

Plus le sujet est éclairé plus il faut fermer le diaphragme. Plus le diaphragme est fermé plus la

profondeur de champ est importante.

Une valeur de diaphragme en dessous de 5,6 est caractérisée par un piqué d'image (grain), il faut

donc essayer de travailler autant que possible avec une valeur de diaph supérieure à 5,6.

Une bonne exposition de l'image est caractérisée par une luminosité contrastée, où le blanc n'est

pas saturé et où le noir est visible.

La profondeur de champ : C'est la zone de netteté plus ou moins grande de l'image entre le

premier plan et le dernier plan net du cadre. Lorsque l'on doit faire la mise au point sur une image, il

faut toujours commencer par amener la focale en téléobjectif, ouvrir le diaphragme, utiliser la bague

de mise au point pour faire le point dans le viseur et enfin ramener l'objectif à la focale initiale.

La profondeur de champ détermine quels seront les objets flous et les objets nets comme l'illustrent

les deux photos ci-dessous. Si la profondeur de champ est une science importante en photographie

argentique, on s'aperçoit que la vidéo (et la photographie numérique) gomme son usage. Donc la

profondeur de champ est la zone de netteté devant et derrière le sujet sur lequel est faite la mise au

point.

Elle dépend De l'ouverture du diaphragme (Plus le diaphragme est ouvert (2.8, 4), plus la

profondeur de champ est faible), De la focale de l'objectif (Plus la focale est longue (100, 200 mm),

plus la profondeur de champ est faible), et De la distance du sujet (Plus le sujet est proche, plus la

profondeur de champ est faible).

La profondeur de champ se répartit pour 1/3 à l'avant du sujet et 2/3 à l'arrière : le premier plan

sera plus flou que l'arrière-plan (sauf en macrophotographie où elle est à peu près égale à l'avant et à

l'arrière).Ainsi, si l'on veut que le premier plan et le sujet principal soient nets, on aura intérêt à faire la

mise au point entre les deux plans plutôt que sur le sujet principal.

..

Pratique : Le contrôle du réglage du diaphragme par le ZEBRA : Il existe pour vous aider un

système de contrôle sur la caméra (en plus du moniteur vidéo) appelé ZEBRA : on choisit une

référence de blanc à la limite de saturation (700mv) et des zébrures se surimposent à l'image cadrée

dans le viseur pour cette valeur de blanc et plus (Pour le contrôle de la luminosité voir aussi contrôle

du shutter).

1.3.1.1.3 La bague de MISE AU POINT ( FOCUS)

C'est la bague qui permet de régler la netteté de l'image et qui permet de faire la mise au point de

l'image. Pour cela vous devez : Avec la bague de focale « zoomer » au maximum sur votre objet qui

doit être net. Avec la bague de mise au point faire la netteté.

Avec la bague de focale, revenir à votre position initiale.

1.3.1.1.4 La bague du tirage optique

C’est un réglage du bloc optique pour que la mise au point soit identique quelle que soit la focale

du zoom. En effet, il arrive parfois que l'on fasse un point correct en téléobjectif puis lorsque l'on réajuste

la distance focale de l'objectif en grand angle le point devient flou, dans ce cas il s'agit d'un

problème de tirage optique. Cette bague est verrouillée de façon à ne pas modifier son réglage par

erreur, il faut utiliser une mire spéciale pour refaire le réglage.

Méthode opératoire : Disposer la mire face à la caméra et décoincer la bague de tirage optique.

Faire un zoom avant maximun sur la mire et faire la netteté avec la bague de tirage optique. Revenir

en grand angle. (Fig. 15 : exemple de mire de réglage)

1.3.1.2 L'enregistreur

Les capteurs CCD : Dans le caméscope, c'est un capteur photosensible électronique qui va

analyser et transformer l'image, issue de l'objectif, en signal électrique. Tous les courants émis sont

traités par les circuits électroniques du caméscope et vont permettre de reconstituer l'image du sujet

sous la forme d'un signal vidéo puis de l'enregistrer sur la bande vidéo. Les capteurs électroniques

sont appelés C.C.D. (couple charged device).

TRI CCD et MONO CCD : Une caméra professionnelle présente trois capteurs, un pour le rouge,

un pour le vert et un pour le bleu. Un séparateur optique "aiguille" et filtre la lumière reçue et focalise

sur chaque capteur les parties du spectre lumineux correspondant aux trois images, qui sont ensuite

traitées dans des circuits "capteur", pour recréer une seule image. Bien sûr, ce dispositif permet

d'augmenter la qualité de la définition de l'image. Les caméscopes amateur dispose d’un seul capteur

on dit alors mono-CCD (généralement de type grand public) il ne propose donc qu'une seule surface

sensible (un seul capteur).

Il existe différents réglages à effectuer pour obtenir une image naturelle.

Ces réglages sont élaborés en fonction de trois paramètres :

-la température de couleur de la lumière,

-la balance des blancs

-la vitesse d'obturation.

1.3.1.2.1 La température de couleur

Notre oeil est capable d'intégrer les différences de température de couleur lorsque la lumière

change de tonalité, alors qu'une caméra ne choisit pas automatiquement la bonne colorimétrie pour

l'image en fonction du type d’éclairage que vous utilisez. Il faut donc impérativement choisir le filtre

qui correspond à la bonne température de couleur et il faut le faire à chaque changement d'éclairage.

Il existe une bague de réglage qui permet de sélectionner le FILTRE équivalent à la température de

couleur de l'image :

Position 1 : filtre 3200 K c'est la position en éclairage artificiel (intérieur).

Position 2 : filtre 5600 K c'est la position en éclairage naturel (extérieur).

Position 3 : filtre 5600 K + 1/4 neutre c'est la position en éclairage naturel contrasté (extérieur

soleil au zénith, situation de tournage extrême à la neige...).

1.3.1.2.2 La balance des blancs :

Nous avons dit que puisque la caméra ne peut pas s'adapter comme l’oeil humain au changement

de colorimétrie de la lumière il fallait lui disposer un filtre de couleur.

Mais pour qu'elle puisse restituer fidèlement les couleurs des objets sans y ajouter de dominante, il

faut en plus effectuer un étalonnage colorimétrique à chaque changement de température de couleur

de l'environnement lumineux. C’est l’opération de la balance des blancs.

Le réglage de la balance des blancs est réalisé pour compenser les variations de la température de

couleur de la lumière pour que les blancs soient reproduits comme blancs. C'est donc l'opération qui

permet d'équilibrer le réglage colorimétrique de la caméra à partir d'un blanc et d'un noir externe.

Méthode pour régler la balance des blancs sur la caméra :

a Mettre la caméra en position diaphragme automatique

b Choisir le filtre 1, 2 ou 3 en fonction de l'éclairage c

Choisir la position A ou B

d Placer un papier blanc bien éclairé devant la caméra

e Zoomer sur le papier pour ne cadrer que le blanc

f Appuyer sur le commutateur WHITE AUTO, et Attendez le Message "Auto White Ok"

La caméra permet d'enregistrer 2 réglages (A et B) afin de pouvoir réutiliser ultérieurement un

réglage ou retrouver le même réglage. Il existe aussi un réglage automatique, c'est le mode PRESET.

1.3.1.2.3 L'obturateur

L'obturateur électronique doit régler l’importance de l’arrivée de lumière en augmentant ou

réduisant le temps de l'exposition du capteur vidéo. C'est l'option appelée "Shutter". C’est le réglage

de la vitesse d’obturation : on peut avoir une vitesse d'obturation jusqu'à 1/2000ème de seconde.

Au plus la vitesse est importante, au mieux il saisit les mouvements rapides avec netteté,de la

même façon il augmente ou diminue la luminosité.

En vidéo on a un temps de pose de 1/50ème de seconde, cette durée correspond au temps ou le

capteur va se charger en intensité électrique.

La vitesse d'obturation : C'est le temps pendant lequel le photogramme ou le CCD est

impressionné par la lumière. En vidéo, la vitesse d'obturation est fixe : 25 images par seconde soit 50

trames par seconde : La vitesse d'obturation est donc de 1/50ème de seconde. En photo, au cinéma

la vitesse d'obturation est variable. Sur un appareil photo on a la bague des vitesses qui va en

moyenne de 1/2000 à 1 seconde.

Si l'on prolonge le temps d'exposition au-delà du 1/50ème de seconde pour engranger plus de

lumière (il faut que l'image soit statique) cela permet d'avoir un excellent rapport signal sur bruit (la

qualité de l'enregistrement est améliorée).

Attention le GAIN ET LE SHUTTER sont deux réglages indépendants : Par exemple, si vous

tournez dans des conditions de faible éclairage, à la tombé de la nuit, vous devrez diminuer la vitesse

d’obturation ou augmenter le gain afin de rendre l'image plus lumineuse.

Le gain : amplificateur électronique. Le gain amplifie le signal en multipliant la tension, le problème

du gain est que l'on ajoute du bruit.

1.3.1.3 Les accessoires de la prise de vue

1.3.1.3.1 Le pied de la caméra

Le pied vidéo permet de faire les mouvements panoramiques et les plans fixes. Il faut une semelle

pour stabiliser la caméra sur le pied et une bulle pour faire le niveau au sol.

1.3.1.3.2 Le moniteur de contrôle

Il permet de vérifier le rendu de l'image enregistrée par la caméra notamment pour les réglages de

couleur (filtre et balance des blancs) et d'exposition (sous exposé ou sur ex).

La mise au point ne se fait pas sur le moniteur, mais sur le viseur de la caméra.

Il permet aussi au réalisateur de contrôler la composition du cadre et à la script de vérifier qu'il n'y

ait pas de fautes de raccords (accessoires, entrée-sortie,…), elle doit aussi faire attention à ce que le

micro n'entre pas dans le champ.

1.3.2 La prise de son

1.3.2.1 Qu'est-ce qu'un son ?

Un son est une vibration de l'air que l’on perçoit parce qu’il fait vibrer le tympan de notre oreille.

Imaginez une pierre qu'on envoie dans l'eau : l'onde se déplace de l'endroit où est tombée la pierre

vers l'extérieur jusqu'à la rive. C’est le principe du haut-parleur qui est constitué de plusieurs

membranes qui font vibrer ( bouger ) l'air autour d'elles et créent une onde qui se propage dans

l'environnement.

Rappel physique : Nous entendons des sons, car la pression de l'air change légèrement dans nos

oreilles. On peut représenter cette variation de pression par rapport au temps sous forme graphique.

De la même façon c’est cette pression qui lorsqu’elle est récupérée par un capteur (microphone...),

peut être représentée sous forme de tension et donc traduit en données électrique.

La nature du son : Le son est donc un phénomène vibratoire qui est issu de la vibration de l'air.

Un son est caractérisé par sa fréquence (quand le son est grave ou aigu, mesuré en Hertz) et son

amplitude (quand le son est fort ou faible, c’est le niveau sonore en Décibel).

La perception du son : Le son est créé lorsqu'un objet vibrant transmet sa vibration à l'air

ambiant. La vibration de l'air se propage alors et atteint nos oreilles où elle fait vibrer nos tympans.

L'oreille interne transforme alors cette information mécanique en signaux chimiques que le cerveau

sait interpréter.

Le son est donc une grandeur analogique qu'il convient de transformer si on veut le stocker pour le

reproduire. C'est le rôle du microphone (qui transforme la vibration acoustique en un signal électrique.

1.3.2.2 Qu'est-ce qu'une oreille ?

Physiologie de l’oreille : Elle est constituée de trois parties : l’oreille externe qui comprend le

PAVILLON et Le début du CANAL AUDITIF, c’est le lieu de la captation sonore (localisation de la

source et concentration du son. Ensuite il y a l’oreille moyenne qui est constituée de la fin du CANAL

AUDITIF, du TYMPAN et des OSSELETS, son principe est équivalent à celui du microphone, elle

amplifie le son puis cette énergie acoustique (extérieure) est transformée en énergie mécanique.

Le Tympan ressemble à la membrane du micro, c’est la vibration de cette membrane (principe

mécanique) qui génère les informations à transmettre au cerveau par l’intermédiaire de la chaîne des

osselets (le marteau, l’enclume et l’étrier). Et enfin il y a l’oreille interne constituée de la TROMPE

d’EUSTACHE, LA CHOCLEE et les NERFS AUDITIFS, qui servent à transformer l’énergie mécanique

en énergie électrique qui sera analysée par le cerveau pour produire une sensation auditive. En effet,

la choclée contient un liquide, la lymphe, dans lequel baignent les cellules ciliées, c’est l ‘excitation de

ces cellules qui produit un micro courant électrique, les cellules sont reliées aux nerfs auditifs qui se

chargent de transmettre le flux nerveux au cortex.

La perception spatiale du son : C’est parce que nous avons deux oreilles que nous pouvons

repérer une source sonore dans l’espace. En effet, le cerveau se sert de la différence d’intensité reçue

entre les deux oreilles, ainsi que du décalage dans le temps.

Grâce à la présence des deux oreilles on peut saisir l'effet stéréophonique par estimation de la

différence d'intensité ou de phase du même signal perçu par les deux oreilles. Par exemple un son

sera perçu à gauche si on diminue le volume du signal de droite ou si on le retarde.

1.3.2.3 Le champ auditif et la BANDE PASSANTE

L'oreille peut donc entendre des sons de fréquences comprises entre une valeur minimum

(fréquence basse ) et une valeur maximum (fréquence haute ), on dit que la bande passante de

l’oreille est l'intervalle de fréquences entre la fréquence basse et la fréquence haute . On parle aussi

de CHAMP AUDITIF .

L'oreille humaine commence à percevoir les sons à partir de 20 hertz (c'est-à-dire 20 cycles par

seconde). En dessous, il s'agit d'infra-sons, inaudibles, mais que le corps ressent et qui peuvent être

dangereux à un niveau très élevé.

Par exemple, le bruit provoqué par le roulement des camions sur une route pavée peut causer des

perturbations de l'audition et des troubles psychologiques chez les riverains.

De même, l'oreille entend les sons jusqu'à 20 000 hertz -mais pas au-dessus alors que les

animaux et les insectes les perçoivent.

Enfin, L'oreille humaine est plus sensible aux fréquences moyennes (entre 500 et 12000 kHz), de

plus elle est sélective alors qu'un microphone ne l'est pas ( par exemple une conversation dans un

milieu bruyant).

*EXEMPLES : Si le son est trop fort (grande vibration) le tympan se déplace trop ; il s'enfonce

comme un membrane. Le tympan peut s'arracher de son support, on devient sourd !.

Si le son est trop faible (petite vibration) le tympan envoie une vibration d'amplitude trop faible. Le

cerveau ne peut pas l'interpréter.

Si le son est très aigu (fréquence très haute, vibration très rapide) le tympan vibre très vite autour

de sa position d'équilibre et tout se passe comme s'il ne vibrait pas du tout. Le nerf auditif ne transmet

rien au cerveau.

Si le son est trop grave (fréquences très basses, vibration très lente) le tympan vibre trop

lentement et le nerf optique ne reçoit rien,

1.3.2.4 La psycho acoustique : écoute et audition

Il convient de bien distinguer l'Ecoute de l'Audition, car "entendre n'implique pas pour autant la

présence d'un champ conscient.

Entendre, c'est en quelque sorte subir un son ou un message qui nous est adressé.

Écouter, c'est désirer appréhender ce son ou ce message. Il s'agit là de deux postures différentes".

Nos oreilles ENTENDENT, alors que notre cerveau ECOUTE, c’est à dire qu’il filtre les sons de

façon intelligente. Entendre est donc le résultat d'une perception répondant à une stimulation venant

de l'extérieur. Écouter se base, sur cette stimulation venant également de l'extérieur, mais devant être

intérieurement, intentionnellement recherchée. Les notions de capteur, de choix, de filtre apparaissent

alors, l'élément conscient devient ainsi le facteur essentiel sur lequel repose toute la différence entre

ces deux activités qui évoluent en parallèle.

"Voir et vouloir voir" sont deux mécanismes totalement différents, le second utilisant le premier.

Vouloir voir, c'est viser. Il en est de même pour entendre et écouter.

L'Ecoute résulte du vouloir entendre et est l'équivalent de la visée.

L'Ecoute est à l'oreille, ce que la visée est à l’oeil. Cette distinction doit être constamment présente

dans l'esprit de l’ingénieur du son.

1.3.2.5 Les outils de la prise de son

1.3.2.5.1 Les micros

Le micro est pour le son l'équivalent de l'objectif pour l’image, il détermine un champ et une

esthétique sonore. Il s'agit d'un "capteur qui traduit une réalité physique (la vibration de l’air) en une

autre réalité physique (le courant électrique).

Le microphone comprend donc une partie mécanique liée à l'acoustique (la membrane et ses

accessoires) et une partie électrique (le moteur du micro)lié à la reproduction du son. Se sont ces

deux éléments qui déterminent les diverses possibilités de microphones.

1.3.2.5.1.1 Le principe mécanique

Les membranes réagissent à pression de l'air environnant : les variations de pression de l’air

provoquées par le déplacement des ondes sonores mettent en mouvement une membrane.

Les variations de la membrane sont utilisées pour produire une tension électrique qui est l’analogie

(le reflet) des vibrations acoustiques. C’est le moteur (transducteur) mécanique ou électrique, qui a

une vibration donnée de la membrane fait correspondre une vibration électrique, et qui peut prendre

lui aussi plusieurs formes : les systèmes électrodynamiques et les systèmes électrostatiques.

1.3.2.5.1.2 Le principe électrique

Il existe donc principalement deux types de principe électrique pour le fonctionnement des

microphones : le principe électrostatique et le principe électrodynamique.

Le principe électrodynamique

Le fonctionnement des micros dynamiques est le plus simple à comprendre, cette technologie

classique fonctionne à l’inverse de celle des haut-parleurs ordinaires.

Un diaphragme en plastique ou en métal est fixé à une bobine en cuivre, située dans un champ

magnétique. Les ondes de pression sonore qui percutent le diaphragme provoquent son déplacement,

qui entraîne à son tour celui de la bobine située dans le champ magnétique. Les variations

magnétiques qui en résultent se traduisent par des variations électriques correspondant généralement

aux variations physiques de l’onde sonore d’origine.

Le principe du micro dynamique permet de supprimer une source externe d'énergie, il permet un

micro robuste qui est peu sensible aux contacts, difficilement saturable, il s'adapte très bien aux

situations de tournage de type reportage, mais il doit toujours être très proche de la source sonore (30

cm max).

Le principe électrostatique

Le principe électrostatique utilise l’énergie électrique. Les micros électrostatiques utilisent un

condensateur : les ondes sonores percutant le diaphragme modifient la capacitance dans le champ

entre le diaphragme chargé et la plaque arrière. Le micro est constitué d'un corps dans lequel on doit

mettre une pile, et d'une tête qui est le capteur sonore. C'est un micro très performant selon le capteur

il peut être hyper sensible. Attention il est très sensible aux contacts et il doit être tenue par une

perche.

1.3.2.5.1.3 La directivité

Le terme directivité est employé pour décrire la réaction d’un micro aux sources sonores provenant

de plusieurs directions. Chacune des directivités a sa place et son utilisation dans le processus

d’enregistrement. il existe trois grandes directivités : Omni, bi et uni – directionnel. En effet, tous les

micros ne captent pas les sons de la même manière et dans toutes les directions.

La directivité d'un micro correspond à sa sensibilité constitué de son champ et de sa puissance (on

peut comparer les différentes directivités des micros à la longueur focale des caméras, selon que l'on

utilise une courte focale ou longue focale on sélectionne un champ de captation plus ou moins grand,

on retrouve la même chose selon que le micro sera plus ou moins directif).

ATTENTION : Le choix du micro est relatif à puissance et au champ de la source sonore. Il est

primordial d'utiliser le micro adapté à la source sonore pour effectuer une bonne prise son.

Bidirectionnel : La directivité en 8 ou bidirectionnelle est sensible sur les deux faces opposées du

micro et rejette les sons venant sur les côtés.. Comme les directivités cardioïdes, elle présente un

effet de proximité.

Omni directionnel : Comme son nom le suggère, le diagramme « omni » recueille les sons

provenant de toutes les directions avec la même précision. Les micros omnidirectionnels permettent

de capturer la résonance de la salle ainsi que la source sonore, et produisent un son plus ouvert

comparé à la qualité de captation plus “directionnelle” des cardioïdes. L’omni offre d’excellents

résultats avec les ensembles vocaux, les effets sonores et les instruments acoustiques au son

réaliste, lorsque la dimension acoustique de l’environnement d’enregistrement est souhaitable.

Il capte indifféremment les sons autour de sa tête, il doit être à proximité de la source sonore car sa

puissance de captation est hyper faible. Il est utilisé essentiellement dans des prises de son à

effectuer à proximité de la source (moins de 20 cm) d'où son nom de micro de proximité.

Uni directionnelle : Se sont les microphones cardioïdes et hyper cardioide qui sont

unidirectionnels, c’est-à-dire qu’ils reçoivent le son principalement à l’avant de la capsule. L’arrière de

la capsule rejette les sons qui lui parviennent, permettant ainsi à l’ingénieur du son d’isoler la source

des signaux d’autres sons et bruits de fond.

Cardioïde : La directivité cardioïde est probablement la plus répandue. C’est sa ressemblance

avec la forme d’un coeur qui lui a donné son nom.

Les diagrammes cardioïdes présentent généralement un effet de proximité, c’est à dire, un

accroissement des fréquences moyennes-basses à mesure que la distance entre la source sonore et

le micro se réduit. Il capte les sons en avant et sur les cotés de la tête du micro. Il a une sensibilité

moyenne, sa caractéristique principale est de capter les sons d'une manière égale. Il est relativement

sensible aux bruits de contacts, il doit donc être disposé sur une perche, il est très sensible aux bruits

de vents et aux plosives. C'est un micro adapté pour une prise de sons d'ambiances, à la perche et

dans le cas où il peut être disposé près de la source sonore, ou lorsque l'ambiance est assez tenue.

Hyper cardioïde (ou canon) : La directivité super cardioïde présente un champ de sensibilité

encore plus étroit que le diagramme cardioïde classique et s’utilise pour les enregistrements très

“focalisés”. Il est parfait lorsque l’on souhaite capturer le point d’enregistrement idéal d’instruments

tels que le piano ou certains éléments de la batterie. Les super-cardioïdes sont également parfaits

pour les enregistrements en direct, où il est très important d’isoler les différentes sources, par exemple

quand il s’agit d’éviter que les signaux de la voix et de l’instrument joué par le chanteur “débordent”

l’un sur l’autre. Les micros à directivité élevée se prêtent particulièrement aux prises de sons lorsque

la source est lointaine et au travail à la perche. Il est hyper sensible aux bruits de vents ( il faut le

protéger avec une bonnette en extérieur).

1.3.2.5.2 La mixette

C'est l'appareil qui permet de moduler le niveau sonore à distance et afin de l'enregistrer dans les

meilleures conditions possibles sur la caméra. En effet la mixette, comme la caméra, dispose d'un

vumètre qui permet de contrôler le niveau d'enregistrement sonore. Elle dispose aussi d'un signal de

référence (1000 hz) pour étalonner l'enregistrement sonore de la caméra.

Le réglage des niveaux sonores (le vumètre) : Le vu-mêtre est l'indicateur du volume sonore, il

est paramétré en Décibels (dB), de -30 db à +3db. Un niveau sonore d’enregistrement correct

correspond à une oscillation entre -5db et O db. Au-delà, le son risque d'être saturé, en deçà le son

risque d'être sous modulé.

L’étalonnage : Etant donné que l'on ne peut pas avoir les yeux sur le vumètre de la mixette et sur

le vumètre de la caméra, il faut que les deux niveaux se correspondent.

Pour cela, il faut étalonner les niveaux d'entrée : il s'agit de régler le niveau d'enregistrement de la

mixette afin que le 0 db sur le vumètre de la mixette et celui de la caméra corresponde au 1000 Htz

de la mixette. (Attention : la mixette que l'on va utiliser a un 1000 Mhz calé à -10db).

Protocole pour l’étalonnage de la mixette :

-relier les deux appareils avec un câble (sortie de la mixette vers entrée de la caméra).

-enclencher le générateur de 1000Hz de la mixette.

-régler le potentiomètre MASTER de la mixette à Odb.

-régler maintenant le 1000hz à Odb sur la caméra

Contrôle de l’écoute avec la mixette : Pour l’écoute et le contrôle du son la mixette dispose d’une

sortie casque pour contrôler le son, mais attention, le son qui sera entendu par cette voie n’est pas

celui qui sera enregistré sur la caméra, il faut donc obligatoirement brancher une écoute sur la sortie

de la caméra pour vérifier la qualité finale d’enregistrement du son.

1.3.2.5.3 L'enregistrement sonore avec la caméra

Il est possible d’enregistrer le son sur un support indépendant de la caméra si on dispose d’un

enregistreur. Il existe des supports numériques (minidisc, …) ou des supports analogiques (D.A.T, …)

Cette solution est toujours préconisé en cinéma beaucoup moins en vidéo.

Les réglages sur la caméra : Au secteur cinéma, nous utilisons la caméra comme enregistreur

image et son, la mixette sert d’intermédiaire pour le contrôle de l'enregistrement sonore. La caméra

permet d'enregistrer séparément deux pistes sonores CH1 et CH2 (par exemple, pour enregistrer

séparement un son d'ambiance et un son principal).

La mixette dispose de trois entrée micro, qui permettent de connecter trois micros différents,

cependant elle dispose d’un seul canal de sortie, c'est-à-dire que les trois sons seront mixés dès la

prise de son et ils seront enregistrés sur une seule piste (CH1 ou CH2) sur la caméra.

Le volume d'enregistrement est réglé indifféremment sur chaque piste à partir d'un VUMETRE qui

indique le niveau sonore.

Le contrôle de l’enregistrement se fait par l’écoute avec un casque qui a un volume réglable

indépendamment du niveau d’enregistrement sonore. Attention, il ne faut pas confondre le niveau

d'écoute (au casque) avec le niveau d'enregistrement (à la caméra). Il ne faut pas changer le réglage

d’écoute pendant un tournage, c’est le niveau d’enregistrement qui doit être modifié.

1.3.2.5.4 Les accessoires : la perche, la suspension et la bonnette

La perche est utilisée pour éviter les bruits de contacts sur les micros. il faut isoler le micro de

tous les bruits parasites possibles. On enroule le câble autour du corps de la perche afin d'éviter les

bruits de frottement.

La suspension est l'articulation entre la perche et le micro, elle permet d'amortir les secousses

en cas de mouvements.

La bonnette est une protection anti-vent en extérieur, elle est aussi utilisée pour se protéger des

autres parasites, c’est alors une protection « anti-plop ». Il existe la bonnette simple en mousse

creuse pour l'intérieur et il existe la bonnette rigide appelée aussi "Rycotte" qui est constituée d'une

enveloppe de protection grillagée sur laquelle on peut ajouter une housse anti-vent pour l'extérieur.

1.3.2.5.5 Mise en place du dispositif sonore

Pour déterminer le dispositif de captation sonore vous devez tenir compte de plusieurs facteurs

importants :

-la nature de la source sonore (voix, musique, bruits (ambiances)...)

-la dynamique de la source sonore.

-l'acoustique des lieux (réverbération, écho...)

-l'environnement (bruyant, calme, zones magnétiques, champ électrique...)

-l'emplacement du micro (caché, perché, à la main)

-Le cadrage de l'image (plan rapproché, plan d'ensemble...).

Pour le dispositif :

-Exigez de voir le cadre avant de positionner votre micro.

-Positionnez le micro le plus près possible de la source.

-Exigez toujours un son d’essai afin de préparer les niveaux d'enregistrement.

-Ne jamais modifier le réglage d'écoute du casque pour garder toujours la même référence.

1.3.3 L'éclairage

1.3.3.1 Les fonctions de l'éclairage

L'éclairage a pour fonction d'assurer une exposition correcte (ouverte de diaph correcte),

donnant des images nettes, aux couleurs saturées et de contraste agréable.

Il permet de mettre en scène le jeu de la lumière et de l'ombre afin de suggérer la notion de

profondeur. Il permet de créer l'atmosphère et l'ambiance du film comme les sons et les images, il

transmet des émotions au spectateur.

1.3.3.2 Lumière naturelle et artificielle

Il existe deux sorte de lumière, celle du jour (l’éclairage solaire est pauvre en rayonnement orange)

6500 K, et la lumière générée par les lampes d’éclairage (tungstène et halogène) qui donnent une

lumière de 3200 K (pauvre en rayonnement bleu).

La caméra n’est pas capable de reconnaître automatiquement le type d’éclairage, elle dispose de

filtres qui permettent d’adapter la sensibilité chromatique de l’enregistrement de l’image à l’une ou

l’autre de ses lumières.

Lorsque vous éclairez une scène avec un seul type d’éclairage il vous suffit de positionner le bon

filtre équivalent à la bonne température de couleur. Par contre s’il y a un mélange d’éclairage ayant

des températures de couleurs différentes, il faut ajouter des gélatines de couleur :

Il existe deux couleurs principales de gélatine, le bleu et l’orange qui permettent d’équilibrer les

températures de couleurs, l’une pour la lumière du jour l’autre pour la lumière artificielle.

Ainsi en ajoutant une gélatine de correction bleutée à une lumière artificielle, on change la

dominante rougeâtre de cette lumière, elle était à 3200°K au départ et a été transformé en 5600°k.

1.3.3.3 Eclairage direct, indirect ou diffusé

Lorsque l’on compose un éclairage il faut contrôler l’intensité et la forme des faisceaux lumineux.

La projection de la lumière peut être directe, indirecte ou diffusée.

Lumière directe : elle provoque un éclairage dur, les ombres sont fortes, et les contrastes sont

accentués. C’est en général la source principale.

La lumière diffusée : elle est diffusée grâce à un filtre (spoun) placé devant la source lumineuse. Il

en résulte un éclairage doux, sans ombre marquée.

Lumière indirecte : elle s’obtient par réflexion de la lumière sur une surface claire. La réflexion

diminue l’intensité lumineuse. Le réflecteur utilisé généralement en extérieur pour réfléchir la lumière

naturelle du soleil peut être utilisé pour réfléchir la lumière artificielle d’un projecteur en intérieur. Il est

particulièrement utile pour éclairer les visages car il ne gène pas le sujet et éclaircir les ombres avec

beaucoup de finesse.

1.3.3.4 Les Principes de l’éclairage

Un éclairage élaboré est constitué de plusieurs sources lumineuses agencées de façon à donner

une impression d'éclairage naturel. Il s’agit de placer au moins trois sources lumineuses en position

de triangle chaque source ayant une fonction précise et une intensité différente. C’est La règle des

trois points :

-La source principale (Keylight) : qui crée le modelé du sujet principal, elle est puissante, placée

à 45 degrés en hauteur. C’est la source qui va situer le sujet dans l’espace en délimitant les formes et

les volumes. Cette source clé met en valeur les traits du visage, mais elle crée aussi des ombres

puissantes dans le visage (sous le nez, dans les yeux) et sur l’arrière plan.

-La source de remplissage (Fill in) : elle a pour objectif d’éclaircir les ombres de la source

principale. Elle est placée à l’opposé de la source principale, elle est diffusée et donc moins intense

afin de ne pas créer de nouvelles ombres sur le sujet et l’arrière plan.

-La source d’effet (contre jour) : Elle sépare le sujet du fond en créant un liseré lumineux, il

décolle le sujet du fond afin de créer un effet de profondeur. Elle est positionnée à l’arrière et au dessus

du sujet. On peut modifier ce système de base et intégrer d’autres sources lumineuses dans

divers axes afin par exemple d’éclairer un point particulier du décor ou du sujet. Ainsi souvent un

projecteur est utilisé pour éclairer le fond de la scène, il crée un contraste avec le sujet, son intensité

doit être beaucoup plus faible et éclairer le décors de façon régulière.

Lorsque l’on utilise une seule source lumineuse comme par exemple une torche l’image qui en

résulte sera plate et des ombres disgracieuses seront projetées en arrière plan. Cependant il peut

arriver parfois que l’on utilise une seule source lumineuse pour éclairer rapidement un décor, il faut

réfléchir en diffusant la lumière par les murs ou les plafonds, on obtient une lumière douce, créant une

ambiance plus naturelle.

1.3.3.5 Les outils de l’éclairage

Les projecteurs : se sont les sources lumineuses que l'on va utiliser pour éclairer la scène. Il

existe différents types de projecteurs que l'on choisit en fonction de leur puissance, de leur

température de couleur et de leur système de diffusion (lentille).

Les projeteurs à ampoule de tungstène (mandarine, blonde …) sont utilisés pour l'éclairage

d'intérieur, ils sont différenciés par leur puissance et leur lentille : Les projecteurs de type mandarine

ou blonde (850 et 2000 Watts) n’ont pas de lentille de réflexion. Les projecteurs de type "FRESNEL"

(1000 Watt) disposent de lentille convergente qui focalise la lumière. Les projecteurs à halogénures

métalliques (H.M.I) sont utilisés pour les tournages extérieurs car ils ont une température de couleur

de 5600 K.

Chaque projecteur dispose d'un pied et d'une fenêtre pour appliquer des filtres de couleur ou de

diffusion. Les mandarines que vous allez utiliser ont des volets métalliques orientables qui permettent

de limiter et régler la forme du flux lumineux.

2 Le montage

C’est la dernière phase de fabrication d’un document audiovisuel, la Post-production.

2.1 Les étapes du montage

On peut définir cinq étapes communes à tout travail de montage : Le Dérushage, le Pré montage,

le Montage, la Conformation et le Mixage.

2.1.1 Le dérushage

C’est le visionnage des rushes et sa transcription précise sur une feuille de dérushage.

Le monteur s’appuie sur le rapport de script pour visionner les rushes, il utilise une feuille de

dérushage où il note le numéro de plan, le numéro de cassette, le numéro de Time Code, les

remarques techniques (flous, bougés, micro apparent…) et ses appréciations personnelles.

Cette première opération permet au monteur de prendre contact avec le matériel filmique brut et de

se sensibiliser à sa particularité. L’objectif est de trier les prises pour faire une première sélection des

éléments filmiques à utiliser.

Définition du Time Code :

C'est un système de repérage des images et des sons par un nombre de huit chiffres dont

la progression est calquée sur celle de l'heure. Les deux premiers chiffres marquent les

heures puis les minutes, secondes et enfin images. (Exemple: 02.15.36.06). Le time code

est inscrit sur le support d'enregistrement que ce soit une bande magnétique ou un disque

dur. C'est une étiquette sur chaque image, les images sont nommées, donc individualisées.

C'est comme une adresse d'image que l'on retrouve facilement et précisément. C'est

l'instrument de la gestion en post-production

Attention il faut toujours faire une copie des rushes originaux avant de les visionner afin

de ne pas abîmer la bande originale, sinon vous risquez de ne plus pouvoir lire vos images…

2.1.2 Le pré-montage

Après avoir fait le dérushage, on fait le plan de montage. Il faut éviter de commencer le pré

montage avant d'avoir fait ce plan. C'est une phase très importante du montage.

Le plan de montage, c'est la construction du discours à partir des images et des sons. En fonction

du genre de film on va pouvoir s’appuyer sur un découpage technique (fiction) ou l’on va devoir

inventer une structure originale (reportage). Le pré-montage est réalisé en deux temps, en premier on

compose un ours, puis on définit la maquette :

2.1.2.1 L’ours

C’est l’assemblage bout à bout des prises choisies au dérushage dans l’ordre prévu par le

découpage technique. On appelle le résultat un OURS. La vision de l’ours permet au réalisateur et au

monteur de se faire une première impression sur la structure du film.

2.1.2.2 La maquette

C’est l’assemblage des séquences dans l’ordre définitif qui peut être différent de celui prévu par le

découpage technique.

Il existe des situations de montage où le monteur n’a pas de structure préétablie pour commencer

le montage. Il doit alors discuter avec le réalisateur et lui faire une proposition de structure avant de

commencer la maquette, la structure évoluera au fur et à mesure de l’élaboration de la maquette.

2.1.3 Le montage

Le monteur doit affiner les raccords entre chaque séquence, chaque plan pour donner le rythme

définitif du film. C’est une opération minutieuse qui demande beaucoup de temps, de réflexion et

d’expérimentation.

C’est le travail de la partie (sur le plan) qui doit toujours être réalisé en prenant garde à l’ensemble

du film. Le monteur doit prendre suffisamment de recul pour imaginer le film dans son ensemble et à

la fois travailler le détail des raccords ( cut, effets ) plan par plan pour construire le rythme voulu par le

réalisateur.

Il existe deux procédures de travail qui organisent le montage en fonction des nécessités de la

production et surtout de la diffusion : Le montage ON LINE et le montage OFF LINE.

2.1.3.1 Le montage OFF LINE

C’est le montage du film à partir d’une copie des rushes dans un format de moindre qualité. Ce

dispositif permet de minimiser les coûts de production, de prendre le temps nécessaire à la fabrication

et de ne pas détériorer les bandes originales.

Lorsque le film est monté il faut sortir une liste EDL.

EDL (Edite décision list): c’est la liste des Time Code de référence indiquant tous les points de

montage d’entrée et de sortie pour tous les plans du montage, ainsi que les transitions, les titres et les

effets . Une liste EDL peut être intégrée dans un éditeur de montage,c'est-à-dire qu’il interprète les

points de montage et gère les platines ou autres magnétoscopes en vue de recréer le programme à

partir des éléments originaux (Les éléments sources : c’est à dire à partir des Time code de la

cassette de rush).

En vidéo analogique le montage de la maquette se déroule à partir de copies de rushes effectués

sur un support de basse qualité (VHS ou UMATIC) et avec un banc de montage cut simplifié (un

lecteur et un enregistreur).

En vidéo numérique on numérise les rushs originaux en basse qualité en les compressant

fortement. C’est une méthode utile pour bien gérer l’espace disque lorsqu’il y a beaucoup de ruhes à

numériser.

En pellicule on monte avec une copie de travail du positif.

2.1.3.2 Montage ONE LINE

C’est le montage d’un film à partir des rushes originaux quelque soit le format et que l’on diffuse

directement. Il n’y a pas de recopie ni de conformation.

Ce type de dispositif est utilisé dans les structures ne disposant des moyens de pré-monter… ou

bien dans des situations d‘urgence (montage de reportage pour le JT…)

Conclusion : Plus on a besoin de temps de travail au montage, plus on utilise la procédure OFF

LINE.

2.1.4 La conformation

C’est une opération qui consiste à recopier à l’identique les plans montés sur la maquette à partir

des rushes originaux en utilisant la liste EDL des points de montage de la maquette. On ajoute les

effets et les trucages images (fondu, incrustation, volet…).

C’est aussi la phase d’étalonnage du signal vidéo, on ajuste les contrastes, la luminosité et la

colorimétrie des images en fonction des séquences à partir d’un appareil de réglage appelé

l’OSCIlLOSCOPE. Cet outil permet de modifier précisément la qualité du signal vidéo.

A la fin de la conformation on obtient l’original image du film que l’on nomme le MASTER IMAGE.

On réalise alors une copie DUB (DUB : copie d’une bande vidéo à l’identique sur une autre bande

vidéo) du master afin de ne pas l’utiliser et le détériorer.

2.1.5 Le mixage

C’est la dernière opération pendant laquelle l’ingénieur du son va évaluer chaque plan sonore afin

de doser et de corriger, les sons entre eux : Ajout des effets (réverbération…), des fondus, des

corrections de fréquence (médium, aiguë, grave) … Ajout des musiques, des ambiances et du

commentaire.

2.2 Les outils du montage

Il existe différentes technologies de montage qui ont été développées en fonction du support utilisé

pour la production (vidéo analogique ou numérique, pellicule).

C’est le montage pellicule qui est le plus ancien et le plus lourd au niveau du fonctionnement,

ensuite il y a eu l’apparition de la bande vidéo avec sa manipulation plus simple mais avec une

technologie plus complexe, et enfin est apparu récemment le support disque qui ouvre l’ère de la

vidéo numérique.

Nous allons étudier dans ce cours les techniques développées à partir des supports vidéo

analogique et numérique.

2.2.1 LE SYSTEME DE MONTAGE ANALOGIQUE : Un procédé LINEAIRE

L’analogie de la machine à écrire : le montage traditionnel à partir de supports cassettes pourrait

être comparé à la frappe d’un message, un courrier à la machine à écrire : si vous voulez modifier une

lettre ou un mot dans votre message vous devez tout recommencer à zéro.

Le système de montage vidéo analogique procède par recopie de l’original (le rush) sur une bande

– le MASTER -où sont assemblés les éléments ( PLANS ) sélectionnés dans l’ordre choisi par le

monteur.

La configuration de base de ce système comprend deux magnétoscopes (un lecteur et un

enregistreur) et enfin un pupitre de commande :

LECTEUR : un magnétoscope pour lire les rushes

ENREGISTREUR : un magnétoscope pour copier les rushes.

La commande des magnétoscopes est dirigée par le pupitre de montage qui permet de définir

précisément les éléments qui doivent être copiés ainsi que leur localisation et leur durée sur le master.

C’est à dire que d’une part vous allez identifier dans le pupitre les points d’entrée et de sortie du plan

sélectionné sur les rushes et les points d’entrée et de sortie du plan sur la bande master.

Cette configuration simplifiée permet d’effectuer un montage CUT (sans effet de mixage ou de

page). On peut ensuite imaginer l’ajout d’un certain nombre de périphériques afin de mixer et truquer

des images et des sons : 2ème Lecteur, Table d’effet vidéo, Ordinateur de titrage, table de mixage…

2.2.1.1 Les modes ASSEMBLAGE ET INSERTION

Il existe deux modes de montage analogique : le mode de montage par ASSEMBLAGE et le mode

de montage par INSERTION.

-ASSEMBLAGE : Il y a une recopie du rush sélectionné (image et son) à l’identique sur la

bande master. Ce mode peut fonctionner à partir d’une cassette vierge qui n’a pas été codée

(tracker : enregistrer un signal vidéo sur toute la bande vierge pour permettre à un pupitre de montage

de piloter la cassette), il suffit d’ajouter un signal d’accroche au début de la cassette. Ce mode efface

systématiquement les éléments déjà présents sur le master (image et son), mais rien n’empêche de

venir après rajouter un élément en mode insert.

-INSERTION : ce mode permet de sélectionner précisément un élément de votre rush : par

exemple audio (CH1 OU CH2 ) avec ou sans la vidéo et de le copier précisément sur la bande master

. Ce mode permet d’ajouter des éléments sur votre master sans effacer les éléments déjà présents.

Ce mode fonctionne uniquement à partir d’une cassette master trackée.

2.2.2 Le montage virtuel : un procédé non linéaire

Le montage virtuel, appelé aussi montage NON LINEAIRE est un système de montage sur disque

assisté par ordinateur. Il ne faut pas confondre montage virtuel et système numérique. Le système

numérique n’est pas directement lié au procédé non linéaire que l’on appelle virtuel, il est lié à la

numérisation des signaux. Il existe des systèmes de montages par assemblage numérique (il suffit de

relier deux magnétoscopes numériques avec un éditeur de montage).

L’évolution globale des technologies tend vers les systèmes tous numériques. Mais c’est le support

disque qui est numérique, c’est un support dit à accès aléatoire et non linéaire, au contraire de la

bande qui est un support à accès linéaire et séquentiel.

2.2.2.1 Le montage virtuel : Les principes du support non linéaire

Le signal vidéo généré par le magnétoscope (la source vidéo) est numérisé (enregistré) dans

l’ordinateur. Tout ce qui a été capturé (les images et les sons) est enregistré sur les disques durs dans

des fichiers informatiques.

L’ordinateur est doté de logiciels pouvant traiter les fichiers. ils sont assemblés dans un certain

ordre afin d’être diffusé (visionnage, enregistrement sur une bande vidéo, sur une site web…).

Pour ce faire le logiciel de montage va piloter les disques afin d’assurer la lecture dans l’ordre

demandé, quel que soit l’emplacement des images et des sons sur les disques.

La virtualité du montage correspond à ce système de travail sans recopie préliminaire au

visionnage du montage. Il n’y a pas de changement de savoir faire du monteur, par contre il y a un

changement d’outil de travail. La station de montage virtuel permet une plus grande souplesse

d’exécution au monteur. Les coûts de fabrication et de production sont diminués.

2.2.2.2 Les avantages du système non linéaire

Le mode de stockage non linéaire qui permet un accès immédiat aux rushes sans altération, ni

recopie. Le monteur peut aller instantanément à n’importe quelle partie des rushes sans en passer par

les aller -retour sur la bande d’une cassette vidéo. L’ordre des plans est mémorisé par l’ordinateur qui

n’utilise que la référence des fichiers. La visualisation s’effectue sans qu’il soit nécessaire de recopier

les plans. Le signal est régénérable, la copie est effectuée sans perte de qualité. Les effets, titres et

trucages sont réalisés facilement.

2.2.2.2.1 Configuration d’une station de montage

Les stations de montages non linéaires sont composées d’un ordinateur et des périphériques de

montage (magnétoscope vidéo, moniteur de diffusion, table de mixage, haut parleur...).

2.2.2.2.1.1 L’ordinateur :

La partie HARDWARE (matériel):

D’une part il y a le HARDWARE, c’est à dire l’ordinateur, la carte d’acquisition, les disques durs et

ses périphériques. La numérisation exige un ordinateur avec un processeur rapide (les calculs sont

importants), beaucoup de mémoire vive et un espace disque important avec un débit rapide afin de

disposer d’un accès disque rapide.

La carte d’acquisition vidéo est le périphérique indispensable à la numérisation, elle doit être

rapide : le débit maximal autorisé permet de connaître le taux de compression des séquences.

Il faut aussi connaître les types d’entrées / sorties dont dispose la carte, il faut choisir des entrées /

sorties correspondant aux entrées / sorties de vos périphériques utilisés couramment en production.

La palette des cartes d’acquisition vidéo est de plus en plus importante. En commençant par les

systèmes intégrés, en allant jusqu’aux cartes broadcast de MEDIA 1OO, AVID…

La partie SOFTWARE (logiciels) :

La partie matérielle d’un ordinateur est utilisée par un système d’exploitation (windows, mac os,

linux…) et par les logiciels informatiques. Se sont les logiciels qui pilotent le matériel. Ces logiciels

sont nombreux car chaque constructeur de carte vidéo développe le sien : Adobe première, Avid,

Media 100 ; Final Cut Pro… Ces logiciels font office d’interface d’utilisation pour les multiples

périphériques nécessaires au montage virtuel.

On peut décrire les principales fonctions de ces logiciels :

1 La Fenêtre Projet

L’édition de vidéos se fait à partir d’éléments importés dans le projet. Pour importer un fichiers dans

la fenêtre de projet, il suffit de faire Menu Fichier > Importation > Fichier. Il est possible d’importer

toute sorte de fichiers : images fixes, images animées, clips, sons, titres. La fenêtre projet regroupe

tous les éléments importés. L’utilisation de l’un de ces éléments est possible à l’aide d’un simple

« Drag & Drop ».

2 La fenêtre Moniteur

C’est dans cette fenêtre que l’on peut visualiser les séquences vidéos ; on peut ainsi contrôler le

montage vidéo en cours de réalisation.

3 La fenêtre de Montage

La fenêtre de montage permet de placer et de manipuler les clips vidéos , les extraits sonores, et

les images fixes. Il est possible d’y ajouter des transitions, des titres, ainsi que des effets spéciaux.

L’ajout d’une séquence dans la fenêtre de montage se fait par un simple glissement d’un élément se

trouvant dans la fenêtre de projet en maintenant le bouton gauche de la souris appuyé.

..

Bibliographie

Les techniques audiovisuelles :

-BELLAICHE Philippe, Les secrets de l’image vidéo, Eyrolles Sonovision, 1997.

-CLOQUET Arthur, Initiation à l’image de film, Ferais, 1992.

-BROIT René, Les techniques cinématographiques, Esra, 1988.

Les techniques de la prise de vue :

-ALMENDROS Nestor, Un homme à la caméra, Hatier, 1980.

-VILLAIN Dominique, Le cadrage au cinéma, Éditions de l'Étoile, 1984.

-SAMUELSON David, La caméra et les techniques de l’opérateur, Dujarric, 1985.

Les techniques du son :

-Le livre des techniques du son, Dunod, trois tomes, 1998.

-AUGOYARD J.F et TORGUE H., A l’écoute de l’environnement, Parenthèses, 1995.

-HUGONNET C. et WALDER P.,Théorie et pratique de la prise de son stéréophonique, Eyrolles,

1998.

La lumière :

-REVAULT D’ALLONNES Fabrice, La lumière au cinéma, Cahiers du cinéma, 1991.

-ALEKAN Henri, Des lumières et des ombres, Le Sycomore, 1984.

-MILLERSON Gérald, Méthode d’éclairage pour le film et la T.V., Dujarric, 1982.

Les techniques de réalisation :

-BRESSON Robert, Notes sur le cinématographe, Gallimard, 1975.

-RUIZ Raoul, Poétique du cinéma, Dis Voir, 1995.

-S.M EISENSTEIN et S. NINJY, Leçons de mise en scène, Ferais, 1989.

Quelques approches théoriques:

-CHION Michel. Audio-vision, New York, Columbia University Press,1990

-PINEL Vincent, Les Métiers du cinéma, Toulouse, Édition Milan, 1996,

-BAZIN André, Qu’est-ce que le cinéma, Les cahiers du cinéma, 1985.

-LEBLANC Gérard, Cinéma et dernières technologies, DeBoeck Université,1998.

Quelques articles :

COMOLLI Jean Louis, « Technique et idéologie », Cahiers du cinéma , N°229 à 234.

L'IMAGE, LE MONDE N°1, dossier sur la révolution numérique (Éditions Léo Scheer)

ENCYCLOPEDIE UNIVERSALIS : Cinéma, techniques, vidéo, histoire et technique

Sites WEB :

La réalisation vidéo :

http://www.videaste.8m.com/guide/5eclairage.html (site dédié à la réalisation vidéo****)

http://www.videotruc.com (les cahiers de la vidéo)

La vidéo numérique :

http://www.repaire.net/navig/mont_choisir/essentiel/01.php (la vidéo numérique)

http://perso.wanadoo.fr/soeurs.lumiere/index.htm (comment faire un film)

http://realisation.video.free.fr (site intéressant pour amateur vidéaste)

http://www.dvforever.com (info caméra numérique actualisée)

La photographie :

http://pedagene.creteil.iufm.fr/ressources/image/

http://gdesroches.free.fr/formation/liste.htm (le cours de photo)

http://www.focale31.com/index.htm (leçons de photo)

Les métiers du cinéma :

http:// www.focal.ch/list/index-f.htm (détails des métiers)

http://www.nidinfo.com (portail d'info sur le cinéma et la vidéo)

..

Publicité
Publicité
1 2 > >>
Publicité
Publicité