Le type d'objectif (ou ratio de projection) définit la relation entre la distance de projection et la largeur de l'écran.
Formule de base :
Type d'objectif = Distance de projection (DP) / Largeur de l'écran (L)
Étapes de calcul :
Mesurer L — Largeur horizontale de l'écran (bord à bord).
Déterminer DP — Distance entre le projecteur et l'écran.
Calculer le ratio — DP ÷ L. Un résultat de 1.5 signifie qu'il faut un objectif avec un ratio de projection de 1.5:1.
Exemple : Écran de 4 m de large, projecteur à 6 m → ratio = 6 ÷ 4 = 1.5:1
Throw Distance Calculator
Les lumens mesurent la quantité totale de lumière visible émise par une source par seconde. Pour un projecteur, ils déterminent la luminosité de l'image projetée.
Formule simplifiée :
Nombre de lumens nécessaires = Surface de l'écran (m²) × Niveau de lux souhaité
Facteurs à considérer :
Facteur
Grande surface d'écran
Pièce sombre (cinéma)
Lumière ambiante forte
Contenu détaillé / présentation
Impact
Plus de lumens requis
Moins de lumens suffisent
Plus de lumens nécessaires
Luminosité supérieure recommandée
Le ratio d'image exprime le rapport largeur/hauteur d'une image ou d'un écran.
SD / Télévision ancienne
HD / Moniteurs modernes
Cinéma US
Cinémascope
Carré
4:3 (1.33:1)
16:9 (1.78:1)
1.85:1
2.35:1 ou 2.39:1
1:1
Diaporamas, surveillance
TV, jeux vidéo, cinéma HD
Films grand écran
Films immersifs
Réseaux sociaux (Instagram)
💡Nota bene :
Sur les Christie HD10K, Mirage HD20K et Boxer, par défaut, les projecteurs sont réglés à 6 500 K. Lors d'une retransmission TV, il est recommandé de les passer à 5 200 K.
Menu → 2. Image Settings → 7. Advanced Image Settings → 4. Color Setting → Temp Color
Sur les Griffyn 4K50
Main menu -> Configuration -> Camera Friendly Color Mode -> ON
Le frame rate correspond au nombre d'images distinctes produites ou affichées par seconde. C'est l'une des notions les plus souvent mal comprises en production vidéo, notamment à cause de l'utilisation de deux unités différentes : le FPS et le Hz.
Ces deux unités mesurent bien une fréquence (un nombre de cycles par seconde), mais elles ne désignent pas la même chose et n'appartiennent pas au même maillon de la chaîne vidéo.
Unité
FPS (frames per second)
Hz (Hertz)
Désigne
Le nombre d’images produites par la source
Le nombre de fois que l’écran rafraîchit son affichage par seconde
Appartient à
Source : caméra, ordinateur, lecteur vidéo
Afficheur : moniteur, projecteur, TV
Historiquement, la fréquence de rafraîchissement (Hz) vient de l’électronique des écrans à tube cathodique (CRT). Le faisceau d’électrons devait physiquement balayer l’écran ligne par ligne, de haut en bas, à une fréquence précise déterminée par le matériel — d’où l’usage du Hertz, unité générique de fréquence électrique.
Le FPS, lui, vient du cinéma et de la vidéo : on compte simplement le nombre d’images capturées ou projetées. C’est une notion “logicielle” ou “contenu”, pas électronique.
Avec la généralisation des écrans numériques, les deux notions se sont rapprochées au point que dans beaucoup de contextes modernes, 60 FPS = 60 Hz — mais ce n’est vrai que lorsque la source et l’écran sont parfaitement synchronisés.
1. FPS source > Hz de l’écran (ex. : GPU produit 120 FPS, écran limité à 60 Hz) L’écran ne peut afficher que 60 images par seconde. Les images supplémentaires sont ignorées ou causent du tearing (déchirure visuelle) : l’écran commence à afficher une nouvelle image avant d’avoir fini l’ancienne. Solutions : V-Sync, G-Sync (NVIDIA) ou FreeSync (AMD).
2. FPS source < Hz de l’écran (ex. : contenu 24 FPS sur écran 60 Hz) L’écran affiche certaines images plusieurs fois pour compenser. Exemple : sur un écran 60 Hz, un contenu 24 FPS est affiché en répétant les images selon un cycle 3-2-3-2 (pulldown 3:2), ce qui peut introduire un léger flou de mouvement ou un effet de saccade perceptible appelé judder.
3. FPS source = Hz de l’écran Situation idéale : chaque image produite correspond exactement à un rafraîchissement de l’écran. C’est pourquoi les diffuseurs TV européens utilisent du 50 Hz et tournent en 50 FPS (ou 25 FPS en progressif), et les américains du 60 Hz avec du 30 FPS (ou 60 FPS en HD).
La notation 1080i ou 1080p après la résolution indique le mode de balayage :
Mode
Description
FPS réel
Usage
Progressif (p)
Chaque image est complète, toutes les lignes sont transmises à chaque frame.
= valeur indiquée
Cinéma, streaming, jeux
Entrelacé (i)
L’image est divisée en deux champs (lignes paires + lignes impaires), transmis alternativement.
= valeur indiquée ÷ 2 images complètes
Diffusion TV broadcast historique
L’entrelacement était une solution d’ingénierie des années 1940 pour doubler la fréquence de rafraîchissement perçue (réduire le scintillement) sans doubler la bande passante nécessaire — une contrainte majeure à l’époque des liaisons hertziennes. Il est aujourd’hui quasi-abandonné dans les nouveaux équipements.
Luminance (Y) : représente la brillance d’une image (lumière, contraste, détails). Mesurée en cd/m².
Chrominance (Cb, Cr) : - Cb : différence entre la couleur bleue et la luminance. - Cr : différence entre la couleur rouge et la luminance.
Comparaison RGB vs YCbCr :
Modèle
Description
Usage
RGB
Combine rouge, vert, bleu. La luminance est implicite.
Moniteurs, caméras, affichages numériques
YCbCr
Sépare luminance (Y) et chrominance (Cb, Cr). Exploite la moindre sensibilité de l’œil aux variations de couleur.
Compression vidéo, diffusion TV
💡Pourquoi YCbCr ? L'œil humain est plus sensible aux variations de luminance qu'aux détails de couleur. Réduire la chrominance économise de la bande passante sans perte perçue.
Technique de réduction de la résolution de couleur pour diminuer la taille des fichiers vidéo, sans affecter significativement la qualité perçue.
Pourquoi ça fonctionne — la physiologie de l'œil
L'œil humain possède deux types de photorécepteurs :
Les cônes : sensibles aux couleurs (rouge, vert, bleu). Moins nombreux et moins précis spatialement.
Les bâtonnets : sensibles à la luminosité. Beaucoup plus nombreux et capables de distinguer des détails très fins.
Conséquence : nous percevons les variations de luminosité avec beaucoup plus de précision que les variations de couleur. Deux pixels adjacents de même luminosité mais de teintes légèrement différentes seront souvent perçus comme identiques.
Le chroma subsampling exploite directement cette asymétrie : on conserve la pleine résolution de luminance (Y), et on réduit la résolution de chrominance (Cb, Cr).
La notation à trois chiffres décrit le comportement sur un bloc de référence de 2 lignes × J pixels (J vaut toujours 4 par convention).
J : largeur de référence (toujours 4)
a : nombre d'échantillons de chrominance sur la première ligne (sur 4 pixels)
b : nombre d'échantillons de chrominance sur la deuxième ligne (sur 4 pixels). Si b = a, les deux lignes ont leurs propres échantillons. Si b = 0, la deuxième ligne réutilise les échantillons de la première.
Format
Schéma (2 lignes × 4 pixels)
Réduction
4:4:4
4:2:2
4:2:0
Chaque pixel a sa propre valeur Y, Cb ET Cr
1 échantillon Cb/Cr pour 2 pixels H, pas de réduction verticale
1 échantillon Cb/Cr pour 2 pixels H ET 2 pixels V (un groupe de 4 pixels partage une couleur)
Aucune
−50% chrominance
−75% chrominance
La profondeur de couleur (ou bit depth) définit le nombre de bits utilisés pour coder la valeur de chaque canal de couleur d'un pixel.
Comment ça fonctionne — du binaire aux nuances
Chaque canal de couleur (Rouge, Vert, Bleu en RGB — ou Y, Cb, Cr en YCbCr) est représenté par un nombre binaire. Avec n bits, on peut représenter 2ⁿ niveaux distincts pour ce canal.
Bits par canal
Niveaux par canal
Couleurs totales (3 canaux RGB)
8 bits
10 bits
12 bits
16 bits
256 niveaux
1 024 niveaux
4 096 niveaux
65 536 niveaux
256³ = 16,7 millions
1024³ = 1,07 milliard
4096³ = 68,7 milliards
65536³ = 281 billions
💡Nota bene : La profondeur de couleur s'exprime souvent par canal (ex : "10 bits") mais est parfois citée en profondeur totale (ex : "30 bits" = 10 bits × 3 canaux). Il faut vérifier le contexte pour éviter les confusions.
Le problème du banding — quand les bits manquent
Avec 8 bits par canal, on dispose de 256 niveaux pour représenter un dégradé de couleur. Sur un grand écran ou dans une zone de ciel uniforme, ces 256 niveaux peuvent ne pas suffire : la transition entre deux niveaux devient visible à l'œil nu sous forme de bandes (banding). C'est l'artefact le plus fréquent en HDR sur du contenu 8 bits.
Passer à 10 bits (1024 niveaux) quadruple la finesse des dégradés et élimine pratiquement le banding dans la majorité des cas.