Codage numérique de l'image fixe

Contrairement à l'alphabet, qui représente un code abstrait*, parfaitement formalisé**, l'image constitue en soi une réalité plus subjective. Par exemplem un texte décrit, résume, sythétise la réalité qu'il désigne tandis qu'une photographie cherche à l'imiter. L'image est donc, régle générale, davantage porteuse d'information qu'un texte et, par le fait même plus lourde à coder numériquement.

L'oeil humain est capable de discerner environ 350 000 teintes, parmi lesquelles on retrouve environ 120 couleurs désignées comme tel, une trentaine de niveau de saturation et une centaine d'intensités lumineuses. Ces trois caractéristiques renvoient respectivement aux notions de teinte (hue), de saturation et de luminance qu'on retrouve couramment sur tous les système électroniques. Dans le monde des médias, la couleur est habituellement visionnée sur des écrans lumineux qui affichent les teintes par synthèse additive de trois couleurs primaires: rouge, vert et bleu. Le premier modèle de synthèse additive des couleurs, datant de 1931, a été proposé par la Commission internationale de l'éclairage (CIE). Tous les autres modes de représentations additifs que l'on retrouve de nos jours sont dérivés de ce standard

Une image numérique est décomposée en petites unités discrètes appelées pixels. Chaque pixel peut prendre n'importe quelle teinte que le système peut discriminer. Un système infographique idéal devrait pouvoir rendre 350 000 teintes pour répondre de manière infaillible à la sensibilité de l'oeil. Pour ce faire, un codage de chaque pixel sur 18 bits est théoriquement nécessaire. Cependant, les systèmes numériques préfèrant composer avec des multiples de 8 on codera idéalement la couleur en 24 bit ce qui donnera 2 exp 24 soit 16777216 couleurs théoriques.

 

 

 

 

 

 

*Privé des référence aux éléments matériels qu'il désigne.

 

**Formulé et décrit avec précision. Objectivé.