Jui
24
2012
Nous avons vu que le capteur était en quelque sorte un compteur de photons. Il est sensible à l’intensité de la lumière, mais il n’a pas la capacité d’en mesurer la longueur d’onde. Il ne peut donc en déterminer la couleur. Deux technologies ont été développées pour pallier ce daltonisme achromatique. La première fait appel à un système de filtrage, imaginé par Bayer, un ingénieur de Kodak. Elle équipe une grande majorité des capteurs actuels. La seconde, plus récente et particulièrement ingénieuse, est à mettre au crédit de la société Foveon, mais elle concerne à ce jour très peu de boîtiers.
Comprendre le format Raw - Première partie
[NdLR : je vous propose une introduction au format Raw extraite (et légèrement adaptée pour le web) du début du deuxième chapitre de mon livre Le format Raw : développement et flux de production, paru aux Éditions Dunod. Cette introduction est découpée en trois parties et dotée de liens de circulation des unes vers les autres. Voici la première partie, intitulée dans le livre De la lumière à l'image.]
Pour comprendre le fonctionnement et percevoir tout l’intérêt du format Raw, il est important de connaître les principes fondamentaux de la capture et de la transformation du signal lumineux. Il ne s’agira toutefois pas d’entrer dans des détails sur la constitution et le fonctionnement interne d’un capteur imageur, sans intérêt dans le cadre de cet ouvrage.
Nous allons examiner le processus qui transforme la lumière parvenant sur le capteur en fichier Raw. Sa transformation en image bitmap par le processeur de l’appareil ne sera qu’évoquée, car c’est précisément de cette phase ultime que le flux de production en Raw veut prendre le contrôle.
Nous allons examiner le processus qui transforme la lumière parvenant sur le capteur en fichier Raw. Sa transformation en image bitmap par le processeur de l’appareil ne sera qu’évoquée, car c’est précisément de cette phase ultime que le flux de production en Raw veut prendre le contrôle.
Capture du signal lumineux
La lumière, focalisée par l’objectif vers le capteur imageur, est réceptionnée par une matrice formée de millions de cellules photosensibles (les photosites) correspondant à autant de pixels. Pendant la durée d’ouverture de l’obturateur (temps de pose) chaque photosite reçoit les photons et les transforme en charge électrique. La charge accumulée sera donc proportionnelle au nombre de photons reçus, d’où la notion de capture linéaire que nous évoquons plus loin. Cette charge électrique est envoyée séquentiellement vers un convertisseur qui la numérise.
Un photosite peut s’assimiler à un puits au fond duquel se trouve la photodiode qui va réceptionner les photons. La surface utile de ce puits ne représente qu’une partie de celle du pixel. Pour accroître l’efficacité de la capture, les constructeurs ont recouvert le capteur d’un réseau de microlentilles, une par pixel, afin de faire converger une plus grande proportion de la lumière vers les puits des photosites.
Un photosite peut s’assimiler à un puits au fond duquel se trouve la photodiode qui va réceptionner les photons. La surface utile de ce puits ne représente qu’une partie de celle du pixel. Pour accroître l’efficacité de la capture, les constructeurs ont recouvert le capteur d’un réseau de microlentilles, une par pixel, afin de faire converger une plus grande proportion de la lumière vers les puits des photosites.
Vue schématique d’un photosite de capteur. La microlentille fait converger le maximum de rayons lumineux vers le fond du puits où se trouve la photodiode chargée de réceptionner les photons. Cette technologie accroît la qualité de la capture et augmente le rapport signal/bruit.
Plus un pixel sera large, moins il sera compliqué de diriger une grande proportion des rayons lumineux vers le puits. Pour cette raison notamment, les capteurs ayant une grande taille de pixels présentent moins de bruit électronique.
La profondeur de codage du signal numérisé dépend des boîtiers. Sur les reflex, elle est le plus souvent de 12 ou 14 bits, ce qui correspond respectivement à 4 096 et 16 384 niveaux de luminosité. La profondeur tonale qui en résulte est l’un des avantages du format Raw sur le Jpeg qui est codé en 8 bits par couche, disposant donc de seulement 256 niveaux de luminosité. En revanche, le gain entre 12 et 14 bits n’est pas significatif, car le supplément de finesse d’échantillonnage des tonalités ainsi procuré est pour l’essentiel noyé dans le bruit.
Au cours de cette conversion analogique/numérique, le signal subit une double réduction du bruit électronique, sur le signal analogique d’abord, puis après sa numérisation. Ce bruit survient lors du transfert de la charge électrique, mais une partie est d’origine thermique (échauffement du capteur notamment). Cette opération de réduction dès la phase de capture est hors du contrôle de l’utilisateur, mais essentielle pour produire l’image la moins bruitée possible et réduire le besoin d’un traitement en aval.
À noter que la réduction du bruit sur le signal numérisé n’est pas du goût de tous les utilisateurs, notamment des astrophotographes pour lesquels cela peut représenter une catastrophe. La valeur d’un pixel jugée erronée par l’appareil peut en effet correspondre à une étoile dont le diamètre apparent est faible. Sa très petite taille sur le capteur pourra alors la faire passer pour un grain de bruit électronique...
Ici s’arrête la phase de capture et débute le travail du processeur de l’appareil, le DSP (Digital Signal Processor). Celui-ci produit, en fonction du paramétrage de l’utilisateur, deux types de fichiers :
Au cours de cette conversion analogique/numérique, le signal subit une double réduction du bruit électronique, sur le signal analogique d’abord, puis après sa numérisation. Ce bruit survient lors du transfert de la charge électrique, mais une partie est d’origine thermique (échauffement du capteur notamment). Cette opération de réduction dès la phase de capture est hors du contrôle de l’utilisateur, mais essentielle pour produire l’image la moins bruitée possible et réduire le besoin d’un traitement en aval.
À noter que la réduction du bruit sur le signal numérisé n’est pas du goût de tous les utilisateurs, notamment des astrophotographes pour lesquels cela peut représenter une catastrophe. La valeur d’un pixel jugée erronée par l’appareil peut en effet correspondre à une étoile dont le diamètre apparent est faible. Sa très petite taille sur le capteur pourra alors la faire passer pour un grain de bruit électronique...
Ici s’arrête la phase de capture et débute le travail du processeur de l’appareil, le DSP (Digital Signal Processor). Celui-ci produit, en fonction du paramétrage de l’utilisateur, deux types de fichiers :
- un Raw, enregistrement formaté du signal numérisé augmenté de nombreuses métadonnées décrivant les conditions de la prise de vue ;
- un Jpeg, image de type bitmap résultant de la conversion du Raw (le Tiff est en voie d’abandon complet par les constructeurs).
Sensibilité et amplification du signal
Le capteur a une sensibilité fixe (à l’instar du film argentique). Cette sensibilité, dite nominale, n’est pas communiquée par les constructeurs, mais elle peut s’évaluer en analysant les fichiers Raw. Celle des reflex se situe entre 100 et 200 ISO selon les marques et les modèles. On peut trouver une évaluation des sensibilités réelles des boîtiers sur le site dxomark.com.
Le capteur ne devient pas miraculeusement plus sensible lorsque la valeur ISO est augmentée par le photographe. Pour pouvoir accroître le signal (proportionnel à la lumière reçue) sans augmentation du temps de pose (donc de la quantité réelle de lumière), l’appareil procède à une amplification analogique. Il s’agit donc d’un artifice électronique, ce qui explique l’augmentation corrélative du bruit.
Une analogie avec le signal audio permet de mieux comprendre les problèmes engendrés par cette amplification :
Le capteur ne devient pas miraculeusement plus sensible lorsque la valeur ISO est augmentée par le photographe. Pour pouvoir accroître le signal (proportionnel à la lumière reçue) sans augmentation du temps de pose (donc de la quantité réelle de lumière), l’appareil procède à une amplification analogique. Il s’agit donc d’un artifice électronique, ce qui explique l’augmentation corrélative du bruit.
Une analogie avec le signal audio permet de mieux comprendre les problèmes engendrés par cette amplification :
- Quand le niveau du son enregistré est fort, il n’est pas besoin de l’amplifier pour le percevoir normalement lors de sa diffusion. Le son est alors propre, sans bruit parasite. C’est ce qui se passe en photo quand on utilise son appareil à la sensibilité nominale du capteur, avec une bonne exposition: la quantité de lumière reçue est optimale et permet la production d’une image de haute qualité.
- Quand le son a été enregistré à un niveau faible, il faut l’amplifier pour qu’il devienne audible. Le problème est que tout enregistrement audio présente un bruit de fond. Son niveau pouvant, en première approximation, être considéré comme constant, il est donc en valeur relative d’autant plus important que le signal enregistré est faible. Lors de l’amplification, ce bruit de fond est amplifié en même temps que le signal audio lui-même, ce qui aboutit à la perception de bruits parasites et d’un « souffle », avec une qualité de signal dégradée. C’est la même chose en photo: si la quantité de lumière qui arrive sur le capteur est faible, il faut l’amplifier. Le bruit l’est alors également, et atteint un niveau d’autant plus élevé que le signal est faible.
Sur ce graphe produit par DxO Labs (dxomark.com) et mettant en piste trois compacts hybrides de même gamme, on constate les formes (différentes selon les marques) que prend la décroissance de la dynamique au fil de la montée en ISO. Au-delà de 800 ISO, la perte de dynamique se situe dans tous les cas autour de 1 IL (ou EV pour Exposure Value) par palier ISO. Le NEX-5N, qui dispose d'une excellente dynamique de près de 13 IL à 100 ISO, se retrouve ainsi avec "seulement" 6,5 IL à 25600 ISO...
La dynamique du système étant définie comme l’écart entre la plus forte et la plus faible luminosité qui peuvent être enregistrées, sa diminution a ainsi des conséquences importantes sur la capacité de l’appareil à restituer correctement des scènes très contrastées. Même lorsque le bruit est bien maîtrisé, en amont ou en aval de la capture, l’image prise à hauts ISO n’est donc pas exempte de défauts. La restitution des détails fins est altérée, la dynamique est réduite et la saturation des couleurs affaiblie, malgré les énormes progrès des processeurs et des logiciels de développement ces dernières années.
Comment le capteur distingue les couleurs
Nous avons vu que le capteur était en quelque sorte un compteur de photons. Il est sensible à l’intensité de la lumière, mais il n’a pas la capacité d’en mesurer la longueur d’onde. Il ne peut donc en déterminer la couleur. Deux technologies ont été développées pour pallier ce daltonisme achromatique. La première fait appel à un système de filtrage, imaginé par Bayer, un ingénieur de Kodak. Elle équipe une grande majorité des capteurs actuels. La seconde, plus récente et particulièrement ingénieuse, est à mettre au crédit de la société Foveon, mais elle concerne à ce jour très peu de boîtiers.
Le principe de la matrice de Bayer est de recouvrir chaque photosite du capteur par un filtre coloré qui ne laisse passer qu’une seule composante (rouge, verte ou bleue) des trois couleurs primaires à synthèse additive. Ainsi, l’intensité lumineuse mesurée par un photosite ne correspond qu’à l’une des couleurs RVB, celle du filtre qui le recouvre.
Chaque photosite est recouvert d’un filtre coloré et ne reçoit l’information d’intensité lumineuse que d’une seule composante RVB. Sur ce graphique, le processus est schématisé, car dans la réalité le filtre de Bayer et le réseau de microlentilles sont des éléments séparés.
La capture est donc parcellaire puisque seulement une partie de l’information est enregistrée pour chaque pixel. Le damier que forme le filtre de Bayer est une répétition du motif comprenant deux filtres verts, un rouge et un bleu. La composante verte de la lumière est donc mesurée pour un pixel sur deux, mais un seul pixel sur quatre pour les composantes rouge et bleue.
Les capteurs ayant adopté la solution de filtrage de Bayer sont recouverts d’un filtre en damier composé de 50 % de vert, 25 % de rouge et 25 % de bleu.
Ce déséquilibre en faveur du vert n’est évidemment pas le fruit du hasard. Il tient compte de la plus grande sensibilité de la vision humaine au vert et au jaune.
Ce graphique correspond à la réponse spectrale normalisée des trois types de cônes récepteurs de la vision humaine. Les cônes de type S sont sensibles aux courtes longueurs d’onde, les M aux longueurs d’onde moyennes et les L aux grandes longueurs d’onde. On constate que le vert et le jaune sont privilégiés.
Ce sont donc trois couches RVB incomplètes qu’enregistre le capteur. Le processeur de l’appareil, ou le logiciel de développement dans le cas d’un enregistrement en Raw, devra donc reconstituer les informations manquantes de chaque couche pour produire l’image finale. Cette opération s’appelle dématriçage; nous l'évoquerons dans la partie suivante.
Commentaires
Il s'avère que je suis en fin d'écriture d'un dossier pour Compétence Photo, que je prépare un déménagement pour mi-juillet et que... je pointe au boulot chaque matin. Les articles vont se raréfier au cours des semaines qui viennent faute de disponibilité, et c'est le moyen que j'ai trouvé (avec l'accord de mon éditeur) pour en assurer trois de plus sans que cela ne me demande trop de temps. Je ne doute pas de votre compréhension...
Devenu un de mes bouquins de chevet entre guillemets, j'y ai apprit beaucoup en terme d'informations, et il m'arrive très souvent d'y plonger le nez pour me remettre deux trois choses en tête.
J'en profite donc pour remercier Patrick pour ce bouquin qui m'a personnellement bien aidé dans ma pratique photo et dans son évolution
J'ai essayé de rester aussi accessible que possible dans ce livre. J'espère qu'il y aura une seconde édition et que je pourrai la gonfler sévèrement. Reste à convaincre mon éditeur... :wink:
Je vais l'acheter ce bouquin. Cela me fera une bonne révision. Je n'ai jamais été déçu par tes articles notamment le hors série de compétence photo mais également le dernier sujet sur la gestion de la couleur dans les deux derniers numéros....Une vraie réussite. Merci!
Cyril
Un livre, c'est différent d'un magazine sur le fond comme sur la forme. Moins purement pratique, il essaie surtout de poser les bases d'un flux de production complet. Je dirais que les articles de Compétence Photo sont des zooms ou des applications pratiques de la description d'ensemble donnée par le livre. Je ne saurais dire par quoi il faut commencer, car cela dépend de chacun. Certains aiment bien entrer très vite dans les détails, tandis que d'autres préfèrent passer au particulier après avoir compris le général.
Pour ceux qui hésitent encore sur l'utilité ou pas de shooter en raw, suivez les conseil de Patrick, vous changerez d'avis sans même pas vous en rendre compte.
Ps: Patrick, merde aux taquineries...
Quant à savoir quel ouvrage est une introduction à l'autre, j'ai fait une non-réponse dans mon précédent commentaire...
C'est un peu mortifié que je fais ce commentaire à la suite de ce très bon 'article'.
En effet, tu m'avais lancé "le défi" d'écrire un article similaire à celui là fin 2011, et je me suis complètement laissé submergé par le boulot (et ma ptite fille) et je n'ai pas trouvé le temps de le faire, en 6 mois... Je suis déçu par moi-même sur ce coup là. Je n'avais pas abandonner l'idée, loin s'en faut. Il ne me reste plus qu'à essayer de trouver d'autres sujets où je pourrai contribuer Quitte à mettre des deadlines, cette fois-ci, histoire que j'arrête de me laisser aller
Bon, au final, je ne savais pas que tu avais écrit un livre sur ça, ce qui est quand même très intéressant, et l'article est certainement meilleur que ce que j'aurai pu faire.
Cette première partie me semble en tout cas très bonne! Elle explique bien ce qu'est le raw, sans s'enfoncer dans les détails, donc pour la compréhension de la plupart, je pense que c'est bien réussi.
Le fait d'être mortifié par mon inaction ne calme malheureusement pas mon esprit "critique"
Je dirai qu'au niveau de la lecture, on passe un peu des fois brutalement d'un sujet à un autre, mais rien de bien grave.
Il me vient quelques remarques/questions/précisions :
- Sur les micro-lentilles : En fait, il me semble que la photo diode au fond d'un puit est surtout l'apanage du CMOS. Les CCD n'avaient pas ce défauts et n'utilisaient donc pas de micro-lentilles, vu que la zone sensible, dans certain cas, était pleine (Fill Factor de 100%). En général d'ailleurs, les puits sont beaucoup plus profonds que sur l'illustration, mais c'est entrain de changer avec les capteurs retro-éclairés.
Une mini précision également : les micro-lentilles peuvent grandement améliorer le Rapport S/B, mais ont un effet légèrement destructeur sur le piqué de l'image et sur la MTF du capteur, mais je pense que ce sont des considérations trop poussées
Et puis pour le "en quelque sorte des compteurs de photons", j'aurai même enlevé le "en quelque sorte
- Sur la petite ellipse sur l'astro : le diamète apparent de TOUTES les étoiles est faible, puisque vu d'ici, il est toujours considéré comme nul. Pour commencer à résoudre le diamètre d'une étoile proche (Sirius, par exemple), il faudrait un télescope de diamètre > 50m, bien sûr dans l'espace (sinon, les perturbations atmosphériques gâchent tout). Si une photo d'une étoile est plus grosse qu'un pixel, c'est juste qu'on image la PSF de l'objectif, pas l'étoile elle même. Donc oui, si la correction de bruit enlève les images ponctuelles, c'est un énorme problème En général, les astrophotographes font du traitement eux-mêmes, à l'aide d'image de noir, de blanc, etc.
- Sur le bruit et les isos, il me vient une question à la suite de la lecture de tes explications : si le passage d'un iso à l'autre n'est que purement une amplification du résultat en sortie de capteur, est-ce que ça reviendrait au même de prendre la photo à bas iso et d'amplifier en post-traitement?
- Enfin, les pixels verts du bayer : maintenant ils sont parfois légèrement différents. De ce qu'on m'avait expliqué, le choix a effectivement été fait pour se rapprocher de la sensibilité de l'oeil, mais ça a plein d'autres intérêts, en particulier pour le DSP et le dématriçage. Avec des capteurs à quatre couleurs différentes, on aurait une carte de luminosité moins précise et des calculs d'interpolation des couleurs nettement moins bon (mais c'est assez technique, c'est dû aux replis spectraux des fréquences spatiales qui sont différents en vert grâce au doublement du nombre de pixels)
Ces remarques étaient plutôt pour toi, vu que je pense qu'elles sont trop techniques pour être dans un article 'grand public', et je doute de leurs utilités, vu que tu devais probablement déjà savoir tout ça.
Il me reste deux points avant de conclure mon roman de commentaire :
1 - vivement la suite
2 - Je voulais te remercier pour l'excellent dossier sur la calibration des écrans dans compétence photos. Je ne suis pas abonné (je ne pense pas que j'aurai le temps de tous les lire), et du coup j'ai un peu eu la mauvaise surprise, au début du dossier, d'apprendre que c'était la deuxième partie, et impossible de trouver le numéro précédent en kiosque (évidemment). J'imagine qu'on peut commander les anciens numéros? Il y a quoi dans la première partie du dossier?
Va pê falloir que je m'abonne un jour pour éviter ce genre de mésaventures...
@Palleas, contrairement à ce que tu penses, ce genre de renseignements doit intéresser pas mal des lecteurs de ce cite. N'oublie pas que c'est avant tout un site de partage de connaissances, surtout celles de Patrick, mais tous les apports sont les bienvenus.
Par contre les abréviations ésotériques telles que MTF,PSF ou DSP mériteraient au moins d'être accompagnées des noms complets, ça rafraichirait la mémoire ou faciliterait les recherches.
Merci pour cet apport.
Je suis désolé si mes remarques ont pu être mal comprises. Je ne considère pas du tout les lecteurs de ce site comme inintéressés par ça, mais lors de commentaires précédents, je m'étais fait dire que j'avais trop vite été dans le technique, alors je prend des précautions maintenant
C'est aussi pour cela que je n'ai pas donné les noms des abbréviations ^^
Je ferai mes remarques sans pincettes à l'avenir ^^
Pour te répondre sur les abréviations (et peut-être en guise de d'excuse?) :
- MTF veut dire "Modulation Transfer Function", ou FTM ("Fonction de Transfert de Modulation") en français. C'est ce qui évalue la capacité d'une optique ou d'un système d'imagerie à reproduire une fréquence spatiale. ça peut paraitre un peu barbare et compliqué comme ça, mais c'est en fait remarquablement simple (et physique) à expliquer/comprendre avec des bons schémas ^^. C'est en fait la mesure la plus pertinente de la qualité d'image et elle commence (enfin) à être utilisée par des testeurs et des logiciels.
- La PSF (Point Spread Function) est la "réponse percussionnelle" d'une optique : en fait l'image qu'elle fait d'un point source (comme par exemple une étoile). Cette PSF est caractéristique des défauts de l'optique, varie dans le champ et de l'ouverture, etc. Mais elle a une limite physique dûe à la diffraction (cette forme limite est la tache d'Airy), qui fait que même une optique parfaite ne peut avoir un piqué infiniment fin. Cette limite est dépendante directement de la longueur d'onde et de l'ouverture de l'optique.
-DSP il me semble que Patrick l'avait utilisé dans son article : ça peut être soit "Digital Signal Processing" (traitement de signal) ou "Digital Signal Processor" (la puce qui fait le traitement).
Encore pardon pour les remarques de mon premier commentaire et merci, donc, de m'avoir répondu.
J'espère que les clarifications aident un peu, n'hésite pas à me répondre s'il y a d'autres questions
Du coup, Patrick, on a presque un sujet tout trouvé : évaluer la qualité d'image?
La première partie du dossier de Compétence Photo contient une vaste introduction sur la gestion des couleurs, ainsi que deux sujets : le premier sur la catastrophe de la gestion des couleurs par les navigateurs Web, le second sur le calibrage des appareils photo. Tu n'as donc rien loupé sur les écrans, mais si cela t'intéresse, tu peux le commander sur le site du mag, ou encore plus simplement sur Amazon (www.amazon.fr/Comp%C3%A9tence-Photo-n%C2%B0-27-couleurs/dp/2355640866/ref=sr_1_12?s=books&ie=UTF8&qid=1341147680&sr=1-12) ou tous les numéros de CP sont disponibles une fois terminée leur vie en kiosque.
S’abonner au flux RSS pour les commentaires de cet article.