Aller au contenu

Messages recommandés

Posté

Bonjour à toutes et à tous,

 

Une caméra monochrome est-elle monochrome ou panchromatique ?

 

Les photosites ne sont pas couverts par un filtre RGB et donc enregistrent toutes les longueurs d'onde du visible, et au delà vers l'IR. Ne sont-elles pas alors panchromatiques ?

 

Alors que monochrome me semble signifier sensibilité à une seul couleur. Ainsi les photosites d'une caméra couleur, situés derrière leur filtre, deviennent monochromatiques.

 

Ou alors est-ce parce que les caméras monochrome restituent l'intensité du signal toutes longueurs d'onde vers une seule gamme, gris depuis le blanc jusqu'au noir ?

 

Des avis ?

 

Jacques

Posté

Bonjour,

 

On va faire la différence entre les photosites (sur le capteur) et les pixels (dans le fichier image, restituant une information lue ou calculée)

 

1) Sur une camera dite monochrome, un photosite n'est pas monochrome, il "réagit" (effet photo-électrique) aux photons (ondes électromagnétiques) ayant de nombreuses longueurs d'onde différentes (c'est peut être ce que tu entends par "panchromatique"), mais avec une efficacité différente pour chaque longueur d'onde

 

Ci dessous la courbe d'efficacité (quantique) d'un capteur IMX571 (source P.O.)

Capturedcran2025-10-0501_23_29.png.9006a26cdd124ec56d857cc49f7861ac.png

 

La lecture du capteur d'une camera monochrome permettra donc d'obtenir une valeur de voltage (qui va dépendre du nombre l'électrons piégés, ces électrons résistant de l'effet photo-électrique)  pour chaque photosite, que l'on transcrira en valeur d'intensité lumineuse pour chaque pixel normalisée sur 8, 10, 12, 14 ou 16 bits en fonction de la camera. Pour une IMX571 c'est 16 bits donc on obtiens des valeurs d'intensité entre 0 et 65535 (2 puissance 16 valeurs)

 

L'image obtenue est donc bien monochrome dans le sens où elle n'est constitué que d'un seul canal d'information (on peut parler 'une image en niveau de gris)

Si on emploie des filtres (LRGBSHO) sur cette camera on ne fera que réduire la plage de longueur d'onde qui va interagir avec les photosites, et dans tous les cas l'image obtenue est monochrome, restera ensuite à attribuer à chaque couche une couleur arbitraire si l'on veut obtenir une image couleur par combinaison de plusieurs canaux

 

note: les photosites étant aussi sensibles dans l'UV et l'IR, il faut utiliser un filtre 'UV/IR cut' si la camera n'en dispose pas (sur certaines la vitre devant le capteur est traitée pour faire office de filtre UV/IR) 

 

2) Dans le cas d'une camera couleur, les photosites sont eux aussi sensibles à une très large plage de longueur d'onde.

   On (le constructeur)  va ajouter devant le capteur une matrice de Bayer qui va agir comme des filtres rouge/vert/bleu devant respectivement un quart, la moitié et un quart des photosites.

    Ceci étant cela n'en fait pas des récepteurs monochromatiques, chaque filtre laisse passer une large game de longueur d'onde (donc ici aussi ton appellation panchromatique es peut être valable selon le sens que tu lui donne)

 

Ci dessous la courbe d'efficacité quantique relative pour chaque filtre (même capteur IXM571)

Capturedcran2025-10-0501_25_03.png.569a8f42ce603f8cb1f1ca1a53049f1b.png

On peut noter que par exemple que les photosite recouverts d'un filtre bleu et ceux recouverts d'un filtre vert sont sensible de la même manière à la longueur d'onde à 580nm.

La frontière de sensibilité d'un photosite ne s'arrête pas là où démarre celle de son voisin.

Et ici aussi malgré la matrice de bayer les photosites restent sensibles dans l'UV et l'IR, donc usage d'un filtre pour les couper si la camera n'en est pas équipée en standard.

 

Et ici aussi la lecture des voltage des photosites va permettre de construire un fichier image mono couche (1 valeur d'intensité lumineuse par pixel). Pour les DARK, FLAT et BIAS, on les utilise sans les debayeriser (dé-matricer), donc on les utilise en tant qu'image RAW qui est monochrome (même si obtenue avec une camera dite couleur)

Par contre pour les images 'Light" qui doivent nous servir à montrer les couleurs de l'objet photographié, on va debayériser le RAW pour générer une image comprenant 3 couches.

Lors de la débayerisation, pour chaque pixel de l'image on va attribuer la valeur d'intensité lue dans le raw à la couche correspondant à son filtre (de la matrice de bayer), et pour les autres couches on fera un calcul de moyenne (une interpolation) en prenant  les valeurs de pixels voisins. C'est le résultat de la débayerisation qui génère une image couleur.

https://fr.wikipedia.org/wiki/Dématriçage

 

En résumé, que cela soit une camera couleur ou monochrome, aucun de leur photosite n'est monochrome, ils captent tous une plus ou moins large de longueur d'onde. C'est le fichier image résultant qui est monochrome ou couleur selon qu'il est constitué d'une couche unique ou pas,

 

Cordialement, Stéphane

 

 

  

 

 

 

 

  • Merci / Quelle qualité! 4
Posté

Merci Stéphane d'avoir pris le temps d'une réponse très détaillée et précise, claire pour moi.

 

Effectivement, par panchromatique, j'entendais, par référence aux émulsions argentiques que j'utilisais il y a... longtemps maintenant, sensibilité à une large plage du spectre visible.

 

Le qualificatif "monochrome" ou "couleur" associé à une caméra désigne donc la nature de l'image qu'elle délivre "spontanément" en sortie: niveaux de gris uniquement sur chaque pixel ou niveaux de différentes "couleurs" RGB. En quelque sorte sur une caméra couleur les filtres sont "prémontés"avec la matrice de Bayer, alors que une monochrome, si on veut faire de la couleur, on doit les ajouter.

 

On doit pouvoir dire qu'à la base les photosites des caméras sont tous "panchromatiques" (j'y tiens !), sensible à une plage large de longueur d'onde. 

 

Il me vient une question supplémentaire: les caméras monochrome sont présentées comme plus sensible que les couleurs. Est-ce la présence des filtres de la matrice de Bayer qui en ets la cause ?

 

Merci encore !

 

 

Posté (modifié)
Il y a 4 heures, Forever_young a dit :

"panchromatiques" (j'y tiens !),

Donc plutôt que panchromatique il serai préférable d'utiliser polychromatique

Pan --> tous   (comme dans Pangée, Panthéon)

poly --> plusieurs (comme dans Polytechnique)

Un photosite ets sensible a une large gamme de longueur d'ondes mais pas toutes , polychromatique

 

EDIT:

Citation

Il me vient une question supplémentaire: les caméras monochrome sont présentées comme plus sensible que les couleurs. Est-ce la présence des filtres de la matrice de Bayer qui en ets la cause ?

oui.

La première courbe présentée (la sensibilité du capteur monochrome) est une courbe "absolue", la seconde pour la camera couleur est "relative", elle s'applique relativement à la courbe du capteur mono

 

Par exemple:

Imaginons de la lumière verte à 530nm de longueur d'onde.

Sur le capteur monochrome on a statistiquement 91% (1ere courbe mono) des photons incidents qui vont générer le piégeage d'un électron

Sur le capteur couleur à cette longueur d'onde 100% des photons (2eme courbe) vont passer à travers le filtre VERT  et 91% (1ere courbe) de ceux qui sont passés vont générer le piégeage  d'un électron dans le photosite (ici on est dans le cas de la seule longueur d'onde où on à la même sensibilité entre le capteur mono et celui couleur, parce qu'a cette longueur d'onde le filtre vert laisse passer 100%.

Par contre sur le même capteur couleur et à la même longueur d'onde, si le photosite est équipé d'un filtre BLEU, alors seulement 10 à 15% (2eme courbe) des photons vont passer le filtre bleu, et parmis ceux qui sont passés, seuls 91% vont générer le piégeage d'un électron --> 0.1x0.9=0.09  --> 9%du signal

 

Si maintenant on veut voir la sensibilité dans le bleu(différence entre les 2 capteurs)

Imaginons de la lumière bleue à 450 nm

Sur le capteur mono, on aura statistiquement environ 77% des photons incidents qui vont générer le piégeage d'un electron (1ere courbe)

Sur le capteur couleur, pour la même longueur d'onde, le filtre BLEU va statistiquement laisser passer 77% (courbe 2) des photons, et pour ceux qui sont passés seulement 77% (courbe 1) vont générer le piégeage d'un electron, donc au final on a statistiquement 59% (0.77*0.77=0.592) des pixels incidents à l'entrée du filtre BLEU qui vont générer le piégeage d'un électron dans le photosite. Ici on voit bien la différence de sensibilité pour une même longueur d'onde entre les 2 capteurs

 

 

Donc oui, le filtre (la matrice de bayer) absorbe du flux, donc au final le capteur (avec filtre) d'une camera couleur est moins sensible que la même version monochrome

 

Tu notera au passage qu'un capteur couleur c'est un capteur monochrome auquel on a ajouté une matrice de bayer, donc le prix du capteur couleur devrait être supérieur a celui du capteur mono.

Mais comme au final le capteur mono est "meilleur" (au sens plus sensible) que le couleur, la logique en grande partie commerciale impose de le vendre plus cher...

 

J'ai écrit "meilleur" entre guillemet car tout le monde n'a pas les même critère pour définir ce qui est meilleur.

Par exemple, pour mon cas personnel, bien que la sensibilité du capteur couleur (avec matrice de bayer)  soit inférieure, le fait de ne pas avoir à faire 3 lots de prise de vue différents (avec des filtres R, V et B) mais une seule   fait que je préfère utiliser un capteur couleur (ont dit souvent OSC pour one shot color)

 

Cordialement

 

 

Modifié par keymlinux
Posté

Aïe, ceci suscite en moi quelques réactions, remarques et questions... que je n'ai pas le temps de mettre au clair ce soir... mais j'y reviendrai.

 

Merci pour ces compléments et l'intérêt de l'échange !

 

Jacques

Posté

Hello Stéphane,

 

Il y a 22 heures, keymlinux a dit :

Donc plutôt que panchromatique il serai préférable d'utiliser polychromatique

Pan --> tous   (comme dans Pangée, Panthéon)

poly --> plusieurs (comme dans Polytechnique)

Un photosite ets sensible a une large gamme de longueur d'ondes mais pas toutes , polychromatique

 

Certes, j'entends bien. Du temps où je faisais de l'argentique, j'utilisais couramment le Tri-X Pan de Kodak, où le pan voulait dire "toutes longueurs d'onde", sous-entendu "du spectre visible" et aussi "rendu noir et blanc". Il y avait aussi le TP 2415, le Technical Pan 2415, panchromatique spectre visible mais avec meilleure définition. Et à côté il y avait des films spéciaux IR que j'ai essayé un peu aussi.

 

Bon, on ne va pas changer le vocabulaire utilisé par tout le monde, surtout si on considère que l'adjectif se rapporte à ce qui sort de la caméra, du monochrome en intensité de gris ou des couches couleur.

 

Il y a 22 heures, keymlinux a dit :

Par contre sur le même capteur couleur et à la même longueur d'onde, si le photosite est équipé d'un filtre BLEU, alors seulement 10 à 15% (2eme courbe) des photons vont passer le filtre bleu, et parmis ceux qui sont passés, seuls 91% vont générer le piégeage d'un électron --> 0.1x0.9=0.09  --> 9%du signal

 

Oui, cela me semble très logique, le photosite du bleu n'est pas supposé enregistrer un fort signal sur la longueur d'onde du vert, non ? Et ensuite le dématriçage va venir rectifier cela au sens où le pixel correspondant à ce photosite du bleu va se voir attribuer une valeur dans le vert obtenue par interpolation. J'ai bon ?

 

Il y a 22 heures, keymlinux a dit :

Sur le capteur couleur, pour la même longueur d'onde, le filtre BLEU va statistiquement laisser passer 77% (courbe 2) des photons, et pour ceux qui sont passés seulement 77% (courbe 1) vont générer le piégeage d'un electron, donc au final on a statistiquement 59% (0.77*0.77=0.592) des pixels incidents à l'entrée du filtre BLEU qui vont générer le piégeage d'un électron dans le photosite. Ici on voit bien la différence de sensibilité pour une même longueur d'onde entre les 2 capteurs

 

Ok, c'est clair. Dans "photographier la lune" de Nicolas Dupont-Bloch en page 34 il est dit que les filtres occasionnent une perte de transmission de 30% dans leur couleur. Est-ce le même phénomène où est-ce une absorption de lumière par le filtre (qui d'ailleurs est peut-être la même chose que la courbe 2 d'efficacité quantique des filtres couleur) liée au matériau dont il est fabriqué ?

 

Là où j'ai plus de mal à le suivre c'est quand il dit que les capteurs couleur ont une baisse de définitioon de l'ordre de 45% après dématriçage par rapport au capteur sans filtre. Après dématriçage, est-ce que chaque pixel résultant ne dispose pas de toutes ses intensités en RGB et donc même si le calcul des canaux est par interpolation, la définition ne devrait pas souffrir ?

 

Il y a 23 heures, keymlinux a dit :

Tu notera au passage qu'un capteur couleur c'est un capteur monochrome auquel on a ajouté une matrice de bayer, donc le prix du capteur couleur devrait être supérieur a celui du capteur mono.

Mais comme au final le capteur mono est "meilleur" (au sens plus sensible) que le couleur, la logique en grande partie commerciale impose de le vendre plus cher...

 

 

Oui, j'avais vu cela... Il me semble que c'est particuiièrement vrai pour les gros capteurs. J'ai même vu l'inverse sur les GPCAM3 Altaïr où le modèle IMX290est moins cher en monochrome qu'en couleur. Il y a la logique commerciale, pour sûr, mais peut-être aussi une question de prix de revient : si les caméras monochrome sont moins demandées, et si elles sont fabriquées par plus petits lots, le prix de revient unitaire peut être plus cher. Ce n'est qu'hypothèse de ma part.

 

De mon côté, j'ai une GPCAM385 couleur pour planètes, lune, soleil et une Altair 294C pour le ciel profond (que je n'ai pas encore utilisée), donc deux OSC.

 

Mais je me demande si pour la lune et le soleil je ne vais pas craquer puor une petite monochrome...

 

Encore merci !

Jacques

Posté (modifié)
Il y a 6 heures, Forever_young a dit :

Oui, cela me semble très logique, le photosite du bleu n'est pas supposé enregistrer un fort signal sur la longueur d'onde du vert, non ?

C'est exact, j'ai juste voulu montrer qu'un filtre n'est pas parfait, ce n'est pas du tout ou rien,  style 0% ou 100%, un filtre bleu laissera passer un peu du reste aussi (et c'est comptabilisé dans l'intensité du bleu)...

 

Il y a 6 heures, Forever_young a dit :

Et ensuite le dématriçage va venir rectifier cela au sens où le pixel correspondant à ce photosite du bleu va se voir attribuer une valeur dans le vert obtenue par interpolation. J'ai bon ?

Pour un photosite équipé d'un filtre bleu, la valeur d'intensité est obtenue par la lecture du voltage du photosite, pour la valeur d'intensité verte et rouge qui va lui être attribuée lors du dématricage, elle sera obtenue par interpolation des valeurs des phoposites voisins équipés respectivement des filtres vert et rouge

 

Il y a 6 heures, Forever_young a dit :

Ok, c'est clair. Dans "photographier la lune" de Nicolas Dupont-Bloch en page 34 il est dit que les filtres occasionnent une perte de transmission de 30% dans leur couleur. Est-ce le même phénomène où est-ce une absorption de lumière par le filtre (qui d'ailleurs est peut-être la même chose que la courbe 2 d'efficacité quantique des filtres couleur) liée au matériau dont il est fabriqué ?

Oui, le filtre (matrice de bayer) bouffe une partie du signal. Pour simplifier le propos l'auteur parle de 30% de perte moyenne, mais la courbe fournie ci dessous pour les canaux couleur montre que cela n''est pas 30% mais que cela dépend de la longueur d'onde considérée. 

Mais donner un ordre de grandeur reste très valable pour ne pas noyer le lecteur dans des explications techniques  (on peut vouloir faire de la photo sans connaitre les détails du fonctionnement du capteur, ou encore utilise rune voiture sans connaitre les détails d'un moteur à combustion)

 

Il y a 6 heures, Forever_young a dit :

Là où j'ai plus de mal à le suivre c'est quand il dit que les capteurs couleur ont une baisse de définitioon de l'ordre de 45% après dématriçage par rapport au capteur sans filtre. Après dématriçage, est-ce que chaque pixel résultant ne dispose pas de toutes ses intensités en RGB et donc même si le calcul des canaux est par interpolation, la définition ne devrait pas souffrir ?

Des lors qu'il y a calcul d'interpolation il y a perte de définition. Je vais tenter de donner une explication plus détaillée.

Sur le capteur, chaque photosite va percevoir les photons venant d'une partie du ciel, on va parler d'échantillonnage en arcseconde/pixel.

Imaginons que nous ayons un couple capteur plus telescope permettant d'avoir une résolution de 1 arcsec/pixel.

Sur un capteur monochrome aucun photosite n'a de filtre. Par contre sur le capteur couleur les photosites auront des filtres RVB en alternance, imaginons que nous ayons un groupe de pixels contigus RVBRVBRVB  (dans les faits ils ne sont pas dans cet ordre sur un capteur, on a plutôt des blocs de RVVB disposés en carré, mais peu importe, je met 3 groupes RVB sur la même ligne pour faciliter la démo)

 

Sur le capteur monochrome, prenons aussi 9 pixels qui se suivent

Si je fais une image avec un filtre vert, j'obtiens bien pour chacun des 9  photosites l'intensité de lumière verte qui sera reçue de la partie du ciel qu'il représente (1 arc seconde de hauteur et 1 arc seconde de largeur pour chaque pixel dans notre exemple)

Puis si je fais pareil avec un filtre bleu et rouge, j'obtiens bien pour chacun des photosites (et donc de la portion de ciel) la bonne indication sur l'intensité reçue de chaque couleur pour la portion de ciel considérée

Donc sur le capteur monochrome, j'ai bien pour les 9 photosites les "vraie" intensité de chacune des 3 couleurs, et ces informations reflètent vraiment la proportion de lumière verte, bleue ou rouge reçue de ces parties du ciel

.

Avec le capteur couleur, sur le 1er photosite rouge je vais obtenir la "vraie" info du rouge, mais pour ses valeurs bleues et vertes je vais INVENTER une valeur en calculant une moyenne par rapport aux autres pixels vert ou bleus  les plus proches. Mais ces pixels verts ou bleus proches ne représentent pa la même portion de 1 arc seconde sur le ciel.

Si il y a un peu de gaz qui rayonne en Oiii (bleu vert) très localisée dans cette partie du ciel, mais pas sur les pixels voisins, alors mon interpolation va calculer une valeur proche de 0 pour le bleu et vert de ce pixel parce que les voisins sont presque à zéro, mais cela ne reflétera pas la "vraie" valeur que l'on devrait obtenir si on était capable de capter le bleu/vert réellement émis pas cette partie du ciel.

C'est en ce sens que l'on perd en définition. Il y a un lissage dû aux calculs de moyenne, pour chaque pixel on a une valeur de couleur (bleu ou vert ou rouge) et on "invente" les 2 autre valeur manquantes en faisant une moyenne des valeur obtenue à coté, et à coté cela veut à la fois dire les photosites d'à coté, mais aussi les parties du ciel qui sont à coté, c'est en cela que cela dégrade la qualité de l'image

 

Et ici aussi les 45% annoncés correspondent à une moyenne, on perd moins sur le vert que sur le bleu et le rouge. C'est du au fait que 50% des photosites  du capteur sont pour le vert, 25% rouge et 25%  bleus. Ce choix (mettre plus de photosites avec filtre vert que rouge ou bleu) n'est pas anodin, il est liée au fait que l'oeil humain est plus sensible dans le vert (et ce n'est pas par hasard non plus, c'est là que notre Soleil à son pic d'émission dû à sa température de surface...)

 

En résumé, après dématricage, 100% des pixels de l'image ont bien une valeur pour le vert, une pour le rouge et une pour le bleu, mais pour chaque pixel 2 des 3 valeurs ont été calculées par moyenne et c'est ce calcul qui génère la perte de résolution

 

Il y a 6 heures, Forever_young a dit :

Oui, j'avais vu cela... Il me semble que c'est particuiièrement vrai pour les gros capteurs. J'ai même vu l'inverse sur les GPCAM3 Altaïr où le modèle IMX290est moins cher en monochrome qu'en couleur. Il y a la logique commerciale, pour sûr, mais peut-être aussi une question de prix de revient : si les caméras monochrome sont moins demandées, et si elles sont fabriquées par plus petits lots, le prix de revient unitaire peut être plus cher. Ce n'est qu'hypothèse de ma part.

Oui, je pense qu'il y a du vrai la aussi, il n'y a certainement pas seulement de la logique commerciale, les chaines de fabrications ne sont peut être pas les mêmes et les lots produits, certainement plus petits pour le monochrome ne permettent pas la même répartition des coûts

 

Il y a 6 heures, Forever_young a dit :

De mon côté, j'ai une GPCAM385 couleur pour planètes, lune, soleil et une Altair 294C pour le ciel profond (que je n'ai pas encore utilisée), donc deux OSC.

De mon coté

- une PlayerOne Poseidon-C (IMX571 pour faire du ciel profond en "one shot", et un peu de SHO avec des filtres dual-band, en 2 prises de vue)

- une ASI290mm, monochrome dédiée guidage, parce que la sensibilité est meilleure pour les poses courtes du guidage

- une ASI178mm, monochrome, utilisée pour la spectro (avec un Sol'ex) et l'imagerie lune et soleil, parce qu'avec une monochrome la résolution est meilleure et que capter la couleur n'est pas indispensable sur ces cibles (à part la lune et le soleil je ne fais pas de planétaire)

 

Voila.

Garde à l'esprit que mes réponses reflètent mon expérience et les éléments que j'ai pu lire de ci et de là, éléments que j'ai pu mal comprendre ou interpréter de manière erronée, donc je ne prétend pas que ce que j'écris ne soit pas entaché d'inexactitudes. Je te fais confiance pour recouper ces infos avec d'autres sources

 

Cordialement, Stéphane

 

 

Modifié par keymlinux
correction orthographique
  • J'aime 1
Posté (modifié)
Le 04/10/2025 à 15:59, Forever_young a dit :

Bonjour à toutes et à tous,

 

Une caméra monochrome est-elle monochrome ou panchromatique ?

Tu confonds "couleur" et "longueur d'onde".

 

Une couleur, c'est un ensemble de distributions spectrales qui pour un système ont la même réponse si on ajuste l'intensité du stimulus. Différentes distributions spectrales qui pour nous ont la même couleur peuvent très bien pour pas mal d'oiseaux être de couleur différente, ce n'est pas une propriété de la lumière (le stimulus) mais du système qui traite les stimuli.

 

Or, pour une caméra monochrome, toutes les distributions spectrales donnent la même réponse si on ajuste l'intensité: la caméra ne donne qu'une valeur (la luminance) pour chaque pixel, qui correspond à l'énergie lumineuse  de la source pondéré par la sensibilité pour chaque longueur d'onde; Il n'y a donc qu'une couleur, donc: mono-chrome, '"une [seule]  couleur" de l'ancien Grec "mono" et "khroma".

 

Inutile d'aller chercher des termes de marketing de firmes qui après voulaient montrer que leur schmilblick monochrome lavait plus blanc et noir que de le blanc et noir du produit X  ;-).

 

Quand on parle d'une seule longueur d'once, on utilise le terme "monochromatique", pas "monochrome".

 

Modifié par sixela
  • Merci / Quelle qualité! 1
Posté (modifié)
Il y a 14 heures, Forever_young a dit :

Oui, cela me semble très logique, le photosite du bleu n'est pas supposé enregistrer un fort signal sur la longueur d'onde du vert, non ?

Comme on parle de couleurs, de nouveau, il ne fait pas parler du "vert" comme une seule longueur d'onde. Même dans la vision diurne humaine, les types de cônes qui permettent de voir les couleurs s'appellent "S", "M" et "L". On les appelle souvent "bleu", "vert" et "rouge", mais les cônes M et L ont une sensibilité assez proche et le nom est justement choisi en conséquence:

 

500px-Cone-fundamentals-with-srgb-spectr

 

La différence n'est pas grande, mais elle nous suffit à voir un bel arc en ciel quand on le lui présente: chaque lumière monochromatique est d'une couleur différente...mais de la lumière "OIII" qui nous parait très verte (et même un peu bleuâtre) est captée aussi bien par les cônes M que L.

 

La très faible différence entre les cônes M et L est la cause de la deutéranomalie, causée par une mutation des cônes M qui rend la sensibilité spectrale très proche de celle des cônes L dans les longueur d'ondes assez longues. [Détail marrant: ces personnes perçoivent parfois plus de couleurs "bleues" que les personnes normales, la sensibilité des deux types de cônes étant souvent plus différente dans les courtes longueurs d'onde.]

--
°la forme de 'daltonisme' la plus courante (environ 8% des hommes, qui n'ont pas la chance d'avoir deux copies du gène codant sur le chromosome X); John Dalton lui-même souffrait d'un manque complet de cônes M, qu'on nomme deutéranopie.

Modifié par sixela
  • Merci / Quelle qualité! 1
Posté
Il y a 10 heures, keymlinux a dit :

(et c'est comptabilisé dans l'intensité du bleu)...

 

Ah oui, ça ne n'avais pas capté (😉) ! Ce qui milite encore plus, pour ceux qui veulent être au "quart de poil" dans leurs images couleur, pour l'usage de caméras monochrome + roue à filtres... mais c'est plus long à faire !

 

Il y a 11 heures, keymlinux a dit :

Des lors qu'il y a calcul d'interpolation il y a perte de définition. Je vais tenter de donner une explication plus détaillée.

 

OK. J'avais bien saisi le principe du calcul par interpolation, mais minimisé sa conséquence concrète sur la "finesse" des images, en fonction aussi sans doute de l'échantillonage. Je me disais "interpolé, ça doit le faire".

 

Merci pour ta patience et ta pédagogie !

 

Jacques

 

 

Posté
Il y a 2 heures, sixela a dit :

Une couleur, c'est un ensemble de distributions spectrales qui pour un système ont la même réponse si on ajuste l'intensité du stimulus. Différentes distributions spectrales qui pour nous ont la même couleur peuvent très bien pour pas mal d'oiseaux être de couleur différente, ce n'est pas une propriété de la lumière (le stimulus) mais du système qui traite les stimuli.

 

Or, pour une caméra monochrome, toutes les distributions spectrales donnent la même réponse si on ajuste l'intensité: la caméra ne donne qu'une valeur (la luminance) pour chaque pixel, qui correspond à l'énergie lumineuse  de la source pondéré par la sensibilité pour chaque longueur d'onde; Il n'y a donc qu'une couleur, donc: mono-chrome, '"une [seule]  couleur" de l'ancien Grec "mono" et "khroma".

 

Merci pour l'explication !

 

Cependant, et je vais peut-être devenir pénible, une caméra monochrome n'est-elle pas par définition panchromatique ?

 

Puisque monochromatique signifie "sensible à une seule longeur d'onde", panchromatique va signifier "sensible à toutes les longueurs d'onde", sous-entendu sur une plage soit strictement lumière visible, soit de l'UV à l'IR. Sur Wiki on trouve panchromatique = réponse qui ne discrimine pas les couleurs.

 

Une caméra monochrome serait donc munie d'un capteur panchromatique, sensible à toutes les longueurs d'onde sur une plage donnée, et elle restitue un signal monochrome: la valeur de luminance de chaque photosite vers chaque pixel. Cette valeur étant la somme des intensités reçues sur toute la distribution spectrale, il est logique de considérer que la représentation du signal au niveau maximal est blanc (la somme de toutes les longueurs d'onde) et au minimal noir, signal à 0.

 

Une caméra couleur serait donc équipée d'un capteur panchromatique (le même selon la version de caméras, bien sûr), mais dès l'entrée il y a discrimination selon les couleurs par la matrice de filtres colorés, et la restitution est trois valeurs par photosite.

 

Bon, ce n'est pas si grave tout ça, on fait la diféfrence entre caméra monochrome et caméra couleur et cet échange a été pour moi l'occasion de compendre plus que je ne comprenais avant, donc merci !

Il y a 3 heures, sixela a dit :

Comme on parle de couleurs, de nouveau, il ne fait pas parler du "vert" comme une seule longueur d'onde. Même dans la vision diurne humaine, les types de cônes qui permettent de voir les couleurs s'appellent "S", "M" et "L". On les appelle souvent "bleu", "vert" et "rouge", mais les cônes M et L ont une sensibilité assez proche et le nom est justement choisi en conséquence:

 

500px-Cone-fundamentals-with-srgb-spectr

 

La différence n'est pas grande, mais elle nous suffit à voir un bel arc en ciel quand on le lui présente: chaque lumière monochromatique est d'une couleur différente...mais de la lumière "OIII" qui nous parait très verte (et même un peu bleuâtre) est captée aussi bien par les cônes M que L.

 

La très faible différence entre les cônes M et L est la cause de la deutéranomalie, causée par une mutation des cônes M qui rend la sensibilité spectrale très proche de celle des cônes L dans les longueur d'ondes assez longues. [Détail marrant: ces personnes perçoivent parfois plus de couleurs "bleues" que les personnes normales, la sensibilité des deux types de cônes étant souvent plus différente dans les courtes longueurs d'onde.]

 

 

Très intéressant, merci !

 

Jacques

 

 

 

 

 

Il y a 11 heures, keymlinux a dit :

Ce choix (mettre plus de photosites avec filtre vert que rouge ou bleu) n'est pas anodin, il est liée au fait que l'oeil humain est plus sensible dans le vert (et ce n'est pas par hasard non plus, c'est là que notre Soleil à son pic d'émission dû à sa température de surface...)

 

Une vérification de plus de la théorie de Charles Darwin ? Il me semble.

Posté
Il y a 1 heure, Forever_young a dit :

Cependant, et je vais peut-être devenir pénible, une caméra monochrome n'est-elle pas par définition panchromatique ?

Je viens de lire la définition de Wikipédia : « On appelle panchromatique (du grec pan, tout et chrôma, couleur) une réponse physico-chimique (émulsion photographique, pigment photosensible, etc.) qui ne discrimine pas les couleurs, c'est-à-dire dont la sensibilité à la longueur d'onde de la lumière est similaire à celle de la vision humaine. » (c'est moi qui souligne)

 

Je sais que l'astrophoto a longtemps utilisé des films sensibles surtout au bleu. D'ailleurs la magnitude photo est quasiment équivalente à la magnitude B. Donc si j'ai bien compris, un jour on a réussi à concevoir des films sensibles aussi bien au bleu qu'au rouge (et aux longueurs d'onde entre les deux), comme l'œil humain. Ce serait ça, le panchromatisme. Tu donnes l'exemple du TP 2415 qui, il semble, était en effet sensible jusqu'au rouge.

 

Mais les capteurs monochromes vont au-delà : ils sont sensibles aussi (et de façon importante) au rouge profond et même au proche infrarouge, ils ne simulent pas la vision humaine. On sait par exemple que la magnitude que l'on mesure à partir d'une image CCD n'est pas une magnitude visuelle. Pour cette raison, j'en déduis qu'on ne peut pas parler de panchromatisme à propos des caméras noir et blanc. (Mais c'est une hypothèse à partir de la définition que je viens de lire.)

 

Forever : est-ce que tu as entendu dire que certains films comme le 103a étaient non panchromatiques ? Si c'est le cas, ça confirmerait mon interprétation de la définition de Wikipédia.

Posté (modifié)
Il y a 10 heures, Forever_young a dit :

Puisque monochromatique signifie "sensible à une seule longeur d'onde"

On parlait de monochrome, pas "monochromatique". Ce n'est pas la même chose.

 

Mais en effet, les capteurs digitaux sont capables de fournir une image panchromatique. En pratique, avec l'adjonction d'un filtre UV/IR. Et d'autres images aussi (par exemple une image en 'fausse luminance' avec un filtre longe-passe 645nm ou 685nm, pour atténuer le flou dû à la turbulence atmosphérique).

Modifié par sixela
Posté
Le 07/10/2025 à 13:40, 'Bruno a dit :

Je viens de lire la définition de Wikipédia : « On appelle panchromatique (du grec pan, tout et chrôma, couleur) une réponse physico-chimique (émulsion photographique, pigment photosensible, etc.) qui ne discrimine pas les couleurs, c'est-à-dire dont la sensibilité à la longueur d'onde de la lumière est similaire à celle de la vision humaine. » (c'est moi qui souligne)

 

Effectivement, je suis pris en faute, je n'ai cité que la première partie "qui ne dscrimine pas les couleurs"... Et ta remarque est correcte ppar rapport à la définition de Wikipedia, que l'on peut interpréter comme tu le fais, à savoir une caméra qui est sensible au delà de la lumière visible n'est pas panchromatique puisqu'elle à une sensibilité qui n'est pas similaire à la vision humaine.

 

Cependant, je me risquerai à interpréter un peu différemment à partir de l'étymologie de "panchromatique" en considérant que cet adjectif peut aussi vouloir dire que sur sa plage de sensibilité, d'UV à IR, une caméra ne discrimine pas notablement les couleurs. Le "notablement" voulant dire ici que la sensibilité du capteur peut varier en fonction de la longueur d'onde, mais de manière progressive, pas abrupte comme avec un filtre coloré.

 

J'ai aussi trouvé cette définition:

 

Les pellicules orthochromatiques, produites pour la première fois en 1873, sont sensibles uniquement à la lumière bleue (et dans une moindre mesure à la lumière verte) et ne réagissent pas à la lumière rouge. C'est pourquoi les zones extrêmement sombres (qui sont en réalité rouges) apparaissent souvent comme un signe distinctif du rendu ortho. Leur sensibilité à la lumière bleue a également tendance à surexposer facilement le ciel sur les photographies.

 

Les pellicules panchromatiques, introduites en 1906, sont sensibles à l'ensemble du spectre visible jusqu'à 700 nanomètres. Elles offrent donc la reproduction la plus fidèle de la réalité pour les pellicules noir et blanc, avec une large gamme de nuances de gris. La plupart des pellicules noir et blanc aujourd'hui sont panchromatiques.

 

Il semble que le 103a dont tu parlais était orthochromatqieu, donc pas sensible au rouge. 

 

Jacques

 

 

 

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.