Aller au contenu

nico1038

Membre
  • Compteur de contenus

    2701
  • Inscription

  • Jours gagnés

    48

Tout ce qui a été posté par nico1038

  1. Je pense toujours à un problème de calibration et je ne suis pas vraiment d'accord avec ton analyse comme quoi cela ne dépendrait pas du flat mais des circonstances. Je me demande si l'anneau n'est pas présent dans tous les cas mais plus ou moins visibles suivant les gradients présents dans l'image. As-tu essayé de traiter les deux séries d'images (celles avec l'anneau visible et celles avec l'anneau peu visible) avec les mêmes flats? Il faut également noter la présence de la grosse poussière qui n'est pas corrigée, c'est un signe que quelque chose ne va pas dans la calibration. Peux-tu décrire ta méthode de calibration : Quel logiciel utilises-tu? Procèdes-tu en manuel ou avec des scripts ? Quels fichiers de calibration utilises-tu ? Si je comprends bien, tu prends tes flats sur le ciel, c'est bien ça ? Pourrais-tu partager un masterflat? Sinon, ce n'est peut-être pas ton objectif principal mais la seule méthode que je connaisse qui puisse corriger efficacement ce genre d'artefacts est l'approche multi-échelle que j'évoque plus haut. Je t'invite à regarder ce sujet avec un cas très similaire au tien: http://www.astrosurf.com/topic/172431-m45-à-la-ffc-40760/?do=findComment&comment=2459328
  2. Il me semble qu'on parle ici d'astrophoto (je ne vois où il est question de champ stellaire) ! Dans ce contexte, l'objectif n'est pas d'obtenir un background uniforme mais un background réaliste, délivré de toutes les informations parasites (comme la PL). Or il y a, partout dans le ciel et à toutes les échelles, des gradients et des hétérogénéités bien réels qui sont irrémédiablement supprimés lorsqu'on soustrait une image starless. Ce n'est donc pas une méthode adaptée dans ce contexte. Concernant la photométrie, tu parles ici d'un côté de techniques évoluées qui m'ont l'air parfaitement adaptées à l'exercice (avec une estimation du background par tuile) et de l'autre la génération d'une image starless qui utilise des techniques destructives sur les images. Ça me parait étrange. Il serait par exemple intéressant de voir ce que donnerait la création d'une image starless dans l'exemple que tu montres, de voir si le background serait comparable avec celui généré par SExtractor et l'influence que cela aurait sur les résultats de la photométrie ? Le problème de @cmltb612 me parait être avant tout un problème de calibration. Le motif en drapeau japonais est révélateur de cela.
  3. Mais nulle part dans ces sources il n'est fait mention de starless et n'est-il pas question à chaque fois de background locaux ? L'opération même de retirer les étoiles d'une image me semble fort peu rigoureuse pour des applications de ce type. En tous cas, je ne sais pas pour la photométrie mais je sais en revanche que soustraire une image starless d'un image astro n'est pas une solution valable pour corriger les gradients. Il suffit de réaliser l'opération sur une image pleine de nébulosités pour s'en convaincre.
  4. nico1038

    7h sur NGC891

    Magnifique image. Bravo!
  5. Je trouve curieux que le fait de faire ces images dans des zones avec de la pollution provoque ce motif en drapeau japonais. Normalement, la correction des défauts d'illumination de l'optique devrait être complètement indépendante de la pollution lumineuse. Le résultat attendu après la calibration doit être une image avec un fort gradient, mais d'aspect plutôt linéaire et, en tout cas, pas circulaire ni symétrique, car cette composante du gradient doit avoir été corrigé lors de la calibration. À mon avis, cela dénote plutôt un problème de calibration plus général qui ne se révèle que dans les situations plus difficiles ou tu dois justement pousser les curseurs. La correction du gradient est en effet très complexe et, selon moi, la plus grosse difficulté lors du traitement. Les outils avec lesquels on dispose des points de référence sur le fond de ciel peuvent fonctionner dans des situations faciles, mais le placement des points restent toujours subjectifs et peut conduire à des résultats très différents. Les outils à base d'IA (type graxpert) peuvent sembler efficace et aplanir des images très compliquées, mais les résultats sont souvent éloignés de la réalité quand on les compare avec des images de référence. Le seul outil de correction du gradient qui prétend à une certaine objectivité est l'outil MGC de Pix qui se base sur des images de référence à plus grande échelle pour corriger les gradients. Le principe est décrit dans cet article : https://pixinsight.com/tutorials/multiscale-gradient-correction/ Il m'étonne beaucoup que la technique de soustraire une image starless pour aplanir une image puisse être utilisé pour de la photométrie ou pour des applications scientifiques ! Il faudrait alors considérer que l'image n'a pas de gradients naturels ou de nébulosités. Je ne pratique pas la photométrie directement, mais je sais que cela peut conduire à des mauvais résultats en termes de correction de gradients en astrophoto. En revanche, comme tu le dis, dans Pix (et je pense également dans Siril) la photométrie (qui est utilisé par exemple pour la calibration des couleurs) utilise un background local autour de chaque étoile et le soustrait avant de déterminer le flux des étoiles. Tu as un lien vers la publi?
  6. Hello Christophe, Après avoir été voir ton site consacré (entre autre) à la photométrie et lu quelques uns de tes très bon articles, je me suis demandé si ta question était sérieuse ou pas. Je ne suis d'ailleurs toujours pas complétement sûr... En tous cas, comme je me suis aussi demandé si ça n'était pas une idée géniale et iconoclaste, je vais essayer d'y répondre sérieusement! Comme le dit @Ant-1, les flats traditionnels ne peuvent corriger la pollution lumineuse. La raison en est que l'impact de cette pollution sur nos images est additive (elle vient s'ajouter au signal) alors que les variations de luminosité liées aux optiques et au capteur sont de nature multiplicative (elles atténuent le signal). Par conséquent il est impossible de corriger ces deux phénomènes avec un seul fichier et une seule opération de calibration. En théorie, on pourrait trouver une solution en séparant les composantes additives et multiplicatives en 2 fichiers de calibration distincts. Pour ce faire, si on arrivait à capturer une image contenant une représentation fidèle de la pollution lumineuse, il faudrait alors la calibrer avec des flats traditionnels pour en éliminer la composante multiplicative. Il resterait alors une image de calibration qui ne contiendrait que la composante additive (i.e. l'illumination dû à la PL sans le vignettage) et qui pourrait alors être soustraite (et pas diviser) de nos images pour en éliminer la pollution lumineuse. En pratique ça me semble complétement impossible à réaliser pour deux raisons. 1) Il est à mon avis complétement impossible de capturer correctement la pollution lumineuse sur les nuages (ou ailleurs). Non seulement la PL dépend de manière très concrète de ce qui est allumé mais également des conditions atmosphériques. La pollution lumineuse d'un instant donné n'est donc pas celle d'un autre. De plus, si on utilise les nuages, j'imagine que la simple hauteur de la couche nuageuse doit suffire à modifier considérablement le résultat obtenu! 2) L'idée de se placer dans la même position que lors des images du CP est difficile à concevoir. Viser les nuages a des coordonnées et un angle précis me semble déjà compliqué mais surtout, lorsqu'on image le ciel profond, on tourne en permanence et l'impact de la pollution lumineuse terrestre est donc différent pour chaque image (et même à chaque instant en réalité). Il faudrait donc des images de calibration de la PL différente pour chaque image... Nico
  7. Très belle image avec une intégration de toutes les couches réussie. Je sais que ça n'est pas évident!
  8. La durée des pose n'est pas vraiment la question: pour que la division par le masterflat soit fonctionnelle, les signaux aux numérateurs et au dénominateur doivent être proportionnelles (c'est à dire que zéro photon reçu doit correspondre à une valeur ADU de zéro). Il faut donc retirer l'offset de tes lights (cela se fait en général en soustrayant un masterdark) et de tes flats (cela se fait en général en soustrayant un masterbias) Un exemple: Avec des poses de 1s, il est vrai que tu peux sans aucun doute utiliser uniquement le masterbias pour calibrer tes flats (avant de créer le masterflat), puis pour calibrer tes lights.
  9. Hello Gerard, Pas facile de comprendre ce qui se passe car on manque un peu d'info. Par ailleurs le résultat est très différent entre ta première image et ce dernier résultat. Qu'est ce qui a changé entre les 2? Cela dit il faut bien comprendre que pour une correction des flats réussi il faut avoir calibré les lights avec des darks et calibré les flats avec des bias. Tout est lié dans la calibration et on ne peut pas se passer de quoi que ce soit. Une sur-correction des flats comme celle que tu montres dans ton dernier résultat est souvent le résultat d'un problème (ou d'une absence) de darks. Et pour compliquer encore les choses, Sharpcap offre la possibilité de prétraiter les fichiers à la volée. As tu utilisé cette fonctionnalité (Onglet Prétraitement)?
  10. Il ne faut pas confondre la composition HDR qui consiste a assembler des masters avec des durées d'exposition différents (dans Pixinsight cette opération est réalisé en phase linéaire avec l'outil HDRcomposition) de la compression de la plage dynamique offerte par HDRMT. Ces deux outils sont en fait indépendants même si, sur un objet comme M42, il faudra utiliser les 2 techniques si on veut récupérer la totalité de l'information présente au cœur de la nébuleuse A ma connaissance , il n'est pas possible de réaliser ces opérations avec Siril Si il reste un domaine ou les capteurs de nos caméras sont inférieurs à œil humain, c'est celui de la plage dynamique. Il est donc légitime dans bien des cas d'essayer d'augmenter cette dernière et, pour M42 en particulier, ça a l’intérêt de révéler la zone qui qui est à l'origine de toutes ces nébulosités.
  11. nico1038

    PixInsight: nouveau stretch

    Est ce que tu as bien cette ligne dans la liste des repositories (accessible depuis Ressources > Updates > Manage Repositories)?
  12. Il ne faut pas hésiter à utiliser HDR Multiscale Transform même quand l'image n'est pas une composition HDR. Dès qu'il y a des zones très brillante dans une image, HDRMT fait des merveilles pour récupérer de l'information. C'est un des outils de traitement que j'utilise le plus en phase non linéaire.
  13. Bien mieux en effet mais toujours trop rouge selon moi. La calibration des couleurs par spectrophotométrie permet justement de tenir compte des spécificités du filtre pour obtenir un résultat proche de celui que tu obtiendrais sans filtre. Avec des filtres UHC ou CLS le résultat est vraiment très proche. Es tu sûr d'avoir bien choisi le bon filtre dans SPCC? Voici par exemple une rosette avec un canon 1300D et filtre UHC (avec un traitement très basique: Correction des gradients, Blurx, SPCC, étirement) Après tu peux aussi traiter cette image comme une image narrowband avec plus de liberté et en recherchant les contrastes de couleurs mais ça n'est alors pas la même approche et il n'y a alors plus forcément besoin d'utiliser SPCC du tout. Pour le gradient je te conseille l'utilisation de MGC et éventuellement GradientCorrection.
  14. Bonjour Guy et bravo pour cette image, elle est très réussie. Je crois que tu pourrais utiliser avantageusement la fonction "To intensity" lorsque tu utilises l'outil HDRMultiscaleTransform, cette dernière permet de conserver des couleurs dans les zones lumineuses au cœur de la nébuleuse.
  15. Hello @grooky, Belle image mais je pense que tu as as eu en effet la main trop lourde. Je trouve que l'étirement est exagérée et que le couleurs sont trop saturées. Je suis aussi surpris par la teinte rouge de la nébuleuse. A mon avis tu as du modifier l'équilibre des couleurs après SPCC Nico
  16. C'est frappant en effet et il est d'ailleurs intéressant de noter la différence d'apparence avec les prises en broadband dont les nébulosités n'ont pas ce coté duveteux. Voici par exemple une comparaison sur un des panneau que j'ai déjà fait: Je ne sais pas exactement comment interpréter cette différence d'apparence. Est ce que cela peut être expliqué par le fait que l'hydrogène est plus léger?
  17. Merci Max, Dans Pixinsight, Il y a 3 outils qui facilitent la réalisation des mosaïques: La correction du gradient (avec MGC) qui offre une correction "objective" des gradients (en se basant sur une image grand champ de référence) et qui permet donc d'obtenir des panneaux compatibles en terme de gradient L'astrométrie qui permet d'aligner précisément les panneaux sur la géométrie finale de la mosaique La photométrie qui va permettre d'ajuster les niveaux de luminosité des panneaux avant de les joindre Grace à eux, la réalisation de la mosaïque a été très simple et directe et n'a pas dut tout nécessité d'ajustements fastidieux. Bonne année 2026 à tous!
  18. nico1038

    Reports de bugs

    Même si il est toujours possible de passer par des solutions de stockage externe, ça serait super d'avoir cette possibilité directement sur le forum. Pouvoir partager des images raw, des fit ou des xisf est essentiel selon moi pour toute analyse ou aide sérieuse.
  19. Bonjour à tous, J'ai commencé il y a un moment un projet de mosaïque dans Orion avec ma lunette FRA400. J'ai déjà acquis 2 panneaux avec ma caméra couleur (j'attends une belle nuit sans lune pour faire le troisième). Comme il faisait beau en région Parisienne ces jours ci mais qu'il y avait une lune très présente j'ai décidé de shooter la même mosaïque mais en Ha cette fois avec ma caméra ASI2600MM en me disant que je pourrais l' intégrer par la suite à l'image couleur. Je me suis limité cette fois à 3h pour les 2 premiers panneaux (avec une lune à 60%) et 4h pour le dernier (avec une lune à 80%) avec des poses de 180s Lunette Fra400 Caméra ASI20600MM Filtre Ha 3nm guidage avec un diviseur optique et une caméra ASI290mm monture Ioptron CEM40 Pilotage avec un Asiair Pro Pour la réalisation de la mosaique j'ai suivi en gros les étapes que j'avais décrit ici: https://www.webastro.net/forums/topic/263842-tuto-mosaique-avec-pixinsight/ (le travail étant même facilité par le fait que les images sont bien plus propres avec cette configuration matériel par rapport a des images avec des objectif photo) Voilà, je suis content d'avoir pu mettre à profit ces nuits de lune. Reste à voir maintenant comment procéder pour intégrer ces données dans l'image couleur sans dénaturer cette dernière? Je ne sais pas encore exactement comment je vais procéder. Bon réveillon à tous! Nico
  20. nico1038

    PixInsight, WBPP et SPCC

    C'est pas bête en effet. Tu as toujours des contacts chez ZWO? C'est le genre de petite évolution qui serait sympa. Cela dit je suis toujours aussi content de mes Asiair. J'ai testé quelques alternatives et je n'ai rien trouvé d'équivalent pour le moment
  21. nico1038

    PixInsight, WBPP et SPCC

    je parle de la situation sans roue à filtres. Il me semble que dans ce cas là on est coincé et qu'il n'y a pas moyen de renseigner cette info.
  22. nico1038

    PixInsight, WBPP et SPCC

    Exactement, l'utilisation du Add custom en modifiant le nom du filtre n'est alors pas nécessaire et ne va rien changer à l'image obtenue. Il y a quand même un intérêt à le faire c'est que, de cette façon, le nom correct du filtre sera enregistré dans le header du masterLight. Ç'est une information qui peut être utile. Bien sûr le plus propre est d'avoir le nom du filtre directement dans les brutes mais c'est vrai qu'avec un asiair et un tiroir à filtre je ne sais pas comment faire? Tu veux dire que c'est possible de préciser le filtre directement dans l'Asiair? A quel endroit est situé ce réglage?
  23. nico1038

    PixInsight, WBPP et SPCC

    Non pas du tout: il n'y a pas de calibration des couleurs réalisées lors du prétraitement. Par conséquent la nature du filtre n'a pas d'importance (a ce stade). Le seul intérêt de cette information est qu'elle va permettre de regrouper les images si tu traites des images prises avec des filtres différents dans un même run de WBPP. Si tu traites uniquement des images réalisées avec ton filtre duoband la valeur nofilter convient parfaitement. En revanche c'est lors du traitement et de la calibration des couleurs avec SPCC qu'il faut caractériser ton filtre pour que la calibration soit correcte (mais ça n'a pas lié à la valeur du mot clé Filter dans les méta-données du fichier) Je te déconseille en effet l'usage de l'IA sur des sujets comme cela. Les forums sont bien plus fiables.
  24. nico1038

    PixInsight, WBPP et SPCC

    Hello @Aïki WBPP ne contient ni PCC, ni SPCC. Est ce que tu ne confonds pas avec la résolution astrométrique des masterlights qui est elle activé par défaut (mais que tu peux décocher)? L'idée est que la calibration des couleurs est une étape de traitement et pas de prétraitement. Du coup je ne sais pas exactement ce que tu veux dire par les résultats médiocres que tu obtiens? Peux tu préciser et montrer un exemple? Nico
  25. nico1038

    Celestron c8

    Hello @pasconic Aucune raison qu'il ne marche pas a priori mais je dirais qu'il faut commencer par vérifier quelques points: Faire une inspection visuelle par l'avant du tube, la lame est elle propre, sans champignon? Tout semble t'il bien aligné? Est ce qu'il y a des choses qui semble bouger quand vous déplacer le tube ou est ce que tout est relativement bien calé? Est ce que la molette de mise au point (à l'arrière du télescope) tourne facilement et de façon fluide? L'étape suivant à mon avis est un test de jour (si vous avez des oculaires et un renvoi coudé). Il faut alors viser une cible au loin (attention d'être bien éloigné du soleil) en s'aidant éventuellement des chercheurs et en utilisant l'oculaire avec la plus grande focale possible (> 25mm si possible) puis essayer de faire la mise au point. Celle ci peut être délicate à obtenir sur un C8 car le système de mise au point par déplacement du miroir a une plage extrêmement importante. Il faut donc être patient et parcourir toute la plage disponible en tournant doucement la molette tout en regardant par l’oculaire jusqu'à obtenir une image nette. Si vous réussissez à faire cela, c'est déjà une bonne partie du chemin qui sera accompli et il sera alors temps de voir ce que vous voulez (et pouvez) faire avec ce télescope Nico
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.