Aller au contenu

nico1038

Membre
  • Compteur de contenus

    2646
  • Inscription

  • Jours gagnés

    47

Tout ce qui a été posté par nico1038

  1. Hello Christophe, Après avoir été voir ton site consacré (entre autre) à la photométrie et lu quelques uns de tes très bon articles, je me suis demandé si ta question était sérieuse ou pas. Je ne suis d'ailleurs toujours pas complétement sûr... En tous cas, comme je me suis aussi demandé si ça n'était pas une idée géniale et iconoclaste, je vais essayer d'y répondre sérieusement! Comme le dit @Ant-1, les flats traditionnels ne peuvent corriger la pollution lumineuse. La raison en est que l'impact de cette pollution sur nos images est additive (elle vient s'ajouter au signal) alors que les variations de luminosité liées aux optiques et au capteur sont de nature multiplicative (elles atténuent le signal). Par conséquent il est impossible de corriger ces deux phénomènes avec un seul fichier et une seule opération de calibration. En théorie, on pourrait trouver une solution en séparant les composantes additives et multiplicatives en 2 fichiers de calibration distincts. Pour ce faire, si on arrivait à capturer une image contenant une représentation fidèle de la pollution lumineuse, il faudrait alors la calibrer avec des flats traditionnels pour en éliminer la composante multiplicative. Il resterait alors une image de calibration qui ne contiendrait que la composante additive (i.e. l'illumination dû à la PL sans le vignettage) et qui pourrait alors être soustraite (et pas diviser) de nos images pour en éliminer la pollution lumineuse. En pratique ça me semble complétement impossible à réaliser pour deux raisons. 1) Il est à mon avis complétement impossible de capturer correctement la pollution lumineuse sur les nuages (ou ailleurs). Non seulement la PL dépend de manière très concrète de ce qui est allumé mais également des conditions atmosphériques. La pollution lumineuse d'un instant donné n'est donc pas celle d'un autre. De plus, si on utilise les nuages, j'imagine que la simple hauteur de la couche nuageuse doit suffire à modifier considérablement le résultat obtenu! 2) L'idée de se placer dans la même position que lors des images du CP est difficile à concevoir. Viser les nuages a des coordonnées et un angle précis me semble déjà compliqué mais surtout, lorsqu'on image le ciel profond, on tourne en permanence et l'impact de la pollution lumineuse terrestre est donc différent pour chaque image (et même à chaque instant en réalité). Il faudrait donc des images de calibration de la PL différente pour chaque image... Nico
  2. Très belle image avec une intégration de toutes les couches réussie. Je sais que ça n'est pas évident!
  3. La durée des pose n'est pas vraiment la question: pour que la division par le masterflat soit fonctionnelle, les signaux aux numérateurs et au dénominateur doivent être proportionnelles (c'est à dire que zéro photon reçu doit correspondre à une valeur ADU de zéro). Il faut donc retirer l'offset de tes lights (cela se fait en général en soustrayant un masterdark) et de tes flats (cela se fait en général en soustrayant un masterbias) Un exemple: Avec des poses de 1s, il est vrai que tu peux sans aucun doute utiliser uniquement le masterbias pour calibrer tes flats (avant de créer le masterflat), puis pour calibrer tes lights.
  4. Hello Gerard, Pas facile de comprendre ce qui se passe car on manque un peu d'info. Par ailleurs le résultat est très différent entre ta première image et ce dernier résultat. Qu'est ce qui a changé entre les 2? Cela dit il faut bien comprendre que pour une correction des flats réussi il faut avoir calibré les lights avec des darks et calibré les flats avec des bias. Tout est lié dans la calibration et on ne peut pas se passer de quoi que ce soit. Une sur-correction des flats comme celle que tu montres dans ton dernier résultat est souvent le résultat d'un problème (ou d'une absence) de darks. Et pour compliquer encore les choses, Sharpcap offre la possibilité de prétraiter les fichiers à la volée. As tu utilisé cette fonctionnalité (Onglet Prétraitement)?
  5. Il ne faut pas confondre la composition HDR qui consiste a assembler des masters avec des durées d'exposition différents (dans Pixinsight cette opération est réalisé en phase linéaire avec l'outil HDRcomposition) de la compression de la plage dynamique offerte par HDRMT. Ces deux outils sont en fait indépendants même si, sur un objet comme M42, il faudra utiliser les 2 techniques si on veut récupérer la totalité de l'information présente au cœur de la nébuleuse A ma connaissance , il n'est pas possible de réaliser ces opérations avec Siril Si il reste un domaine ou les capteurs de nos caméras sont inférieurs à œil humain, c'est celui de la plage dynamique. Il est donc légitime dans bien des cas d'essayer d'augmenter cette dernière et, pour M42 en particulier, ça a l’intérêt de révéler la zone qui qui est à l'origine de toutes ces nébulosités.
  6. nico1038

    PixInsight: nouveau stretch

    Est ce que tu as bien cette ligne dans la liste des repositories (accessible depuis Ressources > Updates > Manage Repositories)?
  7. Il ne faut pas hésiter à utiliser HDR Multiscale Transform même quand l'image n'est pas une composition HDR. Dès qu'il y a des zones très brillante dans une image, HDRMT fait des merveilles pour récupérer de l'information. C'est un des outils de traitement que j'utilise le plus en phase non linéaire.
  8. Bien mieux en effet mais toujours trop rouge selon moi. La calibration des couleurs par spectrophotométrie permet justement de tenir compte des spécificités du filtre pour obtenir un résultat proche de celui que tu obtiendrais sans filtre. Avec des filtres UHC ou CLS le résultat est vraiment très proche. Es tu sûr d'avoir bien choisi le bon filtre dans SPCC? Voici par exemple une rosette avec un canon 1300D et filtre UHC (avec un traitement très basique: Correction des gradients, Blurx, SPCC, étirement) Après tu peux aussi traiter cette image comme une image narrowband avec plus de liberté et en recherchant les contrastes de couleurs mais ça n'est alors pas la même approche et il n'y a alors plus forcément besoin d'utiliser SPCC du tout. Pour le gradient je te conseille l'utilisation de MGC et éventuellement GradientCorrection.
  9. Bonjour Guy et bravo pour cette image, elle est très réussie. Je crois que tu pourrais utiliser avantageusement la fonction "To intensity" lorsque tu utilises l'outil HDRMultiscaleTransform, cette dernière permet de conserver des couleurs dans les zones lumineuses au cœur de la nébuleuse.
  10. Hello @grooky, Belle image mais je pense que tu as as eu en effet la main trop lourde. Je trouve que l'étirement est exagérée et que le couleurs sont trop saturées. Je suis aussi surpris par la teinte rouge de la nébuleuse. A mon avis tu as du modifier l'équilibre des couleurs après SPCC Nico
  11. C'est frappant en effet et il est d'ailleurs intéressant de noter la différence d'apparence avec les prises en broadband dont les nébulosités n'ont pas ce coté duveteux. Voici par exemple une comparaison sur un des panneau que j'ai déjà fait: Je ne sais pas exactement comment interpréter cette différence d'apparence. Est ce que cela peut être expliqué par le fait que l'hydrogène est plus léger?
  12. Merci Max, Dans Pixinsight, Il y a 3 outils qui facilitent la réalisation des mosaïques: La correction du gradient (avec MGC) qui offre une correction "objective" des gradients (en se basant sur une image grand champ de référence) et qui permet donc d'obtenir des panneaux compatibles en terme de gradient L'astrométrie qui permet d'aligner précisément les panneaux sur la géométrie finale de la mosaique La photométrie qui va permettre d'ajuster les niveaux de luminosité des panneaux avant de les joindre Grace à eux, la réalisation de la mosaïque a été très simple et directe et n'a pas dut tout nécessité d'ajustements fastidieux. Bonne année 2026 à tous!
  13. nico1038

    Reports de bugs

    Même si il est toujours possible de passer par des solutions de stockage externe, ça serait super d'avoir cette possibilité directement sur le forum. Pouvoir partager des images raw, des fit ou des xisf est essentiel selon moi pour toute analyse ou aide sérieuse.
  14. Bonjour à tous, J'ai commencé il y a un moment un projet de mosaïque dans Orion avec ma lunette FRA400. J'ai déjà acquis 2 panneaux avec ma caméra couleur (j'attends une belle nuit sans lune pour faire le troisième). Comme il faisait beau en région Parisienne ces jours ci mais qu'il y avait une lune très présente j'ai décidé de shooter la même mosaïque mais en Ha cette fois avec ma caméra ASI2600MM en me disant que je pourrais l' intégrer par la suite à l'image couleur. Je me suis limité cette fois à 3h pour les 2 premiers panneaux (avec une lune à 60%) et 4h pour le dernier (avec une lune à 80%) avec des poses de 180s Lunette Fra400 Caméra ASI20600MM Filtre Ha 3nm guidage avec un diviseur optique et une caméra ASI290mm monture Ioptron CEM40 Pilotage avec un Asiair Pro Pour la réalisation de la mosaique j'ai suivi en gros les étapes que j'avais décrit ici: https://www.webastro.net/forums/topic/263842-tuto-mosaique-avec-pixinsight/ (le travail étant même facilité par le fait que les images sont bien plus propres avec cette configuration matériel par rapport a des images avec des objectif photo) Voilà, je suis content d'avoir pu mettre à profit ces nuits de lune. Reste à voir maintenant comment procéder pour intégrer ces données dans l'image couleur sans dénaturer cette dernière? Je ne sais pas encore exactement comment je vais procéder. Bon réveillon à tous! Nico
  15. nico1038

    PixInsight, WBPP et SPCC

    C'est pas bête en effet. Tu as toujours des contacts chez ZWO? C'est le genre de petite évolution qui serait sympa. Cela dit je suis toujours aussi content de mes Asiair. J'ai testé quelques alternatives et je n'ai rien trouvé d'équivalent pour le moment
  16. nico1038

    PixInsight, WBPP et SPCC

    je parle de la situation sans roue à filtres. Il me semble que dans ce cas là on est coincé et qu'il n'y a pas moyen de renseigner cette info.
  17. nico1038

    PixInsight, WBPP et SPCC

    Exactement, l'utilisation du Add custom en modifiant le nom du filtre n'est alors pas nécessaire et ne va rien changer à l'image obtenue. Il y a quand même un intérêt à le faire c'est que, de cette façon, le nom correct du filtre sera enregistré dans le header du masterLight. Ç'est une information qui peut être utile. Bien sûr le plus propre est d'avoir le nom du filtre directement dans les brutes mais c'est vrai qu'avec un asiair et un tiroir à filtre je ne sais pas comment faire? Tu veux dire que c'est possible de préciser le filtre directement dans l'Asiair? A quel endroit est situé ce réglage?
  18. nico1038

    PixInsight, WBPP et SPCC

    Non pas du tout: il n'y a pas de calibration des couleurs réalisées lors du prétraitement. Par conséquent la nature du filtre n'a pas d'importance (a ce stade). Le seul intérêt de cette information est qu'elle va permettre de regrouper les images si tu traites des images prises avec des filtres différents dans un même run de WBPP. Si tu traites uniquement des images réalisées avec ton filtre duoband la valeur nofilter convient parfaitement. En revanche c'est lors du traitement et de la calibration des couleurs avec SPCC qu'il faut caractériser ton filtre pour que la calibration soit correcte (mais ça n'a pas lié à la valeur du mot clé Filter dans les méta-données du fichier) Je te déconseille en effet l'usage de l'IA sur des sujets comme cela. Les forums sont bien plus fiables.
  19. nico1038

    PixInsight, WBPP et SPCC

    Hello @Aïki WBPP ne contient ni PCC, ni SPCC. Est ce que tu ne confonds pas avec la résolution astrométrique des masterlights qui est elle activé par défaut (mais que tu peux décocher)? L'idée est que la calibration des couleurs est une étape de traitement et pas de prétraitement. Du coup je ne sais pas exactement ce que tu veux dire par les résultats médiocres que tu obtiens? Peux tu préciser et montrer un exemple? Nico
  20. nico1038

    Celestron c8

    Hello @pasconic Aucune raison qu'il ne marche pas a priori mais je dirais qu'il faut commencer par vérifier quelques points: Faire une inspection visuelle par l'avant du tube, la lame est elle propre, sans champignon? Tout semble t'il bien aligné? Est ce qu'il y a des choses qui semble bouger quand vous déplacer le tube ou est ce que tout est relativement bien calé? Est ce que la molette de mise au point (à l'arrière du télescope) tourne facilement et de façon fluide? L'étape suivant à mon avis est un test de jour (si vous avez des oculaires et un renvoi coudé). Il faut alors viser une cible au loin (attention d'être bien éloigné du soleil) en s'aidant éventuellement des chercheurs et en utilisant l'oculaire avec la plus grande focale possible (> 25mm si possible) puis essayer de faire la mise au point. Celle ci peut être délicate à obtenir sur un C8 car le système de mise au point par déplacement du miroir a une plage extrêmement importante. Il faut donc être patient et parcourir toute la plage disponible en tournant doucement la molette tout en regardant par l’oculaire jusqu'à obtenir une image nette. Si vous réussissez à faire cela, c'est déjà une bonne partie du chemin qui sera accompli et il sera alors temps de voir ce que vous voulez (et pouvez) faire avec ce télescope Nico
  21. Il n'y a pas de correcteur proprement dit dans ce modèle Petzval mais c'est sûr que la lumière rebondit quelque part. Le truc c'est que quand je regarde dans ma lunette en l'éclairant par l'avant j'ai des reflets partout! Voici par exemple un test que j'avais fait il y a quelques années en plaçant un écran à flat sur le devant et en prenant une photo par le PO On est loin d'un environnement complétement mat! Cela dit ça ne m'avait jamais posé de vrai problème jusque là. Et je ne crois pas que ça soit la cause des reflets ici du fait de l’asymétrie très nette constatée entre les 2 positions du train optique. Hello Michel, Plus j'y pense et plus je crois que c'est en effet le diviseur optique qui est la cause des reflets. C'est ce qui explique le mieux la différence entre les 2 positions. J'ai vérifié et le prisme est bien situé du coté ou apparaissent les reflets après le flip. Par contre je ne suis pas sûr de ce que tu veux dire concernant la position du DO? Est ce que tu suggères que les étoiles en question seraient situées dans le champ couvert par le prisme? Je ne suis pas sûr ce soit le cas: les étoiles Alnitak et Alnilam qui provoquent les 2 reflets sont quand même assez loin du champ, surtout Alnilam qui provoque le plus gros reflet et elle est par ailleurs relativement décalée par rapport au cadre alors que mon prisme est lui centré. J'ai l'impression que ce n'est pas le prisme lui même le problème mais plutôt la partie métallique qui soutien ce dernier et sur lequel les étoiles viendraient se refléter Voici une autre gif, peut être plus parlant, avec l'image en entier positionnée sur un champ plus vaste contenant les 2 étoiles problématiques: En tous cas, si c'est bien le DO le soucis, cela m'offre une possibilité d'intervenir assez facilement si cela se reproduit. Sur ce modèle de DO j'ai en effet la possibilité de décaler latéralement le prisme (avec les 2 grosses molettes latérales). C'est quelque chose que je n'ai jamais vraiment utilisé (car je n'avais aucun problème à trouver des étoiles) mais cela pourrait suffire à corriger ces reflets. J'ai l'intuition qu'un léger déplacement devrait avoir un impact.
  22. Bonjour à tous, Je vous soumet une situation intéressante qui m'est arrivé l'autre jour. Je shootais dans la région d'Orion avec ma lunette FRA400 et ma caméra ASI2600MC et, après le passage du méridien et le retournement de ma monture, j'ai constaté l'apparition de reflets sur mes images. Dans le passé, j'avais pu observer des situations où des étoiles brillantes proches du champ provoquaient ce genre de reflets et, comme j'étais proche de Alnitak et Alnilam, j'ai tout de suite pensé que ces reflets pouvait provenir de ces 2 étoiles (et j'ai pu confirmer cela par la suite par astrométrie). Ce qui m'étonne ici en revanche et ce que je n'avais encore jamais observé c'est que les reflets se produisent uniquement d'un coté du méridien et pas de l'autre. Comme on est sensé être dans une situation symétrique j'avoue être surpris par le phénomène? Voici un gif pour illustrer le problème avec l'enchainement d' un empilement de 20 images avant le méridien puis un empilement de 20 images après La seule chose chose qui n'est pas réellement symétrique dans mon train optique entre les 2 cotés du méridien c'est mon diviseur optique. Pensez vous que c'est lui qui puisse être la cause de ces reflets? Et croyez vous qu'il y avait quelque chose à faire pour éviter ou limiter le problème? Avec le recul je me demande par exemple si je n'aurais pas pu essayer d’allonger le par-soleil de ma lunette... Bref, je suis curieux d'avoir vos retours d'expériences et idées sur la question. Nico
  23. Il me semble aussi que les images cHaO3_O3.fit et cHaO3-Ha.fit sont les mêmes. J'ai l'impression que tu as en effet des petits soucis de calibration: non seulement l'ampglow du capteur n'est pas corrigé correctement mais il y a des sortes de taches noirs un peu partout. Le problème de ces cibles difficiles c'est qu'on est obligé de tellement étirer l'image que les petits défauts qui pourraient passer inaperçu autrement sont amplifiés et compliquent ensuite le traitement. Si j'étais toi, j’essaierai de creuser de ce coté pour te faciliter le traitement par la suite.
  24. Hello @cezanne Tes 4 premières images partagées sont en 16 bits, ça n'est pas suffisant pour stocker l'information consécutif à l'empilement et tu perds inévitablement des possibilités lors du traitement (surtout avec un signal aussi faible et donc un histogramme aussi resserré). A mon avis ça vaut le coup de recommencer le prétraitement et de sauvegarder les images en 32 bits. Les 6 dernières par contre sont bien en 32 bits.
  25. Je ne suis pas exactement sur des zones que tu évoques mais penses tu que ces couleurs sont réelles et correspondent réellement à quelque chose de physique? Pourquoi ne les retrouves t'on pas quand on "zoom"? As tu essayés de calibrer tes images avec des flats et de comparer les résultats? Les images de Serge sont assez différentes des tiennes et le phénomène me semble plus clair avec sa configuration. Sur cette image d'Orion et sur celle d'Andromede dans l'autre sujet on voit des structures très similaires dans les 2 cas qui, à mon sens, ne sont pas réelles.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.