rmor51 Posté 25 mai 2025 Posté 25 mai 2025 Siril de préférence, je possède aussi Pix mais pas très féru sur celui-ci. Citer
nico1038 Posté 25 mai 2025 Auteur Posté 25 mai 2025 il y a 1 minute, rmor51 a dit : Siril de préférence, je possède aussi Pix mais pas très féru sur celui-ci. Je suis un peu moins à l'aise avec Siril donc je te donne une méthode avec juste une opération à faire avec Pix Il y a en fait très peu d'étapes: 1) Pré-traiter tes 2 images normalement avec Siril et donc obtenir deux images empilées: une image monochrome issue de la 183MM et une image RGB issue de la 533MC. 2) Aligner l'image RGB sur l'image de Luminance dans Pix avec le process StarAlignment: 2a: ouvrir les 2 images dans Pix 2b: Ouvrir le process StarAlignment 2c: Choisir comme image de référence ton image de luminance (l'image de la 183MM) 2d: Choisir comme registration model "Two-Dimensional Surface-Spline" pour activer la correction de la distorsion 2e: Appliquer le process sur l'image RGB 2f: Sauvegarder l'image RGB_registered 3) Tu as désormais une image de Luminance et une Image RGB qui sont alignées et aux même dimensions. Il te reste alors à traiter ces images comme une image LRGB classique. PS:Je pense qu'il doit être possible de faire l'alignement dans Siril mais Siril fonctionne toujours avec des séquences et pour aligner des images entre elles elles doivent être dans la même séquence. Et du coup j'ai un doute sur comment aligner une image monochrome avec une image RGB ? Citer
nico1038 Posté 25 mai 2025 Auteur Posté 25 mai 2025 (modifié) Il y a 4 heures, 180Vision a dit : Salut Nico ! Ton idée est en effet intérressante, c'est aussi pour cela que j'ai participé au projet D.I.A.N.A récemment. Je peux contribuer à M63 faite récemment à la 130/910 / Mono. Par contre, "stacker" des FIT unitaires ne serait-il pas moins bon que de récupérer en effet les brutes issues des différentes prises, pour les aligner et empiler ensuite en global ? A condition je pense quand même en effet que la focale/échantillonage reste dans une fourchette oui. Ma M63, c'est celle-ci, je peux t'envoyer le .FIT du stack demain (ici...j'ai une connexion 4Mo....:( ) Oui: dans l'idéal il faudrait sans doute repartir des brutes mais ça me semble beaucoup trop compliqué en terme de données à échanger (les brutes plus les fichiers de calibration) et de complexité et je pense qu'avec les bonnes méthodes il est possible d'obtenir quelque chose de très similaire avec les images déjà empilées. L'idée est vraiment de faire quelque chose de simple et sans trop de prise de tête. En tous cas ton image a l'air superbe! Modifié 25 mai 2025 par nico1038 2 Citer
shibon Posté 25 mai 2025 Posté 25 mai 2025 (modifié) Zut, j'ai oublié d'envoyer mon fichier, en espérant que ça ne soit pas trop tard 1 fichier avec le C8 et la 26C de 2025 (38670s) Sur un autre post, j'envoie un de 2023 à la 294 je crois (24930s) Les temps sont notés sur les noms de fichiers Sam M63 result_38670s.fit Modifié 25 mai 2025 par shibon 2 Citer
shibon Posté 25 mai 2025 Posté 25 mai 2025 l'image à la 26C et à la 294 en 2023 M63 result_24930s.fit 2 Citer
LaurentG23 Posté 25 mai 2025 Posté 25 mai 2025 Il y a 2 heures, Ant-1 a dit : Bah en fait, c'est comme ca qu'ont été faite toutes les plus importantes images astro amateur de ces derniere années, comme celle de l'arche OIII sur M31 par example ... plus de 1000 h avec une dixaine de telescopes differents ... On fait le choix d'une cible AVANT avec une réso, une orientation, un cadrage, etc. Si j'ai bien compris c'est la même démarche avec le projet DIANA, une certaine rigueur nécessaire. Ici, c'est empiler, tout ce qui vient... Citer
sebseacteam Posté 25 mai 2025 Posté 25 mai 2025 il y a 39 minutes, LaurentG23 a dit : On fait le choix d'une cible AVANT avec une réso, une orientation, un cadrage, etc. Si j'ai bien compris c'est la même démarche avec le projet DIANA, une certaine rigueur nécessaire. Ici, c'est empiler, tout ce qui vient... Et ça nous amuse, est ce problématique ? 🤔 1 3 Citer
rmor51 Posté 25 mai 2025 Posté 25 mai 2025 Il y a 4 heures, nico1038 a dit : PS:Je pense qu'il doit être possible de faire l'alignement dans Siril mais Siril fonctionne toujours avec des séquences et pour aligner des images entre elles elles doivent être dans la même séquence. Et du coup j'ai un doute sur comment aligner une image monochrome avec une image RGB ? Merci pour ta réponse détaillée. Pour aligner les deux images dans Siril, il faut les appeler dans le premier onglet Conversion et créer une séquence que l'on peut manipuler ensuite. 1 Citer
180Vision Posté 25 mai 2025 Posté 25 mai 2025 4 hours ago, nico1038 said: Oui: dans l'idéal il faudrait sans doute repartir des brutes mais ça me semble beaucoup trop compliqué en terme de données à échanger (les brutes plus les fichiers de calibration) et de complexité et je pense qu'avec les bonnes méthodes il est possible d'obtenir quelque chose de très similaire avec les images déjà empilées. L'idée est vraiment de faire quelque chose de simple et sans trop de prise de tête. En tous cas ton image a l'air superbe! Déjà, partager des brutes triées et pre-traitées (donc plus brutes du coup ), ça simplifierait une partie du job.... Citer
shibon Posté 26 mai 2025 Posté 26 mai 2025 Il y a 8 heures, 180Vision a dit : Déjà, partager des brutes triées et pre-traitées (donc plus brutes du coup ), ça simplifierait une partie du job.... Pour ma part c'est ce que j'ai donné, c'est sortie d'empilement donc pré traité. Les flats ne font pas toujours un job parfait avec le C8 vu le vignettage. C'est assez variable et j'ai l'impression que le pare buée a de l'influence selon le remontage (je l'enlevais à chaque fois pour housser) maintenant non😊 2 Citer
T350 Posté 26 mai 2025 Posté 26 mai 2025 Moi, je propose de faire de l'interférométrie avec Seb, comme ça ça donnera la résolution d'un miroir de 700Km de diamètre.🤪 a+ Serge 5 Citer
sebseacteam Posté 26 mai 2025 Posté 26 mai 2025 il y a 3 minutes, T350 a dit : Moi, je propose de faire de l'interférométrie avec Seb, comme ça ça donnera la résolution d'un miroir de 700Km de diamètre.🤪 a+ Serge J'ai commencé les travaux semaine dernière. J'ai dû filer quelques billets aux voisins, ils étaient un peu trop curieux. J'ai juste dit que j'avais des pbs de réception de la TNT pour capter Gulli TV pour ma fille. 8 Citer
180Vision Posté 26 mai 2025 Posté 26 mai 2025 (modifié) @nico1038 Chose promise, la luminance M63 pré-traitée/stackée (uniquement DOFs, rien d'autre). Tu verras malheureusement que j'ai du recadrer en rotation car à l'origine, j'ai eu un souci de rotation non volontaire (vis mal serrée avec le poids de ma RAF...). https://drive.proton.me/urls/J480F4PVFW#dAQfqvsedN08 Modifié 26 mai 2025 par 180Vision 2 Citer
sebseacteam Posté 26 mai 2025 Posté 26 mai 2025 Salut les copains, j'ai commencé à bosser sur l'image finale... Après un SPCC j'ai ça: normal? 2 Citer
nico1038 Posté 26 mai 2025 Auteur Posté 26 mai 2025 (modifié) Bon alors j'ai fait hier une première tentative de combiner les 8 images qui ont été déposé (avant la luminance que @180Vision vient d'ajouter). Je vous fait un topo de comment j'ai procédé avec Pixinsight: 1) Ouverture et résolution astrométrique des 8 images: A noter que suivant les réglages de Pix, certaines image peuvent apparaitre inversée et qu'il faut mieux alors les remettre à l'endroit avec une inversion miroir (c'est paradoxale mais avec mes réglages seule mon image était inversée car je l'avais convertit en fit avec Siril) (Je n'ai eu aucun problème à résoudre ces 8 images, toutes les infos nécessaires étaient bien présentes dans l'entête des fichiers fit) 2) Choix du cadrage: J'ai utilisé la fonctionnalité de synchronisation astrometrique des vues pour afficher tous les cadrages sur l'image de Pascal (qui est celle avec le plus grand champ) J'ai choisit ici de n'exclure aucune image mais on comprend bien que si on veut prendre une zone commune à toutes les images, le champ va être sensiblement réduit. Ici j'utilise l'outil DynamicCrop pour cropper l'image de Pascal en choisissant la zone commune optimale. Cette image cropée sera la référence pour aligner les 7 autres. 3) Alignement des images J'ai utilisé le process StarAlignment en choisissant donc comme référence l'image de Pascal cropé à l'étape précédente et avec un "registration model" réglé sur "Two-Dimensional Surface Splines". Cela active la prise en compte de la distorsion lors de l'alignement ce qui est important quand on travail avec des images prises avec des système optique différent. 4) Normalisation des images: J'ai décidé de normaliser les images avec l'outil LocalNormalisation de Pix. Cela permet de normaliser les histogrammes des 8 images et, comme l'opération est faite localement (l'image est découpé en section sur lesquelles on applique la normalisation), cela permet aussi potentiellement de diminuer les gradients locaux. J'ai choisi mon image comme référence car il me semble que c'est elle qui a le moins de gradient (avec aussi celle de @Shibon à la 26C). 5)Sauvegarde des 8 images au format xisf 6) Utilisation du script WeightOptimizer Je vous met les résultats du script tel quel. Le script a fait 8 itérations et a finit par attribuer des poids aux images qu'il considère comme optimaux. Le graph du haut représente l'amélioration des résultats au fur et à mesure des itérations et le graph du bas les poids relatifs des 8 images (avec leur numéros et leurs noms à gauche) J'avoue que je suis un peu surpris par certains poids. Par exemple l'image n°4 (celle de Seb au newton) est visuellement en dessous des autres et ça se reflète bien dans le poids qui lui est attribué (avec un coeff de seulement 0.1) mais je ne comprend pas bien pourquoi l'image n°6 (celle de Shibon avec la caméra 26C) a un coeff aussi bas alors que l'image n°7 (toujours celle de Shibon avec la caméra 294C) à le coeff de référence de 1 alors que je trouve qu'elle souffre de gradients qui se retrouve du coup dans le résultat final. Une fois le script finit, il faut cliquer sur WRITE et les poids sont écrits dans les fichier associés au mot clé OPTWGHT 7) Il ne reste plus qu'à intégrer les 8 images entre elle. J'ai fait ça avec le process ImageIntegration avec les réglages suivants: Dans Weights il faut choisir "FITS keyword" et définir le mot OPTWGHT Il faut également désactiver le rejection (j'ai essayé quelques algorithmes de rejection pour voir si il était possible de rejeter les aigrettes mais, avec seulement 8 images les aigrettes sont rejetés en partie mais cela crée plein d'artefacts). Je vous poste le résultat de l'empilement ici si vous voulez l'analyser ou le traiter. integration.fit Et un traitement rapide que j'ai fait avec ce fichier: Le résultat n'est pas (encore?) spectaculaire mais c'est quand même prometteur je trouve. Il y a surement moyen d'améliorer les choses et ça serait vraiment bien d'avoir d'autres images pour poursuivre les tests (notamment en luminance du coup pour compléter celle de @180Vision) Je compte aussi refaire des test en regroupant les images par échantillonage et par fov pour éviter des trop grande disparité à ce niveau. Nico Modifié 26 mai 2025 par nico1038 5 3 Citer
180Vision Posté 26 mai 2025 Posté 26 mai 2025 1 minute ago, nico1038 said: Bon alors j'ai fait hier une première tentative de combiner les 8 images qui ont été déposé (avant la luminance que @180Vision vient d'ajouter). Je vous fait un topo de comment j'ai procédé avec Pixinsight: 1) Ouverture et résolution astrométrique des 8 images: A noter que suivant les réglages de Pix, certaines image peuvent apparaitre inversée et qu'il faut mieux alors les remettre à l'endroit avec une inversion miroir (c'est paradoxale mais avec mes réglages seule mon image était inversée car je l'avais convertit en fit avec Siril) 2) Choix du cadrage: J'ai utilisé la fonctionnalité de synchronisation astrometrique des vues pour afficher tous les cadrages sur l'image de Pascal (qui est celle avec le plus grand champ) J'ai choisit ici de n'exclure aucune image mais on comprend bien que si on veut prendre une zone commune à toutes les images, le champ va être sensiblement réduit. Ici j'utilise l'outil DynamicCrop pour cropper l'image de Pascal en choisissant la zone commune optimale. Cette image cropée sera la référence pour aligner les 7 autres. 3) Alignement des images J'ai utilisé le process StarAlignment en choisissant donc l'image de Pascal cropé à l'étape précédente et avec un "registration model" réglé sur "Two-Dimensional Surface Splines". Cela active la prise en compte de la distorsion lors de l'alignement ce qui est important quand on travail avec des images prises avec des système optique différent. 4) Normalisation des images: J'ai décidé de normaliser les images avec l'outil LocalNormalisation de Pix. Cela permet de normaliser les histogrammes des 8 images et, comme l'opération est faite localement (l'image est découpé en section sur lesquelles on applique la normalisation), cela permet aussi potentiellement de diminuer les gradients locaux. J'ai choisi mon image comme référence car il me semble que c'est elle qui a le moins de gradient (avec aussi celle de @Shibon à la 26C). 5)Sauvegarde des 8 images au format xisf 6) Utilisation du script WeightOptimizer Je vous met les résultats du script tel quel. Le script a fait 8 itération et a finit par attribuer des poids aux images qu'il considère comme optimaux. Le graph du haut représente l'amélioration des résultats au fur et à mesure des itérations et le graph du bas les poids relatifs des 8 images (avec leur numéros et leurs noms à gauche) J'avoue que je suis un peu surpris par certains poids. Par exemple l'image n°4 (celle de Seb au newton) est visuellement en dessous des autres et ça se reflète bien dans le poids qui lui est attribué (avec un coeff de seulement 0.1) mais je ne comprend pas bien pourquoi l'image n°6 (celle de Shibon avec la caméra 26C) a un coeff aussi bas alors que l'image n°7 (toujours celle de Shibon avec la caméra 294C) à le coeff de référence de 1 alors que je trouve qu'elle souffre de gradients qui se retrouve du coup dans le résultat final. Une fois le script finit, il faut cliquer sur WRITE et les poids sont écrits dans les fichier associés au mot clé OPTWGHT 7) Il ne reste plus qu'à intégrer les 8 images entre elle. J'ai fait ça avec le process ImageIntegration avec les réglages suivants: Dans Weights il faut choisir "FITS keyword" et définir le mot OPTWGHT Il faut également désactiver le rejection (j'ai essayé quelques algorithmes de rejection pour voir si il était possible de rejeter les aigrettes mais, avec seulement 8 images les aigrettes sont rejetés en partie mais cela crée plein d'artefacts). Je vous poste le résultat de l'empilement ici si vous voulez l'analyser ou le traiter. integration.fit 23.29 MB · 0 downloads Et un traitement rapide que j'ai fait avec ce fichier: Le résultat n'est pas (encore?) spectaculaire mais c'est quand même prometteur je trouve. Il y a surement moyen d'améliorer les choses et ça serait vraiment bien d'avoir d'autres images pour poursuivre les tests (notamment en luminance du coup pour compléter celle de @180Vision) Je compte aussi refaire des test en regroupant les images par échantillonage et par fov pour éviter des trop grande disparité à ce niveau. Nico Good job Nico, c'est en effet déjà prometteur et bravo pour le temps passé ! Il est clair que les rotations des uns des autres déjà ne facilité en rien, au delà même de l'échantillonage/fov... Citer
sebseacteam Posté 26 mai 2025 Posté 26 mai 2025 Tutchy tout ça, mais prometteur je pense. Vais essayer de jouer avec les images proposées de mon côte cette semaine. En tous cas belle approche Nico ( je n'en suis pas encore là niveau process dans Pix ) Citer
Pascal76 Posté 26 mai 2025 Posté 26 mai 2025 Il y a 1 heure, nico1038 a dit : Le résultat n'est pas (encore?) spectaculaire mais c'est quand même prometteur je trouve Oui en effet, et merci pour le process d'intégration, je vais essayer aussi dans la semaine pour l'exercice. Très intéressante je trouve cette idée, ça nous fait progresser ( euh moi en tous cas)🙂 1 Citer
Ryo Posté 26 mai 2025 Posté 26 mai 2025 Good job Nico c'est vraiment top merci du boulot et explication ❤ Citer
Benoist Posté 26 mai 2025 Posté 26 mai 2025 quelqu'un aurais une de comment faire avec siril ? je serais bien tenté d'essayer ? Citer
180Vision Posté 26 mai 2025 Posté 26 mai 2025 15 minutes ago, Benoist said: quelqu'un aurais une de comment faire avec siril ? je serais bien tenté d'essayer ? En toute logique, en passant par Sirilic, l'ajout de "sessions" devrait se faire naturellement, tout comme l'alignement entre images. 1 Citer
LucaR Posté 26 mai 2025 Posté 26 mai 2025 (modifié) Hello, Un conseil: vérifiez quand même les différences de l'empilement global avec l'empilement de chaque ensemble de brutes pris séparément. J'ai déjà participé plusieurs fois à des projets de mise en commun de ce genre, et à chaque fois au final on se confrontait à un obstacle: quand les ensembles de brutes sont trop différents (car prises avec du matos différent, des échantillonages distincts, des temps de poses qui n'ont rien à voir, etc..) les algos d'empilement et rejection en prennent un en référence, et du coup rejettent tous les autres. Au final la BDR obtenue n'est quasiment pas différent de l'empilement de ce seul ensemble... On obtenait généralement plus de résultats en empilant séparément, puis en assemblant les images en conservant le meilleurs de chaque: par exemple le fond de ciel de l'un, les couleurs de l'autre, etc... Soit à l'aide de pixel math (mais compliqué de trouver de bonnes formules!) soit bêtement avec des masques et fusions sous Photoshop. Sur les projets de collab consistant à viser ensemble un objet, ils s'organisent pour avoir des instruments et échantillonages les plus proches possibles. Là oui ça peut donner des résultats à l'empilement. Modifié 26 mai 2025 par LucaR 1 1 Citer
180Vision Posté 26 mai 2025 Posté 26 mai 2025 5 minutes ago, LucaR said: Hello, Un conseil: vérifiez quand même les différences de l'empilement global avec l'empilement de chaque ensemble de brutes pris séparément. J'ai déjà participé plusieurs fois à des projets de mise en commun de ce genre, et à chaque fois au final on se confrontait à un obstacle: quand les ensembles de brutes sont trop différents (car prises avec du matos différent, des échantillonages distincts, des temps de poses qui n'ont rien à voir, etc..) les algos d'empilement et rejection en prennent un en référence, et du coup rejettent tous les autres. Au final la BDR obtenue n'est quasiment pas différent de l'empilement de ce seul ensemble... On obtenait généralement plus de résultats en empilant séparément, puis en assemblant les images en conservant le meilleurs de chaque: par exemple le fond de ciel de l'un, les couleurs de l'autre, etc... Soit à l'aide de pixel math (mais compliqué de trouver de bonnes formules!) soit bêtement avec des masques et fusions sous Photoshop. Sur les projets de collab consistant à viser ensemble un objet, ils s'organisent pour avoir des instruments et échantillonages les plus proches possibles. Là oui ça peut donner des résultats à l'empilement. C'est évident pour nous tous je pense, mais je trouve intérressant de s'y coller pour voir, à "moindre effort" et à postériori, si qqc peut parfois sortir de tout à fait honorable ! 1 Citer
LucaR Posté 26 mai 2025 Posté 26 mai 2025 (modifié) il y a 2 minutes, 180Vision a dit : C'est évident pour nous tous je pense, mais je trouve intérressant de s'y coller pour voir, à "moindre effort" et à postériori, si qqc peut parfois sortir de tout à fait honorable ! Ha ça ne coûte rien d'essayer bien sûr (à part du temps et de l'énergie :-D) mais voilà, j'y allais de mon petit feedback de gars qui a déjà essayé, et plusieurs fois :-) Modifié 26 mai 2025 par LucaR 2 Citer
180Vision Posté 26 mai 2025 Posté 26 mai 2025 6 minutes ago, LucaR said: Ha ça ne coûte rien d'essayer bien sûr (à part du temps et de l'énergie :-D) mais voilà, j'y allais de mon petit feedback de gars qui a déjà essayé, et plusieurs fois :-) Oui, c'est ça, il faut mesurer ce que ça apporte par rapport au travail à fournir vs le résultat c'est clair. Citer
nico1038 Posté 26 mai 2025 Auteur Posté 26 mai 2025 (modifié) il y a 37 minutes, LucaR a dit : Hello, Un conseil: vérifiez quand même les différences de l'empilement global avec l'empilement de chaque ensemble de brutes pris séparément. J'ai déjà participé plusieurs fois à des projets de mise en commun de ce genre, et à chaque fois au final on se confrontait à un obstacle: quand les ensembles de brutes sont trop différents (car prises avec du matos différent, des échantillonages distincts, des temps de poses qui n'ont rien à voir, etc..) les algos d'empilement et rejection en prennent un en référence, et du coup rejettent tous les autres. Au final la BDR obtenue n'est quasiment pas différent de l'empilement de ce seul ensemble... On obtenait généralement plus de résultats en empilant séparément, puis en assemblant les images en conservant le meilleurs de chaque: par exemple le fond de ciel de l'un, les couleurs de l'autre, etc... Soit à l'aide de pixel math (mais compliqué de trouver de bonnes formules!) soit bêtement avec des masques et fusions sous Photoshop. Sur les projets de collab consistant à viser ensemble un objet, ils s'organisent pour avoir des instruments et échantillonages les plus proches possibles. Là oui ça peut donner des résultats à l'empilement. Tu as tout à fait raison: l'exercice n'a de sens que si on obtient un résultat meilleur que sur les images individuelles (au moins sur un critère donné). Ici, en comparant les images (après alignement et normalisation) il me semble assez net que l'image empilé est plus riche au niveau de son fond de ciel. On y voit tout simplement plus de choses. C'est d'ailleurs confirmé par SubframeSelector: en comparant les 8 images avec l'image empilée (ici la n°9): il détecte nettement plus d'étoiles dans cette dernière que sur les autres. Modifié 26 mai 2025 par nico1038 3 Citer
sebseacteam Posté 26 mai 2025 Posté 26 mai 2025 De toutes façons on vise au minimum l'APOD et une approbation d'Alicia... 1 5 Citer
180Vision Posté 26 mai 2025 Posté 26 mai 2025 2 minutes ago, sebseacteam said: De toutes façons on vise au minimum l'APOD et une approbation d'Alicia... Seb, tireur d'élite de balles perdues 4 Citer
Messages recommandés
Rejoignez la conversation !
Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.