Aller au contenu

Projet collaboratif [M63]: que diriez vous de combiner vos images pour voir ce que ça peut donner?


Messages recommandés

Posté
il y a 1 minute, rmor51 a dit :

Siril de préférence, je possède aussi Pix mais pas très féru sur celui-ci.

 

Je suis un peu moins à l'aise avec Siril donc je te donne une méthode avec juste une opération à faire avec Pix

 

Il y a en fait très peu d'étapes:

 

1) Pré-traiter tes 2 images normalement avec Siril et donc obtenir deux images empilées: une image monochrome issue de la 183MM et une image RGB issue de la 533MC.

 

2) Aligner l'image RGB sur l'image de Luminance dans Pix avec le process StarAlignment:

2a: ouvrir les 2 images dans Pix

2b: Ouvrir le process StarAlignment

2c: Choisir comme image de référence ton image de luminance (l'image de la 183MM)

2d: Choisir comme registration model "Two-Dimensional Surface-Spline" pour activer la correction de la distorsion

2e: Appliquer le process sur l'image RGB

2f: Sauvegarder l'image RGB_registered

 

3) Tu as désormais une image de Luminance et une Image RGB qui sont alignées et aux même dimensions. Il te reste alors à traiter ces images comme une image LRGB classique.

 

PS:Je pense qu'il doit être possible de faire l'alignement dans Siril mais Siril fonctionne toujours avec des séquences et pour aligner des images entre elles elles doivent être dans la même séquence. Et du coup j'ai un doute sur comment aligner une image monochrome avec une image RGB ?

 

Posté (modifié)
Il y a 4 heures, 180Vision a dit :

Salut Nico !

Ton idée est en effet intérressante, c'est aussi pour cela que j'ai participé au projet D.I.A.N.A récemment.

 

Je peux contribuer à M63 faite récemment à la 130/910 / Mono.

Par contre, "stacker" des FIT unitaires ne serait-il pas moins bon que de récupérer en effet les brutes issues des différentes prises, pour les aligner et  empiler  ensuite en global ?

A condition je pense quand même en effet que la focale/échantillonage reste dans une fourchette oui.

 

Ma M63, c'est celle-ci, je peux t'envoyer le .FIT du stack demain (ici...j'ai une connexion 4Mo....:(  )

M63_starless_DxO.thumb.jpg.92bc19af610bd04ee725249571669ea2.jpg

 

Oui:  dans l'idéal il faudrait sans doute repartir des brutes mais ça me semble beaucoup trop compliqué en terme de données à échanger (les brutes plus les fichiers de calibration) et de complexité et je pense qu'avec les bonnes méthodes il est possible d'obtenir quelque chose de très similaire avec les images déjà empilées.

L'idée est vraiment de faire quelque chose de simple et sans trop de prise de tête.

 

En tous cas ton image a l'air superbe!

Modifié par nico1038
  • J'aime 2
Posté (modifié)

Zut, j'ai oublié d'envoyer mon fichier, en espérant que ça ne soit pas trop tard

1 fichier avec le C8 et la 26C de 2025 (38670s)

Sur un autre post, j'envoie un de 2023 à la 294 je crois (24930s)

Les temps sont notés sur les noms de fichiers

Sam

 

M63 result_38670s.fit

 

Modifié par shibon
  • J'aime 2
Posté
Il y a 2 heures, Ant-1 a dit :

Bah en fait, c'est comme ca qu'ont été faite toutes les plus importantes images astro amateur de ces derniere années, comme celle de l'arche OIII sur M31 par example ... plus de 1000 h avec une dixaine de telescopes differents ...

On fait le choix d'une cible AVANT avec une réso, une orientation, un cadrage, etc. Si j'ai bien compris c'est la même démarche avec le projet DIANA, une certaine rigueur nécessaire. Ici, c'est empiler, tout ce qui vient...

Posté
il y a 39 minutes, LaurentG23 a dit :

On fait le choix d'une cible AVANT avec une réso, une orientation, un cadrage, etc. Si j'ai bien compris c'est la même démarche avec le projet DIANA, une certaine rigueur nécessaire. Ici, c'est empiler, tout ce qui vient...

Et ça nous amuse, est ce problématique ?

🤔

  • J'aime 1
  • Comme je me gausse! 3
Posté
Il y a 4 heures, nico1038 a dit :

PS:Je pense qu'il doit être possible de faire l'alignement dans Siril mais Siril fonctionne toujours avec des séquences et pour aligner des images entre elles elles doivent être dans la même séquence. Et du coup j'ai un doute sur comment aligner une image monochrome avec une image RGB ?

Merci pour ta réponse détaillée. Pour aligner les deux images dans Siril, il faut les appeler dans le premier onglet Conversion et créer une séquence que l'on peut manipuler ensuite.

  • J'aime 1
Posté
4 hours ago, nico1038 said:

 

Oui:  dans l'idéal il faudrait sans doute repartir des brutes mais ça me semble beaucoup trop compliqué en terme de données à échanger (les brutes plus les fichiers de calibration) et de complexité et je pense qu'avec les bonnes méthodes il est possible d'obtenir quelque chose de très similaire avec les images déjà empilées.

L'idée est vraiment de faire quelque chose de simple et sans trop de prise de tête.

 

En tous cas ton image a l'air superbe!

 

Déjà, partager des brutes triées et pre-traitées (donc plus brutes du coup :) ), ça simplifierait une partie du job....

Posté
Il y a 8 heures, 180Vision a dit :

 

Déjà, partager des brutes triées et pre-traitées (donc plus brutes du coup :) ), ça simplifierait une partie du job....

Pour ma part c'est ce que j'ai donné, c'est sortie d'empilement donc pré traité. 

Les flats ne font pas toujours un job parfait avec le C8 vu le vignettage.

C'est assez variable et j'ai l'impression que le pare buée a de l'influence selon le remontage (je l'enlevais à chaque fois pour housser) maintenant non😊

  • J'aime 2
Posté

Moi, je propose de faire de l'interférométrie avec Seb, comme ça ça donnera la résolution d'un miroir de 700Km de diamètre.🤪

 

:dehors:

 

a+

 

Serge

  • Comme je me gausse! 5
Posté
il y a 3 minutes, T350 a dit :

Moi, je propose de faire de l'interférométrie avec Seb, comme ça ça donnera la résolution d'un miroir de 700Km de diamètre.🤪

 

:dehors:

 

a+

 

Serge

J'ai commencé les travaux semaine dernière.

undefined

J'ai dû filer quelques billets aux voisins, ils étaient un peu trop curieux.
J'ai juste dit que j'avais des pbs de réception de la TNT pour capter Gulli TV pour ma fille.

!ph34r!

  • Comme je me gausse! 8
Posté (modifié)

Bon alors j'ai fait hier une première tentative de combiner les 8 images qui ont été déposé (avant la luminance que  @180Vision vient d'ajouter). Je vous fait un topo de comment j'ai procédé avec Pixinsight:

 

1) Ouverture et résolution astrométrique des 8 images:

8_images.thumb.jpg.638e13458c0d605e9241b733f6cacb4d.jpg

 

A noter que suivant les réglages de Pix, certaines image peuvent apparaitre inversée et qu'il faut mieux alors les remettre à l'endroit avec une inversion miroir (c'est paradoxale mais avec mes réglages seule mon image était inversée car je l'avais convertit en fit avec Siril)

(Je n'ai eu aucun problème à résoudre ces 8 images, toutes les infos nécessaires étaient bien présentes dans l'entête des fichiers fit)

 

2) Choix du cadrage:

 

J'ai utilisé la fonctionnalité de synchronisation astrometrique des vues pour afficher tous les cadrages sur l'image de Pascal (qui est celle avec le plus grand champ)

Cadrage.jpg.7b8ac2b0493c830f14a9c688f33ee6fa.jpg

 

J'ai choisit ici de n'exclure aucune image mais on comprend bien que si on veut prendre une zone commune à toutes les images, le champ va être sensiblement réduit.

 

Crop.jpg.4f461c57a6a62281081ce0aabbcd99e0.jpg

 

Ici j'utilise l'outil DynamicCrop pour cropper l'image de Pascal en choisissant la zone commune optimale. Cette image cropée sera la référence pour aligner les 7 autres.

 

3) Alignement des images

J'ai utilisé le process StarAlignment en choisissant donc comme référence l'image de Pascal cropé à l'étape précédente et avec un "registration model" réglé sur "Two-Dimensional Surface Splines". Cela active la prise en compte de la distorsion lors de l'alignement ce qui est important quand on travail avec des images prises avec des système optique différent.

 

4) Normalisation des images:

J'ai décidé de normaliser les images avec l'outil LocalNormalisation de Pix. Cela permet de normaliser les histogrammes des 8 images  et, comme l'opération est faite localement (l'image est découpé en section sur lesquelles on applique la normalisation), cela permet aussi potentiellement de diminuer les gradients locaux. J'ai choisi mon image comme référence car il me semble que c'est elle qui a le moins de gradient (avec  aussi celle de @Shibon à la 26C).

 

5)Sauvegarde des 8 images au format xisf

 

6) Utilisation du script WeightOptimizer

 

Je vous met les résultats du script tel quel. 

Le script a fait 8 itérations et a finit par attribuer des poids aux images qu'il considère comme optimaux. Le graph du haut représente l'amélioration des résultats au fur et à mesure des itérations et le graph du bas les poids relatifs des 8 images (avec leur numéros et leurs noms à gauche)

 

image.png.2d2faa213c8ded692349d8237fbd57b8.png

 

J'avoue que je suis un peu surpris par certains poids. Par exemple l'image n°4 (celle de Seb au newton) est visuellement en  dessous des autres et ça se reflète bien dans le poids qui lui est attribué (avec un coeff de seulement 0.1) mais je ne comprend pas bien pourquoi l'image n°6 (celle de Shibon avec la caméra 26C) a un coeff aussi bas alors que l'image n°7 (toujours celle de Shibon avec la caméra 294C) à le coeff de référence de 1 alors que je trouve qu'elle souffre de gradients qui se retrouve du coup dans le résultat final.

 

Une fois le script finit, il faut cliquer sur WRITE et les poids sont écrits dans les fichier associés au mot clé OPTWGHT

 

7) Il ne reste plus qu'à intégrer les 8 images entre elle. J'ai fait ça avec le process ImageIntegration avec les réglages suivants:

Dans Weights il faut choisir "FITS keyword" et définir le mot OPTWGHT

Il faut également désactiver le rejection (j'ai essayé quelques algorithmes de rejection pour voir si il était possible de rejeter les aigrettes mais, avec seulement 8 images les aigrettes sont rejetés en partie mais cela crée plein d'artefacts).

 

Je vous poste le résultat de l'empilement ici si vous voulez l'analyser ou le traiter.

integration.fit

 

Et un traitement rapide que j'ai fait avec ce fichier:

integration.thumb.jpg.d43e25883818a9edde142cc402bcbee0.jpg

 

Le résultat n'est pas (encore?) spectaculaire mais c'est quand même prometteur je trouve. Il y a surement moyen d'améliorer les choses et ça serait vraiment bien d'avoir d'autres images pour poursuivre les tests (notamment en luminance du coup pour compléter celle de @180Vision)

 

Je compte aussi refaire des test en regroupant les images par échantillonage et par fov  pour éviter des trop grande disparité à ce niveau.

 

Nico

Modifié par nico1038
  • J'aime 5
  • Merci / Quelle qualité! 3
Posté
1 minute ago, nico1038 said:

Bon alors j'ai fait hier une première tentative de combiner les 8 images qui ont été déposé (avant la luminance que  @180Vision vient d'ajouter). Je vous fait un topo de comment j'ai procédé avec Pixinsight:

 

1) Ouverture et résolution astrométrique des 8 images:

8_images.thumb.jpg.638e13458c0d605e9241b733f6cacb4d.jpg

 

A noter que suivant les réglages de Pix, certaines image peuvent apparaitre inversée et qu'il faut mieux alors les remettre à l'endroit avec une inversion miroir (c'est paradoxale mais avec mes réglages seule mon image était inversée car je l'avais convertit en fit avec Siril)

 

2) Choix du cadrage:

 

J'ai utilisé la fonctionnalité de synchronisation astrometrique des vues pour afficher tous les cadrages sur l'image de Pascal (qui est celle avec le plus grand champ)

Cadrage.jpg.7b8ac2b0493c830f14a9c688f33ee6fa.jpg

 

J'ai choisit ici de n'exclure aucune image mais on comprend bien que si on veut prendre une zone commune à toutes les images, le champ va être sensiblement réduit.

 

Crop.jpg.4f461c57a6a62281081ce0aabbcd99e0.jpg

 

Ici j'utilise l'outil DynamicCrop pour cropper l'image de Pascal en choisissant la zone commune optimale. Cette image cropée sera la référence pour aligner les 7 autres.

 

3) Alignement des images

J'ai utilisé le process StarAlignment en choisissant donc l'image de Pascal cropé à l'étape précédente et avec un "registration model" réglé sur "Two-Dimensional Surface Splines". Cela active la prise en compte de la distorsion lors de l'alignement ce qui est important quand on travail avec des images prises avec des système optique différent.

 

4) Normalisation des images:

J'ai décidé de normaliser les images avec l'outil LocalNormalisation de Pix. Cela permet de normaliser les histogrammes des 8 images  et, comme l'opération est faite localement (l'image est découpé en section sur lesquelles on applique la normalisation), cela permet aussi potentiellement de diminuer les gradients locaux. J'ai choisi mon image comme référence car il me semble que c'est elle qui a le moins de gradient (avec  aussi celle de @Shibon à la 26C).

 

5)Sauvegarde des 8 images au format xisf

 

6) Utilisation du script WeightOptimizer

 

Je vous met les résultats du script tel quel. 

Le script a fait 8 itération et a finit par attribuer des poids aux images qu'il considère comme optimaux. Le graph du haut représente l'amélioration des résultats au fur et à mesure des itérations et le graph du bas les poids relatifs des 8 images (avec leur numéros et leurs noms à gauche)

 

image.png.2d2faa213c8ded692349d8237fbd57b8.png

 

J'avoue que je suis un peu surpris par certains poids. Par exemple l'image n°4 (celle de Seb au newton) est visuellement en  dessous des autres et ça se reflète bien dans le poids qui lui est attribué (avec un coeff de seulement 0.1) mais je ne comprend pas bien pourquoi l'image n°6 (celle de Shibon avec la caméra 26C) a un coeff aussi bas alors que l'image n°7 (toujours celle de Shibon avec la caméra 294C) à le coeff de référence de 1 alors que je trouve qu'elle souffre de gradients qui se retrouve du coup dans le résultat final.

 

Une fois le script finit, il faut cliquer sur WRITE et les poids sont écrits dans les fichier associés au mot clé OPTWGHT

 

7) Il ne reste plus qu'à intégrer les 8 images entre elle. J'ai fait ça avec le process ImageIntegration avec les réglages suivants:

Dans Weights il faut choisir "FITS keyword" et définir le mot OPTWGHT

Il faut également désactiver le rejection (j'ai essayé quelques algorithmes de rejection pour voir si il était possible de rejeter les aigrettes mais, avec seulement 8 images les aigrettes sont rejetés en partie mais cela crée plein d'artefacts).

 

Je vous poste le résultat de l'empilement ici si vous voulez l'analyser ou le traiter.

integration.fit 23.29 MB · 0 downloads

 

Et un traitement rapide que j'ai fait avec ce fichier:

integration.thumb.jpg.d43e25883818a9edde142cc402bcbee0.jpg

 

Le résultat n'est pas (encore?) spectaculaire mais c'est quand même prometteur je trouve. Il y a surement moyen d'améliorer les choses et ça serait vraiment bien d'avoir d'autres images pour poursuivre les tests (notamment en luminance du coup pour compléter celle de @180Vision)

 

Je compte aussi refaire des test en regroupant les images par échantillonage et par fov  pour éviter des trop grande disparité à ce niveau.

 

Nico

 

Good job Nico, c'est en effet déjà prometteur et bravo pour le temps passé !

Il est clair que les rotations des uns des autres déjà ne facilité en rien, au delà même de l'échantillonage/fov...

 

Posté

Tutchy  tout ça, mais prometteur je pense.
Vais essayer de jouer avec les images proposées de mon côte cette semaine.

En tous cas belle approche Nico ( je n'en suis pas encore là niveau process dans Pix ;)  ) 
 

Posté
Il y a 1 heure, nico1038 a dit :

Le résultat n'est pas (encore?) spectaculaire mais c'est quand même prometteur je trouve

Oui en effet, et merci pour le process d'intégration,  je vais essayer aussi dans la semaine pour l'exercice.

Très intéressante je trouve cette idée, ça nous fait progresser ( euh moi en tous cas)🙂

 

 

  • J'aime 1
Posté
15 minutes ago, Benoist said:

quelqu'un aurais une de comment faire avec siril ? je serais bien tenté d'essayer ?

En toute logique, en passant par Sirilic, l'ajout de "sessions" devrait se faire naturellement, tout comme l'alignement entre images.

  • J'aime 1
Posté (modifié)

Hello,

 

Un conseil: vérifiez quand même les différences de l'empilement global avec l'empilement de chaque ensemble de brutes pris séparément. J'ai déjà participé plusieurs fois à des projets de mise en commun de ce genre, et à chaque fois au final on se confrontait à un obstacle: quand les ensembles de brutes sont trop différents (car prises avec du matos différent, des échantillonages distincts, des temps de poses qui n'ont rien à voir, etc..) les algos d'empilement et rejection en prennent un en référence, et du coup rejettent tous les autres. Au final la BDR obtenue n'est quasiment pas différent de l'empilement de ce seul ensemble...

 

On obtenait généralement plus de résultats en empilant séparément, puis en assemblant les images en conservant le meilleurs de chaque: par exemple le fond de ciel de l'un, les couleurs de l'autre, etc... Soit à l'aide de pixel math (mais compliqué de trouver de bonnes formules!) soit bêtement avec des masques et fusions sous Photoshop.

 

Sur les projets de collab consistant à viser ensemble un objet, ils s'organisent pour avoir des instruments et échantillonages les plus proches possibles. Là oui ça peut donner des résultats à l'empilement.

Modifié par LucaR
  • J'aime 1
  • Merci / Quelle qualité! 1
Posté
5 minutes ago, LucaR said:

Hello,

 

Un conseil: vérifiez quand même les différences de l'empilement global avec l'empilement de chaque ensemble de brutes pris séparément. J'ai déjà participé plusieurs fois à des projets de mise en commun de ce genre, et à chaque fois au final on se confrontait à un obstacle: quand les ensembles de brutes sont trop différents (car prises avec du matos différent, des échantillonages distincts, des temps de poses qui n'ont rien à voir, etc..) les algos d'empilement et rejection en prennent un en référence, et du coup rejettent tous les autres. Au final la BDR obtenue n'est quasiment pas différent de l'empilement de ce seul ensemble...

 

On obtenait généralement plus de résultats en empilant séparément, puis en assemblant les images en conservant le meilleurs de chaque: par exemple le fond de ciel de l'un, les couleurs de l'autre, etc... Soit à l'aide de pixel math (mais compliqué de trouver de bonnes formules!) soit bêtement avec des masques et fusions sous Photoshop.

 

Sur les projets de collab consistant à viser ensemble un objet, ils s'organisent pour avoir des instruments et échantillonages les plus proches possibles. Là oui ça peut donner des résultats à l'empilement.

 

C'est évident pour nous tous je pense, mais je trouve intérressant de s'y coller pour voir, à "moindre effort" et à postériori, si qqc peut parfois sortir de tout à fait honorable !

  • J'aime 1
Posté (modifié)
il y a 2 minutes, 180Vision a dit :

C'est évident pour nous tous je pense, mais je trouve intérressant de s'y coller pour voir, à "moindre effort" et à postériori, si qqc peut parfois sortir de tout à fait honorable !

Ha ça ne coûte rien d'essayer bien sûr (à part du temps et de l'énergie :-D) mais voilà, j'y allais de mon petit feedback de gars qui a déjà essayé, et plusieurs fois :-)

Modifié par LucaR
  • J'aime 2
Posté
6 minutes ago, LucaR said:

Ha ça ne coûte rien d'essayer bien sûr (à part du temps et de l'énergie :-D) mais voilà, j'y allais de mon petit feedback de gars qui a déjà essayé, et plusieurs fois :-)

 

Oui, c'est ça, il faut mesurer ce que ça apporte par rapport au travail à fournir vs le résultat c'est clair.

Posté (modifié)
il y a 37 minutes, LucaR a dit :

Hello,

 

Un conseil: vérifiez quand même les différences de l'empilement global avec l'empilement de chaque ensemble de brutes pris séparément. J'ai déjà participé plusieurs fois à des projets de mise en commun de ce genre, et à chaque fois au final on se confrontait à un obstacle: quand les ensembles de brutes sont trop différents (car prises avec du matos différent, des échantillonages distincts, des temps de poses qui n'ont rien à voir, etc..) les algos d'empilement et rejection en prennent un en référence, et du coup rejettent tous les autres. Au final la BDR obtenue n'est quasiment pas différent de l'empilement de ce seul ensemble...

 

On obtenait généralement plus de résultats en empilant séparément, puis en assemblant les images en conservant le meilleurs de chaque: par exemple le fond de ciel de l'un, les couleurs de l'autre, etc... Soit à l'aide de pixel math (mais compliqué de trouver de bonnes formules!) soit bêtement avec des masques et fusions sous Photoshop.

 

Sur les projets de collab consistant à viser ensemble un objet, ils s'organisent pour avoir des instruments et échantillonages les plus proches possibles. Là oui ça peut donner des résultats à l'empilement.

 

Tu as tout à fait raison: l'exercice n'a de sens que si on obtient un résultat meilleur que sur les images individuelles (au moins sur un critère donné). Ici, en comparant les images (après alignement et normalisation) il me semble assez net que l'image empilé est plus riche au niveau de son fond de ciel. On y voit tout simplement plus de choses.

 

C'est d'ailleurs confirmé par SubframeSelector: en comparant les 8 images avec l'image empilée (ici la n°9): il détecte nettement plus d'étoiles dans cette dernière que sur les autres.

 

image.png

 

Modifié par nico1038
  • J'aime 3

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.