-
Compteur de contenus
2593 -
Inscription
-
Jours gagnés
47
Type de contenu
Profils
Forums
Téléchargements
Blogs
Boutique
Calendrier
Noctua
Tout ce qui a été posté par nico1038
-
Sam, J'ai compris pourquoi ton image a des gradients curieux après l'alignement et la normalisation: c'est parce que le fichier est en 16 bits. Et, comme en plus son histogramme est très resserré, ça provoque des anomalies lors des traitements. C'est dommage car en terme de FWHM c'est la meilleure du lot (2,88 arcsec). D'ailleurs, si tu as utilisé ce fichier pour le traitement, je pense que ça a dû te poser des problèmes (pour l'extraction du gradient par exemple)?
-
Tu as tout à fait raison: l'exercice n'a de sens que si on obtient un résultat meilleur que sur les images individuelles (au moins sur un critère donné). Ici, en comparant les images (après alignement et normalisation) il me semble assez net que l'image empilé est plus riche au niveau de son fond de ciel. On y voit tout simplement plus de choses. C'est d'ailleurs confirmé par SubframeSelector: en comparant les 8 images avec l'image empilée (ici la n°9): il détecte nettement plus d'étoiles dans cette dernière que sur les autres.
-
Bon alors j'ai fait hier une première tentative de combiner les 8 images qui ont été déposé (avant la luminance que @180Vision vient d'ajouter). Je vous fait un topo de comment j'ai procédé avec Pixinsight: 1) Ouverture et résolution astrométrique des 8 images: A noter que suivant les réglages de Pix, certaines image peuvent apparaitre inversée et qu'il faut mieux alors les remettre à l'endroit avec une inversion miroir (c'est paradoxale mais avec mes réglages seule mon image était inversée car je l'avais convertit en fit avec Siril) (Je n'ai eu aucun problème à résoudre ces 8 images, toutes les infos nécessaires étaient bien présentes dans l'entête des fichiers fit) 2) Choix du cadrage: J'ai utilisé la fonctionnalité de synchronisation astrometrique des vues pour afficher tous les cadrages sur l'image de Pascal (qui est celle avec le plus grand champ) J'ai choisit ici de n'exclure aucune image mais on comprend bien que si on veut prendre une zone commune à toutes les images, le champ va être sensiblement réduit. Ici j'utilise l'outil DynamicCrop pour cropper l'image de Pascal en choisissant la zone commune optimale. Cette image cropée sera la référence pour aligner les 7 autres. 3) Alignement des images J'ai utilisé le process StarAlignment en choisissant donc comme référence l'image de Pascal cropé à l'étape précédente et avec un "registration model" réglé sur "Two-Dimensional Surface Splines". Cela active la prise en compte de la distorsion lors de l'alignement ce qui est important quand on travail avec des images prises avec des système optique différent. 4) Normalisation des images: J'ai décidé de normaliser les images avec l'outil LocalNormalisation de Pix. Cela permet de normaliser les histogrammes des 8 images et, comme l'opération est faite localement (l'image est découpé en section sur lesquelles on applique la normalisation), cela permet aussi potentiellement de diminuer les gradients locaux. J'ai choisi mon image comme référence car il me semble que c'est elle qui a le moins de gradient (avec aussi celle de @Shibon à la 26C). 5)Sauvegarde des 8 images au format xisf 6) Utilisation du script WeightOptimizer Je vous met les résultats du script tel quel. Le script a fait 8 itérations et a finit par attribuer des poids aux images qu'il considère comme optimaux. Le graph du haut représente l'amélioration des résultats au fur et à mesure des itérations et le graph du bas les poids relatifs des 8 images (avec leur numéros et leurs noms à gauche) J'avoue que je suis un peu surpris par certains poids. Par exemple l'image n°4 (celle de Seb au newton) est visuellement en dessous des autres et ça se reflète bien dans le poids qui lui est attribué (avec un coeff de seulement 0.1) mais je ne comprend pas bien pourquoi l'image n°6 (celle de Shibon avec la caméra 26C) a un coeff aussi bas alors que l'image n°7 (toujours celle de Shibon avec la caméra 294C) à le coeff de référence de 1 alors que je trouve qu'elle souffre de gradients qui se retrouve du coup dans le résultat final. Une fois le script finit, il faut cliquer sur WRITE et les poids sont écrits dans les fichier associés au mot clé OPTWGHT 7) Il ne reste plus qu'à intégrer les 8 images entre elle. J'ai fait ça avec le process ImageIntegration avec les réglages suivants: Dans Weights il faut choisir "FITS keyword" et définir le mot OPTWGHT Il faut également désactiver le rejection (j'ai essayé quelques algorithmes de rejection pour voir si il était possible de rejeter les aigrettes mais, avec seulement 8 images les aigrettes sont rejetés en partie mais cela crée plein d'artefacts). Je vous poste le résultat de l'empilement ici si vous voulez l'analyser ou le traiter. integration.fit Et un traitement rapide que j'ai fait avec ce fichier: Le résultat n'est pas (encore?) spectaculaire mais c'est quand même prometteur je trouve. Il y a surement moyen d'améliorer les choses et ça serait vraiment bien d'avoir d'autres images pour poursuivre les tests (notamment en luminance du coup pour compléter celle de @180Vision) Je compte aussi refaire des test en regroupant les images par échantillonage et par fov pour éviter des trop grande disparité à ce niveau. Nico
-
Oui: dans l'idéal il faudrait sans doute repartir des brutes mais ça me semble beaucoup trop compliqué en terme de données à échanger (les brutes plus les fichiers de calibration) et de complexité et je pense qu'avec les bonnes méthodes il est possible d'obtenir quelque chose de très similaire avec les images déjà empilées. L'idée est vraiment de faire quelque chose de simple et sans trop de prise de tête. En tous cas ton image a l'air superbe!
-
Je suis un peu moins à l'aise avec Siril donc je te donne une méthode avec juste une opération à faire avec Pix Il y a en fait très peu d'étapes: 1) Pré-traiter tes 2 images normalement avec Siril et donc obtenir deux images empilées: une image monochrome issue de la 183MM et une image RGB issue de la 533MC. 2) Aligner l'image RGB sur l'image de Luminance dans Pix avec le process StarAlignment: 2a: ouvrir les 2 images dans Pix 2b: Ouvrir le process StarAlignment 2c: Choisir comme image de référence ton image de luminance (l'image de la 183MM) 2d: Choisir comme registration model "Two-Dimensional Surface-Spline" pour activer la correction de la distorsion 2e: Appliquer le process sur l'image RGB 2f: Sauvegarder l'image RGB_registered 3) Tu as désormais une image de Luminance et une Image RGB qui sont alignées et aux même dimensions. Il te reste alors à traiter ces images comme une image LRGB classique. PS:Je pense qu'il doit être possible de faire l'alignement dans Siril mais Siril fonctionne toujours avec des séquences et pour aligner des images entre elles elles doivent être dans la même séquence. Et du coup j'ai un doute sur comment aligner une image monochrome avec une image RGB ?
-
Je pense que ce n'est pas aussi clair que ça et que tout dépend de l'objectif recherché. Tu as raison sur le fait qu'il faut que les setups soient suffisamment proches, notamment en termes d’échantillonnages mais la question (qui n'est pas résolue à mon avis) est jusqu'à qu'elle point une image peut-elle être différente des autres pour continuer à contribuer au résultat final. Une des choses qui m'a donné envie d'essayer est qu'il existe désormais des outils permettant d'optimiser la combinaison de ce genre d'image. Il y a notamment dans Pix un script appelé WeightOptimizer et qui réalise précisément cela. On lui donne les images en entrée et il va les combiner plusieurs fois en faisant varier le poids de chacune et en analysant le critère recherché sur l'empilement à chaque fois. En gros il réalise des intégrations successives et il trouve (en théorie) la combinaison qui donne le meilleur résultat. Par exemple dans le seul cas que j'ai fait jusqu'à maintenant ou j'ai combiné l' image de Pascal et la mienne le script a trouvé un poids de 1 pour l'image de Pascal et un poids de 0.7 pour la mienne ( il est vrai qu'il s'agissait d'une combinaison plutôt facile étant donné que nos 2 setups sont très similaires). En tous cas comme le dit Seb çà occupe et on apprend des trucs. Le principe de base, valable sur tous les logiciels est de choisir une image de référence et d'aligner toutes les autres dessus. L'alignement, va mettre par définition toutes les images aux mêmes dimensions et au même cadrage (et donc au même échantillonage). La question importante à se poser c'est quelle image choisir comme référence. Cela va conditionner le résultat final. Par exemple une image échantillonnée à 3arcsec/px et qui est resamplé lors de l'alignement à 1 arcsec/px ne peux pas avoir la même finesse ni les même détails qu'une image avec un échantillonage natif de 1 arcsec/px (tripler les dimensions de l'image ne va pas inventer des détails par miracle!). Si on l'empile, cette image peut éventuellement contribuer à augmenter le SNR pour des structures peu définies mais elle va inévitablement dégrader la finesse de l'image empilée. C'est alors une histoire de compromis et c'est pour ça que l'exercice est délicat. Par contre, on peut considérer que les images sur-echantilloné (par exemple à 0,3 arcsec/px), comme elles échantillonnent plus finement que les détails accessibles réellement peuvent être resamplé à un echantillonage de 1arcsec/px par exemple en perdant en fait très peu d'information (ou même pas du tout).
-
Oui: plutôt 32 bits pour des images stackées. Par exemple il me semble que ta caméra artemis C pro sort des images sur 14 bits. Et, dès que tu intègres plus de 4 images ensemble tu vas excéder la précision possible pour une image 16 bits (il faut ajouter 1 bit dès que tu doubles le nombre d'images dans l'empilement) et il faut alors mieux sauvegarder l'image empilé sur 32 bits (là tu as une énorme marge). Tu perds sinon de l'information mais je ne saurais pas te dire exactement dans quel mesure cela impacte le résultat final. Et pour combiner des images je n'ai pas encore fait le test mais j'ai l'intuition que cela va avoir des conséquences. En tous cas, compte sur moi pour te donner le résultat de mes expérimentations.
-
Juste pour illustrer l’intérêt et les difficultés de l'exercice (et pour essayer de motiver les gens...) j'ai essayé de combiner l'image de Pascal et la mienne: Déjà pour les problèmes de cadrage on voit bien ici que plus on va combiner d'image plus le champ final risque d'être limité. Pour le moment ça va car l'image de Pascal englobe complétement la mienne (la troisième image ici est celle de l'APOD) Ensuite, logiquement, les aigrettes se combinent mal! Comme le dit Seb il faudra sans doute trouver une technique pour les isoler. Mais le résultat final avec seulement 2 images est déjà prometteur je trouve. En tous cas, par rapport à l'image que j'avais obtenu, il n'y a pas photo! Et, en poussant un peu les curseurs, on distingue déjà les extensions
-
Non,non c'est le contraire: c'est 500mm de focale minimum (avec des pixels de 3.75). Avec le C8 tu dois avoir un échantillonage bien inférieur à 1,5 arcsec/px. Dans l'autre sens c'est plutôt la taille de l'image qui peut poser un problème je pense. J’espère de pas avoir été trop catégorique avec ces chiffres (qui sont complétement arbitraires). N’hésitez surtout pas à poster vos images, c'est l'expérience qui va nous dire ce qui marche ou pas.
-
Bonjour à tous, Dans le forum d'en face j'ai réagi l'autre jour à une discussion qui proposait de partager des données déjà acquises pour les combiner et voir ce qu'on pouvait en tirer. La discussion n'a finalement rien donné mais ça m'a fait réfléchir et j'aimerais relancer l'idée ici et voir si certains d'entre vous seraient prêts à partager leurs images et à participer à ce genre d'exercice? L'idée est la suivante: on choisit une cible ensemble et on partage nos images (empilées) qui traine sur nos disques durs. Les images sont partagées directement sur ce sujet et sont donc à la disposition de tous pour essayer de les combiner de la meilleure façon possible (ce qui n'est pas un exercice simple à mon avis) et de faire le traitement. L'objectif final étant de voir dans quelle mesure ce genre de combinaison d'images hétéroclites peut permettre d'améliorer les choses par rapport aux résultats obtenus chacun de notre coté. Bien sûr, le fait de combiner des images a posteriori, sans aucune coordination préalables sur les acquisitions va entrainer des contraintes importantes (et surement un impact sur le résultat final) mais ça a l'avantage énorme d'être facile et immédiat à mettre en œuvre. Voilà quelques réflexions sur le choix de la cible et les quelques contraintes à respecter: Choix de la cible: Il faut que la cible soit suffisamment populaire pour avoir été shooté par un nombre conséquent d'astronomes Il faut que la cible soit suffisamment petite pour qu'on puisse obtenir une image finale qui contienne cette cible avec des images cadrées complétement différemment les unes des autres.. Il faut à mon avis éviter d'avoir des étoiles trop brillantes dans le champ pour limiter les problématiques liés aux aigrettes. Il faut une cible sur laquelle un temps de pose cumulé conséquent présente un intérêt particulier avec si possible quelque chose de diffus à essayer de révéler. Pour ces raisons, je pense qu'une galaxie est le meilleur choix possible. J'avais pensé par exemple à M63 qui est un galaxie superbe et populaire et qui possède des structures diffuses qu'il serait intéressant d'essayer de révéler (voir ici par exemple: https://apod.nasa.gov/apod/image/2012/Neyerm63_l2.jpg ) mais c'est juste une idée. Contraintes à respecter pour les images partagées: Pour des questions de cadrage, la cible devra forcément être au centre de l'image Tous les instruments sont possibles (même si les aigrettes des Newton risque de poser quelques problèmes...) Pour des raisons de cohérence et de cadrage, il faut se mettre d'accord sur un échantillonnage maximum et un champ minimum. Je pense par exemple à 1,5 "/pix maximum (ça correspond à une focale de 500mm avec un capteur avec des pixels de de 3.75um) et à un champ de 0.5°x0.5° minimum (même si la cible tient largement dans ce champ, un champ trop petit risque de créer des problèmes de cadrage insoluble) Les images devront être partagées au format fit (32bits) pour que chacun puisse les exploiter Les images couleurs ainsi que les images mono sont possibles Les images partagées doivent être directement issues de l'empilement, aucun traitement ne doit être fait. Une fois les images postées sur ce sujet, chacun sera bien sûr libre de tenter ses propres méthodes pour les combiner mais en gros l'idée est la suivante: 1) Choisir le cadrage optimum en fonction des différentes images partagées 2) Aligner toutes les images sur le cadre choisi 3) Empiler les images entre elles tout en les pondérant au mieux pour optimiser le résultat final 4) Faire le traitement et partager le résultat Qu'en dites vous? N’hésitez pas à me donner vos idées sur la cible et sur la méthode et surtout si l'idée elle même vous semble envisageable. Je pense que ça ne peut être intéressant que si il y a au moins une demi douzaine d'images à combiner. Nico
-
Il me semble qu'il y a eu plusieurs applis stellarium pour mobile et je crois que celle que tu nous montre n'est plus disponible sur le google (et apple?) store. Perso la version que j'ai sur mon tel (android) s'appelle "Stellarium" tout court et est en version 1.14.1
-
Tu es sûr? Avec la 1.2.6 j'ai ça lors d'un alignement avec une sélection ( et en cochant "Aligner les étoiles dans la sélection") et avec la 1.4.0 beta2, j'ai ça: On voit qu'avec la version beta les étoiles détectées ne sont pas limitées à la sélection. D'ailleurs avec la 1.2.6 l'alignement échoue avec une sélection trop petite alors que ça n'est pas le cas avec la 1.4, même avec une sélection minuscule.
-
Hello @HLe Dans l'idéal il faudrait partager quelques images pour nous permettre de tester mais voilà deux choses à considérer: Dans l'onglet Alignement, tu as fait une sélection mais tu n'as pas coché "Aligner les étoiles dans la sélection". Or tu as plein d'étoiles qui sont détectées à tort sur le paysage et qui vont donc inévitablement fausser l'alignement. Par ailleurs il est facile de vérifier la qualité de l'alignement en affichant les images de la séquence (il faut juste veiller à ce que ce soit bien la séquence des images alignées qui est sélectionnée, celle préfixée par r_ ) et en les faisant défiler. Si tu vois que les images ne sont pas alignées correctement sur les étoiles ça n'est pas la peine de les empiler.
-
Siril 1.4.0-beta1 crash en ouvrant les fichiers xisf codés sur 8-bit
nico1038 a répondu à un sujet de nico1038 dans Logiciel SIRIL de Siril et Sirilic
Oui -
Bonjour, J'ai l'impression que Siril (1.4.0-beta1) crash quand on ouvre les fichiers xisf codés sur 8-bit J'ai reproduit le problème sur Windows et Linux avec différents fichiers. Fichier de test: WR134_3.xisf Retour console du plantage: The URI points to a local file. nb_elts_at_start: 0 nb_elts_on_exit: 0 Purging previously saved reference frame data. Error, signal 11: Please report this bug to: https://gitlab.com/free-astro/siril/issues siril(+0x152e21) [0x555a09acee21] /lib/x86_64-linux-gnu/libc.so.6(+0x45250) [0x727963a45250] /lib/x86_64-linux-gnu/libc.so.6(+0x19570d) [0x727963b9570d] siril(fits_flip_top_to_bottom+0xbb) [0x555a09b7883b] siril(readxisf+0x2e4) [0x555a09b8bed4] siril(any_to_fits+0x19b) [0x555a09b54fdb] siril(read_single_image+0x180) [0x555a09baa5e0] siril(open_single_image+0xa6) [0x555a09baa7e6] siril(+0x29cfe2) [0x555a09c18fe2] siril(open_action_activate+0x17) [0x555a09ac5a47] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_closure_invoke+0x14a) [0x727969a8e45a] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(+0x463a3) [0x727969abe3a3] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(+0x36f0d) [0x727969aaef0d] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_signal_emit_valist+0x41) [0x727969aaf181] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_signal_emit+0x93) [0x727969aaf243] /lib/x86_64-linux-gnu/libgio-2.0.so.0(+0xf2925) [0x727969bce925] /lib/x86_64-linux-gnu/libgtk-3.so.0(+0xe192f) [0x7279692e192f] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(+0x3707a) [0x727969aaf07a] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_signal_emit_valist+0x41) [0x727969aaf181] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_signal_emit+0x93) [0x727969aaf243] /lib/x86_64-linux-gnu/libgtk-3.so.0(+0xe3021) [0x7279692e3021] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(+0x3707a) [0x727969aaf07a] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_signal_emit_valist+0x41) [0x727969aaf181] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_signal_emit+0x93) [0x727969aaf243] /lib/x86_64-linux-gnu/libgtk-3.so.0(+0xe2e5d) [0x7279692e2e5d] /lib/x86_64-linux-gnu/libgtk-3.so.0(+0xa1b1c) [0x7279692a1b1c] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(+0x3707a) [0x727969aaf07a] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_signal_emit_valist+0x41) [0x727969aaf181] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_signal_emit+0x93) [0x727969aaf243] /lib/x86_64-linux-gnu/libgtk-3.so.0(+0x1be99b) [0x7279693be99b] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_cclosure_marshal_VOID__BOXEDv+0xa5) [0x727969a92a65] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(+0x3707a) [0x727969aaf07a] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_signal_emit_valist+0x41) [0x727969aaf181] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_signal_emit+0x93) [0x727969aaf243] /lib/x86_64-linux-gnu/libgtk-3.so.0(+0x1b6664) [0x7279693b6664] /lib/x86_64-linux-gnu/libgtk-3.so.0(+0x1be373) [0x7279693be373] /lib/x86_64-linux-gnu/libgtk-3.so.0(+0x1c1bde) [0x7279693c1bde] /lib/x86_64-linux-gnu/libgtk-3.so.0(gtk_event_controller_handle_event+0x73) [0x727969381163] /lib/x86_64-linux-gnu/libgtk-3.so.0(+0x367ea0) [0x727969567ea0] /lib/x86_64-linux-gnu/libgtk-3.so.0(+0xa02d9) [0x7279692a02d9] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(+0x3707a) [0x727969aaf07a] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_signal_emit_valist+0x41) [0x727969aaf181] /lib/x86_64-linux-gnu/libgobject-2.0.so.0(g_signal_emit+0x93) [0x727969aaf243] /lib/x86_64-linux-gnu/libgtk-3.so.0(+0x377a4c) [0x727969577a4c] /lib/x86_64-linux-gnu/libgtk-3.so.0(+0x20bfa8) [0x72796940bfa8] /lib/x86_64-linux-gnu/libgtk-3.so.0(gtk_main_do_event+0xc1a) [0x72796940cd2a] /lib/x86_64-linux-gnu/libgdk-3.so.0(+0x3d7c7) [0x7279691337c7] /lib/x86_64-linux-gnu/libgdk-3.so.0(+0x97f7e) [0x72796918df7e] /lib/x86_64-linux-gnu/libglib-2.0.so.0(+0x5f397) [0x727969d13397] /lib/x86_64-linux-gnu/libglib-2.0.so.0(+0xbfdc7) [0x727969d73dc7] /lib/x86_64-linux-gnu/libglib-2.0.so.0(g_main_context_iteration+0x33) [0x727969d128b3] /lib/x86_64-linux-gnu/libgio-2.0.so.0(g_application_run+0x1ed) [0x727969bc765d] siril(main+0x15f) [0x555a09a1facf] /lib/x86_64-linux-gnu/libc.so.6(+0x2a3b8) [0x727963a2a3b8] /lib/x86_64-linux-gnu/libc.so.6(__libc_start_main+0x8b) [0x727963a2a47b] siril(_start+0x25) [0x555a09a1fce5] Nico
