Aller au contenu

Jupiter et vidéo assistée


ms55

Messages recommandés

Après la Lune ce Printemps c'est au tour de Jupiter.
Les premières vidéos sont faites en équatorial au C11@f/20+ASI462MC+EQ6-R Pro (les prochaines en alt-azimutal au Nexstar4SE@f/27+ASI462MC) :
 

jup_1.gif

 

Modifié par ms55
  • J'aime 9
  • Merci / Quelle qualité! 3
Lien vers le commentaire
Partager sur d’autres sites

Quelle beauté ! Chapeau maestro. :)

J'apprécie d'autant plus que ton animation révèle des détails extraordinairement bien définis comme ces six spots blancs formant une ribambelle que j'ai bien vue avec le SV 400.

Et puis je suis toujours admiratif devant les animations de planètes, de protubérances sur le soleil. Je n'ai jamais essayé...

Tu vas m'en donner l'envie.

 

Lien vers le commentaire
Partager sur d’autres sites

C'est une petite vidéo prise en ville le 11 août entre 1h25 et 3h10TL (1h45).
Le logiciel sélectionne automatiquement les 6000 meilleures images brutes dans un laps de temps inférieur à 120s, les acquisitions se font à 120fps dans une fenêtre de 800x600 pixels.
L'image de droite (ondelettes+alignement RGB+balance des blancs+dé-bruitage) est obtenue en 1/100s à partir de l'image de gauche obtenue elle toutes les minutes environ.
Tous les traitements sont faits lors de l'observation.
 

jup_2.gif

 

Ma plus longue vidéo de Jupiter faites à ce jour correspond à une demi-rotation de la planète (5h).
Ce qui représente le traitement de 6000 x 60 x 5 = 1,8 million d'images brutes.
Seules 600 images sont stockées (300 images de gauche en PDF 16bits et 300 images de droites en PDF 8bits).

 

Modifié par ms55
  • J'aime 4
Lien vers le commentaire
Partager sur d’autres sites

il y a 4 minutes, exaxe a dit :

merci pour le detail! et pas d' ADC?

2 possibilités :
-
ADC matériel quand la planète est basse comme en ce moment (30 degrés maxi dans la région de Strasbourg),
- ADC logiciel quand la planète est haute ou quand je fais d'autres objets brillants (nébuleuses planétaires, amas globulaires, ...) dans la même soirée.

Lien vers le commentaire
Partager sur d’autres sites

Donc tu utilises un adc ?

Je te pose la question car pour une animation sur un temps aussi long est complexe à réaliser et le faire en visuel assisté c'est superbe!

Dommage que le gif lisse un peu trop.

 Un correcteur de dispersion atmospherique sert à recentrer les bandes entres elles ET dans les bandes elles mêmes. Donc un adc logiciel foncionne qu'entre bande, du moins pour l'instant.

Mais derrière ton pseudo il me semble te connaitre...

As tu réussi?

 

Modifié par exaxe
Lien vers le commentaire
Partager sur d’autres sites

Il y a 5 heures, jp42 a dit :

Superbe vidéo !

Quel logiciel utilises -tu pour la capture en VA ?

Jean-Paul

J'ai développé un logiciel qui fait l'acquisition, l'alignement, l'empilement et le traitement en temps-réel, c'est 100% en live.

 

Il y a 4 heures, exaxe a dit :

Dommage que le gif lisse un peu trop.

Le GIF dégrade pas mal la qualité de l'animation. Pour s'en rendre compte, il suffit de traiter une image en entrée comme la suivante et de la comparer à une image extraite du GIF.
 

66.png

 

Il existe bien sûr une infinité de traitements possibles, j'en utilise un qui est très rapide (1/100s) :

66.png

 

Il en existe d'autres comme les 3 suivants qui font appel au deep learning :

66_3.png

66_2.png

66.png

 

Après c'est une question de goût à condition que cela ne pénalise pas le temps de traitement.

Modifié par ms55
  • J'aime 2
  • Merci / Quelle qualité! 1
Lien vers le commentaire
Partager sur d’autres sites

  • 2 semaines plus tard...

Il faut limiter dans la mesure du possible l'écart de qualité entre 2 images consécutives sans toutefois exagérer le traitement appliqué.
Dans l'animation suivante :
-
la première courbe correspond à un même traitement appliqué à toutes les images,
- la deuxième courbe correspond à un traitement adaptée à chaque image.
 

quality.gif

 

 Le système est encore perfectible mais si l'écart entre 2 images consécutives ne dépasse pas 8 (comme dans l'exemple ci-dessus) alors l’œil lisse les petites différences. 😉

 

jup_2.gif

Modifié par ms55
  • J'aime 2
Lien vers le commentaire
Partager sur d’autres sites

Il y a 14 heures, exaxe a dit :

c'est pas mal du tout!

Tu aurais un lien sur un fichier video non compressé comme le gif?

Théoriquement, il doit être possible d'obtenir une qualité constante égale à 25 comme le montre l'exemple suivant qui s'en rapproche :

quality.gif

 

jup_2.gif

 

Le fichier ZIP correspondant :
res2.zip

Modifié par ms55
  • J'aime 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 1 heure, ms55 a dit :

Et pour finir ne petite touche de deep learning :

Bonjour,

A nouveau Bravo pour ce résultat. Pouvez-vous en dire davantage sur le deep learning utilisé dans votre situation. Quel est son effet attendu, par quel mécanisme vous appliquez cette méthode, sur quelles données massives vous vous appuyez pour alimenter votre moteur DL, et sans doute bien plus.

D'avance merci pour vos réponses.

 

Ney

Lien vers le commentaire
Partager sur d’autres sites

Il y a 6 heures, 22Ney44 a dit :

Bonjour,

A nouveau Bravo pour ce résultat. Pouvez-vous en dire davantage sur le deep learning utilisé dans votre situation. Quel est son effet attendu, par quel mécanisme vous appliquez cette méthode, sur quelles données massives vous vous appuyez pour alimenter votre moteur DL, et sans doute bien plus.

D'avance merci pour vos réponses.

 

Ney

Au départ, il y a une image brute qui va servir à sélectionner et aligner 6000 images brutes (dans le cas présent cette image montre que les conditions n'étaient pas terribles) : 

0.png

 

Après avoir aligné les 6000 bonnes images brutes (critère de qualité p/r à l'image initiale) en utilisant le "lucky imaging" pour 'image 65 :

65.png

 

On applique le traitement du post précédent pour obtenir l'image RGB n°65 :

65.png

 

Utilisation de l'algorithme BSRGAN ou Real-ESRGAN pour générer la couche de luminance à partir de l'image RGB précédente :

65_L.png

 

L'image LRGB ressemble à cela :

65_LRGB.png

 

Pour plus de détails sur les algorithmes BSRGAN et Real-ESRGAN :

https://arxiv.org/pdf/2103.14006.pdf

https://arxiv.org/pdf/2107.10833.pdf

 

Personnellement l'image RGB de la vidéo assistée me convient. Reste à embarquer tout cela sur une carte Jetson Nano à laquelle est attachée un disque SSD et un écran tactile (pas de clavier et pas de souris) :

IMG_20210912_161200.jpg

Modifié par ms55
  • J'aime 1
Lien vers le commentaire
Partager sur d’autres sites

Merci @ms55 pour toutes ces informations. Je ne suis pas sûr d'avoir tout compris, je vais m'attacher à étudier les sous ensembles dont vous faites part. Je pense qu'après avoir potassé tout cela, je reviendrai vers vous avec sûrement de nouvelles questions. Tout cela est bien neuf pour moi, il va falloir le temps de l'expérimentation et de l'assimilation.

 

Merci encore .

 

Ney

Lien vers le commentaire
Partager sur d’autres sites

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.