Jump to content

ms55

Membre
  • Posts

    194
  • Joined

  • Last visited

  • Days Won

    6

1 Follower

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

ms55's Achievements

  1. Il suffit d'aller voir sur le forum "Observation en Visuel Assisté" ou sur le site "Astronomie en Visuel Assisté". 😉 Il y a un exemple de soirée avec des conditions médiocres le 24 septembre, c'est ce genre de conditions que je vais essayer de bien améliorer la prochaine saison : Il y a aussi une tentative de vidéo en direct le 20 septembre qui a été interrompue par des passages nuageux : Et une présentation le 26 août du visuel assisté c'est à dire du stacking en live pour reprendre les termes de certains, j'avais ajouté à l'époque un traitement utilisant le "deep learning" que j'ai abandonné depuis : Au Printemps, je m'étais intéressé à la Lune et à la possibilité de faire des panos en live, ça c'est aussi au point aujourd'hui avec la possibilité de faire un pano de la Lune en entier : Enfin, j'avais posté un premier essai de CP sur M13 mais je ne retrouve plus l'image. Voilà, j'ai fait un petit tour de ce qui tourne aujourd'hui (Lune, planètes et CP en cours), je vais m'arrêter là parce que les 3 pages sont atteintes. Je posterai des copies d'écran en live sur le site www.gpu-vision.fr en 2022 comme j'avais commencé à le faire ici pour cette vidéo de 5 heures :
  2. Non pas mieux mais pareil et plus vite cette année. L'an prochain, c'est en conditions dégradées que le défi sera intéressant, à organiser sur quelques jours et sur terrain neutre comme le Champ du Feu, St Michel l'Observatoire, le Queyras ou les Cévennes. Je pourrais déjà effectivement mettre les développements sur Github car ArrayFire est un logiciel libre qui fonctionne sous Linux, Mac et Windows, tous les autres modules ont été développés par moi. Mais, je vais détailler avant en français sur le site www.gpu-vision.fr et en anglais sur le site www.gpu-vision.com le guide complet de l'application avec des exemples de cette année (Lune, Jupiter, Saturne) et de l'an prochain où chacun pourra assister s'il le souhaite à des sessions d'observation en visuel assisté. C'est pas le live stacking en planétaire que j'ai testé cet été le plus intéressant mais la possibilité d'obtenir des vidéos correctes en situation dégradée, c'est mon enjeu de 2022. On ne va pas dépasser 3 pages surtout si certains commencent à m'injurier. 😉 Que les astrams comprennent que le live stacking en planétaire c'est bouclé et que maintenant je me dirige vers la sortie du labyrinthe dont j’aperçois la lumière. 🙂
  3. J'ai quand même l'impression d'avoir progressé depuis 2018 même si cela prend du temps. Les prochaines années seront intéressantes avec Jupiter et Saturne qui montent dans le ciel mais aussi avec l'utilisation d'un modèle de dégradation pour le CP. Je finirais par gagner sur les 2 tableaux parce que je me donne le temps, cet été j'ai été très satisfait de boucler des vidéos de 4 heures et l'été prochain j'essayerai de faire mieux encore. 😉 J'avais commencé à faire des copies d'écrans lors de la session du 28/10/2021 : L'acquisition se fait à 115fps, les 'bad frames' correspondent aux trames rejetées sur un critère de qualité, les 'dropped frames' sont liées au fait que la carte graphique manque un peu de puissance de calcul. Pour l'image 8 : 6000 + 11290 = 17290 / 115 = 150s soit 2mn30s pour acquérir une image. Quand la turbulence est faible, le nombre de 'bad frames' tend vers zéro, ici les conditions n'étaient pas trop top. Une image brute : L'image 8 qui n'est pas la meilleure de la soirée mais montre déjà pas de détails, c'est le type d'image que j'obtiens en vidéo assistée la plupart du temps :
  4. Cela ne me pose aucun problème, j'ai fait plusieurs sessions devant témoins cet été. C'est exact en 2018 mais depuis je suis à la retraite et je n'ai pas envie de me lancer dans ce genre d'opération. Ben non, cet été j'étais au niveau de ce que l'on peut faire avec AS3+AstroSurface en terme de qualité d'image mais en beaucoup plus rapide. Pour une vidéo de 4 heures, j'obtiens 240 images corrigées correspondant en terme de qualité à AS3+AstroSurface à raison de 6000 images brutes (à 100 fps) pour une image traitée. Cela, je peux le montrer depuis 1 an environ.
  5. JLD n'a toujours pas digéré que je fasse un logiciel 10 à 20 fois plus rapide que son logiciel fétiche. Cela m'a permis cet été de faire plusieurs vidéos en live de Jupiter jusqu'à 4 heures d'affilées à 100fps. Pour la différence de performances c'est d'autant plus facile à vérifier qu'un simple fichier SER permet de voir la différence. Je me suis peut-être un peu moqué de certains projets dont le coût me semblait un peu excessif p/r aux performances annoncées, ce n'était pas des concurrents puisque je ne vends rien. Ces projets ont vu le jour mais j'ai vu très peu d'astrams les utiliser. Concernant AS3, j'estime que c'est le meilleur logiciel qui m'ait permis de tester une partie de mon logiciel, c'est pas très rapide mais pour valider une solution ce n'est pas un problème. JLD peut continuer à déblatérer, moi j'attends la prochaine saison pour passer à la suite. 😉
  6. Il y a une méthode industrielle qui permet de traiter les systèmes complexes, c'est le prototype évolutif. En cours du prototypage, j'ai utilisé AS3 pour valider une approche qui donne pratiquement le même résultat mais des centaines de fois plus rapidement. En suite, j'ai mis au point un algorithme qui donne une image finale en moins de 1/100e de seconde. Tout cela marche très bien quand la turbulence n'est pas très forte mais il faut améliorer le prototype pour les cas plus critiques. L'approche par grille déformable me permet aujourd'hui de valider la turbulence longue distance et indirectement la turbulence atmosphérique. Nous ne pourrons jamais prédire les phénomènes turbulents, tout au plus les voir évoluer sur un court laps de temps et utiliser la puissance de calcul du moment pour déterminer un modèle de dégradation dynamique sur une rafale d'images brutes. Avec une puissance de calcul suffisante, il est possible de mettre en concurrence la réalité représentée par une rafale d'images brutes consécutives et une approche synthétique de cette réalité basée sur un mélange de bruits et de flous. Le résultat n'est pas purement temps réel mais fonction de la taille de la rafale d'images brutes (un décalage de 5/100e de seconde actuellement). Pour le traitement du bruit, il y a le bon exemple FastDVDnet qui s’appuie sur le traitement de 5 trames consécutives : https://github.com/m-tassano/fastdvdnet La turbulence est en première approximation un système complexe et en réalité un système chaotique. 😉
  7. Impressionnant en effet avec de beaux détails dans la GTR. Je me suis permis un petit essai sur la première et sur la dernière qui est pas mal vu la hauteur :
  8. Est-ce que tous ceux qui depuis plus de 50 ans s'intéressent à l'atténuation de la turbulence atmosphérique par une autre voie, auraient perdu leur temps ? 😉 Certains y ont consacré leur thèse et d'autres continuent régulièrement à alimenter la base d'algorithmes toujours plus performants et rapides. Je ne sais pas s'il y a une méthode meilleure qu'une autre et je m'en fous un peu, je prends du plaisir à suivre les évolutions depuis 2008 et certains algorithmes sont remarquables. Aujourd'hui, je regrette un peu que tous ces gens courent vers l'apprentissage profond car c'est un peu la mode, c'est là que les gouvernements et l'industrie mettent du pognon. La prochaine saison me dira si l'approche de la réalité par le calcul d'un modèle de dégradation donne de meilleurs résultats en conditions dégradées. Ce qui est sûr par contre c'est que la puissance de calcul ne faiblit pas et que Nvidia a des cartes prometteuses (Jetson Xavier NX et Orin NX) pour le calcul sur 8/16/32 bits.
  9. J'avais zappé cette partie de ton message qui fait en partie l'objet de cette publication (BATUD: Blind Atmospheric TUrbulence Deconvolution) : https://hal.archives-ouvertes.fr/hal-02343041/document Les auteurs poursuivent depuis des années leur étude sur la turbulence longue distance et leur conclusion rejoint l'idée d'utiliser le calcul par GPU pour rendre leur algorithme BATUD plus véloce mais aussi d'intégrer la turbulence sous-marine comme dans la publication qui fait appel à une grille déformable. Le modèle de dégradation me semble plus général car il peut intégrer un algorithme de dé-floutage de type BATUD pour approcher le flou réel sans oublier les deux autres aspects de la turbulence que sont le bruit et les distorsions. Appliquer cela sur une rafale d'images brutes en entrée me semble aussi plus intéressant que de faire une déconvolution en sortie de la fusion des "lucky regions" comme cela se fait actuellement chez les astrams. Ceux qui veulent tester cet algorithme implémenté avec Matlab peuvent le charger à partir de Github : $ git clone https://bitbucket.org/cdeledalle/batud.git A mon avis, BATUD est plus performant en déconvolution 2D que tout ce qui se fait chez les astrams actuellement (Van Cittert, Lycy-Richardson, Landweber, Tikhonov, Wiener, Total Variation, ...). 😉 D'où l'intérêt comme je l'indiquais plus haut de se faire un environnement de développement (par exemple C/C++/ArrayFire) pour tester toutes sortes d'algorithmes écrits souvent avec Matlab ou Python.
  10. J'ai découvert récemment que le fabriquant de mon smartphone utilisait un processeur graphique spécialisé qui calcule un modèle de dégradation de l'image à partir d'une rafale d'images, pour réduire en temps réel le bruit et que d'autres le faisaient dans leur APN. 😀 Le procédé n'est pas nouveau pour atténuer le bruit et même le flou de mouvement. Par contre, pour la prise en compte du bruit, du flou et des distorsions en temps réel c'est à dire les conditions que l'on trouve dans le phénomène de turbulence (atmosphérique, longue distance et marine), je n'ai rien trouvé mais cela existe certainement chez les astronomes professionnels ou chez les militaires ou dans le médical. Je serais curieux de connaître le nombre de sessions qui passent à la poubelle p/r à l'ensemble des sessions. J'ai aussi l'impression qu'avec le réchauffement climatique, l'atmosphère devient de plus en plus instable et qu'un moyen permettant d'optimiser ses sessions devient aujourd'hui tout aussi important sinon plus qu'un bon instrument avec un bon capteur sur une bonne monture. 😉
  11. Pourquoi du délire ? Ce n'est pas le même modèle de dégradation parce que ce n'est pas une ASI ZWO qui a moins de bruit que les caméras de l'époque. En adaptant les paramètres du modèle à la caméra de l'époque ça donne cela :
  12. Je n'ai pas testé Rust mais Julia qui est aussi une très bonne alternative à C/C++. Il y a un wrapper d'ArrayFire pour Rust. J'utilise ArrayFire C/C++ parce que je développe de mémoire en langage C depuis 1982. J'utilise PyTorch Python pour tester mon logiciel parce qu'il n'existe rien d'autre sur le marché concernant la turbulence. Pour 1 minute d'acquisition, il faut une dizaine d'heures de calcul avec le logiciel signalé plus haut c'est un rapport de 1 à 600. Concernant la consommation les cartes Jetson Nano et Xavier NX c'est 10W et 20W à pleine puissance donc rien à voir avec les ordinateurs de jeux qui consomment en moyenne 10 fois plus. L'évolution du logiciel c'est Jetson Nano (2021) puis Jetson Xavier NX (2022) puis Jetson Orin NX (2023), voir le tableau suivant : Cet année j'ai testé le montage suivant avec la Jetson Nano 4Go, 5 heures d'autonomie c'est une demi-rotation de Jupiter : L'an prochain, je monterai un peu plus en puissance avec la Jetson Xavier NX qui est environ 10 fois plus puissante que la Jetson Nano mais qui consomme 2 fois plus. Enfin, il reste de la marge pour 2023 avec la Jetson Orin NX qui est 50 fois plus puissante que la Jetson Nano mais d'ici là NVIDIA aura sorti sa nouvelle Jetson Nano et AMD aura mis tout le monde d'accord (avec ArrayFire je peux aussi cibler les cartes graphiques d'AMD avec OpenCL). 😉
  13. C'est le meilleur modèle que je connaisse pour valider mon travail sur la turbulence (atmosphérique, marine ou longue distance). Son seul problème c'est qu'il est de 100 à 1000 fois plus lent (il faut donc un ordinateur avec une puissante carte graphique et de la mémoire graphique) mais si c'est pour valider un modèle plus rapide ce n'est pas un problème. J'ai été vraiment très emballé de découvrir ce travail car les approches précédentes n'étaient pas très performantes.
  14. Oui, il y a des développements faits par des doctorants, codés hier avec Matlab et aujourd'hui avec Python. J'ai commencé à m'intéresser à la turbulence en 2008 et j'ai passé pas mal de temps à décortiquer certaines thèses ou certaines publications. Avec le recul, 13 ans plus tard, si j'avais un conseil à donner, ce serait de se fabriquer son environnement de développement (C/CUDA ou C++/ArrayFire ou C++/OpenCV ou autre), de muscler ses connaissances en mathématiques et d'y aller par petites touches comme un peintre impressionniste. Le vrai plaisir c'est quand on s'aperçoit que son algorithme donne des résultats aussi bons mais de 100 à 1000 fois plus rapidement. Le problème aussi c'est que les doctorants sont plus des chercheurs que des développeurs informatique, leurs algorithmes sont rarement optimisés et trop souvent itératifs, c'est mortel en temps réel. Il y a aussi le poids de la formation, elle est trop uniforme et les élèves manquent de fantaisie. Aujourd'hui, je ne regarde pratiquement plus les publications car elles portent toutes sur le deep learning et même si PyTorch ou TensorFlow utilisent massivement CUDA, ça reste encore désespérément lent.
  15. J'ai expliqué ma démarche un peu plus haut, l'intelligence artificielle peut être utile pour valider la méthode (voir les grilles déformables) mais tant que je peux utiliser des algorithmes traditionnels comme dans les étapes 1 à 4 alors je le fais. Peut-être que demain (vu le nombre de recherches sur le sujet), je pourrais faire la même chose avec 3 lignes de Python mais aujourd'hui ce n'est pas le cas. Partir d'une mixture de bruits et de flous synthétiques sera aussi utile pour le traitement d'images du CP. Je n'ai pas commencé par le CP parce que la taille des images (supérieures à du Full HD) demande la puissance de calcul que j'aurai dans un an à coût égal. J'ai regardé Topaz, je ne crois pas que ça a un grand intérêt en astro. C'est bien pour redonner vie à de vielles images ou à de vieux films mais même là, il y a mieux en logiciel libre sous linux. S'il y a quelque chose à améliorer c'est l'étape 2) car il y a là de quoi bien doper les images brutes quand la turbulence commence à se faire sérieusement sentir. C'est surtout ce point que je vais améliorer l'an prochain.
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.