Jump to content

ms55

Membre
  • Posts

    247
  • Joined

  • Last visited

  • Days Won

    6

Everything posted by ms55

  1. Bonsoir à tous, Le site http://www.GPU-Vision.fr est ouvert. Bonne soirée. ms55
  2. Retour sur une vidéo présentée fin août 2021 sur ce fil (à l'époque, je n'avais pas implémenté la dérotation) : Aujourd'hui, j'ai remplacé l'utilisation du deep-learning par l'utilisation d'un algorithme de dérotation (flot optique de précision gérant les occultations) dans le logiciel "turbu version 1.0" : - à gauche les images 59 à 115 issues de la vidéo assistée réalisée avec "turbu version 0.1" le 11 août 2021 entre 1h57 et 3h04 TL, - à droite les images obtenues avec l'option dérotation du logiciel "turbu version 0.1" sur 16 minutes (j'ai fait d'autres essais avec 10/12/14/16/18/20 minutes). Cette vidéo montre aussi la gestion des occultations (occlusions) lors du passage de la GTR au bord du globe : La GTR au bord du globe : La meilleure image dérotée de la vidéo : Voilà, je pense avoir fait une présentation assez complète de la dérotation avec "turbu version 0.1" : pas d'artefact, gestion des occultations, des satellites, des ombres de satellites. 😉 C'est le même algorithme de flot optique de précision qui est utilisé : - pour créer les images n°2 à n°32 à partir des images n°1 et n°33 de Kant (2 images espacées de 20 minutes en entrée donnent 31 images en sortie), - pour créer les images de droite de la vidéo ci-dessus à partir des images de la vidéo assistée du 11 août 2021 (une rafale de 15 images en entrée donne une image dérotée en sortie). Le but de la dérotation est de réduire le bruit et de montrer plus de détails, je pense que cet algorithme répond à cela. Le logiciel "turbu version 0.1" permet : - d'obtenir des images comme celles de gauche dans la vidéo ci-dessus, - d'améliorer, si besoin, ces images en faisant appel à la dérotation. La dérotation pouvant se faire en cours d'observation ou après coup, elle permet d'obtenir des images de meilleure qualité, c'est plus de l'astrophoto que de la vidéo assistée. La prochaine version de turbu intégrera un modèle de dégradation en entrée et une amélioration de l'algorithme de déconvolution aveugle. Cela devrait permettre d'obtenir de meilleurs résultats en conditions plus dégradées. Mes prochaines interventions se feront sur les sites gpu-vision ou sur le forum Nvidia Jetson à partir de janvier 2022. L'ouverture des sites gpu-vision est prévue mi-janvier 2022.
  3. Ça fait un traitement supplémentaire mais si les utilisateurs de WinJupos y trouvent leur compte, tant mieux. Un algorithme de flot optique devrait être robuste aux occlusions, il semble que ce ne soit pas le cas avec WinJupos. Comment faites vous avec WinJupos quand la GTR passe de l'autre coté du globe ? Oui c'est un problème qui devrait être résolu avec l'ouverture d'un site internet en janvier 2022, je voulais le terminer pour fin 2021 mais comme je veux faire du pas à pas ça prend du temps. Cela montre déjà qu'il y a une autre façon de faire et peut-être que cela servira un jour à ceux qui utiliseront le logiciel "turbu". Moi cela m'a servi de test pour l'algorithme qui calcule la qualité d'une image, les valeurs se répartissent linéairement entre l'image n°1 de meilleure qualité et l'image n°33 de qualité moindre, ce qui est bon signe.
  4. Tu as sur ce fil 2 liens vers les logiciels (post du 10 décembre, au début de cette page) : 1) "turbulence 0.1" qui permet de vérifier que ton environnement et ton installation sont correctes en téléchargeant les fichiers "raw" fournis, 2) "turbu 0.1" qui permet de faire l'acquisition et le traitement d'images en temps réel. Ces 2 logiciels sont fournis pour 2 environnements : 1) la famille Nvidia Jetson Nano, TX1 NX, Xavier NX, Xavier, 2) les PC sous Ubuntu 18.04 ou Linux Mint 19.3 Cinnamon avec au moins une carte graphique GTX 1050 Ti. Ces 2 logiciels sont conçus pour des cameras couleurs ZWO ASI, le monochrome sera pris en charge dans la prochaine version. La version 0.1 est celle que j'ai utilisé cet été et cet automne. Tout cela sera aussi détaillé sur les 2 sites en cours de construction (ouverture en janvier 2022) : www.gpu-vision.fr www.gpu-vision.com Il n'y aura pas de versions Windows ou OSX de ces 2 logiciels mais une unique version 1.0 sous Jetson Nano Next en 2023. En attendant ceux qui auront installé et testé la version 0.1 passeront logiquement à la version 0.2 en 2022 puis à la version 1.0 en 2023. Pour les tests de la version 0.1 sur Mars, Jupiter et Saturne, il n'y a pas le feu au lac, ce qui te laisse quelques mois pour installer "turbu version 0.1". Les tests de la version 0.2 sur Mars, Jupiter et Saturne pourront se faire dans la foulée dans le courant de l'été et de l'automne. L'objectif n'est pas de vendre mais de créer une petite communauté d'astrams répartis sur la planète et continuer à faire évoluer le logiciel "turbu" au rythme des cartes Jetson de Nvidia. La version 1.0 devrait aussi intégrer l'acquisition et le traitement en live d'objets du ciel profond. A partir de janvier 2022, je ne communiquerai plus qu'à partir des 2 sites internet et du forum Nvidia Jetson. Mon dernier post sur ce forum n'était pas prévu mais quand j'ai vu la vidéo réalisée à partir de 2 images de Kant séparées de 20 minutes avec WinJupos, je n'ai pu m'empêcher de réagir. Le comble dans cette affaire c'est que certains trouvent encore le moyen de critiquer sans proposer de solution, ces gens là ne s’aperçoivent même pas à quel point ils sont ridicules. 🤭
  5. L'idée est de faire un logiciel embarqué qui tourne sur une carte de la famille Nvidia Jetson : Nano, TX2 NX, Xavier NX, ... et dont la consommation n’excède pas 20W. Sur Jetson Nano 4GB "turbu version 0.1" a une autonomie de 8h (2 batteries 5V3A pour le calculateur et l'écran tactile). La prochaine étape sera de monter en puissance avec les cartes TX2 NX et Xavier NX en attendant le modèle Nano Next prévu pour 2023. Ce système sera réellement intéressant s'il permet effectivement d'imager sous turbulence forte, j'ai fait quelques tests cet été mais c'est en 2022 que j'aurai la réponse avec Mars, Jupiter et Saturne. 😉 Pour ceux qui n'ont pas de carte Jetson, j'ai fait une version 0.1 qui tourne sur toute machine Ubuntu 18.04 ou Linux Mint 19.3 possédant au moins une carte GTX1050 Ti. Pour Windows et OSX que je n'utilise plus depuis au moins 10 ans, je ne ferais pas de version. : En 2023, il n'y aura plus qu'une seule version 1.0 sous Jetson Nano Next, elle sera gratuite pour tous ceux qui auront installé et utilisé "turbu version 0.1" avec succès. 😉 Concernant les 33 images JPEG obtenues à partir des images n°1 et n°33 de Kant, c'est plus facile d'analyser les fichiers originaux que ceux extraits d'un gif animé qui apporte son lot de bruit et d'artefact (20 minutes cela fait beaucoup, 10 minutes seraient plus raisonnable) : image n°1 (Kant) : image n°2 (algo ms55) : image n°32 (algo ms55) : image n°33 (Kant) : PS : le résultat serait nettement meilleur si les images n°1 et n°33 n'avaient pas été traitées avec WinJupos mais avec un algorithme gérant un flot optique de précision. Pour le vérifier, il suffirait d'avoir les quelques images ayant permis de produire les images n°1 et n°33. 😉 La vidéo : Qualité des images : La linéarité est presque parfaite. Je serais maintenant curieux de voir la même manip avec WinJupos parce que quand je vois les critiques sur le forum d'à coté, il y a de quoi tomber de sa chaise. 🤣🤣🤣
  6. L'hébergeur Online.net a merdé et du coup la base de données a été vérolée. J'ai changé d'hébergeur et du coup j'en ai 2 pour le prix d'un : www.gpu-vision.fr www.gpu-vision.com j'ai choisi un outil sans base de données pour réaliser ces 2 sites, le premier en français et le second en anglais. L'idée c'est de mettre dans un premier temps toutes les infos nécessaires pour installer et lancer "turbu version 0.1" sur PC ou Jetson (Nano, TX2 NX, Xavier NX, Xavier, ...). La version 0.2 se poursuivra en 2022 avec ceux qui auront passé le cap de la version 0.1
  7. Il est possible d'installer Vulkan sur RPi4 pour accéder au calcul par le GPU. Ce sera sans doute plus facile avec le futur RPi5 qui devrait offrir plus de puissance. Cette camera ferait alors un bon oculaire électronique. 😉
  8. C'est un algorithme qui utilise des primitives d'ArrayFire 3.9 pour mettre en œuvre un flot optique de précision. Il est intégré au logiciel "turbu" au même titre que les algorithmes permettant : - de créer une image de référence, - d'aligner les images brutes sur cette image de référence, - de fusionner les "lucky regions", - de réaliser une déconvolution aveugle adaptée à la turbulence atmosphérique (faible, normale ou forte). Le modèle de 2019 a été complété par l'ajout d'objets dynamiques (détection d'impacts sur Jupiter par exemple) comme dans la publication suivante qui n'est pas "temps réel" (voir figure 1 et table 1) : https://arxiv.org/pdf/2009.00071.pdf Sur 2 minutes, Jupiter peut être considéré comme une scène statique qui peut être traversée par des objets dynamiques (ombre d'un satellite ayant une vitesse de rotation supérieure, impact sur la planète, ...), le modèle retenu permet de traiter ces 2 aspects. Il est aussi utilisé dans le cas de la turbulence à longue distance avec des objets qui peuvent traverser la scène comme dans la publication ci-dessus. La différence avec les modèles existants c'est sa vitesse de traitement due à l'utilisation d'autres algorithmes dans un environnement GPU. Il me reste encore à peaufiner la déconvolution aveugle et à intégrer l'algorithme qui applique un modèle de dégradation aux images brutes en entrée. La fin est prévue pour la prochaine saison et cela devrait me permettre de sortir des images de Mars, Jupiter et Saturne en conditions de turbulence faible, normale et forte. Le logiciel "turbu" est actuellement en version 0.1, il est public sous Ubuntu 18.04 mais je n'ai pas vu beaucoup de vidéos produites avec lui (à part la douzaine que j'ai réalisé cet été), pour l'instant j'ai surtout lu des critiques qui ne font pas avancer le schmilblick. 😉 En 2022, il évoluera en version 0.2 qui intégrera un modèle de dégradation en entrée et ceux qui auront réussi à utiliser la version 0.1 pourront profiter de cette nouvelle version, les autres seront spectateurs. 😉 Tout cela sera expliqué sur le site "gpu-vision" qui est en cours de rédaction. Les 2 images fournies en entrée par Kant ont subit les inconvénients de WinJupos (artefact "ring" au niveau du bord et "œil de merlan" au niveau de l'ombre du satellite). L'autre inconvénient de WinJupos c'est qu'il ne gère pas les occultations (par exemple le passage de la GTR au bord de la planète). Je ferais à l'occasion un test 5 minutes avant le passage au bord de la planète (image1) et 5 minutes après (image 2). WinJupos ovalise aussi les satellites, ce qui gâche le résultat final. 🥲
  9. Je lui ai envoyé hier l'animation en messagerie privée et s'il n'est pas d'accord, j'efface le sujet. 😉
  10. J'ai vu sur le forum d'à coté une animation obtenue à partir de 2 images de Jupiter prises par Kant à 20 minutes d'intervalles. J'ai refait le même genre de manip avec 2 images de Jupiter que j'avais pris le 11 août 2021 entre 2h04 et 2h24 TL : En fait pour faire une rotation complète de Jupiter avec la méthode présentée, il suffit de disposer d'une bonne image prise toute les 10 minutes (20 minutes c'est trop long) soit 6 images par heure ou 60 images en 10 heures. L'image prise toutes les 10 minutes peut elle aussi être une image créée avec le même algorithme qui ne donne pas d'artefact et/ou de satellite ovalisé comme Winjupos. A essayer lors de la saison 2022 avec Jupiter un peu plus haut en métropole. Enfin, le temps pour calculer les images intermédiaires est de l'ordre de quelques secondes avec une GTX 1050 Ti et il doit être encore possible d'optimiser. La version avec 3 images de Jupiter prises à 10 minutes d'intervalle et avec 3 images de même qualité (la déconvolution aveugle permet d'homogénéiser les 3 images) : PS : les images issues de Winjupos ne sont pas un bon choix en entrée car elles contiennent des artefacts sur le limbe et sur l'ombre des satellites. Ce qui n'est pas le cas avec l'algorithme utilisé ici. 😉
  11. ms55

    Pas de soucis. 😉

  12. J'ai l'impression que la dérotation basée sur un flot optique de précision fonctionne plutôt bien (le satellite ne s'ovalise pas et l'artefact "ring" n’apparaît pas sur le limbe) et vite (c'est quasiment en temps réel avec le GPU) : 😉 L'image obtenue en sortie de la dérotation (pas d'artefact et d'ovalisation du satellite) : En appliquant la dérotation à une fenêtre glissante de 3, 4, 5 (comme ici), 6, 7, 8 ou 9 images cela devrait permettre d'avoir une vidéo moins bruitée et mieux résolue. Dommage que le brouillard n'ait pas permis de faire cela, ce sera pour la prochaine fois. 😉 Et sur 8 (entre 17h09 et 17h25) en mixant avec 2 images de la Jetson Nano plus une image intermédiaire :
  13. Avant l'arrivée du brouillard à 17h30, un premier essai avec carte Jetson Nano 4GB (1 image à 17h10) et un deuxième essai avec GTX 1050 Ti (5 images à 17h15 + dérotation). C11@f/20+ASI462MC+EQ6-R Pro + logiciel "turbu version 0.1" 1) Jetson Nano 4GB : 2) PC portable avec GTX 1050 Ti : Dérotation des 5 images précédentes et léger renforcement : Ces tests ont été réalisés avec les versions sous linux pour Jetson (Nano et +) et PC (GTX 1050 Ti et +) du logiciel "turbu version 0.1". Je suis curieux de voir ce que d'autres astrams peuvent faire avec ce logiciel qui fonctionne avec des caméras ZWO ASI couleur (le monochrome n'est pas géré dans cette version). La soirée a tourné court au bout d'une 1/2 heure car le brouillard s'est brusquement levé.
  14. Ceux qui testeront "turbu version 0.1" sur le ciel, comme je l'ai fait cet été, pourront dire si le logiciel leur convient ou pas. Je suis déjà agréablement surpris de voir ce que peut faire une simple carte comme la Jetson Nano à moins de 100 euros et curieux de tester prochainement la Jetson TX2 NX. Après, ils pourront débarquer sur les forums pour donner leurs impressions, bonnes ou mauvaises, mais venir foutre sa merde en tombant comme un cheveu sur la soupe sans avoir testé quoi que ce soit, ce n'est pas acceptable. Je vais mettre au propre l'installation de "turbu version 0.1" sur mon site internet et continuer le développement de "turbu version 0.2" en vue des oppositions de 2022 (Jupiter, Saturne et Mars) puis suivra "turbu version 0.3" qui intégrera le visuel assisté du ciel profond. D'ici là, la puissance de calcul des cartes graphiques aura encore augmentée. 😉
  15. Sur Jupiter la turbulence varie même d'un point à l'autre de la planète d'où l'idée d'un modèle de dégradation capable de corriger en temps réel une partie des dégradations à partir d'une rafale d'images brutes alignées en entrée, la taille de cette rafale étant fonction de la force de la turbulence. Le calcul par le GPU permet déjà de faire pas mal de choses à grande vitesse et la puissance de calcul augmente d'années en années. Si ce n'est pas concluant pour toi ni en temps de calcul ni en qualité alors passe ton chemin sinon traite déjà le jeu d'images que j'avais posté pour comparer. 😉 En plus, il faudrait peut être attendre que d'autres testent "turbu version 1.0" sur le terrain avant de te lancer dans des conclusions hâtives ... tout cela sent de plus en plus la mauvaise foi, le dénigrement, etc ... pour un journaliste c'est pas fort. 🤭 Il y a des modérateurs sur ce forum et je ne comprend pas que certaines de tes interventions n'aient pas été modérées car la plupart sont contraires aux règles du forum. Pour ma part, je ne souhaite plus échanger avec toi et je trouve que j'ai déjà été trop patient. 😉
  16. Un petit essai avec AS3 : Un petit essai avec "turbulence version 0.1" : Comparer les 2 images en sortie du stacking : Comparer les 2 images en sortie du renforcement (mêmes traitements pour les 2 images précédentes) : Vous pouvez faire de même avec votre propre programme de renforcement à partir des 2 images issues du stacking. 😉 La différence en alignant les 2 images qui utilisent 100% des trames : Et quand on sélectionne dans les 2 cas 50% des images brutes sur un critère de qualité, ça donne cela : Avec "turbu version 0.1" il est facile d'obtenir des images stackées consécutives que l'on peut déroter par paquets de 7 ou 9 sur une fenêtre glissante afin d'obtenir des images mieux résolues. La qualité finale s'améliore encore. Enfin, en appliquant un modèle de dégradation en entrée comme cela se fera en 2022, il devrait même être possible de sortir des images dans des conditions médiocres et là AS3 risque d'avoir du mal à suivre. 😉
  17. Tu n'as rien compris, avec AS3 il faut comparer le contenu du répertoire "png" et non "sharp". En plus le traitement proposé pour Jupiter s'applique à des lots de 4000 à 8000 images. Avec 1000 images dans chaque rafale, tu es très loin du compte. Tu devrais commencer déjà à fournir une image à partir du jeu d'essai donné au lieu de t'exciter et partir dans tous les sens. 😉 Moi, je l'ai déjà fait et je ne comprends pas pourquoi tu sautes du coq à l'âne. Si je compare ton image en sortie d'AS3 et la mienne en sortie de "turbulence version 0.1" dans le répertoire "png", il n'y aura aucune différence et c'est justement cette image qui est longue à obtenir et non son traitement. Arrêtes de tout mélanger.
  18. En calcul flottant sur 16/32bits la carte GTX1050 Ti est 2 fois plus rapide que la Jetson Xavier : Ce qui signifie que sur le ciel avec une caméra ZWO 462MC vous devriez tourner à 60 fps sur Jupiter avec des images de 800x600 pixels. C'est sur le ciel qu'il faut faire un test de vitesse avec "turbu 0.1" : toutes les 100s vous allez obtenir une image traitée à partir de 6000 images brutes et cela sur toute la session. Notre ami JLD aura beaucoup de mal à suivre la cadence de 1 image terminée toutes les 100s soit toutes les 1mn40s. Avec le portable muni de sa carte GTX1050Ti c'est 1 image terminée toutes les 1 minute. En mode High_Speed car ce mode est aussi supporté c'est 1 image toutes les 30 secondes. 😉 Merci pour ce premier test qui confirme que l'on peut traiter des images brutes sur une Jetson Xavier à la cadence de 30fps avec le logiciel "turbulence version 0.1". Ce qui signifie ? 😉 La bonne nouvelle c'est que la petite Jetson Nano à moins de 100 euros est à 16fps sur ce même test : Ce qui veut dire que le modèle Jetson TX2 NX devrait être bien adapté car 2 à 3 fois plus rapide que la Jetson Nano.
  19. Je suis surpris par la lenteur du traitement des 4000 premières images brutes : 4,2fps soit 952s = 16 minutes environ Les 4000 suivantes sont traitées plus rapidement : 29,7fps soit 135s = 2,2 minutes environ. Avec la carte GTX 1050Ti c'est 60fps pour les 4000 premières et les 4000 suivantes, soit 1 minute pour chaque session de 4000 trames : Pour les tests, prenez "turbulence version 0.1" et "turbu version 0.1" afin d'avoir rigoureusement les mêmes versions que moi. Cela ne changera pas le temps d'exécution qui est très long pour votre première session (d'autres tâches étaient actives ? ou le système met du temps à s'initialiser ? ...). Le choix de la meilleure image ne change pas grand chose pour la qualité finale car elle ne sert qu'à l'alignement des autres trames. Les trames les plus nettes sont les n° 55, 4213, 0, comme le montre le fichier texte suivant : q_sharp.txt Il vous reste à faire un test avec "turbu version 0.1" c'est la version que j'ai utilisée cet été, elle est basée sur le modèle présenté en 2019, les algorithmes sont entièrement de mon cru car ceux utilisés dans la publication ne permettent pas un traitement en temps réel : Ce modèle évoluera dans le futur avec l'ajout d'un modèle de dégradation appliqué en entrée à une rafale d'images brutes. Il sera testé lors de la saison 2022 sur Jupiter, Saturne et Mars. Le ciel devrait se dégager en fin de semaine, ce qui devrait vous permettre de tester "turbu version 0.1".
  20. "turbulence" est un programme qui accepte en entrée un répertoire nommé "raw" contenant des images brutes PNG 8 bits numérotées de 1 à N. Il produit en sortie 2 répertoires "png" et "sharp" contenant respectivement les images issues du stacking et les images ayant subi un renforcement. Les fichiers raw sont obtenus avec FireCapture par exemple. "turbulence" peut être utile à ceux qui ont des rafales d'images brutes à traiter. Par exemple, j'ai 600000 images brutes : a) burst = 6000 b) nb de bursts = 100 c) n°image de référence pour l'alignement = au choix Résultat : 100 images stackée PNG 16bits + 100 image renforcées PNG 8 bits "turbu" est un programme autonome de visuel assisté qui fait l'acquisition, le stacking et le renforcement. Il produit en sortie l'image brute de référence et un répertoire "png" contenant les images issues du stacking (PNG 16 bits). Les images renforcées sont juste affichées à l'écran dans la fenêtre de droite. En cours d'affichage des images renforcées, il est possible de changer les paramètres du renforcement : touches 1 à 9 du clavier (1 = faible, 9=fort). Je rajouterai une option dans la ligne de commande pour ceux qui veulent aussi récupérer le répertoire "sharp" contenant les images renforcées. "turbu" est utile à ceux qui font du visuel assisté mais aussi ceux qui font de l'astrophoto avec l'option définie ci-dessus. Pour vérifier si votre installation marche, utilisez "turbulence" avec les 2 jeux d'essai fournis ou avec vos propres jeux d'essais. Je n'ai pas utilisé des fichiers SER mais des images PNG 8bits zippées parce que cela prend moins de place. Dans la "philosophie turbu" les fichiers SER ne sont plus nécessaires puisqu'il suffit de sauvegarder quelques fichiers PNG (images stackées et/ou images renforcées et quelques images brutes correspondant à une détection de mouvement). Les fichiers "png" produits par "turbu" peuvent aussi être traitées par vos logiciels habituels, ils sont équivalents aux fichiers PNG 16bits produits par AS3. Ceux qui ont installés "turbulence" et "turbu" sur leur machine linux (Jetson ou PC) peuvent mettre des copies d'écran pour juger des performances. La version 0.1 du logiciel "turbulence" pour la famille Jetson : turbulence La création d'images renforcées a été testée pour les valeurs suivantes du paramètre "burst" : Lune 300 à 900 Mars 8000 à 16000 Jupiter 4000 à 8000 Saturne 8000 à 16000 Étoile 100 à 1000 Le jeu d'essai Jupiter se charge en 5 minutes à partir de ma Dropbox que je viens de mettre à jour, il permet de tester pour les valeurs du paramètre "burst" comprises entre 4000 et 8000 images brutes : https://www.dropbox.com/s/p52xctwv5yvbeqm/raw.zip?dl=0 Reste à ajouter la version 0.1 du logiciel "turbulence" pour la famille PC sous linux : turbulence Je pense que maintenant tous ceux qui veulent tester "turbulence" et "turbu" sous linux avec Jetson ou PC ont tous les éléments en main. Concernant la Jetson Nano 4Go en version B01, la carte porteuse supporte les cartes Jetson TX2 NX (7.5 à 15W) et Jetson Xavier NX (10 à 15W). Ceux qui démarrent avec une Jetson Nano 4Go B01 (environ 100€) ont donc la possibilité de l'upgrader par la suite en remplaçant la carte Nano par une carte plus véloce (TX2 NX environ 3 fois plus rapide et Xavier NX environ 12 fois plus rapide).
  21. Les touches + et - permettent d'incrémenter et décrémenter l'exposition de +/-0.5 J'ai viré l'IHM qui faisait cela avant, aujourd'hui, je positionne le gain sur 3 ou 4 puis je fais varier l'exposition. la touche "/" permet de sélectionner une bonne trame sur 1000 pour démarrer l'alignement. Vous pouver l'activer plusieurs fois . Quand c'est Ok (la qualité s'affiche en haut de la fenêtre de droite) vous lancez l'acquisition avec "*". Vous pouvez aussi chercher le gain et l'exposition avec FireCapture mais ce n'est pas nécessaire. Vous devriez installer "guake" car j'appelle cette application quand vous faites "/" pour garder le focus. A part cela tout semble fonctionner sur votre Jetson Xavier. L'application "turbu" fonctionne sur Jetson Nano et Jetson Xavier, reste à trouver d'autres volontaires pour confirmer qu'elle fonctionne aussi sous Ubuntu 18.04 ou Linux Mint 19.3 , du coup je poste l'application pour les PC sous linux : turbu
  22. J'ai provoqué la même erreur en renommant "libforge.so" en "_libforge.so" L'éditeur de liens n'a pas besoin de mentionner "libforge.so" qui est chargée dans le même path que "libaf.so" Est-ce que le fichier .bashrc contient bien le path vers Forge dans la variable LD_LIBRARY_PATH ?
  23. Il faudrait commencer par "turbulence" avec les 2 jeux d'essais ou d'autres. Avez-vous vérifier le contenu de "/usr/local/lib" ? Votre programme ne trouve pas "libforge.so" Je vais provoquer la même erreur sur la Jetson Nano en renommant "libforge.so"
  24. Lancez "turbu" avec les paramètres indiqués en ligne de commande. Vous devriez récupérer le message "No camera connected". Brancher une caméra ZWO sur le port USB3 en suivant les recommandations de ZWO: Applicable platform: ubuntu:x86, x64 armv8: arm 64bit $ sudo install asi.rules /lib/udev/rules.d or $ sudo install asi.rules /etc/udev/rules.d and reconnect camera, then the camera can be opened without root and run 'cat /sys/module/usbcore/parameters/usbfs_memory_mb' to make sure the result is 200 The version of libusb compiled with is 1.0.19 Aller dans le répertoire ~/eva et lancer "turbu" avec les paramètres en ligne de commande (si possible sous Guake pour ne pas perdre le focus). C'est tout. $ sudo apt update $ sudo apt install guake $ guake --version Guake Terminal: 3.7.1.dev163 VTE: 0.52.2 Gtk: 3.22.30 Pour "turbulence" vous pouvez récupérer les 2 jeux d'essais (Jupiter et Lune) via ma Dropbox. Pour Jupiter, copier le répertoire "raw" sous ~/eva/jup_8600 et lancer "turbulence" c'est tout. Pour la Lune, copier le répertoire "raw" sous ~/eva/moon_900 et lancer "turbulence" c'est tout. Je serais curieux de connaître les fps avec la Jetson Xavier. Pour quitter "turbulence" qui n'est qu'un programme de test, tapez Ctrl+C. # turbulence et arrayfire export PATH=.:~/turbulence/bin:$PATH export LD_LIBRARY_PATH=/usr/local/lib:~/ASI/lib/armv8:$LD_LIBRARY_PATH La lib partagée est recherchée sous "~/ASI/lib/armv8"
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.