Aller au contenu

Wan186

Membre
  • Compteur de contenus

    1425
  • Inscription

  • Dernière visite

Tout ce qui a été posté par Wan186

  1. Finalement, j'ai trouvé un truc intéressant ET français. 5€ l'adaptateur (impression 3D). Je ne sais pas ce que vaut cette boutique, mais ils ont plein de trucs intéressants. https://azur3dprintshop.com/118-800-support-point-rouge.html#/137-hauteur_du_support-court_3cm
  2. 5 ans pour faire sa présentation, c'est long, mais çà a le mérite d'être fait! 👍 Bienvenue.
  3. Wan186

    NGC7000

    Voilà ce que j'arrive à faire... C'était un défi sympa! Clairement, pb de focus, et sans correcteur de champ, OUCH! Les étoiles sont brûlées, mais c'est ton fichier de base qui était comme çà... Tu as ajouté l'option normalisation quand tu as empilé? Ou égalisatio d'histogramme? Peut être que passer de 48x2' à 96x1' aurait permis de corriger çà? Je sais pas, je débute. -> Utilisation de GraXpert pour suppression du gradient et du bruit -> calibration des couleurs par photométrie -> premiers étirements GHS -> passage sous Photoshop pour supprimer la distortion ->augmentation de la saturation -> suppression des étoiles -> Pour le starless: GHS + transformation d'ondelettes à trou + augmentation de la saturation -> Pour le starmask: GHS -> Recomposition (avec GHS) -> Traitement final sous Photoshop (avec beaucoup de pertes dans les ombres).
  4. J'ai vu que vous êtes chez OVH. Peut être passer chez O2Switch... Apparemment plus rapide, bien moins cher, taille disque illimitée... Et sinon utiliser Cloudflare / mise en cache des pages si ce n'est pas déjà fait. Je lance des trucs, je ne connais rien à votre config ou vos capacités. Et je suis pas un pro du web. J'avoue que là, çà pique niveau disponibilité et performances.
  5. Je préfère laisser ceux expérimentés te répondre. 😉
  6. Tu sais que tu peux cliquer sur tes points pour afficher l'image correspondante? Çà coûte rien de voir si tu te plante ou si tu fais mouche. (J'aurais plutôt regardé le facteur de fond de ciel par instinct, tu ne les as pas posté).
  7. Wan186

    Traitement par lot histogramme

    Sur Siril, il y a un bouton "appliquer à la séquence" dans l'outil transformation par histogramme 😉 Le truc c'est que tu le fais sur une séquence. Si c'est pour avoir des images sauvegardées indépendamment, il faut ensuite utiliser l'onglet séquence pour exporter vers le format voulu
  8. Avec le D5200, et pour un ratio image/scope de 3, il lui faudra une lunette guide de 240mm. Çà dépends donc de la lunette et de la caméra de guidage pour avoir cette focale, tu peux ajouter 500g à 1.2 kgs... Donc tu monte à 8 kgs. A quel point tu peux monter en poids avec l'eqstar pour de l'AP?
  9. (désolé, post en double)
  10. Un 200/1000 sur NEQ5 c'est mort effectivement. Le tube est trop lourd. Comme dit Tyler, entre le 200/1000 et une 80 ED, c'est 2 choses différentes. Tu as aussi une 3ème option: partir sur un 150/750 en PDS (avec Crayford 2" démultiplié 1:10), et motoriser ton NEQ5. Après le problème, c'est que c'est tendu pour le faire évoluer (avec l'autoguidage, tu peux vite dépasser les recommandations de poids). Une 80 ED, c'est 7.5 en ouverture. Ca veut dire acheter une caméra spécialisée astrophoto. Car tu parles pas de la caméra? Avec un APN, çà va te demander plus du double de temps d'exposition comparé à une ouverture de 5. Par contre vu le poids et la focale, c'est possible de faire évoluer pour de l'autoguidage avec l'EQ5. Moi je voulais tester, donc NEQ5, kit moteur, 150/750 (bon là, j'ai été assez énervé pour un débutant total). Si j'avais déjà su que je voudrais persévérer, j'aurais pris directement une EQ6, et fait évoluer le reste. (caméra d'autoguidage, caméra spécialisée astro, etc...). Car c'est bien de vouloir faire de l'astro, mais tu ne nous a pas encore parlé de la caméra... Ni de ton envie de faire évoluer ou pas ton matériel. Je te dirais que çà dépend de ton budget et de ton envie d'évolution déjà.
  11. Soyons précis: c'est bien la même chose, le tirage mécanique, le backfocus, etc... Perso je préfère ici parler de distance de mise au point... une FWHM n'indique pas forcément un problème de backfocus. C'est le cas avec un correcteur de champ, si tu as une différence notable de FWHM entre le centre de ton image et tes extrémités. Mais sans correcteur de champ, cela peut être du à un problème de courbure de ton optique. En l'occurence, tu peux utiliser un outil type CCD Inspector (le logicel ASTAP est gratuit et en propose un), pour le vérifier. De grandes valeurs de FWHM qui sont homogènes, indiquent un problème de focus (mise au point) ou de sous échantillonnage!
  12. J'allais le dire... Passer par l'onglet graphique, çà sera peut être plus évident.
  13. Wan186

    Traitement par lot histogramme

    Pourquoi tu veux appliquer un histogramme sur 6000 images? 🤨
  14. Pour info, votre discussion m'a permis de me rendre compte d'un problème. Du coup j'ai créé ce sujet/tuto:
  15. INTRODUCTION (Déjà pour info: ce tuto est sous Windows, et ne marche qu'avec les cartes graphiques nVidia supportant CUDA. Mais il est possible d'en faire autant pour Mac ou Linux. Si vous êtes intéressés, n'hésitez pas à vous en inspirer, et créer un tuto correspondant. Je peux éventuellement vous aider.) Suite à la discussion sur ce Thread: Je me suis rendu compte que Starnet++ (utilisé pour la suppression des étoiles) était lent, et n'utilisait que 10% de ma carte graphique nVidia. Qui plus est, pas la partie CUDA, mais la partie décodage vidéo... Effectivement, quand la version PixInsight est normalement "toute prête" (à vérifier? Pour ce faire, voir la fin de ce post), ce n'est pas la même pour la version standalone, et donc celle utilisée par Siril. Les gains vont de 40% jusqu'à 80% de temps de traitement en moins. Je tiens à créditer cet article: https://www.williamliphotos.com/cuda-starnet Après de nombreux essais, j'ai trouvé comment ENFIN utiliser CUDA. Il faut d'abord télécharger 3 composants: -LibTensorFlow v2.10 https://storage.googleapis.com/tensorflow/libtensorflow/libtensorflow-gpu-windows-x86_64-2.10.0.zip -CUDA toolkit 11.2 (il vous faudra créer un compte développeur): https://developer.nvidia.com/cuda-11.2.2-download-archive -CUDNN 8.1.1 for cuda 11.2(il vous faudra créer un compte développeur): https://developer.nvidia.com/compute/machine-learning/cudnn/secure/8.1.1.33/11.2_20210301/cudnn-11.2-windows-x64-v8.1.1.33.zip Je précise que je suis sous Windows 11, avec une 1660 Ti. Vous aurez peut être besoin de versions plus récentes, si votre carte graphique l'est. Je listerais les dernières versions compatibles en fonction de vos essais... La plus récente que je connais à ce jour est LibTenserFlow v2.10, CUDA 11.8.0 et CUDNN 8.9.7.29 for cuda 11. Je vous laisse les liens généraux, pour que vous puissiez tester en fonctions de votre OS et de votre carte graphique d'autres versions. Un seul mot d'ordre: CUDA 12 n'est pas encore supporté. ATTENTION: libtensorflow existe en version CPU et GPU, prenez donc bien la version GPU! Pour LibTensorflow: https://www.tensorflow.org/install/lang_c?hl=fr. Si vous voulez une autre version, il faut tricher en changeant directement le lien de téléchargement, pour spécifier la version. Pour CUDA: https://developer.nvidia.com/cuda-toolkit-archive Pour CUDNN: https://developer.download.nvidia.com/compute/cudnn/redist/cudnn/ et https://developer.nvidia.com/rdp/cudnn-archive ---------------- INSTALLATION: 1) Installer CUDA. Vous pouvez opter pour une installation personnalisée, afin de réduire sa taille disque. Décochez les packages NVidia Geforce Experience, Other components, Driver Components, et dans le package principal, enlevez le package "Visual Studio Integration" 2) Ajout d'une variable système Ajoutez cette variable systèmes: TF_FORCE_GPU_ALLOW_GROWTH et mettez sa valeur à "true" (sans les guillemets, en minuscule) (cliquez sur le logo windows, sans rien toucher tapez "variable système" 3) Installation de CUDNN L'archive doit contenir un dossier bin (\cuda\bin) contenant 7 fichiers DLL. Vous devez copier ces fichiers DLL dans le répertoire bin de votre installation CUDA (chez moi: C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.2\bin) 4) Installation de LibTenserFlow Dans l'archive vous trouverez un dossier lib, contenant le fichier tensorflow.dll. Vous devez écrasez le fichier tensorflow.dll de votre répertoire d'installation de Starnet++ par celui-ci. ---------------------------------------- VERIFICATION: Vous pouvez vérifier si cela marche bien, grâce au gestionnaire de tache Windows. Il faut aller dans "performances" puis dans GPU (il y a un ascenceur), et changez l'un des graphiques pour CUDA. Si vous ne pouvez pas, regardez simplement la charge GPU qui devrait être proche de 100%. Lorsque vous lancez starnet++, vous devriez voir que celui-ci utilise bien CUDA.
      • 2
      • J'aime
  16. Je suis anti-portable 😄 Ta carte graphique ne peut être utilisée, et c'est quasiment impossible à mettre à jour. Du moment que tu arrives à optimiser ton temps d'attente, tout va bien 👍
  17. Wan186

    NGC7000

    Çà va être dur de sortir quelque chose de vraiment mieux sur ta starless, à moins de la travailler très lourdement sous Photoshop ou Lightroom. Plus de contraste ou de saturation va faire ressortir encore plus les défauts. Je recomposerais les étoiles, voir je travaillerais directement sans masque.
  18. Wan186

    NGC7000

    Il est temps de s'équiper un peu plus 😉
  19. Attention à comparer à taille identique... Je traite des images qui font 7728x5152, forcément çà prend 3 fois plus de temps avec mon XT-5 qu'un 500D par exemple... J'ai remarqué que sur Siril par contre, Starnet utilise le processeur...
  20. Pour GraXpert, tu parles de la suppression du gradient? Parce que pour la réduction du bruit niveau max, chez moi c'est loooooooong. Je regrette que LightRoom et Photoshop n'accepte pas encore de faire de réduction de bruit par IA quand ce n'est pas un fichier RAW. Vivement que çà arrive, car c'est quand même vachement plus rapide et efficace.
  21. Wan186

    NGC7000

    Salut. N'hésites pas à partager le fit de ton stacking. Je suis débutant aussi, je ne connais pas cette cible, donc je ne pourrais pas te dire grand chose... Sauf si je teste de le traiter par moi même 😉
  22. Tu es sur Linux Alexandre? Sur Windows pour besoin normalement. Mais tu me mets un doute, il faut que je regarde mes charges car j'ai pas l'impression d'entendre ma carte graphique tourner. Édit: ma CG est bien utilisée. La pauvre... 98% de charge, et ça rame. Pourtant c'est une 1660 Ti... Je cite un billet de l'auteur: "For gpu acceleration during denoising, please note: on Windows, we rely on DirectML which requires a DirectX 12 compatible graphics card. On Linux, we rely on CUDA 12 and libcudnn8. On macOS, we rely on CoreML" --- Eric: même remarque: tu es sur quel OS? Si tu es sur Windows, tu as quoi comme carte graphique? Je suis étonné de voir qu'il faut installer CUDA. Je fais de l'IA et j'ai jamais eu besoin de l'installer pour l'utiliser sur Windows, car il est installé avec les pilotes de la carte et utilisé via Direct X. Mais vu ton document il y a incompatibilité avec certaines versions récentes de CUDA (est-ce que les mises à jour de PixInsight ont corrigé ce problème?). Çà veut peut être le coup de se renseigner sur ça et d'installer la bonne version si besoin. (PS: je n'utilise pas PixInsight).
  23. Entre un SSD et un HDD, il n'y a pas photo. Mais c'est surtout l'interface qui les freine souvent. Un disque M2 en pci-express v4, peu théoriquement avoir un débit 100 fois plus important, et un temps de latence 1000 fois plus petit, face à un externe en USB 3. On peut faire encore mieux en utilisant un RAMDisk côté latence. Mais effectivement, vas-tu le voir? Tu reste limité par le composant le plus faible de ton pc. Donc autant çà sera ton processeur ou ta carte graphique. Car Starnet ou les outils Xterminator utilisent la carte graphique pour accélérer drastiquement le calcul... Si tu as une carte graphique de merde, tu auras beau changer de disque, de processeur et de ram, tu verras aucun gain de performance sur ces outils (ou marginal). On peut le vérifier en regardant les charges de travail de chaque composant. J'ai un pc gamer (certes un peu âgé maintenant) et j'ai pas à me plaindre en étant arrivé dans l'astrophoto. Mon problème c'est pas les disques sur Siril... Et pourtant j'ai des Samsung 980 Pro... Mon temps de traitement le plus long étant les outils utilisant l'IA sur GraXpert, alors qu'ils ne traitent qu'une seule image... Vient ensuite Starnet...
  24. Pour information : Les pattes du miroir primaire sont aussi responsables des aigrettes grossières que tu as, c'est un problème connu sur les Skywatcher. Et d'autant plus avec une mauvaise collimation. Il existe un masque que tu peux imprimer ou acheter, en forme d'anneau, et qui vient de mettre par dessus les griffes. https://www.pierro-astro.com/materiel-astronomique/marques/backyard-universe/baffle-de-miroir-primaire-pour-newton-150-sky-watcher-backyard-universe_detail https://azur3dprintshop.com/14-838-masque-chanfrein-newton-150.html#/144-modele_newton_skywatcher_150-150_750 (Attention, je t'ai mis les liens pour un 150, pas un 200. Flemme de chercher) Après, si tu n'aimes pas les aigrettes, tu as des profils que tu peux faire / imprimer ) acheter aussi, que tu mets sur araignée...
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.