Aller au contenu

keymlinux

Membre
  • Compteur de contenus

    729
  • Inscription

  • Dernière visite

  • Jours gagnés

    3

Tout ce qui a été posté par keymlinux

  1. Bonjour, La config des oculaires/telescopes/capteurs est normalement stockée dans un fichier texte nommé "ocular.ini" J'utilise Stellarium sur MacOS, chez moi il est dans le répertoire "/Users/stephane/Library/Application Support/Stellarium/modules/Oculars", pour les autres OS je ne sait pas où c'est stock, je vous laisse chercher... Dans ce fichier il y a différentes sections dont "[General]" et "[ccd]" qui vont nous interesser Dans la section [General], la valeur "ccd_count=X" avec X qui est un chiffre donnant le nombre de capteurs déclarés dans la section [ccd] Dans la section [ccd], chaque camera est déclarée avec la syntaxe suivante: "X\option=Y", avec X le numéro de la camera (la numérotation commence à 0) et Y la valeur de l'option Si tu a une liste de camera avec la taille des capteurs, nombre de photosites, avec un peu de scripting tu peut générer les lignes dans le fichier de config. FAIRE UNE SAUVEGARDE DE CE FICHIER AVANT TOUTE MODIF !! En exemple, la déclaration des cameras chez moi: 4 capteurs déclarés: Un APN Canon APS-C, une ASI178mm, une ASI290mm et la même ASI290mm avec du bin X2 Le paramètre "chip_rot_angle" est facultatif, il est mis a jour lors de l'utilisation de Stellarium si tu fait tourner le capteur pour choisir le "cadrage" (ici -90, pour avoir le capteur "vertical" pour cadrer Orion...) [General] ... ccd_count=4 ... [ccd] 0\binningX=1 0\binningY=1 0\chip_height=14.9 0\chip_rot_angle=-90 0\chip_width=22.3 0\has_oag=false 0\name=EOS 80D 0\prism_distance=0 0\prism_height=0 0\prism_pos_angle=0 0\prism_width=0 0\resolutionX=6000 0\resolutionY=4000 1\binningX=1 1\binningY=1 1\chip_height=3.2 1\chip_rot_angle=0 1\chip_width=5.6 1\has_oag=false 1\name=ASI 290mm 1\prism_distance=0 1\prism_height=0 1\prism_pos_angle=0 1\prism_width=0 1\resolutionX=1936 1\resolutionY=1096 2\binningX=1 2\binningY=1 2\chip_height=4.92 2\chip_rot_angle=0 2\chip_width=7.37 2\has_oag=false 2\name=ASI 178mm 2\prism_distance=0 2\prism_height=0 2\prism_pos_angle=0 2\prism_width=0 2\resolutionX=3096 2\resolutionY=2080 3\binningX=2 3\binningY=2 3\chip_height=3.2 3\chip_rot_angle=0 3\chip_width=5.6 3\has_oag=false 3\name=ASI 290mm bin2 3\prism_distance=0 3\prism_height=0 3\prism_pos_angle=0 3\prism_width=0 3\resolutionX=1936 3\resolutionY=1096
  2. Bonjour, A priori c'est lié au lancement de satellites Starlink par SpaceX en debut de soirée... Cordialement
  3. Bonjour, Il est probable que ton PC portable soit en fait alimenté en 19V (à vérifier) Vouloir convertir du 12V (continu) en 220V (alternatif) pour ensuite le reconvertir en 19V (continu) c'est très inefficace, le plus gros de l'énergie va être dissipé en chaleur dans les radiateurs des transfos... Tu devrais plutôt utiliser un transfo 12V vers 19V (vérifie la tension d'entrée pour ton portable et le format du connecteur) Exemple ici: https://www.amazon.fr/TAIFU-Adaptateur-Universel-Alimentation-Universelle/dp/B07XNTKHZC/ref=sr_1_7?__mk_fr_FR=ÅMÅŽÕÑ&crid=5JNXQR807MV4&keywords=transfo+12V+19V+pc+portable&qid=1650365265&sprefix=transfo+12v+19v+pc+portable%2Caps%2C54&sr=8-7 Ou moins cher chez li le rapide (mais avec plusieurs semaines de délais quand même) https://fr.aliexpress.com/item/4001070709883.html?spm=a2g0o.productlist.0.0.631f6a12v5VXtQ&algo_pvid=df299174-c4c6-4109-b079-9a733271a064&algo_exp_id=df299174-c4c6-4109-b079-9a733271a064-0&pdp_ext_f={"sku_id"%3A"10000014046675800"}&pdp_pi=-1%3B16.84%3B-1%3B-1%40salePrice%3BEUR%3Bsearch-mainSearch Cordialement
  4. Bonjour, C'est normal, si tu as un tube avec une grande focale et que tu utilises une camera avec un petit capteur tu vas avoir un petit champs couvert... Tu peux simuler le champs (FOV) ici: https://astronomy.tools/calculators/field_of_view/?fov[]=109||4400||1|1|0&fov[]=109|89|||1||&solar_system=moon Il te faut donc soit réduire la focale avec un réducteur, soit prendre une camera avec un capteur plus grand, voire les deux... Sinon tu peux aussi faire plusieurs photos et assembler une mosaïque Cordialement
  5. Bonjour, Les ventes "occasionnelles" ne sont pas concernées, mais si on dépasse un certain plafond on est plus considéré comme vendeur occasionnel mais comme pro.... https://www.economie.gouv.fr/particuliers/vente-biens-declarer-revenus Cordialement
  6. Bonjour, Pour ceux qu veulent se mettre a l'impression 3D il y a ce porte filtre pour Newton et Lunettes, tout en restant conscient que cela n'aura pas la rigidité de l'alu, mais sur ce point l'usage visuel sera moins exigeant qu'un usage photo. Cordialement
  7. keymlinux

    Question DOF

    Pour les options du projet, je coche les options "soustrait l'offset", "optim. noir" et "active" (dans cosmetic), tout le reste je laisse les valeurs par défaut. un conseil, teste d'abord Sirilic avec un projet "mono session" pour traiter une des tes soirées, puis ensuite teste le multi-session, il faut y aller progressivement.
  8. keymlinux

    Question DOF

    Bonjour 1) Dans les préférences Sirilic, tu doit donner un seul répertoire de travail exemple chez moi c'est dans "/Users/stephane/Pictures/Siril" 2) Tu créé un seule projet, mais multisession exemple pour un projet pour l'objet M42, si je fait 1 seule session je met la date en nom de session, sinon je met multi le nom de l'objet (ici M42) est utilisé par sirilic pour créer des sous répertories dans le répertoire de travail donné au point 1 3) Une fois le projet multisession créé tu obtiens dans Sirilic la liste de ses sessions (il prend le nom de session donné ci dessus et il ajoute un numéro incrémenté) Pour chaque session tu peut donner le liste des fichiers lights/dark/offset/flat/darkflat dans l'onglet "Fichiers", et sélectionner ls options dans l'onglet option (à faire pour chacun des sessions, et rien ne t'empêche de mettre la même liste de fichiers darks et offset pour les 2 sessions) Important: tu noteras que mes photos ne sont pas dans le répertoire d travail de Siril, mais dans un autre répertoire où je les organise en fonction de l4PN/Camera utilisé, de l'objet photographié et de la date... C'est Sirilic qu va ensuite soit les copier soit faire des liens pour les avoir dans le répertoire de travail pour Siril 4) Une fois que les fichiers et options sont OK pour les 2 sessions, on lance les actions a) menus "Actions" puis "Etape 1" --> cela construit la structure de répertoire dans le répertoire de travail de Siril et y copie les images (ou fait des liens pour gagner de la place) b) menus "Actions" puis "Etape 2" --> lance les traitements via un script le contenu du script est visible dans le répertoire d travail siril, sous répertoire "scripts" fichier nommé sirilic.ssf par exemple ci dessous le script généré par Sirilic pour le traitement des 2 sessions sur M42 sirilic.ssf Très important: il ne faut pas confondre le répertoire où tu gardes toutes tes images light+dof, organisée comme tu le souhaites, et le répertoire de travail siril, où sirilic va copier (ou lier) tes images en fonction de que tu souhaite utiliser dans ton projet, et qu'ils va organiser selon ses propres critères avec des sous arborescences ... Je parle de "lien" et de "lier", si tu est un utilisateur "windows" c'est peut être une notion qui t'est inconnue. Par défaut Sirilic va copier les fichiers images que tu aura sélectionnés pour ton projet, depuis le répertoire où tu le stocke vers le répertoire de travail de siril (et ses sous arborescences). Pour gagner de la place (éviter de stocker les images en double) on peut demander à faire des liens à la place des copies, fonctionnalité native sur unix et macOS, fonctionnalité optionnelle sur certains windows (il faut bricoler, activer un mode développeur, etc...) L'interêt des liens c'est que l'on peut avoir dans plusieurs répertoires des "pointeurs" qui référencent un même fichier, avec un gain de place évident. De la même manière, Siril va créer plein de fichier temporaires au fur et a mesure du traitement des images (des fichiers fit), et on peut activer une option dans les préférences Sirilic pour lui demande de compresser ces fichiers intermédiaires (compression sans perte de qualité)
  9. keymlinux

    Question DOF

    Des infos sur Sirilic https://www.webastro.net/forums/forum/150-logiciel-sirilic/ Le site où le télécharger: https://astroslacholet.wordpress.com/2021/02/01/utilitaire-conv2siril/
  10. keymlinux

    Question DOF

    Oui, tu traites les lights de la première soirée avec les flats+offsets+dark de la première§re soirée, puis tu traites les lights de la deuxième soirée avec les flats de la deuxième soirée et les mêmes darks et offsets que la première soirée, puis tu assemble avec l'ensemble des images. Il est préférable d'utiliser les mêmes iso et temps de pose sur les 2 sessions. Il faut aussi faire attention a avoir un cadrage proche entre les 2 soirées, sinon tu vas devoir faire un crop limité à la partie commune aux 2 sessions et cela va réduire le champ couvert. Si tu utilises SIRIL pour traiter les images je t'invite à utiliser l'outil Sirilic qui facilite le traitement et qui gère très bien le multi-session.
  11. Bonjour, Sur le Canon 350d le port USB permet de télécharger les photos, mais pas de piloter l'APN depuis le PC. Donc pour pouvoir piloter la prise de vue depuis le PC tu utilises un cable permettante jouer avec la prise jack où l'on peut brancher un déclencheur souple ou télécomande filaire avec intervalomètre par exemple. En clair coté USB tu pilote cela comme un interrupteur et l'optocoupleur ouvre ou ferme le signal en conséquence tout en permettant une "étanchéité électrique" entre l'APN et le PC mon avis: refait les soudures et garde ton cable précieusement Sur les Canon plus recents le port USB permet aussi de piloter l'APN via l'outil Canon EOS Utility (on pet decjlencher mais aussi changer les réglages, télécharger les photos, voir avoir un preview en video... EDIT: peut être un peu hors sujet, mais si vous voulez tout savoir sur les prises disponible sur les Canon c'est ici http://jp79dsfr.free.fr/_Docs et infos/Photo Tech _ Connectique boitiers EOS.pdf
  12. Mon avis 1) pour l'ouverture de l'objectif, sauf cas particulier on cherche a capter le plus de lumière et donc à avoir le rapport f/d le plus petit si tu as le samyang135 f1.8 alors utilise le à 1.8, si c'est celui a f2 alors utilise le à f2 Par cas particulier j'entend que les objectifs photos donnent rarement leur qualité maximum à leur ouverture maximum, et il peut être bon de diafragmer un peu (exemple utiliser à f2 un objectif f1.8, ou utiliser à f2.8 un objectif à f2) Donc en clair on utilise l'objo à son ouverture permettant le meilleur piqué (mais la perception du piqué est subjective) 2) pour les ISO, il faut trouver quel est celui qui semble optimum pour un boitier APN donné, a savoir à partir de quel ISO la montée du bruit est jugée inacceptable. Un mode de calcul, tu prends des offsets a durée minimum en partant de 100 ISOs et en doublant les ISO à chaque pose, tu analyse les images sous SIRIL pour mesurer la montée du bruit. Dès que le doublement des ISOs fait plus que doubler le bruit tu as atteint la valeur jugée optimale 3) une fois que tu as l'ouverture optimale et que tu as l'iso optimal, tu fais varier le temps de pose Pour celui ci tu peux éventuellement appliquer la règle des 3 sigmas (l'idée étant d'augmenter la temps de pose pour augmenter le signal capté, sauf que le fond du ciel monte aussi, d'autant plus vite que tu as de la polution lumineuse sur ton site, avec le risque de noyer le signal, une pose trop longue est alors contre productive). Personnellement je n'applique (pas encore) cette règle des 3 sigmas (que je ne maitrise donc pas, je t'invite à chercher d'autres posts sur le sujet pour te faire une idée), j'en suis encore au stade où j'ai plein d'autres axes d'amélioration avant de m'occuper de ce genre de pinaillages 🙂 (je veux dire par là que pinailler sur les 3 sigmas si la MAP est dans les choux cela n'a pas de sens...) Cordialement
  13. Bonjour, @ch_porchetTu n'est pas obligé de les lancer un par un via l'onglet indi, tu peux le faire en une seule fois de deux manières différentes 1) en automatique: edite ton profil et vérifie que l'option "connexion automatique est cochée" 2) en manuel: une fois que tu as lancé indi avec le bouton en triangle (celui sur lequel est ton pointeur de souris sur ta capture d'ecran), tu peut utiliser le bouton "connecter' sur la même fenêtre totalement à droite (les boutons connecter/deconnecter seront dégrisés au lancement de INDI) Cordialement
  14. keymlinux

    Jupe en LYCRA

    Bonjour, Il y a quelques années j'ai fait une jupe en lycra pour mon Dobson Alkaid 10" Pour la couture, j'avais sous traité c'est ma tante qui a fait. L'important c'est de bien choisir le matos (aiguille a bout rond) et de faire la couture avec un point en zigzag (ou pint stretch) voir sujet :
  15. Si tu fait un "sync" alors du demande au focuser de ne pas bouger mais de considerer qu'il est désormais à la position absolue 0 (normalement position pour le PO totalement rentré) Si tu utilise "position absolue" alors tu demande un movement pour aller à une certaine position entre (0 PO rentré, potion max: PO totalement sorti) Si tu utilise "position relative" tu va demander un mouvement de x pas en plus ou en moins de la position actuelle selon que tu a choisi mettre au point vers l'intérieur ou vers l'extérieur: Exemple: ton min est la position 0, ton max la position 30000, et ta position actuelle 5000 Si tu fait un mouvement vers la position absolue 10000 alors ton PO va sortir de 5000 pas supplémentaires pour aller en position 10000 Ensuite si tu fait un mouvement relatif de 3000 pas "vers l'intérieur" alors ton PO va rentrer de 3000 pas et ta nouvelle position sera 7000 EDIT: en plus de la traduction du logiciel, @rmor51propose aussi une traduction de la documentation, voir le sujet ci dessous @rmor51il me semble que tans la traduction du logiciel tu as fait le (très bon) choix de ne pas traduire certains terme et de les remettre en anglais, comme "dark" qui était traduit par "sombre" ou "backslash" qui était traduit en "explosion", ce qui rendait incompréhensible certaines options. C'est ce genre de traduction à la c.. (pas les tiennes donc) qui me pousse parfois garder les logiciels en anglais... Bon je vous laisse, mon linux me dit qu'il a un problème de fourchette (cannot fork) c'est certainement en rapport avec l'heure de diner ? 😀
  16. J'ai une version Gimp 2.99.8 qui traine sur mon Mac, si tu a besoin d'un beta testeur je suis dispo...
  17. Moi perso, sur MacOS, malgré de nombreux tests et bidouillages, je n'ai pas réussi a faire fonctionner les scripts PyGAP en mode python-fu, je suis retourné aux anciennes versions de scripts qui fonctionnent, mais avec moins de fonctionnalité... Maintenant j'attend Gimp V3 avec un support python v3 natif... Voir discussion ci dessous
  18. Bonjour, Techniquement on ne pilote pas un arduino avec stars/ekos, il y a abus de langage... Tu veux construire un cap, je comprend que tu veux motoriser le bouchon pour la prise de dark, voire y joindre un éclairage pour faire des flat, donc en clair un flip-flat... Il y a deux approches: 1ere solution: tu construit ton matos en 3D, y ajoute un arduino, implémenter un "prolocole" pour envoyer des ordres via le port série de l'arduino, et tu développes un driver Indi pour Ekos/kstars. l'étape "driver" est à mon sens la plus délicate... 2eme solution: tu regardes quel matériel type flip-flat est géré en natif par un driver INDI existant, tu cherches le protocol série à implémenter, et tu le codes dans ton arduino. A mon sens c'est la solution la plus simple, j'ai fait la même chose pour implementer une roue a filtre 3D pilotée via port série (et via interface web en mettant un ESP à la place d'un arduino) Par exemple, Indi a un driver pour gérer un flip-flat de marque Optec, modèle Alnitak (voir ici https://www.indilib.org/aux/alnitak-flip-flat-flat-man.html) Sur ce flip-flat,le protocole série implémenté est décrit dans cette doc https://www.optecinc.com/astronomy/catalog/alnitak/resources/Alnitak_GenericCommandsR4.pdf Il n'y a plus qu'a implementer... Mon projet de roue a filtre motorisée, pilotable via kstars/ekos/indi, via le protocole d'une roue a filtre Quantum Cordialement
  19. Mon MacBook est en français (tout au moins mon compte utilisateur) Si je lance Kstars via le Launchpad ou le Finder il est en anglais, si le je lance via la ligne de commande il est en français...c'est subtil...
  20. Bonjour, Sur MacOS, il y a 2 destinations possibles pour les fichiers messages pour la localisation française : 1) /Applications/KStars.app/Contents/Resources/locale/fr/LC_MESSAGES/ 2) /users/<votre nom de user>/Library/Application Support/locale/fr/LC_MESSAGES/ Le fichier kstars.mo est dans la seconde destination, qui est spécifique à chaque utilisateur. Et attention, il y a un espace entre "Application" et "Support" note: je suis habitué a utiliser Kstars en anglais, et je viens de m'apercevoir que je n'arrive pas le configurer en français... (l'option existe mais le soft n'en tient pas compte) edit: je vais tester ton fichier de traduction sur le raspberry pi Cordialement
  21. Bonjour, les zones de défaut apparaissent au même endroit sur toutes les photos (voir ci dessous tes photos en fausse couleur via siril) Les brutes sont forcement différentes entre les 3 cibles, mais as tu fait des flat pour chaque cible ou bien as tu réutilisé les mêmes pour les 3 sessions ? (ce qui ne serait pas une bonne idée) Comme @Draseje penche pour un problème de flat Pour les effets de lignes surtout visibles sur M51 mais visibles aussi sur les autres si on cherche bien, je t'inviterais bien a faire du dithering pour éviter les effets de trame, mais sans conviction (perso je ne fais pas de dithering et j'ai pas de trame perceptible avec mon Canon 80d) Si tu as fait 3 lots de flats différents alors le problème serait peut être l'homogenéité de la source lumineuse (si tu utilise une tablette la matrice de pixels peut causer les effets de lignes perpendiculaires, et si le rétro éclairage de la dalle n'est pas homogène cela peut aussi causer les zones que l'on constate ci dessous (ici aussi je ne suis pas entièrement convaincu par mon idée, j'utilise une tablette comme source lumineuse et pas de problème de trame ni d'homogénéité lumineuse...)
  22. Bonjour, Si tu veux vraiment alimenter un PC toute une nuit alors qu'il fait froid, il n'y a pas de secret, il faut une batterie de grosse capacité. Le lithium c'est bien mais c'est cher. Le bon rapport capacité/prix est a mon sens une batterie de voiture (ou plutôt de camping car à décharge lente), mais son rapport capacité/masse n'est pas bon (a masse égale le lithium stocke plus d'énergie que le plomb !) Des idées pour bricoler une alimentation batterie avec des prises allume cigare et des fusibles, voir ici (et coté bricolage cela reste simple): Sinon, l'autre solution c'est de ne pas dépendre du PC en permanence, et de ne l'utiliser qu'occasionnellement lors de la nuit, au début pour faire les réglages et lancer la session de prise de vues, puis a quelques reprises dans la nuit pour contrôler. Cela implique d'utiliser un boitier tout fait style AsiAir ou Stellarmate, ou bien d'en faire un soi même avec un raspberry, un linux et kstars/ekos/indi. C'est alimenté en 5V (usb) , cela consomme peu, cela permet de gérer de manière autonome la monture, un focuser, la camera de guidage, la camera ou apn de prise de vue, de faire de l'astrométrie... Ma batterie est prévue pour pouvoir alimenter mon macbook toute la nuit, mais en fait le macbook je l'utilise au début de la nuit pour me connecter au raspberry, faire les réglages, lancer la session, ensuite le raspberry est autonome. Cordialement
  23. Astronomik (et peut être d'autres) propose désormais quelques filtres Clip pour EOS R (https://www.astronomik.com/en/clip-filter/clip-filter-fur-canon-eos-r-eos-rp.html). Ceci étant je ne suis pas fan du filtre Clip, autant utiliser un filtre 2 pouces sur le tube 2 pouces vissé dans le filetage T et que l'on introduit dans le porte oculaire Ceci étant je précisait bien de privilégier le Canon R pour un usage non dédié Astrophoto. Si on doit choisir quelque chose de dédié Astrophoto, alors soit on a un gros budget et on part sur une camera dédiée refroidie et a plutôt grand capteur (style ASI2600 en APS-C ou ASI6200 en full frame), soit on a un petit budget et on part sur un APN Canon avec un numéro à 3 ou 4 chiffres et on le fait de filtrer total. Prendre un APN Canon avec un numéro à 2 ou 1 chiffres ou un hybride, cela se justifie a mon sens si on a un gros budget mais surtout si on veut faire de la photo diurne en amateur éclairé voire expert et y ajouter un usage astrophoto. A titre perso, avant mon Canon 80D j'avais un 650D. Pour un usage principalement diurne (et occasionnellement astrophoto) je suis passé au 80D, si j'avais souhaité me concentrer sur l'astronomie j'aurais gardé le 650D en le faisant de filtrer. (et oui, je regrette de ne pas avoir gardé mon 650D comme APN dédié astro)
  24. Si l'écran est en panne c'est un problème, mais tu peux connecter l'APN 500D sur un ordi via USB et piloter la prise de vue depuis l'utilitaire EOS Utility. La version actuelle 3.9 gère les APN récents, pour les anciens APN comme le 50D il faudra la version 2.14 (qui est aussi installée avec le package de la 3.9). Ci joint la doc de EOS Utility version 2.14, je te laisse voir les possibilités. Par contre cela impose l'usage d'un ordinateur. eos-utility-2.14.pdf Personnellement j'ai un Canon 80D (usage photo diurne + astrophoto). A mon avis si on doit changer de reflex aujourd'hui il faut aller vers les hybrides et dont prendre un modèle R. Ceci s'entend pour un usage non dédié astro photo. et de toute façon si on veut dédier a un usage astro, à mon sens il vaut mieux passer sur une camera astro dédiée (et refroidie) Pour le reste, le 500D est un bon choix pour faire de l'astro. Cette la sensibilité d'un ancien capteur est moindre que sur un APN récent, mais 15millions de pixel c'est souvent mieux que 24 car les photosites sont plus gros et captent individuellement plus de lumière, et en astrophoto c'est vital. Donc mon conseil c'est de commencer avec le 500D piloté via EOS Utility sur un PC (si tu as un pc portable c'est plus pratique)
  25. Bon, vu que ton tube est un C8 Edge HD, le backfocus préconisé par le constructeur est connu et est de 133,35mm. voir ici: https://www.innovationsforesight.com/support/celestron-edgehd-back-focus-tolerance/ Si tu utilise le Canon 500D avec bague T2 (44mm +11mm de tirage) ou le Canon RP avec adaptateur EF-EOS-RP + bague T2 (20mm + 24mm + 11mm), dans les 2 cas tu aura déjà "consommé" 55mm de tirage, il faudra donc ajouter 133,35-55=78,35mm entre la bague T2 et le filetage SCT 2pouces en sortie du C8. A priori il existe un adaptateur dédié Celestron référence. 9484 Vu que le Canon RP n'est pas fourni en standard avec l'adaptateur et qu'il faut l'acheter en plus, je te conseille de tester d'abord avec le Canon 500D et si tout va bien tu pourra envisager l'acquisition de l'adaptateur. Autre considération: je ne sais pas si tu fait déjà de l'astrophoto avec un autre tube ou si tu vas commencer avec le C8. Commencer avec le C8 ou tout autre télescope a longue focale et avec un rapport focale/diamètre de 10 est compliqué.. Plus le rapport f/d est grand plus il faut poser longtemps (c'est comme avec les objectifs, à f2.8 c'est mieux pour les photos a basse lumière que à f8). Et plus il faut poser longtemps plus il faut avoir une monture qui assure un suivi précis, et les imprécisions de suivi sont plus problématiques à grande focale. En clair commencer l'astrophoto avec une petite lunette de 500mm de focale est plus facile qu'avec un newton de 1000mm de focale, qui lui même est plus facile (en terme de suivi) qu'un SC de 2000mm de focale. Pour réduire la focale (ou plutôt augmenter le champ couvert) et être moins sensible au défaut de suivi tu peux envisager l'utilisation du réducteur x0.7 qui te donnera une focale résultante de 1400mm (au lieu de 2000), un rapport f/d de 7 (au lieu de 10), mais pour le C8 EdgeHD le réducteur est spécifique et couteux... Ceci étant mon but n'est pas de te dissuader, bien au contraire, mon but est de te sensibiliser à la difficulté. De toute façon, le meilleur moyen c'est de s'y mettre et de tester. note: ce que j'ai noté ici sur les longues focales est vrai pour la photo longue pose des objets du ciel profond. Si tu fait du planétaire (y compris la lune) les objets sont lumineux et habituellement on fait de la video à forte cadence (faible temps de pose unitaire) donc la difficulté du suivi n'est pas le problème. Sur le site suivant tu va pouvoir simuler le champ couvert par ta photo selon la focale du tube; la taille du capteur de l'APN et l'usage ou pas d'un réducteur. Après il faut comparer le champ couvert avec la taille de l'objet que tu veux photographier. https://astronomy.tools/calculators/field_of_view/ Ci dessous la simulation pour le champ avec un C8+APN APS-C et C8+APN fullFrame, avec l'amas M13 dans le champ https://astronomy.tools/calculators/field_of_view/?fov[]=122||90||1|1|0&fov[]=122||14||1|1|0&messier=13 La même chose pour photographier M42, et là on voit que cela ne tiens pas dans le cadre... https://astronomy.tools/calculators/field_of_view/?fov[]=122||14||1|1|90&fov[]=122||90||1|1|90&messier=42 Avec un réducteur x0.7 c'est mieux (mais pas de beaucoup https://astronomy.tools/calculators/field_of_view/?fov[]=122||14||0.7|1|90&fov[]=122||90||0.7|1|90&messier=42 Pour la lune par contre, tu l'aura en entier avec un full frame, mais avec un APS-C seulement une partie (ce qui peut être bien aussi pour avoir des détails sur une zone particulière), mais tu peux faire plusieurs photos pour une mosaique https://astronomy.tools/calculators/field_of_view/?fov[]=122||90||1|1|0&fov[]=122||14||1|1|0&solar_system=moon Je te laisse simuler d'autres combinaisons... Cordialement
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.