Aller au contenu

CCD1024

Membre
  • Compteur de contenus

    1 584
  • Inscription

  • Dernière visite

  • Jours gagnés

    4

Tout ce qui a été posté par CCD1024

  1. Oui sauf que tu auras toujours le problème de la MAP dans le rouge ou proche infrarouge qui est décalée par rapport au bleu de au vert (chromatisme des lunettes et objectifs photos).
  2. Le capteur est conçu par FUJIFILM et "serait" fabriqué apparemment par Samsung (et non plus Sony) C'est donc un CMOS BSI X-Trans APS-C de 40Mp X-trans c'est la façon de concevoir une matrice spécifique (différente de celle de Bayer) donnant l'avantage aux pixels verts. Je ne pense pas qu'une version monochrome verra le jour... Le dématriçage est plus compliqué (mais l'algorithme existe dans les logiciels de prétraitement dignes de ce nom)
  3. Hello Il y a 3 problèmes 1) les coatings des lentilles des objectifs photo sont souvent limités en longueur d'onde typiquement 400-700nm 2) la MAP dans le proche IR est différente du visible. Donc des halo rouges autour des étoiles vont apparaitre lorsque tu auras la MAP dans le visible. 3) s'il n'y pas plus de filtre, la MAP est décalée dans le mauvais sens et il sera impossible de la faire à l'infini. Il faut donc refiltrer avec un filtre clair de la même épaisseur que celui que tu retires. Mais il y a une solution : tu défiltres complètement et tu ajoutes des filtres clipsés (si le boitier est compatible). Un filtre UV-VIS, puis un filtre NIR si tu veux faire du paysage infrarouge par exemple, un autre filtre narrowband.
  4. Bah je ne suis pas vraiment d'accord... Pourquoi fait-on du narrowband (et dualband) ? - Pour sortir les nébuleuses du continuum et donc avoir un meilleur rapport S/B - Pour pouvoir imager en ciel pollué Si tu ajoutes une luminance, tu choppes tout le signal du fond de ciel, et vraiment TOUT car tu es en luminance, donc adieu le rapport S/B pour le Ha et le OIII. Le OIII étant souvent assez faible en, il sera noyé dans la luminance... Bref, tu ne peux pas avoir le S/B du narrowband avec une luminance (qui aura un bon rapport S/B mais avec tout le spectre et toute la pollution). Va extraire du OIII la-dedans... J'ai la chance d'avoir pas mal d'images LSHORGB du fait de nos setup au Chili et il est donc possible de faire pas mal de tests puisque parfois on shoote un objet avec les 7 filtres... Meme sous un beau ciel, le LRGB ne rivalise pas avec le narrowband. Mais tu peux essayer...
  5. Alors un filtre LPS (style L-Pro, IDAS LPS,...) sera surement plus approprié. L'IR c'est pas mal pour les galaxies. Je ne suis pas sur qu'il soit "à tout faire". Il bouffe quand-meme pas mal de zones importantes pour le respect des couleurs et la sensibilité. Peut-être qu'en ciel pollué, il est plus ou moins efficace qu'un filtre LPS optimisé mais dans ces cas là (ciel très pollué), pas de miracle, il n'y a que les DualBand (étroits) qui vont bien fonctionner. Le IDAS me semble bien plus intéressant mais aura aussi ses limites comme j'ai expliqué plus haut. A voir les 1ers retours de ces 2 filtres. C'est toujours intéressant de voir qu'il y ait souvent des nouveautés en filtres spécifiques.
  6. Je pense que ce n'est pas fait pour être vraiment comparables Le IDAS semble plus bien intéressant : 1) faire une luminance dans l'IR proche est vraiment une bonne idée car la turbulence se fait moins sentir et c'est là où certains filtres (matrice de bayer) des capteurs couleurs commencent à être transparents donc N&B, et le ciel a moins de pollution lumineuse dans le NIR. 2) le problème de cette luminance dans le proche infrarouge nécessite que le capteur couleur soit défiltré (eh oui !!! ) ce qui posera un problème pour des grands capteurs style IMX571, 410, 455... car ils ont des filtres qui coupent après 700nm de mémoire 3) la couleur en Ha et OIII va éclairer respectivement les pixels rouges (Ha) puis les verts et bleus (OIII), MAIS aussi chacun des pixels sera mixés avec la luminance NIR. C'est plutot pas mal. Le Antlia a un peu moins d'intérêt... Un RGB plus étroit, rien de bien exceptionnel A la limite je préfèrerais un bon filtre anti pollution comme certains IDAS (LPS-D1 D2, D3 D4 je ne sais plus où ils en sont)
  7. Il faut avoir à l'esprit qu'une caméra couleur ou un APN restent des compromis en astrophoto. Tout sera meilleur en caméra mono et c'est assez simple à démontrer. Mais l'arrivée des capteurs CMOS couleurs de dernière génération vont quand-même améliorer les choses. Aussi, en nomade "couleur", il ne faut pas être gourmand en pixels : J'ai eu une ASI6200MC puis une ASI2400MC : theorie et pratique m'ont permis de voir que sur le même instruments, la 2400MC est 2.5x plus sensible que la 6200MC et ceci uniquement grâce à la surface de chaque pixel (5.94µm vs 3.76µm). Déjà c'est un point à ne pas négliger. Une remise à l'échelle en post-traitement (passer de 61Mp à 24Mp) ne redonnera pas le même S/B. Pour ton idée de dualband sur un capteur mon et un Ha derrière, non, ça ne peut pas être meilleur (ni pareil) que lu Ha et du OIII indépendants. "Dualband - Ha" ne donne pas OIII car les temps de pose sont différents (9h dual + 1h Ha ) donc tu ne supprimeras jamais le Ha du dualband (L) même en y appliquant un coefficient 8 ou 9. Et d'ailleurs, quel intérêt ? Puisque tu fais obligatoirement mieux en 5h Ha + 5h OIII. Après, tu peux bidouiller du synthétique mais ce n'est pas ouf. En narrowband, le OIII est bien plus sensible à la pollution lumineuse que le Ha (au Chili, ciel d'excellente qualité) on ne fait que du Ha les jours autour de la pleine lune. Le reste (OIII, SII, L, R, G, B ) c'est 1 semaine avant et après. En France, c'est encore pire car la lumière de la lune diffuse encore plus dans le ciel et encore plus dans le bleu et vert que le rouge. Pour le traitement, il y a des techniques simples pour booster le signal OIII en fonction du Ha (sous pix, ça se fait en 1 équation "pixelmath")
  8. Je rejoins une partie de ce qui a été dit plus haut. Si une caméra monochrome va de toute façon être plus sensible, il y a maintenant des avantages aux caméras couleurs, surtout lorsqu'on est en nomade. A moins d'habiter dans une région où il fait beau tout le temps ou d'avoir son matériel en fixe sous abris, il faut avoir à l'esprit du temps consacré à faire une image. Si la couleur RGB ou le monochrome R+G+B + éventuellement L va rester facile sur les 2 capteurs, la différence commence à se creuser pour le narrowband. En mono, il est facile de faire du SHO mais cela prendra pas mal de temps pour avoir un bon S/B surtout en OIII et SII. En caméra couleur, il existe des filtres dualband (tri et quad) et de toute façon on ne peut séparer que 2 composantes (le rouge (Ha, SII) et le bleu vert (OIII, Hbeta) ) avec effectivement le risque du problème de chromatisme qui peut vraiment se voir en dualband. La cam mono c'est aussi une roue à filtres, un focuseur où la MAP devrait être refaite à chaque filtre (meme parafocaux) pour corriger le chromatisme. Tout peut être automatisé par des logiciels come NINA ou bien entendu un boitier ASIAIR qui va tout gérer. Moi j'ai fait la démarche inverse pour le nomade (puisque j'ai aussi un setup en remote à l'autre bout du monde), c'est le retour à l'APN et objectifs très ouverts (donc courte focale max 135mm) qui va limiter mes possibilités mais dont je sais que mon capteur APN du Sigma fp est 2x plus sensible que celui que l'avais dans l'ASI2400MC (pourtant le meme capteur, et refroidi de surcroit). Le choix technique n'est absolument pas fait au hasard, bien au contraire. Et le plaisir est aussi là. Je réfléchis même à un autre setup nomade encore plus optimisé "narrowband" mais l'étude de la faisabilité est en cours.
  9. Helas, le 600D a un peu plus de bruit de lecture que le K-S2 https://www.photonstophotos.net/Charts/RN_e.htm#Canon EOS 600D_14,Pentax K-S2_12 Donc, 18Mp (600D) contre 20Mp (K-S2), le canon rattrapera un peu de sensibilité mais tu n'auras pas vraiment mieux. Après, tu peux faire défiltrer le 600D et il y aura un plus. Mais, par exemple, on peut trouver en occase des Canon 6D défiltrés pour 700€ (environ) et là, il y aura une belle différence en qualité.
  10. Je suppose que la nouvelle version de Siril a pas mal de fonctionnalités pour le traitement des images (notamment l'algorithme GHS pour "développer" l'image). Donc tu peux faire pas mal d'étapes avant de passer sur PS pour d'éventuelles finitions. Alors, hélas, Siril ne peut pas incorporer les nouveaux incontournables algorithmes "Xterminator" (StarX, NoiseX, BlurX et probablement bientot un nouveau "X" très attendu) qui sont actuellement les meilleurs outils mais uniquement dispo sous Pixinsight (et PS pour NoiseX et StarX) mais Siril a des alternatives (comme la réduction de bruit, la déconvolution, et Starnet++ d'intégré.
  11. Du coup on retraite les images qui nous plaisaient un peu moins 😅 Et nos méthodes de traitement ont aussi pas mal changé dernièrement donc on met tout cela à profit…
  12. J’essaye aussi ce process depuis quelques jours sur les images de notre CDK600 au Chili et aussi sur mes photos APN nomades. ici un crop 100% à 4m de focale. Et en haut, c’est juste l’assemblage SHO sans traitement supplémentaire (chaque couche S, H, O est passée sous blurx En APN avec objectif, c’est bien plus hard et il faut laisser les curseurs proches de zéro sous peine d’avoir des étoiles de 1 pixel !!! Bref, vive pixinsight 😅🙈
  13. Salut Yann tu te mets (enfin) au numérique 😁😁😁 Nicolas BIVER fait de bonnes photos avec un Sony A7s sur ton Dobson 400mm f/4 en poses assez courtes. C'est peut-être une solution à envisager mais ça peut dépasser ton budget (même en occase). Mais ça fait le job grâce à ses gros pixels. Ne t'aventure pas dans des caméras avec des pixels de 3-4µm, t'auras jamais rien de net sans tracking, sans compter l'ordinateur sur le terrain Après, avec ta monture et le 150, pourquoi pas... Mais je resterais aussi sur de l'APN. a+ philippe
  14. Merci pour ton retour J'ai testé avec une belle nébuleuse SHORGB à 4m de focale depuis le Chili (900 à 1000 images) avec WBPP et APP. Je vais refaire avec WBPP en mode full et comparer.
  15. Je ne peux qu'approuver ! Ce boitier est tellement parfait... Les dark sont parfaits, les flats aussi Les images (empilées) ont une telle latitude de traitement... J'adore ce boitier ! il est défiltré L2 par Riton J'ai aussi le fp-L (aussi parfait)
  16. Utilisant aussi bien APP que Pixinsight depuis de nombreuses années je suis surpris de tant d'écarts - Depuis plus de 2 ans, nous prétraitons en double nos images du Chili (CCD mono 4k * 4k puis maintenant CMOS mono 4k x 4k) avec nos méthodes optimisées et souvent on trouve un certain avantage pour APP (mais c'est pas le jour et la nuit) - J'ai aussi fait pas mal de tests en APN et caméras couleurs (en mode bayer-drizzle) et là aussi une petite préférence pour APP (et pourtant je suis un fana de Pixinsight depuis la version 1.0 LE Comme le dit Nico, il faut faire attention avec WBPP est ses nouvelles options (que je désactive) de tri d'images sur la qualité car au final il pourrait te jeter pas mal d'images et ne garder que les meilleures (d'ou tes étoiles plus faibles en FWHM mais aussi ta perte en S/B). Tu peux d'ailleurs indiquer à APP d'empiler en sélectionnant les meilleures FWHM mais là aussi, au risque d'une perte de S/B. Donc attention aux conclusions hâtives... Chaque logiciel a ses propres paramètres et il est facile de faire tout et n'importe quoi lorsqu'on ne fait pas gaffe à certains d'entre eux. Pixinsight est devenu une usine à gaz et si on coche toutes les étapes de WBPP, alors on triple le temps de calcul et au final c'est pas forcément le meilleur résultat qui est affiché.
  17. Oui tu as tout à fait raison, Dans ma tete j'étais entre IMX410 et IMX455 (ou dérivés APSC) car j'ai eu les 2 sur le meme setup et j'avais mesuré.
  18. Non, surtout pas (encore moins pour le remplacer par un APS-C) Le capteur du A7III est excellent (IMX410) avec ses 24 Mpixels de 5.94µm Si tu remplaces par un APS-C de 20-26Mp tu seras moins sensible, déjà parce que les pixels seront plus petits (donc moins de lumière avec la même optique) et accessoirement parce que Canon emploie très peu la techno BSI pour ses CMOS. Si tu cherches le minimum de problème, la sensibilité, et que tu acceptes de sacrifier un peu les étoiles en bord de champs selon les optiques. Mais les gros pixels te permettent aussi de gommer un peu les défauts de certaines optiques. Un pixel de 6µm sera 2.5x plus sensible qu'un pixel de 3.76µm sur la même optique (bien entendu). En nomade, c'est loin d'être négligeable. Perso, je suis en 24x36 depuis de nombreuses années, aussi bien en photo astro qu'en photo traditionnelle. Et j'aime bien le IMX410. Le A7III est sympa en astro, je l'ai eu et fait défiltrer "astrodon".
  19. Oui je n'utilise plus que cet algo depuis quelques mois. C'est vraiment top (mais attention il y a quand-même pas mal de réglages à connaitre)
  20. Ca vient de sortir en process (bien plus rapide) : Ajoute simplement cette adresse dans "les repositories" : https://www.ghsastro.co.uk/updates/ explications des repositories sur mon site : http://www.astro-photographie.fr/pixinsight_repositories.html ah oui, très bien !!! nickel
  21. Pour le prétraitement, vu sa facilité et son résultat, j'utilise maintenant AstroPixel Porcessor au lieu de Pixinsight. Par contre, j'ai une grosse question sous Siril, car aucun des ses utilisateurs que je connais n'a pu me répondre car je leur reprochais de faire des stack SHORGB séparément et de réaligner à la fin les stack les unes avec les autres (ce qui va entrainer une dégradation de FWHM et rééchantillonnage ou interpolation d'alignement) !!! Aussi bien sous Pixinsight et encore mieux sous APP, on mets toutes les images SHORGB et elles se retrouvent alignées par une référence unique. De ce fait, tous les stacks sortent alignées. Je suppose que SIRIL sait faire ça !!!?? Pour la gratuité ou refuser d'acheter un logiciel, je ne m'étendrais pas sur le débat. Chacun voit midi à sa porte mais c'est vrai que beaucoup veulent défendre leur bout de gras en voulant prouver je ne sais pas quoi (ou défendre le soft, comme s'il y avait une compétition qu'à la fin 1 seul ne resterait). Perso si un soft fait le job que je souhaite, qu'il soit gratuit, libre ou payant, je m'en fout. Du moment qu'il fasse le job (sans emmerde). A la limite, c'est encore pire en photos avec les nombreuses licences (PS, DXO,... ) Après, quand on est habitué à un soft depuis de nombreuses années (par exemple j'utilise Pix et APP depuis leurs 1eres moutures), il n'est pas forcément évident de switcher vers autre chose qui va donner à peu près les mêmes résultats. Siril a repris pas mal des algo de pixinsight (en gardant les mêmes noms) ou d'autres softs. Mais comme c'est purement mathématique, ce n'est pas un problème. Mon seul point noir est l'absence du "bayer-drizzle" sur Siril et cette gestion des fichiers temporaires de préparation des stack). Question traitement, je n'ai pas testé Siril. Mais l'arrivée de nombreux scripts et process sous Pix (comme le superbe "Generalized Hyperbolic Stretch" ) facilite grandement la vie.
  22. Dans le monde des intégrations OEM de caméras, tu vas prendre le même capteur, tu mets 2 résolutions différentes par firmware et tu mets des prix différents en fonction de la résolution (sachant qu'à la base, le cout de la caméra est le même). Tu peux aussi brider certaines performances (vitesse, temps du rolling shutter) lorsque tu fabriques le modèle cropé. C'est tout simplement stratégique pour positionner un modèle de caméra en face de certains applications ou limitations (champ d'un microscope par exemple). Ca se fait depuis longtemps ce genre de choses...
  23. Ce serait plutot du Sony 3.76um Avec des modes de binning. Sur certaines caméras, les résolutions sont cropées (par firmware). C'est classique.
  24. Perso, quand je veux comparer des stacks, je vais prendre quelques régions d'intérêt ou il y a fond de ciel et objet très faible (et étoiles) et aussi une zone lumineuse près du fond de ciel. Je vais déjà comparer visuellement les différences (surtout les faibles niveaux, les petites étoiles... et aussi regarder les forts niveaux. Si je veux faire le calcul, je vais prendre la valeur du bruit dans le fond de ciel et l'intensité moyenne d'une petite zone plus éclairée. Et j'en ferai le ratio. Et ce, sur plusieurs régions. Le S/B global ne sert à rien. Mais il faut aussi avoir à l'esprit que le drizzle va apporter plus de bruit et pareil pour le bayer-drizzle. Et en changeant des coefficients on peut lisser le bruit ou au contraire avoir un résultat plus net (mais plus bruité) Donc, il faut comparer ce qui est comparable et être sur que TOUS les paramètres sont identiques dans tous les logiciels ce qui est pratiquement impossible puisque les algorithmes d'empilement et réjections les plus optimisés sont différents entre les logiciels C'est pour ça que je me garderais de dire (comme certains sur des forums ou FB) que tel soft est le meilleur car dans 100% des cas, ils ne connaissent pas les logiciels (ou 1 sur les 3 ou 4) et appliquent des paramètres par défaut ce qui ne sert absolument à rien (ou à se rassurer qu'ils utilisent le bon soft, l'autosatisfaction, ça marche bien)
  25. Oui, mais bon, il était hors catégorie... Ah !!! c'est une bonne nouvelle ! J'espère qu'il sera plus convivial aussi car je n'arrive pas à m'y faire (désolé)
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.