Jump to content

Cyrille Thieullet

Membre
  • Content Count

    111
  • Joined

  • Last visited

About Cyrille Thieullet

  • Rank
    Membre

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. @Drase J'avais ce pb et j'avais saisi un case chez eux. La réponse que j'avais eu: "Check the Advanced Preferences in DeNoise AI. Try changing the GPU settings there and then try using the software again. " Après avoir fait ca, j'avais fermé le logiciel et relancé et ca avait fonctionné. Le pb est revenu une fois je crois. Il n'y a pas toujours besoin d'avoir une information pour "savoir" qu'elle existe et quelle est là ou devrait être là. Les trous noir par exemple. Quand notre oeil regarde derrière une grille. Quand nous regardons un film à 24 images secondes et que nous fabriquons le mouvement alors que les images sont statiques. Une information peut être déduite de son contexte : un faisceau d'indices, de preuves, quand je donne le mot que mon interlocuteur à sur le bout de la langue, etc... il y a aussi des informations qui au milieu d'un contexte sont des "annomalies" pour nous. Exemple les pixels chauds, les trainées d'avions, satellites, le blooming, etc. Une animal qui courre dans un champ pour notre oeil. Enfin, parfois nous avons l'information exacte et nous n'en voulons pas. Un comble pour certains ! Nous accentuons le contexte par rapport à une information unitaire. Par exemple la réduction des étoiles, le binning. Ou quand je me mets la tête dans le sac plutôt que d'écouter le conseil de mon vieux 🙂 A propos de denoise et de son fonctionnement : L'IA de denoise est "morte", figée. L'apprentissage est terminé et il n'évolue pas au fil du temps. Ce type d'algo a été utilisé un jour pour déterminer l'âge d'une personne. L'apprentissage a consisté à donner en entrée de milliers de visages avec l'âge exact associé. A la fin le programme donnait une estimation de l'âge d'une personne sur la base de sa photo avec une très bonne précision. Les concepteurs ont cherché sur quoi se basait le programme. Ils ne comprenaient pas... Il avait l'air "intelligent". J'imagine qu'ils ont été fiers ! Mais ils ont eu un doute 🙂 Ils ont rejoué l'apprenstissage en masquant différentes partie des visages jusqu'à ce que les estimations soient farfelues. Et ils ont trouvé que l'IA se basait sur la longueur du lobe de l'oreiile. L'apprentissage du programme a convergé vers cet unique critère comme le plus discriminant. Aucun humain n'utilisera la longueur du lobe de l'oreille pour estimer l'âge d'une personne. C'est débile pour nous. Pas pour le programme. Aussi le sens du mot artificiel est important à comprendre. En donnant un millions d'images de tous types avant / après, le programme denoise est devenu une espèce de boite à outils avec tout un tas de stratégies de calcul qui sont redéclenchées selon ce qui lui est donné en entrée. Comme si c'etait un énorme programme qui avait abouti à d'innombrables if xxx then ooo endif pour chacun de ses "neuronnes" artificiel. @ursus le dit très bien : le jeu de données en entrée peu refléter un biais cognitif des humains qui l'on conçu... Et donner n'importe quoi s'il traite des informations sans rapport avec son apprentissage. Un test : donner à denoise une musique bricoléé en jpeg et ecouter le résulat. C'est con une IA : le programme ne sait pas le sujet qu'il traite. une image d'hubble c'est au même niveau qu'une image d'une plage ou d'un pot de fleur. Pour le programme, une image n'est qu'un agglomérat de paquets de pixels. Et il appliquera sa librairie de calculs pour des agglomérats de paquets de pixels. Sur sa base statistique, le programme peut calculer une estimation pour une information manquante en fonction d'un contexte. Parce que statistiquement lors de son appentissage, ce calcul donnait le résultat le plus proche des cibles qu'il avait eu en référence. Ainsi il y a proposition d'une information apparamment absente. Comme notre oeil qui reconstruit une image d'un mouvement. Ou qui redresse ce que nous voyons à l'envers constament.... Les sens n'importe pas. Pour le programme n'est que des paquets de pixels. Il faut rester au niveau de stupidité de l'algorithme et ne pas y ajouter un sens intelligent humain et interpreter. Comme pour le lobe d'oreille avec une image d'une personne d'origine Asiatique ou Européenne. L'algo s'en fout du pays d'origine. Nous peut être pas.... Si l'apprentissage est suffisament varié, la probailité que ce soit pertinent est élévée. C'est comme cela que l'accentuation des détails est fait. D'où les x2, x4. Au delà c'est du marketing. C'est pour cela aussi que Denoise accentue les artefacts des décorrélations et autres traitements, fait des filaments bien moches. Que quand deux étoiles sont proches si le curseur est trop fort, il va les joindre pour combler le trou entre les deux. C'est ce qu'il a appris. Le programme est con et refait sans refléchir au sens de m'image. C'est un programme. Vraiment artificielle comme intelligence... C'est pour cela aussi que le Topaz conseille de faire le traitement sur l'image avant post-traitement. Car l'outil est fait pour traiter des images déjà exposé correctement issue d'un apn. Ce qui dans notre cas n'a aucun sens sur les bruts classique... Denoise va donc accentuer les artefacts de l'empilement. Obligatoirement. Enfin, il est aussi possible d'ignorer une information si le contexte indique que c'est une anomalie et de le remplacer par une moyenne alentour. Denoise réduit les étoiles en même temps que le bruit... Nous faisons des réductions d'étoile pour palier au seeing, le suivi bof bof de notre monture, le piquet de notre instrument, bref leurrons gaiment aussi... Plus l'utilisateur pousse les curseurs et plus le programme abaisse sont seuil de décision. Et il va produire des artefacts. C'est le pixel size trop élevé d'une déconvolution par exemple Tous les algos font ça. Denoise y compris. Mais malgré toutes ces limites, il y a des résultats. Libre à chacun d'utiliser ou pas. Avez-vous testé un denoise sur une image de hubble ? Aussi c'est ex nihilo d'un certain point de vue car c'est impossible de comprendre pourquoi le programme fait tel type de calcul à tel endroit de l'image. Ca semble magique et peut paraitre arbitraire dans notre logique. C'est vrai d'un certain point de vue. Et en plus le résultat est beau. (ils ont sans doute amélioré "un peu" les images cibles pour que ce soit sexy et vendeur...faisons leur confiance) Ca c'est louche... Plus beau que ce que l'on pense être capable de faire par soit même ? Là c'est pas normal et il y a triche ! :-)))) C'est aussi vrai d'un autre point de vue. Et en même temps, IA ou pas. Il y a eu un calcul, une probailité, une corrélation, etc.. A la fin une décision par rapport à un seuil (notre curseur) Même paramètres, même données, = mêmes résultats. L'informatique à base de silicium c'est déterministe. Et de ce point de vue c'est le contraire de ex nihilo. Cyrille
  2. Bonsoir, @Drase Il faut activer ou desactiver l'accélération graphique. C'est un bug au niveau des préférences. @xs_man Je trouve que c'est un poil excessif 😄 Le principe d'une intelligence artificielle est d'utiliser un réseau de neuronne programmé qui "mime" le fonctionnement des neuronnes humains. En particulier, ces réseaux ont la vocation d'apprendre par "eux même" (enfin faut les aider...) à résoudre un problème. Pour ce faire, il font des excercies. Comme à l'école. Et le programme apprend et ajuste à chaque fois ses paramètres (il peut en avoir des milliers). Par exemple : Lui montrer une image de départ et l'image d'arrivée. Lui faire varier ses paramètres, mettre l'image de départ en entré et comparer son résultat avec l'image d'arrivée. Est ce que cela se rapporche ? Oui il garde/renforce la modif que faite, et tant qu'il gagne il joue 🙂 Non il fait une autre modification. En travaillat de manière itérative, le programme va ajuster ses paramètres pour converger vers une solution. Plusieurs solution sont possibles. Souvent c'est une descente de gradient qui est faite. Aussi les IA aussi descendent les gradients pour y voir plus clair en faisant un nombre d'itération astronomique 😉 La solution sera le résultat de son apprentissage. Dans le cas de topaz, c'est statique, passif, bête et méchant. L'algo est très con tout en étant "expert" sur un sujet. Comme quelqu'un qui ferait à chaque fois : un masque tellement précis qu'il ne ferait la déconvolution que sur les détails. au pixel près. et un autre masque tellement précis qu'il ne ferait la réduction de bruit que sur les applats. au pixel près. Donc faire à la main ce que ce fait cet algo est possible. Mais ca va prendre plus de 5mn. Et certains le font. Dans le cas de denoise, j'imagine qu'il lui ont fait ingurgiter un million d'images prise avec du bruit et sans bruit. Le programme avait le résultat et le départ. Durant l'apprentissage, ses paramètres ont convergés vers un lissage des zonne bruités sans détail et une accentuation des zones avec du détails. Ca c'est nouveaux de pouvoir faire les deux à la fois en un traitement, sans faire des masques, des processus différents et une fusion. De mon point vue, le résultat est une image qui a eu un traitement. Ni plus ni moins. C'est l'algorithme qui simule artificiellement une "intelligence". Le résultat de son calcul est basé sur des données réelle. Comme toute image qui a eu un traitement type décovolution/bruit/accentuation. Il peut avoir les même problème : des artéfacts. Parfaitement de synthèse et artificiel eux 😉 D'ailleur comment devrait t'on appeller nos images astro quand nous regardons la tronche de nos bruts de départ ? Du bricolage artitistique ? Une synthèse : "réunion en un tout cohérent, structuré et homogène de divers éléments" 😉 Autre ? 😉 Après l'IA c'est comme un couteau. Et là il est aussi possible d'être pour ou contre. Ca sert à beurrer les tartinnes et à assasiner aussi... Et pourtant beaucoup de personnes ont des couteaux chez elles, s'en servent, sans pour autant être des assasins. C'est pas l'IA qui est dangereux, c'est la personne qui va en tirer un bénéfice au dépend d'autres. Cyrille
  3. Merci pour le tuto ! Je le trouve très bien fait. Cyrille
  4. Je comprends ton point de vue. Tout est question de compromis. Le 7S a un palier à 2000 iso. Faire une série à 800 ou 1600 iso sur un 7s n'a pas trop de sens. Et à 2000 iso, ou 3200, oui il vaut mieux fermer un peu si le ciel est vraiment pourri. Je fais pareil. 🙂 Avec un 6D je ferai autrement et plutôt à 800 iso. D'ou l'utilisation de F2 plutôt que F4 pour compenser la baisse en iso. Mais ça reste théorique. Je n'ai qu'un 550d comme référence chez canon. Et j'utilisais 400 iso max à ce moment là. Dans les lectures que j'avais eu avant de choisir un 7S, j'avais retenu que 800 iso était le consensus pour le 6D. Avec des pose de 1mn à plus si affinité. Fransisco fera ses tests 🙂
  5. @Colmic : si si, contrairement à beaucoup, sur celui là c'est une bonne idée ;-) Sur cet objectif, à F4 le gain en résolution est faible de l'ordre de 3% (47.6 au lieu de 46 ligne/mm). Y compris en full frame dans les coins comme sur le 6D. https://www.lenstip.com/442.4-Lens_review-Samyang_135_mm_f_2.0_ED_UMC_Image_resolution.html A F5.6 c'est même moins bon qu'a F2. La correction de coma est très bonne à F2. Pas besoin de fermer non plus pour avoir des étoiles rondes dans les coins. https://www.lenstip.com/442.7-Lens_review-Samyang_135_mm_f_2.0_ED_UMC_Coma__astigmatism_and_bokeh.html L'objectif est de plus APO. Mieux corrigé à F2 qu'a F4. https://www.lenstip.com/442.5-Lens_review-Samyang_135_mm_f_2.0_ED_UMC_Chromatic_and_spherical_aberration.html Enfin, les pixels du 6D sont bien gros pour cet objectif et sa résolution de competition à F2. D'où le conseil à d'ouvrir à F2.
  6. Merci 🙂 Oui j'ai eu du bol, des trouées bien placées entre deux dépressions. J'ai eu 30% des images qui ont eu des nuages.
  7. Ratio bruit/lumière : Commence par t'offrir le livre de Thierry Legault 😉. Puis apprends le par coeur ou presque 🙂 Tout est dedans. https://livre.fnac.com/a11076155/Thierry-Legault-Astrophotographie Non pas blanchi. Quand tu vas emplier les images tu va ajouter du signal sur chaque pixel. Si c'est blanchi au départ à la fin ce sera blanc. Et c'est perdu. Un exemple de brute à 2000 iso, 30s de pose à F2.8. L'image finale après empilement de plusieurs centaines de poses de 30s comme celle ci : https://www.astrobin.com/full/im8xdq/0/?real=&mod= Lit ce livre fabuleux, fait tes essais 🙂 et tu vas apprendre plein de choses.
  8. Merci :-) Super photo aussi ! Tu as quoi comme setup ? Oui j'ai bien "bricolé" les étoiles. C'est pas tant celles de la Rosette que j'ai voulu réduire que celles autour pour faire ressortir les nébuleuses. J'ai du les réduire deux fois et les fusionner à 85%. Bref... Avec un peu plus. Qu'en dis tu ? ;-)
  9. Non car pour éviter cela tu vas baisser tes Iso autant que nécessaire par rapport à ta durée de pose et comme cela tu auras un meilleurs rapport signal/bruit grâce à tes poses plus longues. Ce sera tout bénef ;-)
  10. Bonjour Fransisco, Oui tu as raison sur ta photo complétement blanche tu as perdu des données. Ton image est sur exposée. Elle est "cuite" Donc pose trop longue ou iso trop elevés. Comme ton but est de faire des poses plus longues, tu dois baisser en iso. Pour ton 6D, il y a un site qui peut d'aider pour trouver l'iso "idéal" : http://www.photonstophotos.net/Charts/RN_ADU.htm Tu constateras pour ton 6D, à 6400, cela double le bruit de lecture (valeur en DN pas en log ;-)) par rapport à 1600 qui est lui même à peu plus que 800. Après tu as un objectif très lumineux. Ceux qui te conseillent 6400 ont peu être des instruments ouvertes à F6 ou sont dans des zones où le ciel est très noir. Cette valeur est bien trop élevée. Au vues de tes photos, je te conseillerai de faire des tests aussi à 800 et F2. Tu auras aussi à trouver la durée maximale que tu es en mesure de faire avec ta monture (étoiles ponctuelles). Cela dépendra de la précision de ta mise en station, de ton équilibrage. Ton samyang est excellent même à F2. Aussi ouvre à F2 😉 Et quand tu auras trouvé les réglages qui te conviennent (F2, 800iso, 80s-90s ?) , force toi à faire des sessions d'au moins une heure sur tes objets. A F2 c'est comme si tu faisais 4h de pose à F4... Profites en! Ta technique pour faire la mise au point est à améliorer. Tes images sont floues Pas facile sur le 6D car l'écran n'est pas orientable. Il est possible d'installer une application pour son mobile qui permet d'avoir une cnx wifi avec to 6D. Elles permettent d'utiliser le wifi et de zoomer pour faire la mise au point sans te tordre le cou. Personnellement j'utilise qDslrDashboard qui a une fonction zom x200 avec en plus un x3 au centre. Sur une étoile brillante ou sur un cible à l'infini de jour la mise au point devient facile. Il y a aussi un masque de bahtinov à ajouter devant ton objectif qui peut t'aider encore plus. Un dernier aspect important : la bague de mise au point de ton samyang est peut être un peu souple et elle peut bouger. C'est fréquent sur les objectifs manuels. Dans ce cas je te conseille d'installer cela en plus : http://www.astrokraken.fr/samyang-rokinon-135-f-2-bracket-for-astrophotography-a145105158 En version plus simple et moins couteuse: http://www.astrokraken.fr/micro-focuser-with-hinged-rings-for-dslr-telephoto-lens-a145773206 Comme cela ta mise au point ne bougera plus et sera précise ... même si tu fais la mise au point de jour 😉 Cyrille
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.