Aller au contenu

Pouvez vous validez mes calculs ??


Didou

Messages recommandés

Bonjour,

Je voudrais savoir si je me goure.

 

J'image avec un SW 150/750 et canon 1000D.

 

Pour avoir mon objectif d'autoguidage je dois donc connaitre l'échantillonnage de l'ensemble :

 

Canon 1000D :

Taille capteur = 22.2 mm * 14.8 mm pour 3888*2592

Ce qui nous fait un pixel à 22,2/3888=5,71 um

 

On a donc :

e= 206*P/F

e=206*5,71/750 = 1,57"

 

Donc mon autoguidage doit être à ce niveau de précision.

 

ma lunette guide (un truc rafistolé) a une focale de 250mm sur un capteur SPC d'origine à 5,6um donc un échantillonnage à :

e2=206*5,6/250=4,61"

 

Questions :

Comme GM and co calcul plus précisement que le pixel les déplacement, cela devrait être bon mais la focale de mon guideur est de 1/3 celle de l'imageur alors est_ce suffisant??

 

L'échantillonnage de l'imageur est à 1,56" mais c'est très certainement en dessous de la turbulence qui n'est pas négligeable chez moi (bord de mer) donc comment estimer ma cible de qualité de suivit?

 

Merci d'avance de faire avant mon schmilblic ;)

Lien vers le commentaire
Partager sur d’autres sites

Bonjour

 

Tes calculs sont corrects.

Quoique j'ai toujours un doute sur la maniére de calculer l'échantillonnage d'un capteur APN. Que prend t'on ? Le pixel (5.6µ) ou 2 fois le pixel (2 x 5.6µ) puisque c'est une matrice de bayer (= 4 pixels regroupés pour faire 1 gros pixel couleur) ? Je ne sais pas et j'aimerais bien savoir.

 

L'avantage des softs de guidage est de considérer le "subpixel" pour calculer les écarts de l'étoile guide. Donc l'échantillonnage ne doit pas être égal à celui de l'imageur. Ouf...

 

A ce sujet je me souviens avoir lu une régle sur un forum, mais je l'ai oubliée.

 

Bref il est courant de guider avec succés des focales de 750 mm avec un chercheur.

 

Ceci dit, seul le résultat compte. Pour l'évaluer il te restera à quantifier tes écarts de guidage résiduels pendant 10 mn par exemple, écarts crête à crête. Ces écarts ne devront pas être trop éloignés de ton échantillonnage imageur.

 

Christian

Lien vers le commentaire
Partager sur d’autres sites

Merci Christiand pour ta confirmation.

 

En regardant les données de guidage, je constate que en dessous d'un certain ecart RA ou DEC, GM ne fait rien (pas d'impulsion) pour éviter le yoyo.

L'écart est à 1 asec, dois-je le monter vers 2" avec un échantillonnage à 1,57"

Lien vers le commentaire
Partager sur d’autres sites

Ah oui, tu as limité les corrections au dela de 1". En deça il ne fait rien.

C'est parfois conseillé surtout en cas de turbu et pour éviter de faire le yoyo.

 

Cela veut dire qu'au mieux tu seras à +- 1" d'arc en résiduel de guidage.

Mais peut être est ce suffisant aprés tout.

 

Regardes l'aspect des étoiles. Si elles sont bien ponctuelles : no problem.

 

 

L'écart est à 1 asec, dois-je le monter vers 2" avec un échantillonnage à 1,57"

 

Non, c'est dans l'autre sens que ça marche.

Ici tu corriges uniquement les écarts sup à 1" d'arc

Donc l'étoile se balade dans un espace de +- 1".

 

Si tu paramétre 2" tu vas corriger les écarts sup à 2" d'arc, donc forcement l'étoile va pouvoir se balader librement dans un espace de +- 2" soit 4" RMS, tu comprends ?

 

Pour être plus précis il faudrait mettre 0 dans le paramétrage. Dans ce cas GM corrige le moindre écart.

Mais il faut intégrer la turbu avec une pose guideur de 1 à 2 secondes et passer en agressivité dynamique avec les 2 curseurs RA et DEC à fond à 100%

 

Mais encore un fois, comme dit plus haut, peut être qu'un réglage à 1" te donnera un suivi satisfaisant.

 

Christian

Lien vers le commentaire
Partager sur d’autres sites

Ah oui c'est vrai 1" *2 ca fait 2" :D

 

Si je passe à 2", j'arrive alors à 4" ce qui est beaucoup par rapport à mon échantillonnage limite de 1,57" (3fois) donc en effet mon étoile pourrait se balader sur 3 pixels au lieu de deux.

 

Mon capteur de guide est une SPC LP donc je suis souvent à 2 ou 4 secondes d'expo.

Donc c'est le capteur de guidage qui lisse la turbu.

 

Vivement une nouvelle belle soirée pour ajuster le guidage.

 

 

Encore une chtite question:

 

J'ai deux possibilités pour mes tests: une version nomade dans une court derrière (vu sur le nord) chez moi avec accès à la polaire et une version poste quasi fixe sur mon balcon mais sans polaire (vu sur le sud)

 

Qu'elle est la meilleur solution (nomade mais faut tout trimbaler à chaque fois) ou semi fixe (je démonte juste le tube et cable) ?

 

Merci Christiand pour ta participation ;)

Lien vers le commentaire
Partager sur d’autres sites

Si je passe à 2", j'arrive alors à 4" ce qui est beaucoup par rapport à mon échantillonnage limite de 1,57" (3fois) donc en effet mon étoile pourrait se balader sur 3 pixels au lieu de deux.

 

Oui, je pense que tu peux rester avec un réglage à 1" d'arc . Soit un écart résiduel MINI de 2" RMS.

 

Sinon tu mets le paramétrage à 0 et tu corriges le moindre écart.

 

A mon avis la majorité des amateurs travaillent de cette façon, en intégrant la turbu (pose de 1 ou 1.5 seconde) et avec l'agressivité dynamique.

 

 

 

 

J'ai deux possibilités pour mes tests: une version nomade dans une court derrière (vu sur le nord) chez moi avec accès à la polaire et une version poste quasi fixe sur mon balcon mais sans polaire (vu sur le sud)Qu'elle est la meilleur solution (nomade mais faut tout trimbaler à chaque fois) ou semi fixe (je démonte juste le tube et cable) ?

 

 

Oh la, je ne sais pas vraiment.

ça dépend de ton âge et de ta resistance physique à trainer le matos au fond du jardin. Si pas de pb de vertébres par exemple, hein ?

 

A ta focale le seeing n'est pas encore trop casse pied. Bien qu'une ouverture de 150 ça commence à se faire sentir en longue pose. Donc depuis un balcon ça doit pouvoir se faire. Et puis t'as tout le confort.

 

L'avantage du jardin c'est l'environnement plus calme (turbu locale), une meilleure qualité des images mais c'est casse pied quand même. C'est une situation que je vis continuellement. Mais bon quand on aime faut savoir faire des sacrifices.

 

J'en connais qui n'hésitent pas à monter par -10 ou -15° dans les montagnes avec leur Dob pour bénéficier d'un ciel noir, bof, du fond du jardin on ne va pas se plaindre quand même.:rolleyes:

 

Merci Christiand pour ta participation ;)

 

Ah oui, toujours présent, un peu moins de commentaires sur les images pour ne pas trop ennuyer les collégues avec mon baratin :be:

 

 

 

 

Christian

Lien vers le commentaire
Partager sur d’autres sites

Bonjour

 

Tes calculs sont corrects.

Quoique j'ai toujours un doute sur la maniére de calculer l'échantillonnage d'un capteur APN. Que prend t'on ? Le pixel (5.6µ) ou 2 fois le pixel (2 x 5.6µ) puisque c'est une matrice de bayer (= 4 pixels regroupés pour faire 1 gros pixel couleur) ? Je ne sais pas et j'aimerais bien savoir.

 

Christian

 

-> Salut Christian,

 

En fait ça va dépendre des options de débayérisation que tu choisis: par ex dans DSS tu as le choix de choisir un seul gros pixels pour les 4 pixels RVVB (là pas de doute) ou alors de choisir une interpolation. Dans ce cas ça se complique, car ça va dépendre du signal si il est monochromatique ou pas (corrigez moi si je me trompe): Avec un signal à spectre continu, (L) tous les pixels seront atteints par le signal. Et donc tu échantillonne bien à 1 fois la taille du pixel. Par contre avec une lumière mono chromatique (surtout rouge ou bleu) seul 1 pixel sur 2 sera atteint, l'échantillonnage est 2 fois moins bon.

(logiquement avec le vert, c'est entre les 2, comme on a 2 pixels verts, mais bon...).

 

Finalement on a une similitude avec les images LRVB faites en Bin 1 pour le L et bin 2 pour le RVB...(sauf que c'est nettement moins sensible...)

 

Olivier

Modifié par olivdeso
Lien vers le commentaire
Partager sur d’autres sites

Salut Olivier

 

Merci pour ton intervention.

 

En LRGB c'est simple. La résolution de l'image, sa finesse, est apportée par la couche L. Les couches RGB sont "secondaires" si je peux dire, elles viennent par dessus pour apporter les teintes.

Donc en LRGB la séparation d'un couple d'étoiles serrées visible sur une image va dépendre de la finesse de la couche L, c'est donc l'échantillonnage L et le seeing qui comptent.

Exemple 1.1" d'arc par photosite avec un cpateur 9µ à 1600 mm de focale

 

En revanche avec un APN ou un capteur couleur si on travaille à 1600 mm de focale en image couleur "one shoot", quelle taille de pixel prends tu pour calculer l'échantillonnage ?

 

Christian

Lien vers le commentaire
Partager sur d’autres sites

Salut Olivier

 

Merci pour ton intervention.

 

En LRGB c'est simple. La résolution de l'image, sa finesse, est apportée par la couche L. Les couches RGB sont "secondaires" si je peux dire, elles viennent par dessus pour apporter les teintes.

Donc en LRGB la séparation d'un couple d'étoiles serrées visible sur une image va dépendre de la finesse de la couche L, c'est donc l'échantillonnage L et le seeing qui comptent.

Exemple 1.1" d'arc par photosite avec un cpateur 9µ à 1600 mm de focale

 

En revanche avec un APN ou un capteur couleur si on travaille à 1600 mm de focale en image couleur "one shoot", quelle taille de pixel prends tu pour calculer l'échantillonnage ?

 

Christian

 

Je vais te faire une réponse de normand...

 

Pour les NEB en Ha -> l'échantillonnage sera 2 fois moins serré, car seul les pixels rouges sont exposés.

 

Par contre sur les galaxies, amas et autres objets à spectre continu (ou presque) l'échantillonnage sera le même qu'un capteur N&B.

 

Bref dans la pratique c'est entre les 2, et finalement pas trop d'impact, vu qu'on sous échantillonne pas mal. En planétaire ça serait différent...

 

edit:

une comparaison:

 

http://www.stargazer-observatory.com/astropics/deepsky/galaxies/4631-h16-vs-m25c.jpg

 

Dans le doute je prends le cas le plus défavorable pour le guidage (suite à tous vos conseils d'ailleurs) et si ça passe mieux, tant mieux.

Modifié par olivdeso
Lien vers le commentaire
Partager sur d’autres sites

Je ne comprends pas trés bien.

 

En HA c'est effectivement la zone teintée rouge qui laissera passer le signal. Soit un seul pixel de 5.6µ actif sur les 4 x 5.6µ du méga pixel Bayer.

Mais en définitive, la résolution sera diluée ou extrapolée avec 3 autres pixels aveugles au moment de la restitution de l'image ? Les APN sont programmés de cette façon (?)

Donc la finesse sera réduite par 2 ? (en théorie)

 

Dans ce cas on serait tenté de dire que l'échantillonnage compte pour 2 pixels (= coté du gros photosite de bayer) ? Soit 11.2 µ ?

 

 

Par contre sur les galaxies, amas et autres objets à spectre continu (ou presque) l'échantillonnage sera le même qu'un capteur N&B.

 

Comprends pas non plus.

 

C'est pareil que pour l'HA (en terme de résolution, et non de sensibilité) puisque ce sont 4 pixels qui vont former le super pixel de bayer, donc 4 pixels de 5.6µ pour 1 gros pixel RGB au final. C'est donc une "dilution" de l'échantillonnage, pareil qu'en HA.

 

Je veux dire qu'au moment de la restitution de l'image on obtient pas des pixels de 5.6µ de coté mais des pixels de 11.2µ de coté (= mixage des 4)

 

Je me plante quelque part dans ce raisonnement ? :?:

 

 

Autre alternative : quand on parle de pixel en photo APN, 5.6µ c'est le taille du mega pixel de bayer (qui regroupe 4 pixels de 2.8µ ?). Dans ce cas c'est bien 5.6µ qui doit être pris dans le calcul de l'échantillonnage. Je ne sais plus.... :p

 

Faudrait que je pose la question à David.d qui bosse pour les capteurs CCD. Je vais lui envoyer un MP. J'aimerais bien comprendre ce truc.

 

 

Christian

Lien vers le commentaire
Partager sur d’autres sites

Je ne comprends pas trés bien.

 

En HA c'est effectivement la zone teintée rouge qui laissera passer le signal. Soit un seul pixel de 5.6µ actif sur les 4 x 5.6µ du méga pixel Bayer.

Mais en définitive, la résolution sera diluée ou extrapolée avec 3 autres pixels aveugles au moment de la restitution de l'image ? Les APN sont programmés de cette façon (?)

Donc la finesse sera réduite par 2 ? (en théorie)

 

Dans ce cas on serait tenté de dire que l'échantillonnage compte pour 2 pixels (= coté du gros photosite de bayer) ? Soit 11.2 µ ?

 

 

-> exactement.

 

En raw, avant debayerisation, tu devrait avoir qu'un pixel sur 4 d'allumé (de mémoire. Avec la CCD couleur c'est le cas).

 

Comprends pas non plus.

 

C'est pareil que pour l'HA (en terme de résolution, et non de sensibilité) puisque ce sont 4 pixels qui vont former le super pixel de bayer, donc 4 pixels de 5.6µ pour 1 gros pixel RGB au final. C'est donc une "dilution" de l'échantillonnage, pareil qu'en HA.

 

Je veux dire qu'au moment de la restitution de l'image on obtient pas des pixels de 5.6µ de coté mais des pixels de 11.2µ de coté (= mixage des 4)

 

Je me plante quelque part dans ce raisonnement ? :?:

 

 

En fait tu as le choix dans DSS: soit tu choisis de regrouper les 4 en 1 seul "super pixel" et alors la taille de l'image est réduite par 4, soit tu choisis l'interpolation en gardant la taille d'origine, mais avec tu Ha tu ne gagnes rien en résolution évidement...

 

 

Autre alternative : quand on parle de pixel en photo APN, 5.6µ c'est le taille du mega pixel de bayer (qui regroupe 4 pixels de 2.8µ ?). Dans ce cas c'est bien 5.6µ qui doit être pris dans le calcul de l'échantillonnage. Je ne sais plus.... :p

 

Christian

 

-> en fait non, c'est bien la taille des pixels N&B qui sont sous la matrice de bayer. c'est la même taille que tu aies la matrice de bayer ou non. D'ailleurs dans les datasheet, tu as parfois les 2 version du même capteur.

 

(Imagines d'un point de vue marketing si il faillait diviser par 4, ça serait moins vendeur...:D)

 

 

Faudrait que je pose la question à David.d qui bosse pour les capteurs CCD. Je vais lui envoyer un MP. J'aimerais bien comprendre ce truc.

 

 

Christian

Lien vers le commentaire
Partager sur d’autres sites

Bonsoir les amis,

 

Je connais surtout bien les detecteurs sans filtre, les N&B avec lequel je fais des cameras et je ne connais pas trop les traitements effectués sur les systèmes à detecteurs couleurs. Ceci dit il est clair que pour avoir un pixel il faut assembler 4 pixels de la matrice originel sur ce type de detecteur. Si l'on veut faire du N&B et pour cela reprendre directement la matrice originelle c'est peut etre une soluce mais il y a les filtres et chaque pixel ne repond pas pareil selon la longeur d'onde. Les galaxies ainsi que les étoiles autour n ont pas un spectre plat et uniforme (même si pour les galaxies on parle, à tort, de continuum, c'est vraie sur des zones plus ou moins petites), on risque alors de voir apparaitre la trame de bayer.

Si les objets observés emmettaient sur un parfait continuum, sachant cela et en compensant logiciellement la réponse des pixels selon le filtre RVB, ça serait jouable d'avoir la resolution native du detecteur pour du N&B et ce sans artefact.

 

J'aurais naturellement repondu comme Christian à savoir un pixel de 4 pixel de 5.6µ soit un pixel resultant de 11.6µ de côté.

 

Sinon, en effet, marketing oblige, les fabricants de detecteurs couleurs et surtout les concepteurs d'APN utilsant ces detecteurs, spécifient presque toujours la resolution du detecteur originel (sous les filtres) et non la resolution divisée par quatre....

 

Si j'ai l'occasion j'irais voir ce qui ce trame dans le fond des traitements sur matrices couleurs, mais cela reste des traitements et physiquement il y aura toujours les filtres pour les couleurs.

 

A bientot.

 

David

Modifié par david.d
Lien vers le commentaire
Partager sur d’autres sites

Absolument,

-> Peut être que le dithering à encore plus de sens pour ce genre de capteur afin d'éviter les effets de tramage....

-> avec les fichier raw, la débayerisation se fait à postériori sur le PC (par DSS ou autre logiciel de visualisation/traitement de raw). Le fichier raw récupéré de la camera est le même qu'un fichier de camera noir et blanc. Le mappage des pixels RVVB est paramétrable dans DSS (4 configs possibles donc). (Si on se trompe, c'est pas beau du tout et on comprend pas pourquoi...). Il est super pratique ce DSS et très pédagogique. L'aide est très très bien faite: il y a les bases du prétraitement bien expliquées

Lien vers le commentaire
Partager sur d’autres sites

Je suis pas certain que le pixel fasse 5.6um

 

Le capteur de la 1000D fait : 22.2*14.8 mm pour 3888*2592 (chiffre de mémoire) ce qui nous amène à 5.6um pour un groupe de 4 pixels(bleu+rouge+vert+vert)

 

Un seul bout de pixel (1 couleur) doit être plus petit alors ?

 

Si par exemple je mets un filtre HA qui éclairera le pixel rouge, alors mon échantillonnage sera plus petit (mais avec des trous entre les pixels ^^)

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

 

Attention sur les docs constructeur il s agit de la résolution de la matrice originelle sous les filtres....donc le pixel reconstitué est bien 4 pixels de 5.6um.

Avec HA ton échantillonnage restera le même car la matrice aura toujours la même taille physique, que ce soient les pixels originels ou bien les pixels de la mat de Bayer. Simplement le pixel résultant de 4 originels aura un rdt quantique divisé par 4, comme tu le dis un sur 4 sera utilisé.....

 

David

Lien vers le commentaire
Partager sur d’autres sites

Bonjour et merci d'alimenter ce fil intéressant :)

 

Bon, pour en revenir à la question de Didou qui cherche à autoguider son APN, on peut dire sans trop se tromper quil est préférable de compter le coté du gros pixel (11.2µ) pour le calcul de l'échantillonnage imageur. Car en définitive c'est l'image finale qui compte, l'image qui sera présentée sous sa forme définive aprés mappage RVVB.

 

Ce qui permet de réduire l'exigeance du suivi (entre guideur et imageur), c'était le sujet au début du fil.

 

Ok pour DSS, je ne connais peu ce produit, j'ai essayé de l'utiliser une fois mais suis revenu vers Iris.

 

Christian

Lien vers le commentaire
Partager sur d’autres sites

En effet Christiand mais:

 

Mon échantillonnage imageur passerais alors à : 206*5.6*2/750= soit 3.07"

 

Mais les infos sont :22.2 mm pour 3888 pixels, soit 5.6um par ensemble de 4 pixels.

 

Si je pouvais utiliser que les pixel verts par exemple (les plus nombreux et en croix) et que je travaille en débayerisé alors je pourrais augmenter ma résolution d'après vous ??

 

Une sorte de binning inversé ?

 

Finalement c'est bien de compter, on se pose alors de bonne question :D

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

 

Attention sur les docs constructeur il s agit de la résolution de la matrice originelle sous les filtres....donc le pixel reconstitué est bien 4 pixels de 5.6um.

Avec HA ton échantillonnage restera le même car la matrice aura toujours la même taille physique, que ce soient les pixels originels ou bien les pixels de la mat de Bayer. Simplement le pixel résultant de 4 originels aura un rdt quantique divisé par 4, comme tu le dis un sur 4 sera utilisé.....

 

David

 

-> pas tout à fait d'accord: en Ha seul les pixels rouges peuvent capter le Ha. Le pas entre 2 pixels est donc de 2 x 5.6µ avec effectivement 4 fois moins de rendement qu'un capteur N&B (au mieux si l'APN est défiltré, sinon cest encore pire)

Modifié par olivdeso
Lien vers le commentaire
Partager sur d’autres sites

En fouillant le fichier RAW du canon, j'ai une info intéressante : sous IRIS

L'exif me donne 3906*2602 pour le RAW en CFA.

La même en JPG donne 3888*2592.

Il y a une perte de pixel en chemin de 18*10!

 

Le soft interne doit raboter mais il aussi semble que les chaque pixel de R/V/B apporte un pixel couleur.

Il doit interpoler les vides ! et l'interpolation c'est du soft pas du capté :(

Lien vers le commentaire
Partager sur d’autres sites

En effet Christiand mais:

 

Mon échantillonnage imageur passerais alors à : 206*5.6*2/750= soit 3.07"

 

Mais les infos sont :22.2 mm pour 3888 pixels, soit 5.6um par ensemble de 4 pixels.

 

Si je pouvais utiliser que les pixel verts par exemple (les plus nombreux et en croix) et que je travaille en débayerisé alors je pourrais augmenter ma résolution d'après vous ??

 

Une sorte de binning inversé ?

 

Finalement c'est bien de compter, on se pose alors de bonne question :D

 

En fait sur le capteur, tu as 5.7µ par pixel qu'il soit R V ou B.

Dans le fichier raw (pas débayérisé) tu as toujours 5.7µ par pixel mais les pixels sont toujours que R V ou B comme sur le capteur.

Dans le soft de visualisation ou prétraitement, les pixels R V ou B vont être transformés en pixels RVB chacun. Donc il leur manque des couleurs. Pour retrouver les autres couleur d'un pixel le soft fait une interpolation des pixels adjacents dans les autres couleurs.

Par exemple un interpolation simple serait une moyenne: imaginons un pixel rouge entouré par 2 verts. Pour reconstituer la composante verte de ce pixel (qu'on ne connait pas) le soft peut prendre la moyenne des 2 pixels verts adjacents. et ainsi de suite pour les autres couleurs. La moyenne n'est qu'un exemple pour illustrer, il y a d'autres lois d'interpolation plus rusées.

 

Dans le cas particulier, du Ha le problème est qu'il n'y as que les pixels rouges éclairés, les autres pixels sont inutiles (ils restent noir). Donc au lieu de débayériser, on peut simplement regrouper les pixels, (ce qui divise la taille d'image par 4 c'est plus simple à traiter). Le pas entre 2 pixels allumés est bien de 2x5.6µ dans ce cas: l'échantillonnage est donc de 11,2µ.

(même si le capteur à la capacité d'échantillonner à 5.6µ, comme on ne se sert au mieux que d'un pixel sur 2, l'échantillonnage effectif du signal est bien de 11.2µ)

 

Dans le cas général (lumière à spectre continu, imaginons lumière blanche par ex) tous les pixels seront allumés, le pas pour la luminance sera donc bin de 5.6µ, car tous les pixels seront capable de récupérer un peut d'info sur l'objet.

 

Donc pour l'autoguidage: Si c'est du Ha (ou autres filtres à bandes étroites*) tu peux considérer que l'échantillonnage fait 11.2µ, par contre pour une lumière blanche, l'échantillonnage sera plutôt de 5.6µ.

 

*cas particulier du OIII: le OIII est à cheval entre bleu et vert, suivant les capteur il est possible que ça éclaire les pixels bleus et vert ou seulement l'un ou l'autre suivant les fréquences de coupure des filtres.

Lien vers le commentaire
Partager sur d’autres sites

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.