Aller au contenu

Effondrement Gravitationnel


Messages recommandés

Bonjours à tous :be:

 

 

Pour te repondre elie sur ce point;

 

D'autre chose que des baryons. Il y a les neutrinos et les photons; pour l'instant; mais leur masse n'est pas suffisante. (environ 1%; mais on a besoin de plus de 20% pour atteindre la masse critique inutile.)

 

D' accord, je pense que j' ai trouver le reste,

 

http://www.cirs.fr/breve.php?id=169

 

 

Qu' en pense-tu :question:

 

 

 

aurevoir

Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 1,5k
  • Créé
  • Dernière réponse

C'est exactement ça pour le 4% de matière baryonique.

 

Ce qui est curieux dans ce rapport, c'est qu'il y aurait assez de matière baryonique dans la galaxie pour la stabiliser; donc aucun besoin de matière noire exotique. Malheureusement, on ne dit pas si cette stabilisation règle le problème de vitesse de rotation qui nous semble anormal.

 

C'est malheureux parce que si c'est le cas, on n'a plus besoin de matière exotique noire et le 24% imaginé de cette matière n'existe pas. Plus encore, le concept de masse critique devient alors caduque. Ce que je crois qu'il est de toute façon. ;)

 

Amicalement

Lien vers le commentaire
Partager sur d’autres sites

Salut à tous :)

 

Confrontés au défi majeur que leur pose la matière sombre, les astrophysiciens ont entrepris de découvrir sa nature physique. Deux possibilités se sont alors présentées : celles qui font appel à des astres constitués de matière ordinaire, par exemple les étoiles peu lumineuses, et celles qui reposent sur l'introduction de particules exotiques. Analysons ici les candidats formés de matière ordinaire, ou baryonique, c'est-à-dire de neutrons et de protons.

 

Les naines rouges

 

L'une des solutions les plus simples est de recourir aux étoiles les moins brillantes, les naines rouges. Ces étoiles font partie de la séquence principale mais se distinguent par leur faible masse, entre 8 et 80 pour cent de la masse du Soleil. Pour cette raison, leur surface est relativement froide, seulement quelques milliers de degrés, et leur luminosité est donc très faible, entre un dix millième et quelques dixièmes de celle du Soleil. Ces étoiles passent ainsi pratiquement inaperçues, si ce n'est dans notre voisinage immédiat.

 

C'est en étudiant les naines rouges les plus proches que les astronomes se rendirent compte que ces étoiles peu brillantes sont très nombreuses. Ainsi, dans le voisinage du Soleil, une étoile sur deux est une naine rouge, même si très peu d'entre elles figurent parmi les milliers d'étoiles visibles à l'oeil nu. Les astronomes sont donc tout naturellement amenés à penser que les galaxies pouvaient être dominées en nombre par ces étoiles quasi-invisibles. Leur présence augmenterait la masse totale d'une galaxie sans véritablement affecter sa luminosité globale.

 

Les naines brunes

 

Une autre solution consiste à faire appel à des astres encore moins massifs : les naines brunes. On désigne par ce terme les étoiles dont la masse est inférieure à 8 pour cent de celle du Soleil. A cause de cette masse très faible, le noyau de ces étoiles n'est pas suffisamment comprimé et chaud pour que les réactions nucléaires de fusion soient en mesure de se mettre en place. Les naines brunes sont donc en quelque sorte des étoiles ratées, qui n'émettent pas de lumière et sont pratiquement impossibles à observer, même dans le voisinage immédiat du Soleil. Ces propriétés en font clairement des candidates à la masse cachée.

 

Remarquons que la masse minimale des naines brunes est probablement de plusieurs fois la masse de Jupiter. Ce qui différencie ces étoiles des planètes géantes est leur mode de formation. Comme toutes les étoiles, les naines brunes se forment lors de l'effondrement d'un nuage de gaz, alors que les planètes se forment par accumulation de grains de poussière.

 

Les planètes

 

Une autre explication de la masse cachée est la présence possible dans les galaxies d'une quantité insoupçonnée de planètes, en particulier de planètes massives comme Jupiter. Cependant, des corps de cette nature ne peuvent pas fournir une très grande proportion de la masse cachée. Ils sont en effet formés d'éléments plus lourds que l'hydrogène ou l'hélium. Or ces éléments sont rares dans l'Univers, ils ne représentent qu'un noyau atomique pour 100 noyaux d'hydrogène, comme toutes les observations le confirment.

 

Les résidus d'étoiles

 

Enfin, on peut faire appel aux trois types de résidus stellaires : naine blanche, étoile à neutrons ou trou noir. La contribution des deux derniers types est cependant limitée. Étoiles à neutrons et trous noirs apparaissent lors de l'explosion d'une supernova qui donne naissance à une grande quantité d'éléments lourds. Comme ces derniers sont rares, le nombre d'explosions ayant eut lieu doit être relativement faible, donc également le nombre de résidus stellaires de ce type.

 

 

Source;http://www.astronomes.com/c6_univers/p633_massesombbaryon.html

 

 

amicalement

Lien vers le commentaire
Partager sur d’autres sites

Bonjours tout le monde :be:

 

 

Merci npour ton texte albert :be:

 

POur te répondre sur ceci;

 

Enfin, on peut faire appel aux trois types de résidus stellaires : naine blanche, étoile à neutrons ou trou noir. La contribution des deux derniers types est cependant limitée. Étoiles à neutrons et trous noirs apparaissent lors de l'explosion d'une supernova qui donne naissance à une grande quantité d'éléments lourds. Comme ces derniers sont rares, le nombre d'explosions ayant eut lieu doit être relativement faible, donc également le nombre de résidus stellaires de ce type

 

Je crois que tu doit oublier cette solution elle est trop improbable ;)

 

 

Qu' en pense-tu :question:

 

 

aurevoir

Lien vers le commentaire
Partager sur d’autres sites

bonsoirs tout le monde :be:

 

 

Il y a dans le cosmos un milliard de photons lumineux pour chaque atome. :?:

 

Pourquoi ce nombre :question:

 

Personne ne le sait. :?:

 

Il y a deux variétés de matière :

 

la matière dite "ordinaire" (dont nous sommes formés) et l'antimatière;

 

lorsqu'elles se rencontrent, elles s'annihilent entièrement et se transforment en lumière. ;)

 

Aux premières secondes de l'univers, matière et antimatière coexistent. :?:

 

Continuellement, elles s'annihilent en lumière et renaissent de la lumière. ;)

 

Au cours du refroidissement ultérieur, tout disparait, sauf un résidu minime qui provient de l'infime supériorité de la matière:

 

il y a une particule de matière de plus par milliard de particules. ;)

 

Quelle est l'origine de cette différence à laquelle nous devons d'exister :question:

 

Encore aucune réponse satisfaisante... :?:

 

 

aurevoir

Lien vers le commentaire
Partager sur d’autres sites

Salut à tous :be:

 

 

La matière ordinaire, constituée d’atomes, qu’ils soient terrestres, stellaires ou galactiques, ne contribue que pour environ 4 % à la densité totale de l’Univers. ;)

 

Une partie des 96 % restants serait formée de matière cachée (25 %), dite aussi matière noire, le reste étant de "l’énergie noire". :be:

 

La matière noire tire son nom du fait qu’elle interagit faiblement avec la matière ordinaire et qu’elle est notamment insensible aux interactions électromagnétiques qui pourraient donner lieu à un rayonnement lumineux. ;)

 

Son éventuelle existence, prédite pour la première fois dans les années trente par l’astronome Fred Zwicky, est une des énigmes majeures de la physique léguées par le XXe siècle. Plusieurs théories de physique subatomique, en particulier les théories de supersymétrie, prédisent qu’elle pourrait être constituée d’un nouveau type de particules, les Wimps (Wimp est l’acronyme anglo-saxon de particule massive interagissant très faiblement). ;)

 

 

De nombreuses équipes dans le monde cherchent à observer les Wimps. Mais ces particules sont très difficiles à détecter compte tenu de leur très faible interaction avec la matière ordinaire (et donc avec un détecteur), d’où la nécessité de se protéger des parasites que constituent d’une part le rayonnement cosmique et la radioactivité qu’il induit, et d’autre part la radioactivité naturelle (corps humain, roches, matériaux). ;)

 

Pour cela, les physiciens travaillent dans des laboratoires souterrains avec des matériaux d’une pureté radioactive extrême et leurs détecteurs sont protégés par de multiples blindages. ;)

 

L’objectif est de détecter les infimes "chocs" entre des Wimps et les noyaux atomiques du germanium des détecteurs, notamment par la mesure de la très faible élévation de température qu’ils produisent (un millionième de degré environ). ;)

 

 

Source; http://institut.in2p3.fr/presse/communique...4_edelweiss.htm

 

 

 

amicalement

Lien vers le commentaire
Partager sur d’autres sites

Bonjours à tout monde :be:

 

 

L'existence des atomes, la spécificité de leurs noyaux ainsi que leurs sources sont désormais solidement établies. ;)

 

En effet, l'une des plus grandes découvertes du 20è siècle est que les atomes qui constituent le support matériel de toute chose, y compris de nous-mêmes, sont essentiellement le fruit du labeur de générations et de générations d'étoiles. ;)

 

La source de chaque espèce nucléaire est clairement identifiée : les noyaux les plus simples, tels l'hydrogène (76% de la matière ordinaire) et l'hélium (24% en masse) ainsi qu'une pincée de lithium, ont émergé du Big-Bang voici quelque 15 milliards d'années et servent ensuite de combustible aux réacteurs nucléaires que sont les étoiles. ;)

 

Les atomes de la vie tels, carbone, azote, oxygène, calcium et fer, sont le fruit des fusions thermonucléaires successives dans les creusets stellaires. Les éléments plus lourds, comme l'uranium et le plutonium, sont produits au cours de l'explosion des étoiles massives à travers des captures de neutrons par des noyaux complexes (essentiellement le fer). ;)

 

Une fois synthétisés et éjectés dans le milieu environnant, les noyaux s'entourent d'électrons pour devenir atomes, qui eux-mêmes se structurent en molécules. ;)

 

 

De leur côté, le lithium (pour une partie), le béryllium et le bore, ont une origine non stellaire. Ils sont engendrés par un processus de brisure des noyaux d'azote, de carbone, d'oxygène, appelé « spallation ».

Aujourd'hui, après quinze milliards d'années d'évolution, la matière ordinaire, sous forme d'atomes, est composée de 70% d'hydrogène, 28% d'hélium; seuls 2% de la matière originelle ont été transformés en éléments plus complexes ;)

 

Ainsi, le moteur essentiel de la complexification de la matière, nécessaire à la vie, est nucléaire. La physique nucléaire est par conséquent l'une des clés de la compréhension du monde, de son origine et de son devenir. En effet, l'univers est en évolution dans toutes ses régions sous l'influence de processus qui impliquent en particulier les noyaux d'atomes. ;)

 

 

 

Qu' en pensez-vous :question:

 

 

source;http://www.sfen.org/fr/avancees/dossiers/astrophysique.htm

 

 

 

aurevoir

Lien vers le commentaire
Partager sur d’autres sites

Salut à tous :)

 

 

D’où proviennent les champs scalaires ? :question:

 

Peut-être existent-ils dès l’origine de l’univers, comme toute autre matière. :?:

 

Les parties de l’univers où ces champs demeuraient faibles n’ont pas connu d’inflation et sont restées très petites. :?:

 

Alors que celles à champs scalaires importants se sont considérablement dilatées. :?:

 

Nous vivons dans une de ces parties. :?:

 

Et pour néo;

 

 

 

 

Pourquoi une inflation au début de l’univers?

 

Parce qu’elle permet d’expliquer la grandeur et l’homogénéité de l’univers, le fait qu’il offre à peu près partout la même apparence, et pourquoi il s’est étendu simultanément dans toutes les directions. Grâce à l’inflation, on comprend aussi la formation des galaxies à partir des fluctuations quantiques.

 

Mais surtout, cette théorie nous permet d’expliquer pourquoi différentes parties de l’univers se ressemblent.

Au tout début de l’univers, à l’instant 10—43 seconde après la création (le «temps de Planck»), notre univers ne mesure qu’une fraction de centimètre.

 

Sa partie gauche ignore tout de sa partie droite, et le centre ne sait rien des deux extrémités: le temps manque. Puis, tout à coup, nous voici face à un univers dans lequel tout se ressemble! C’est là qu’intervient l’inflation. Jusqu’à 10—35 seconde, l’espace connaît une dilatation de 10 puissance mille milliards, comme une membrane élastique qui s’étirerait dans tous les sens et plus vite que la lumière, pour atteindre des dimensions bien supérieures à celles de notre univers actuel. Comparé à l’univers de l’époque, celui d’aujourd’hui ne représenterait qu’un point minuscule sur un gigantesque ballon cosmique.

 

 

Qu' en pense-tu :question:

 

 

source;http://www.unesco.org/courier/2001_05/fr/doss12.htm

 

 

amicalement

Lien vers le commentaire
Partager sur d’autres sites

Bonjours tout le monde :be:

 

 

Pour te répondre sur ceci;

 

l’espace connaît une dilatation de 10 puissance mille milliards, comme une membrane élastique qui s’étirerait dans tous les sens et plus vite que la lumière, pour atteindre des dimensions bien supérieures à celles de notre univers actuel.

 

C'est exactement ce que je renie :oo: je trouve cette hypothèse impossible ;)

 

Rien ne peux se dilater ou aller plus vite que la lumière ;)

 

Cette théorie c' est de la me.... ;)

 

Faudrait trouver autre chose que cette stupide théorie ;)

 

 

voilà ce que j' en pense ;)

 

 

 

 

aurevoir

Lien vers le commentaire
Partager sur d’autres sites

Bonjours tout le monde :be:

 

Ce que j' en pense :!:

 

Pourquoi l'univers a-t-il démarré avec un taux d'expansion aussi proche de la valeur critique qui sépare les modèles annonçant sa recontration de ceux qui le dilantent à jamais, de telle façon que même maintenant, dix milliards d'années plus tard, il se dilate encore avec un taux voisin de la valeur critique? :question:

 

En effet, si le taux d'expansion avait été plus petit, ne serait-ce que d'un pour cent million de milliards, l'univers se serait recontracté avant d'avoir la taille présente! :question:

 

Même en prenant pour base l'assertion que l'expansion de l'univers est réelle, se pose alors la question d'une densité dangereusement pproche de la valeur critique :question:

 

 

Voilà ce que j' en pense ;)

 

 

aurevoir

Lien vers le commentaire
Partager sur d’autres sites

Salut à tous :be:

 

Bon, toute des questions encore sans réponses :?:

 

DE plus;

 

 

 

Le modèle cosmologique Standard coïncide avec le modèle inflationnaire à partir de 10-35 sec, mais il n'accepte pas d'autres structures mathématiques que les équations du champ de la relativité générale et des particules élémentaires autres que les quarks et les électrons. Il ne répond que partiellement à l'unification des forces démontrée dans les théories de Grande Unification. Le modèle Standard considère que les lois physiques ne changent pas avec le temps et que les effets gravitationnels sont correctement décrits dans la théorie d’Einstein.

 

Les théories modernes des particules élémentaires impliquent par exemple que le modèle Standard doit conduire à une surproduction de particules exotiques comme les monopôles, des particules massives ayant une charge magnétique unique. Selon John P.Preskill aujourd'hui à Caltech, la densité des monopôles dépasserait 1025 fois celle de la densité critique. Les observations infirment cette théorie. Il faut donc trouver une autre explication plus conforme à la réalité.

 

La suite est ici;

 

http://www.futura-sciences.com/comprendre/d/dossier18-1.php

 

 

Qu' en pense-tu :question:

 

 

amicalement

Lien vers le commentaire
Partager sur d’autres sites

Bonjours tout le monde :be:

 

Merci pour ta réponse et ton texte albert ;)

 

Et pour te répondre sur ceci;

 

Il faut donc trouver une autre explication plus conforme à la réalité.

 

 

C' est ce que je me tue à vous faire comprendre ;)

 

 

aurevoir

Lien vers le commentaire
Partager sur d’autres sites

En suivant le lien donné par albert einstein, on obtient quelques indications dans la physique des champs scalaires; (page suivante du lien)

 

a) le photon et les particules W ou Z, le premier n'ayant pas de masse de repos, les secondes ayant une masse très élevée.

B ) Un champ scalaire est un lieu de l'espace où s'excerce une force qui n'est pas orientée, à l'inverse des champs vectoriels.

c) si un champ scalaire interagit avec une particule W ou Z, celle-ci acquiert une masse. Par contre tant qu'une particule n'interagit pas avec le champ scalaire elle reste à l'état de photon, sans masse de repos.

d) Pour décrire la création des particules élémentaires, les physiciens partent de l'hypothèse qu'à l'origine les particules ne présentaient pas de masse de repos.

 

Le a) nous indique les premières particules à apparaître. Le B ) nous indique que l'univers subirait une force qui n'est pas orientée mais qu'en certains endroits existent des champs vectoriels où la situation est inversée. Le c) indique que les bosons W et Z sont des photons ayant acquis une masse grâce aux champs scalaires. et le d) indique qu'à l'origine les particules ne présentaient pas de masse au repos; autrement dit. n'existait que des particules ayant une masse.

 

Comme le d) n'a aucun bon sens puisque la masse est acquise a une "masse au repos" par l'action d'un champ scalaire sur un photon, il faut donc inversé tout ce qui est dit plus haut.

 

d1) À l'origine, les particules présentent une masse au repos; c'est le cas du photon.

b1) Un champ scalaire est l'espace qui n'est pas orienté; c'est à dire: se dirige en tous les sens, et donc en expansion; tandis qu'un champ vectoriel est orienté vers son centre. C'est le cas des déformations spatiales.

c1) Ce n'est donc pas la partie "non orienté" qui provoque l'acquisition d'une masse au photon mais logiquement, un champ vectoriel orienté vers son centre.

 

Et là vous avez exactement le topo que je vous ai présenté depuis le début.

Pour répondre à la question de la page précédente du lien:

 

La synchronisation de l'expansion de l'univers s'est produite partout simultanément, comment expliquer ce phénomène ?

 

La réponse est simplement que le photon est la seul particule sans masse ni volume qui ait pu traverser la singularité du mur de Planck; et comme le photon se déplace à la vitesse de la lumière, les distances sont nulles, dans un temps "figé". Lorsque son expansion est produite par l'expulsion de la même singularité et le déplacement d'une particule ayant une vitesse moindre que la lumière, (neutrino à hélicite contraire à son déplacement) la distance et le temps apparaissent dans la distance nulle et le temps figé à l'intérieur de l'univers déterminé par le photon initial.

Les déformations ou champs vectoriels se formeront lors du plasma quarks gluons par remplissage du vide créé par la disparition d'un quarks:

250px-Vectorfield_jaredwf.png

 

http://fr.wikipedia.org/wiki/Champ_vectoriel

 

Amicalement

Lien vers le commentaire
Partager sur d’autres sites

Salut à tous, Salut Elie.

Très mauvais texte de mon point de vue ;)

Et je ne suis pas du tout d' accord avec toi ;)

En particulier, je serais curieux de connaitre le processus mental qui te permet, en partant de ça:

 

(texte cité)

a) le photon et les particules W ou Z' date=' le premier n'ayant pas de masse de repos, les secondes ayant une masse très élevée.

B ) Un champ scalaire est un lieu de l'espace où s'excerce une force qui n'est pas orientée, à l'inverse des champs vectoriels.

c) si un champ scalaire interagit avec une particule W ou Z, celle-ci acquiert une masse. Par contre tant qu'une particule n'interagit pas avec le champ scalaire elle reste à l'état de photon, sans masse de repos.

d) Pour décrire la création des particules élémentaires, les physiciens partent de l'hypothèse qu'à l'origine les particules ne présentaient pas de masse de repos.

[/quote']

 

de déduire ça:

d1) À l'origine, les particules présentent une masse au repos; c'est le cas du photon.

b1) Un champ scalaire est l'espace qui n'est pas orienté; c'est à dire: se dirige en tous les sens, et donc en expansion; tandis qu'un champ vectoriel est orienté vers son centre. C'est le cas des déformations spatiales.

c1) Ce n'est donc pas la partie "non orienté" qui provoque l'acquisition d'une masse au photon mais logiquement, un champ vectoriel orienté vers son centre.

 

Quelques remarques:

- La définition donnée d' un champ scalaire B est fausse. C' est le champ et non la force dérivée du champ qui est non orienté. Autrement dit, un champ scalaire est un concept qui associe à chaque point de l' espace un nombre, alors qu' un champ vectoriel associe à chaque point de l' espace un couple (nombre, direction),aussi appelé "vecteur".

C' est une propriété locale, pas forcément liée au mouvement. Et un champ scalaire peut parfaitement orienter l' espace vers un centre : c' est ce qui se passe avec le champ électrostatique, pour lequel le potentiel crée par une charge unique au repos possède un centre (confondu avec la particule portant cette charge), tandis qu' un champ vectoriel peut n' admettre aucune orientation (c' est ce qui se passe avec le champ magnétique dans un métal non aimanté, les moments magnétiques sont orientés aléatoirement).

 

- L' affirmation C est maladroite. La modélisation des masses en physique des particule fait bien intervenir un champ scalaire, mais pas n' importe lequel: C' est le champ de Higgs. Le champ électrostatique est aussi un champ scalaire, et personne de sérieux n' a jamais affirmé qu' il était responsable de la masse des particules.

 

- L' affirmation D (que je trouve maladroite aussi, mais passons), ne permet pas de déduire que toutes les particules sont des photons. En particulier, les autres charges (faible, de couleur, électrique) sont présentes, sous forme découplée (cas "classique") ou unifiée (mais pour l' instant on n' a aucune théorie solide décrivant cet état).

 

A+

--

Pascal.

Lien vers le commentaire
Partager sur d’autres sites

bonjours tout le monde :be:

 

Moi, je suis d' accord avec arthurdent ;)

 

De plus,

 

Elles sont produites par le vide (la physique quantique prévoit que le vide est rempli de particules virtuelles, c'est à dire indétectables car existant durant des fractions de seconde extrêmement courtes, qui apparaissent et disparaissent), et ces particules émettent des ondes électromagnétiques en interagissant les unes avec les autres, cela des millions de fois par seconde dans chaque micromètre cube d'espace vide. ;)

 

 

Donc des ondes électromagnétiques de toutes fréquences sont émises, dans toutes les directions, et ces ondes s'annulent les unes les autres, produisant un résultat total nul selon la physique quantique. ;)

 

Selon la physique des ondes scalaires, cela produit des ondes scalaires de toute direction et magnitude: le vide est remplie de pression d'ondes scalaires qui le remplissent d'énergie. ;)

 

La différence avec la vision quantique, est que l'énergie n'a pas été perdue, mais a été transformée en ondes scalaires qui représentent des lignes de pression dans le continuum espace temps. ;)

 

Mais les ondes scalaires sont absorbées par la matière, qui en réémet à son tour; et ainsi les ondes scalaires sont échangées à chaque instant par toute particule de matière. ;)

 

La matière absorbe et réémet des ondes scalaires, qui sont donc une énergie qui circule comme une forme de respiration. ;)

 

 

Qu' en pensez-vous :question:

 

 

 

aurevoir

Lien vers le commentaire
Partager sur d’autres sites

Très mauvais texte de mon point de vue

 

Chacun à vraiment son propre point de vue.

 

Je peux prendre la responsabilité de mes interprétations mais je ne suis pas responsable des données de base:

 

a) le photon et les particules W ou Z, le premier n'ayant pas de masse de repos, les secondes ayant une masse très élevée.

B ) Un champ scalaire est un lieu de l'espace où s'excerce une force qui n'est pas orientée, à l'inverse des champs vectoriels.

c) si un champ scalaire interagit avec une particule W ou Z, celle-ci acquiert une masse. Par contre tant qu'une particule n'interagit pas avec le champ scalaire elle reste à l'état de photon, sans masse de repos.

d) Pour décrire la création des particules élémentaires, les physiciens partent de l'hypothèse qu'à l'origine les particules ne présentaient pas de masse de repos.

 

Ces données sont de Futura Science. (page suivante du lien proposé) Donc faire suivre les objections à qui de droit. ;)

 

Amicalement

Lien vers le commentaire
Partager sur d’autres sites

(texte cité)

Chacun à vraiment son propre point de vue.

tout à fait ;)

 

Je peux prendre la responsabilité de mes interprétations mais je ne suis pas responsable des données de base:

 

[...]

 

Je sais bien' date=' et tu as raison de le souligner.

Mes remarques s' appliquaient au texte globalement, et visent en partie le texte de Thierry Lombry. En voulant simplifier le concept de champ, il dénature le sens de ce terme. C' est moyen comme méthode de vulgarisation ...

[edit'] Même remarque sur le paragraphe affirmant qu' avant intéraction les bosons massifs W,Z sont des photons. En fait ce n' est pas le cas, puisque le mécanisme de Higgs est un reparamétrage différent de la théorie. Les particules de la théorie "sans masse" sont donc un "mélange" des particules observables (massives). Un peu comme ce qui se passe avec les neutrinos.

Les détails sont là, pour ceux qui veulent creuser le sujet :

http://www.hep.lu.se/atlas/thesis/egede/thesis-node9.html

 

Celà dit, je ne comprends toujours pas ton raisonnement. Mais c' est pas grave.

 

A+

--

Pascal.

Lien vers le commentaire
Partager sur d’autres sites

Bonsoirs tout le monde :be:

 

Merci arthurdent pour ton lien :be:

 

Merci elie ;)

 

Toute particule véhiculant une interaction décrite par une théorie de jauge doit avoir une masse nulle, ce qui n'est pas le cas des bosons Z° des interactions faibles. ;)

 

La brisure spontanée de symétrie introduite dans la théorie électrofaible permet de générer des bosons de jauge massifs. ;)

 

Pour comprendre ce mécanisme, on peut effectuer l'analogie suivante :

 

Considérons un récipient en forme de fond de bouteille de vin;

 

il possède une symétrie autour de son axe central, à laquelle un observateur placé au point central O est sensible. Plaçons une bille en O. ;)

 

Comme il s'agit d'une position d'équilibre instable, une infime perturbation conduit la bille en un point P du cercle C au fond de la bouteille, hors de l'axe de symétrie. Ce point P est choisi "spontanément", et si on renouvelle l'expérience, la bille ira en un autre point Q de C. ;)

 

Vu depuis tout point de C, le récipient n'a plus de symétrie apparente; celle-ci devient cachée. La position de repos de la bille correspond à l'état fondamental (c'est-à-dire à l'état de plus basse énergie) d'un système en physique de la matière condensée et au vide en physique des particules. ;)

 

C'est un tel mécanisme qui explique, l'apparition d'une direction privilégiée dans un matériau ferromagnétique (celles des lignes joignant les 2 pôles d'un aimant droit) lorsque la température descend en dessous d'un certain seuil. ;)

 

SOUrce;David Bailin, professeur de l'université du Sussex

 

 

aurevoir

Lien vers le commentaire
Partager sur d’autres sites

Salut à tous :be:

 

Excellente comparaison néo :be:

 

De plus,

 

Nous pouvons donc penser que la brisure de symétrie peut être produite simplement par l’interaction du champ de jauge avec une certaine particule ou un système donné.

 

Si cette particule est libre, sa trajectoire correspondante dans l’espace interne est complètement déterminée par le champ de jauge (la connexion), ce qui ne brise manifestement pas la symétrie imposée par le champ. ;)

 

Par contre, si la particule jouit d’une autonomie dans la détermination de sa trajectoire dans l’espace interne, elle brisera la symétrie que lui impose le champ. ;)

 

Cependant, dans le but de sauver l’invariance de jauge du lagrangien, cette particule devra tout de même conserver un certain couplage avec le champ présent. ;)

 

Ce genre de particule, dite cohérente, semble donc posséder des caractéristiques particulières qui ne sont pas celles d’une simple particule libre. ;)

 

Il semble alors contradictoire qu’une particule cohérente puisse posséder une trajectoire autonome dans l’espace interne et doive simultanément demeurer minimalement couplée au champ de jauge. ;)

 

La solution à ce paradoxe réside dans la modification de la nature même du champ de jauge dans le but de rendre ce dernier compatible avec le système cohérent, c’est-à-dire restaurer son couplage avec lui. ;)

 

Nous dirons alors que le champ de jauge a été brisé, dans la mesure où il est passé d’une structure lui dictant un couplage avec une particule libre vers une autre impliquant un couplage avec un système cohérent. ;)

 

Source;http://feynman.phy.ulaval.ca/marleau/pp/02jauge/jauge_bosons.htm#jp

 

 

 

amicalement

Lien vers le commentaire
Partager sur d’autres sites

Celà dit, je ne comprends toujours pas ton raisonnement. Mais c' est pas grave.

 

Ce n'est peut-être pas grave ArthurDent mais je pense que ça pourrait l'être éventuellement. Par exemple une simple phrase comme celle que l'on trouve à la fin de ton lien:

http://www.hep.lu.se/atlas/thesis/egede/thesis-node9.html

A sum over all fermions is implicitly assumed in (2.29) and (2.30) with some terms obviously disappearing if the neutrinos are massless. ... While this makes it impossible to put constraints on the Higgs mass and the fermion masses, it has the consequence that the Higgs particle will

 

Je suis toujours attiré par des données initiales qui sont changées ou éliminées sans, pour autant, faire reprendre tout le processus de déduction. Surtout si on n'identifie pas les "some terms". Si les neutrinos sont sans masse, "some terms dissapears" suivit de "the impossibility to put constraints on the higgs and fermions mass etc.." Le raisonnement tend vers "n'importe quelle condition résulterait en ce que l'on souhaite". Ce qui m'agace un peu.

 

Parexemple, lorsque albert rapporte:

La solution à ce paradoxe réside dans la modification de la nature même du champ de jauge dans le but de rendre ce dernier compatible avec le système cohérent,...

 

ça raisonne à mes oreilles comme: "si nous avons besoin d'un coin dans une circonférence, on n'a qu'à donner une petit coup de sciseau à froid sur la circonférence et on obtient une circonférence avec un coin. Je n'aime pas beaucoup ce genre d'étude sur les circonférences; parce que la définition d'une circonférence n'est plus une courbe plane fermée dont tous les points sont à égale distance du centre; même si ça rend compatible avec le système cohérent d'une circonférence possédant un coin. ;)

 

Amicalement

Lien vers le commentaire
Partager sur d’autres sites

(texte cité)

Ce n'est peut-être pas grave ArthurDent mais je pense que ça pourrait l'être éventuellement. Par exemple une simple phrase comme celle que l'on trouve à la fin de ton lien:

http://www.hep.lu.se/atlas/thesis/egede/thesis-node9.html

Je suis toujours attiré par des données initiales qui sont changées ou éliminées sans' date=' pour autant, faire reprendre tout le processus de déduction. Surtout si on n'identifie pas les "some terms". Si les neutrinos sont sans masse, "some terms dissapears" suivit de "the impossibility to put constraints on the higgs and fermions mass etc.." Le raisonnement tend vers "n'importe quelle condition résulterait en ce que l'on souhaite". Ce qui m'agace un peu.

[/quote']

OK, essayons de détailler un peu:

Reprenons la citation complète :

 

Only the fermion Higgs interaction term

 

 

L FH = - $\displaystyle{\textstyle\frac{1}{v}}$mf$\displaystyle\bar{\psi}_{f}^{}$$\displaystyle\psi_{f}^{}$$\displaystyle\sigma$

which will be important later is given here. A sum over all fermions is implicitly assumed in (2.29) and (2.30) with some terms obviously disappearing if the neutrinos are massless.

 

A remarkable feature of introducing massive fermions in the theory is that their interaction terms in the Lagrangian become proportional to their mass as seen in (2.30). While this makes it impossible to put constraints on the Higgs mass and the fermion masses, it has the consequence that the Higgs particle will couple to the fermions in proportion to their mass. The supersymmetric extensions of the Standard Model have different predictions for the coupling constants and hence a measurement of several coupling constants can be used to look into the theory behind the Higgs mechanism.

 

"some terms obviously disapperaring .." Ben oui, tous les termes où la masse des neutrinos est en facteur disparaissent. Je vois pas bien où est la supercherie ...

 

.... Suivi de "while ..." (cf le texte avec la phrase complète et non un extrait choisi pour lui faire dire le contraire de son sens).

 

Ce que dit l' auteur, c' est que : bien que sa modélisation des intéractions entre les fermions et le Higgs ne permettent pas de contraindre la valeur des masses des fermions et du Higgs (parce qu' il reste des paramètres libres), il a comme conséquence que le couplage entre le higgs et les fermions est proportionnel à la masse des fermions, ce qui permet de valider ou d' invalider le modèle : Soit on observe cette proportionnalité, et son modèle "marche", soit on ne l' observe pas, et son modèle est faux.

Tu peux chercher, nulle part personne n' affirme détenir LA solution.

Le principe de tous ces papiers de recherche est relativement simple à comprendre : Imaginer un modèle cohérent avec les trucs connus (parce que si le modèle ne permet pas de retrouver, par exemple, la charge électrique, c' est pas la peine d' aller plus loin, on sait qu' il est faux), en déduire des propriétés attendues, et attendre que les expériences valident ou invalident le modèle.

 

C' est laborieux, mais pour l' instant c' est la méthode qui marche le mieux. Et ça n' a rien à voir avec "n'importe quelle condition résulterait en ce que l'on souhaite". Donc, pas de raison de t' agacer ...

 

Pour les remarques sur le texte (très bon) d' Albert , je pense que tu comprends mal la nature du problème.

 

La circonférence avec un coin dont tu parles, c' est ce qu' on observe.

La circonférence sans coin , c' est ce qu' on avait modélisé jusque là. On constate qu'il y a un coin. On cherche donc , parmis les paramétrages possibles, le truc qui va donner une circonférence avec un coin au lieu d' une circonférence, sans pour autant casser la propriété qui dit qu' il s' agit d' une forme fermée.

 

Le fait que ça soit ou pas la définition d' une circonférence, on s' en moque, du moment que le tout reste cohérent.

Personne ne sait "a priori" quelle doit être la forme définitive ...

 

A+

--

Pascal.

Lien vers le commentaire
Partager sur d’autres sites

Je vois pas bien où est la supercherie ...

 

Ne me dis pas que tu croyais à une supercherie??? Jamais ça ne me serait venu à l'esprit. Ce ne serait pas très intelligent tu ne crois pas?

 

ce qui permet de valider ou d' invalider le modèle
Tu peux chercher, nulle part personne n' affirme détenir LA solution.

 

Donc rien n'est valider pour l'instant c,est ce que je voulais que tu soulignes. Merci. ;)

La circonférence avec un coin dont tu parles, c' est ce qu' on observe.

La circonférence sans coin , c' est ce qu' on avait modélisé jusque là.

 

Excellent! Il ne reste qu'à appliquer ce "pattern" au reste de résultats observés comme le plasma quarks gluons, la présence des déformations spatiales des galaxies avant la présence de ses étoiles, l'effondrement des dimensions dans un trou noir etc... On devrait finir par y arriver. ;)

 

Le fait que ça soit ou pas la définition d' une circonférence, on s' en moque, du moment que le tout reste cohérent.

Personne ne sait "a priori" quelle doit être la forme définitive ...

 

Je te supporte entièrement dans cette façon de raisonner. Appliquons-là à la force de gravité et à la masse critique incluant la matière noire et tout ira pour le mieux.

 

Amicalement

Lien vers le commentaire
Partager sur d’autres sites

Salut à tous :be:

 

Merci arthurdent pour ton texte :be:

 

Merci elie pour ton texte :be:

 

Donc, nous situant dans un contexte de théorie de champs, nous allons maintenant considérer la quantification du champ électromagnétique. ;)

 

Ce système est l'un des plus importants en physique et ironiquement, malgré le fait qu'il est observable classiquement, il est également l'un des champs les plus difficiles à quantifier. ;)

 

Cela est dû, d'une part, au fait que les particules impliquées, les photons, ont une masse nulle au repos et d'autre part, à la nécessité d'inclure l'invariance de jauge dans le traitement de la quantification. ;)

 

La méthode de Gupta-Bleuler, développée dans les années 50, est l'approche la plus courante. Elle possède la qualité d'être manifestement covariante mais l'inconvénient d'être ardue et pauvre en ce qui concerne son interprétation physique. ;)

 

En effet, elle abandonne la notion de probabilité définie positivement. Néanmoins, l'approche originale, appliquée au champ de Maxwell en 1929, s'avère assez simple et donne des résultats corrects. Cette méthode, appelée procédure canonique, est celle que nous utiliserons ici. ;)

 

Pour bien nous faire comprendre le contenu physique du photon, il est commode de partir d'une description classique du champ. ;)

 

En effet, nous verrons que le concept de champ continu émerge naturellement de la description d’un système à une infinité de particules. ;)

 

De fait, la quantification d'un système à plusieurs corps, comme la corde non relativiste en une dimension, va nous permettre de passer naturellement au concept de champ quantique et de phonons. ;)

 

Une fois cette base établie, nous développerons les équations de Maxwell sous forme relativiste et la densité lagrangienne associée. ;)

 

La procédure canonique comportant certaines difficultés, nous aborderons les notions d’invariance de jauge et de contraintes. Une fois les relations de commutation entre les modes normaux et la seconde quantification effectuées, nous aborderons le champ massif ainsi que les concepts de masse et de spin pour le photon. ;)

 

 

Source;http://feynman.phy.ulaval.ca/marleau/pp/02electrofaible/III.htm

 

 

amicalement

Lien vers le commentaire
Partager sur d’autres sites

Bonsoirs tout le monde :be:

 

Donc, dans de telles nano-structures, l’information pourra être véhiculée par les excitations collectives qui peuvent apparaître sous diverses formes (électrons, phonons, magnons …). ;)

 

La possibilité d’exciter localement les vibrations internes hautes fréquences des molécules par STM ouvre une nouvelle voie basée sur l’utilisation des excitons vibrationnels (vibrons) comme vecteur de l’information. ;)

 

Pour le transport d’énergie, la non-linéarité de la dynamique vibrationnelle, issue à la fois de l’anharmonicité intramoléculaire et du couplage entre les excitons et leur environnement, joue un rôle essentiel. ;)

 

Dans les années 80, A.S. Davydov a montré que la non-linéarité des vibrons favoriserait la création de soliton capable de transporter l’énergie sans se déformer. ;)

 

De plus, il a été montré que ces réseaux supporteraient des modes localisés intrinsèques (Discrete Breathers). ;)

 

 

Ces modes, correspondant à des vibrations de forte amplitude localisées dans l’espace, apparaissent très importants pour le stockage énergétique. ;)

 

Malheureusement, ces objets non linéaires classiques n’ont jamais été mis en évidence expérimentalement. A l’inverse, les états à deux vibrons liés, qui correspondent aux premiers états quantiques sensibles à la non-linéarité, ont été observés dans différents systèmes moléculaires adsorbés. ;)

 

Ces états traduisent la formation de pairs d’excitons stabilisées par la non-linéarité et capables de se propager par paquets. Ils apparaissent comme le pendant quantique des solitons ou des breathers et sont donc susceptibles de jouer un rôle clé dans le transport et le stockage de l'énergie. ;)

 

Dans cet exposé, certaines propriétés des états à deux vibrons liés dans les structures moléculaires de basse dimension sont présentées : durée de vie, couplage avec des phonons, propriétés de transport, « forme » de la fonction d’onde des pairs bi-vibroniques, formation de bi-polaron vibronique … etc. ;)

 

 

 

source;http://www.cemes.fr/r5_actu/pouthier.htm

 

 

aurevoir

Lien vers le commentaire
Partager sur d’autres sites

Boinjours tout le monde :be:

 

 

Une monocouche moléculaire est formée par un ensemble de molécules adsorbées régulièrement distribuées sur les sites d'un réseau de dimension D inférieure ou égale à 2. ;)

 

Le cas D=2 correspond à une monocouche moléculaire parfaite alors que le cas D=1 représente une chaîne adsorbée au voisinage d'une marche. ;)

 

Le cas intermédiaire, 1<D<2, traduit l'adsorption d'un ensemble de molécules confinées sur la terrasse d'une surface à marches. D’un point de vue théorique, la dynamique des vibrons est un problème de physique statistique quantique à N corps qui consiste à étudier la propagation d’excitations collectives de vibration interne en perpétuelle interaction avec leur environnement. ;)

 

Ce dernier caractérise l’ensemble des degrés de liberté externes de la monocouche et de la surface dont la dynamique donne naissance aux phonons et aux librons (excitations collectives des mouvements orientationnels) de l’adsorbat et aux phonons du substrat. ;)

 

Dans ce contexte, une théorie cinétique quantique fut établie afin de décrire les mécanismes de délocalisation cohérente des vibrons le long de la nano-structure ainsi que les processus irréversibles de relaxation liés au couplage avec l'ensemble des excitations de basse fréquence du système. ;)

 

Ce formalisme permet de décrire la transition entre un transport cohérent aux temps courts et un processus incohérent de diffusion aux temps longs. ;)

 

 

Qu' en pensez-vous :question:

 

Pour être honnête je n' y comprend pas grand chose à tout celà ;)

 

 

 

aurevoir

Lien vers le commentaire
Partager sur d’autres sites

Bonjours tout le monde :be:

 

La relativité restreinte lie espace et temps mais les définitions de la position spatiale, le rayon-vecteur r, et de la position temporelle, le temps t, restent identiques à celles de la mécanique classique. ;)

 

La présente hypothèse ne porte pas sur la relation entre l'espace et le temps mais sur l’espace et le temps eux‑mêmes, les deux définitions r et t. :?:

 

Il est montré ici comment il est suggéré par les valeurs des constantes physiques et comment il est possible, eu égard à toute l’observation, que ces actuelles définitions r et t sont des définitions faussées contenant l'approximation à zéro d’une constante cinématique — notée b — de nature à la fois quantique et gravitationnelle et de valeur infime mais non nulle ( b = 10—79 m.s ). ;)

 

 

La nouvelle conception de la position donne un caractère quantique et gravitationnel à tout référentiel, même galiléen. ;)

 

Elle fournit une explication à l’immédiate et persistante difficulté à unifier quantique et gravitation. ;)

 

Une forme plus avancée de l’hypothèse fait — via b — d’une pulsation et d’une ondulation de véritables coordonnées. ;)

 

Quantique et gravitation sont intégrées dans et dès la conception du référentiel galiléen et une définition de la position spatio‑temporelle est homogène à l’énergie-impulsion. ;)

 

A l’instar des deux concepts d’onde et de corpuscule — concepts approximatifs non quantiques fusionnés en l’unique concept de quanton — les deux concepts de matière et d’espace‑temps apparaissent comme deux concepts approximatifs non quanto‑gravitationnels à dépasser. ;)

 

L’hypothèse d’une part implique que partout dans la physique actuelle on néglige la moitié de l’espace‑temps et d’autre part explique pourquoi cette erreur, bien que concernant la moitié de l’espace-temps, reste jusqu’à présent imperceptible expérimentalement et théoriquement. ;)

 

L’hypothèse implique notamment que la relativité restreinte est un cas limite d’une façon analogue à la mécanique classique. Cette hypothèse recadre tous les problèmes actuellement posés — récents comme anciens. Elle indique des réponses à la question — moderne — de l'unification quanto‑gravitationnelle comme à la question — classique — du privilège des référentiels galiléens. ;)

 

 

 

source;http://members.aol.com/jflabopin/recherche.htm

 

 

 

aurevoir

Lien vers le commentaire
Partager sur d’autres sites

Salut à tous :be:

 

 

Merci pour ton texte :be:

 

Pour te répondre sur ceci;

 

La relativité restreinte lie espace et temps mais les définitions de la position spatiale, le rayon-vecteur r, et de la position temporelle, le temps t, restent identiques à celles de la mécanique classique.

 

Dis-moi pourquoi que ça reste identique :question:

 

 

amicalement

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.