Annonce

Réduire
Aucune annonce.

L'aventure du chat de Schrödinger

Réduire
Cette discussion est fermée.
X
X
 
  • Filtre
  • Heure
  • Afficher
Tout nettoyer
nouveaux messages

  • #16
    100% faux.

    Quant au principe de complémentarité, l’expérience d’Afshar ne le contredit pas, elle cherche seulement à prouver que les photons (utilisés dans l’expérience) présentent un comportement d’onde ET de particule dans la même expérience, ce que Bohr avait considéré comme un paradoxe (cf. : http://en.wikipdia.org/wiki/Afshar_experiment
    Faux. 100% faux.
    L'expérience confirme qu'il n'y a pas plus de dualité qu'il n'y a de beurre au, ... là ousque le dos change de nom. Il n'y a que des ondes.
    Il faut quand même lire les références, les vraies, et pas Wikipedia.

    Mais bien d'autres expériences courantes le prouvaient déjà, simplement on oubliait de les considérer.

    Je te résume tout simplement ce qu’on apprend en L3 à propos des transitions : On commence par l’approximation de Slater, on conclut (forcément) que c’est vraiment une approximation car ça implique une dégénérescence si le nombre quantique n est le même. On passe à la suite en calculant les termes de Russel-Sanders puis les termes spectroscopiques. C’est toujours de la mécanique quantique pour les nuls et l’équation de notre cher Schrödinger n’est pas loin. Avec les règles de sélection (bien expérimentales), on détermine les transitions possibles. Ceci ne couvre qu’une infime partie de la science des transitions qui s’inscrit bien dans le cadre de la théorie quantique.
    Wi wi, sauf que "transition" n'est alors qu'une boîte noire, où le physicien est interdit par principe, et dont on ne regarde que les entrées et les sorties.
    Je persiste donc et signe.
    Dernière modification par Caton, 05 janvier 2007, 20h34.

    Commentaire


    • #17
      Wi wi, sauf que "transition" n'est alors qu'une boîte noire, où le physicien est interdit par principe, et dont on ne regarde que les entrées et les sorties.
      Je persiste donc et signe.
      Un peu plus de détails svp ?

      Commentaire


      • #18
        Lis quand même les articles de Cramer

        Lis quand même les articles de Cramer.
        Et aussi ce que nous devons à Schrödinger.
        Soit en allemand aux comptes-rendus de l'académie des sciences de Prusse, soit en anglais dans la Physical Review, article reçu en septembre 1926, paru en décembre 1926.

        Il faut lire les mémoires originaux, ne pas se contenter des rumeurs.

        Le principe publié par Schrödinger en 1926, et systématiquement caché depuis par les vainqueurs : un photon est un battement entre deux états électroniques, du nuage électronique. Sa fréquence est la différence entre la fréquence intrinsèque de l'état final et celle de l'état initial. Idem à la réception. Les radio-électroniciens reconnaissent là le principe d'un récepteur super-hétérodyne.
        Alors seulement tu peux faire la physique de la poignée de main, du transfert synchrone, et du décrochage. Alors seulement tu peux aborder les questions de la longueur du photon, de sa durée, de sa définition fréquencielle, de la largeur du fuseau de Fermat durant ce transfert. Sinon, tu n'as aucune prise.
        Dernière modification par Caton, 06 janvier 2007, 17h49.

        Commentaire


        • #19
          Le principe publié par Schrödinger en 1926, et systématiquement caché depuis par les vainqueurs : un photon est un battement entre deux états électroniques, du nuage électronique. Sa fréquence est la différence entre la fréquence intrinsèque de l'état final et celle de l'état initial
          Qui a dit le contraire? On a toujours calculé les fréquences des raies d'émissions à partir de la différence d'énergie entre les deux niveaux correspondant à la transition (en utilisant le fameux E= h.nu).
          Les écrits de Cramer ne décrivent pas exactement le même phénomène et s'intéressent plus au mécanisme de ce qu'il appelle "transaction " (phénomène d'interférence).

          Commentaire


          • #20
            Et comment diable pourrait être la transaction,

            Et comment diable pourrait être la transaction, si elle n'est fréquentielle ?
            Avec accord de phase.

            Ouvre le Cohen-Tannoudji-Diu-Laloé, et cherche partout où pourrait bien apparaître le mot "fréquence", appliqué à un quelconque fermion, un électron par exemple. Puis reviens nous dire à quelle page tu en as trouvé.

            Moi je n'ai trouvé qu'une seule page, sur 1518.

            Le déni est toujours un élément diagnostic important, pour nous psychopathologistes. Applications aux secrets de famille, aux squelettes dans les placards, qui structurent la pathologie collective d'une famille, d'une institution...
            Dernière modification par Caton, 05 janvier 2007, 23h41.

            Commentaire


            • #21
              Ouvre le Cohen-Tannoudji-Diu-Laloé, et cherche partout où pourrait bien apparaître le mot "fréquence", appliqué à un quelconque fermion, un électron par exemple. Puis reviens nous dire à quelle page tu en as trouvé.
              Moi je n'ai trouvé qu'une seule page, sur 1518.
              Je ne suis pas spécialistes des scientifiques obscurs et puisque vous avez lu ce livre de C-T-D-L, pourquoi ne pas en faire un résumé qualitativement ? C’est comme ça que ça marche dans les discussions, on avance des arguments.

              Le déni est toujours un élément diagnostic important, pour nous psychopathologistes.
              Justement, c’est ce qui m’a surpris dans « l’hypothèse clandestine ». Dire que la mécanique quantique n’est pas complète est une tautologie car aucune science ne l’est. Mais oser dire « one ne connaît pas la structure de l’électron et on ne la connaîtra jamais. » c’est quand même prétentieux car on ne mise jamais sur le future. Je pourrait bien dire le contraire : « Dans quelques siècles, on disposera d’un instrument de mesure capable d’observer un électron dans un état unique. » mais ça ne brise pas les inégalité d’Heisenberg. Prenons un autre exemple, la turbulence. Tout le monde sait que la plupart des lois émises dans ce domaines sont empiriques voire fausses, mais les scientifiques ne se fatiguent pas à sortir des traités sur ce problème. On sait que ces lois sont fausses mais ça marche assez bien pour nos exigences actuelles. A moins qu'il y ait un génie capable de résoudre 10E29 équations différentielles non linéaires couplées pour trouver la solution exacte.

              Commentaire


              • #22
                Je constate que la discussion est close. Dont acte.

                Je constate que la discussion est close. Dont acte.

                Nous la poursuivons toujours sur fr.sci.physique.
                A bon entendeur, salut !

                Commentaire


                • #23
                  Vous m'avez mal compris. Je voulais juste que la discussion soit plus constructive et que chacun explique plus clairement ce qu'il pense. Je n'ai pas commencé le topic en disant "Les amis, je viens de lire un hors série de Science et Avenir qui parle du chat de Schrödinger, qu'en dîtes-vous? ". Ca aurait été plus facile mais ça ne se fait pas. Aux prépas, j'ai appris que le plus difficile en physique c'était l'explication "avec les mains" et c'est ce que j'essaye de faire. Je ne prétends pas maîtriser le sujet, loin s'en faut. Je voulais juste comprendre pourquoi il faudrait rejeter les bases de la physique quantique au profit de l'espérance d'un déterminisme complet. Pour l'instant rien n'est détaillé SUR CE FORUM.

                  Commentaire


                  • #24
                    Que voulez-vous savoir au juste ?

                    Que voulez-vous savoir au juste ?
                    Que vous manque-t-il à vos yeux ?

                    Commentaire


                    • #25
                      Bon, cette fois je pose une pertite question à la fois tout en restant le plus proche possible du problème de notre chat:
                      Serait-ce inutile de connaître la limite entre classique et quantique ? (pas de liens svp)

                      Commentaire


                      • #26
                        Lire les articles de Zurek et de Zeh sur la décohérence.

                        Lire les articles de Wojciech Zurek et de H.D. Zeh sur la décohérence. Ils font l'affaire, bien que leurs axiomes physiques de départ se situent à l'intérieur de la superstition dominante.

                        Commentaire


                        • #27
                          Bon, ça recommence. Au début je n'ai pas dit: "Lire le hors série de Science et Avenir concernant le paradoxe du chat de Schrödinger.", j'ai fait le résumé en une heure et je l'ai mis sur FA, j'espère que vous en ferez autant.
                          PS:
                          La théorie de la décohérence a été abordée dans l'article de Science et Avenir, elle donne une explication de la disparition de la fameuse superposition (état de chat) mais ne dit à partir de quelle limite le chaton devient chat, c'est justement la question que je viens de poser.
                          Dernière modification par Jigsaw, 06 janvier 2007, 13h27.

                          Commentaire


                          • #28
                            La doctrine au pouvoir au temps de cet apologue était anthropocentriste

                            La doctrine au pouvoir au temps de cet apologue était anthropocentriste. C'était l'observateur humain, donc macroscopique, qui était au centre de l'image, et qui était censé tout faire. C'était le psychisme de l'observateur qui était censé faire effondrer la fonction d'onde...
                            L'apologue de Schrödinger n'avait d'autre but que grossir l'absurdité, pour la rendre visible aux yeux de tous.

                            Je vais faire un copier-coller des postulats clandestins demeurés au pouvoir dans l'enseignement depuis ce temps-là :
                            ... nous nous sommes rendus collectivement aveugles à l'énorme hypothèse technologique qui fonde la géométrie que nous enseignons à nos bambins et à nos étudiants.

                            Nous verrons dans cet article, les conséquences désastreuses que le caractère inconscient et clandestin de cette énorme hypothèse injustifiable, a eu sur le développement de la physique fondamentale, depuis soixante-dix ans (en 1997... soixante-dix-neuf ans en 2006).

                            Les concepts premiers de notre géométrie sont fondés sur l’aventure technologique multimillénaire suivante : "On a toujours réussi à faire un pointage plus précis que le précédent, à faire un repérage géodésique, ou sur machine-outil, plus précis que le précédent, à tracer un trait ou usiner une arête, plus fins que les précédents, à dresser un marbre plus plan que le marbre précédent. » Nous crûmes correct d’en déduire : « Donc nous avons bien raison d'extrapoler qu'on pourra toujours faire mieux, plus fin, plus précis... NOUS NE BUTERONS JAMAIS SUR L'ATOMICITÉ DE LA MATIERE NI DE LA LUMIERE ! Donc nous avons raison de tabler sur les termes ultimes de notre extrapolation, que nous hypostasions : points, droites, lignes, plans, surfaces, positions, coordonnées, hypothèse du continu, suites de Cauchy, autosimilitude à toute échelle, et il y a autant de points sur l'ongle d'un bébé que dans l’Univers entier, etc. etc. etc. "

                            C'est ce que dénommerons l'HYPOTHESE MACROSCOPIQUE (HM) : "Nous sommes tellement loin de la limite atomique, que nous ne l'atteindrons jamais." L'ennui, c'est que depuis un siècle, nous autres physiciens, et depuis quelques cinquante ans nous autres ingénieurs, butons en plein sur cette limite atomique. L’aventure technologique multimillénaire est épuisée !

                            Familiarisons-nous avec les conséquences quotidiennes dans l'enseignement et dans la vulgarisation, de cette HM clandestine :

                            Toute bonne animation vidéo, concernant des atomes et des électrons, nous amuse les yeux avec des petits grumeaux mauves, figurant les noyaux, encerclés de petites billes vertes, qui tourbillonnent autour, et qui sont censées figurer les électrons, conformément au modèle de Rutherford, conçu en 1911, et connu comme définitivement invalide quinze ans plus tard. C'est tellement mignon et fascinant, qu'on adore y croire... Sauf que tout y sacrifie à l'HM ! Pour que nous puissions ainsi voir les petites billes, avec une position, une forme, des ombres et des reflets, et même une couleur, il est indispensable qu'il existe quelque chose de plus petit que lesdites "billes", pour explorer des telles propriétés supposées (position, taille, forme), et les transmettre à notre œil. Pour les objets macroscopiques que peut manipuler notre main nue depuis 70 millions d'années (je désigne là notre ancêtre Purgatorius, présimien arboricole), cet informateur plus petit existe : c'est la lumière visible. En effet, la longueur d'onde de la lumière visible, et donc son pouvoir séparateur, est de l'ordre du demi micromètre. Mais cette lumière visible est bien incapable de nous renseigner sur les détails d'un atome : elle est au moins un million de fois trop grosse pour cela. Autant espérer être renseigné sur un bouchon qui flotte sur la mer, en observant comment est diffractée une macro-houle, dont l'intercrête soit de plusieurs kilomètres (de telles houles existent, et même d'encore plus longues ; j'en ai chronométrée une, d'une période de trois minutes et demi, en septembre 1965, dans le port de Lampaul, minuscule port d'Ouessant).

                            En réalité, nous sommes en butée sur la limite atomique : il n'existe rien de plus petit qu'un électron, ni qu’un photon, et qui soit assez durable pour être accessible à nos expériences. Il n’est rien qui puisse nous définir la structure, la forme, ni la taille d'un électron, comme la lumière visible nous renseigne sur la forme d'une fleur, et sur sa réflectance spectrale (ses « couleurs », en termes humains). Et si on emploie de la lumière plus petite ? Des photons gammas, dont la longueur d’onde est plus petite, permettraient au moins de localiser l’électron ? Catastrophe ! Voilà que sous l’impact avec l’électron, ces gammas peuvent se matérialiser en une paire électron-positron, de masses positives ! Et tous les trois partent dans des directions différentes ! Fichu, le renseignement espéré sur la position de l’électron-cible, considéré comme un corpuscule à la Newton ! Plus grave encore : presque tous les calculs que l'on enseigne, permettant d'estimer un "diamètre classique de l'électron", ou ce genre de choses, sont basés sur l'HM, donc invalides dès le départ. Même le concept de "corpuscule" hérité de Newton et de son "point matériel", est entièrement dépendant de l'HM. Le concept de "corpuscule" est tout aussi invalide et indéfendable que l'HM, dès qu'on aborde la physique fondamentale. Malheureusement, il est enseigné partout, notamment sous la forme du "dualisme onde-corpuscule", commis par Einstein vers 1905, et transporté tel quel dans la vulgate de Copenhague, notamment par Niels Bohr. Il nous encombre donc partout.

                            Nous avons commis l'erreur infantile de croire que, bien que physiquement rien au monde ne put nous renseigner sur la structure, la forme, ni même la taille d'un électron, néanmoins ce genre de choses devaient exister et avoir un sens. Si nous étions des mathématiciens conséquents et rigoureux, nous aurions depuis longtemps posé cette question embarrassante: "ET VOUS DÉMONTREZ CELA COMMENT ? que ce genre de trucs soient pourvus de sens ? ".

                            Car justement, cette conviction héritée, n'a aucun fondement, et n'en aura jamais. Tous les jours, aussi bien l'expérience, que la cohérence interne du formalisme quantique, démentent tout espoir de validité de l'HM, et de ses conséquences : existence de position, forme, taille, etc. des particules élémentaires telles que photons, électrons, ou neutrinos. Toute la gent mathématicienne a oublié de procéder à un inventaire critique de l’héritage platonicien, selon lequel « l’idée » est plus forte que la réalité matérielle, et peut donc se passer de toute épreuve de réalité : on prétend n’avoir pas besoin qu’il existât une opération expérimentale, puisqu’il nous suffit d’imaginer. Autrement dit : l’hallucination (ici: des points matériels, et corpuscules, et de leurs coordonnées ayant la puissance du continu) vaut mieux que l’expérience vérifiable, et par conséquent, nous en dispense !

                            Si le formalisme quantique réussit si bien à produire des calculs de prédictions statistiques valides, à partir d'hypothèses invalides, c’est parce qu'il n’utilise en fait jamais les hypothèses invalides, strictement hallucinées, par lesquelles on l'enseigne. Le formalisme quantique est strictement ondulatoire : il n’y a QUE des ondes. Tandis que nous, êtres macroscopiques et massifs, résidons à distance inaccessible des périodes brogliennes où battent ces ondes brogliennes :

                            Tau0 = = 4,4016 . 10^-24 s/cycle pour un neutron à basse vitesse. Nous sommes réduits à ne constater que le résultat global et durable de transactions entre émetteur et récepteur qui se sont déroulés en des durées qui nous inaccessibles. Ce résultat global à notre échelle humaine, est quantifié. Toutefois, l’exactitude des calculs a exigé que nous tenions compte de ces transactions ondulatoires, par le biais du concept de « particules virtuelles, hors de leur couche de masse ». Nous sommes comme un observateur de Sirius qui se demanderait comment font les camions (les objets les plus fins qu’il puisse discerner) pour découvrir leurs clients à livrer, et solvables, s’imaginant qu’ils partent en maraude sur les routes (en maraude sur les rails, pour les wagons de marchandises), et ignorant tout des flux d’écriture et de voix, de télex ou fax entre fournisseurs, clients et banquiers; il aurait peut-être inventé lui aussi le concept de « camions virtuels et wagons virtuels ». Ou du point de vue de la puéricultrice qui saurait tenir la comptabilité des arrivées et départs de bébés dans sa crèche, tout en ignorant tout de l’amour et de la biologie de la reproduction : elle pourrait suppléer à son ignorance de tous les flirts et brouilles, de toutes les péripéties sentimentales et sexuelles de ses contemporains, de leurs orages et de leurs deuils, par la théorie des « bébés virtuels ».
                            Coupé pour taille limite dépassée. Suite après.
                            Dernière modification par Caton, 06 janvier 2007, 13h53.

                            Commentaire


                            • #29
                              Postulats clandestins, suite.

                              Suite de la citation précédente.
                              2 . Topologie plus grossière que prévue.

                              Nous nous sommes vus buter sur une contradiction : il n’existe rien de plus petit que les électrons, les photons, et quelques autres entités similaires, qui puisse définir ce que pourrait bien signifier « petit », dans notre espace-temps humain. L’espace de la réalité physique est donc topologiquement bien moins fin que la droite R, et aussi moins fin que le principe d’exclusion de Pauli. Nous sommes incapables de localiser ni d’individualiser les deux électrons S d’un atome d’hélium neutre. Ils occupent à eux deux le même « emplacement géométrique » (au sens de notre espace-temps macroscopique, qui n’a aucune compétence prouvée à leur échelle) dont on connaît assez bien le flou et l’étalement gaussien. Seul le principe d’exclusion les sépare : spins opposés. De même, on est incapables de localiser les électrons de conduction d’un métal : chacun occupe à peu près tout le métal, et sa longueur d’onde dépasse largement les distances interatomiques.

                              Il arrive encore une autre mésaventure à notre espace-temps humain : les quarks ne s’y individualisent jamais, ne s’y déconfinent jamais. On sait faire des expériences où les jets de hadrons trahissent un début de séparation de quarks, mais ça s’arrête là. La « couleur », et le principe d’exclusion de Pauli sont plus fins (au sens topologique) que notre espace macroscopique. Ces damnés quarks sont donc plus « petits » que le sens même du mot « petit ». En disant cela, on n’a pas vraiment dit quelque chose sur ce que les quarks sont ou ne sont pas; on a dit quelque chose sur ce que notre espace macroscopique humain n’est pas.


                              3 . Bavures sur le temps

                              Habitués à l’autosimilitude par l’analyse sur la droite R, nous avons aussi transporté sans méfiance cette présomption d’autosimilitude sur la dimension temps. Ainsi, nous nous sommes dispensés de toute espèce de preuve quant au transport du postulat d’irréversibilité du temps macroscopique, qui est d’origine statistique (et qui dans le domaine statistique, est bel et bien un théorème démontré), vers le temps individuel de chaque particule. C’est l’HM temporelle. Toutes les expériences démontrent le contraire, mais qu’importe ! Nous sommes obstinés; et aveugles à la demande.

                              Chez les mathématiciens, pas d’ambivalence : le formalisme est présumé avoir toujours raison contre les objections qui s’appuient sur des faiblesses dans les significations. Nous sommes même facilement outrecuidants à ce sujet, n’extrapolant que les success stories de l’histoire de l’algèbre.

                              Chez les physiciens, l’ambivalence se module selon les spécialités. En fait, la coupure historique vient de Dirac, de son équation pour l’électron (1928), de ses solutions à énergies négatives qui embarrassaient tout le monde, jusqu’à la découverte expérimentale du positron en 1932. Mais on a conservé complet, l’oubli des solutions à masses négatives, pourtant elles aussi présentes dès les équations de la Relativité restreinte de 1905, réécrites vers 1908 dans les concepts géométriques de Minkowski, et aussitôt oubliées :
                              E^2 = m^2.c^4 + p^2.c^2 . On en jugeait la signification absurde. Seulement absurde si on regarde en macroscopique, soumis à la thermodynamique statistique. Mais certainement pas absurde si l’on se rappelle qu’à l’échelle d’une particule d’onde, d’une entité d’onde quantique en cours de propagation (fut-elle stationnaire), la causalité s’écoule simultanément depuis les deux réactions quantiques sommitales : la réaction de création, et la réaction d’annihilation. De nombreuses expériences (à commencer par celles d’Aspect & al. vers 1982) ont tranché : la réaction de création est inséparable de la réaction d’annihilation. Dire qu’un écran a reçu un électron de masse positive, est exactement la même chose que de dire qu’il a émis un antiélectron, de charge positive, d’énergie négative, et de masse négative, à rebours du temps macroscopique, et donc à fréquence négative. Les deux descriptions sont physiquement équivalentes. Mais seule la seconde description résout les paradoxes sur lesquels butait l’imaginaire de la quantique : l’onde électronique peut très bien se concentrer à sa réaction d’annihilation, tout en ayant été assez diluée dans l’espace, durant le trajet entre les deux réactions quantiques ; elle a donc pu se prêter à tous les phénomènes d’interférences constatés expérimentalement. Le principe de Fermat implique une certaine largeur des fuseaux de cohérence de phase, qui est facile à calculer. J’ai montré ailleurs[1] comment calculer la largeur des fuseaux de Fermat selon la longueur d’onde, et la longueur du trajet enjambé :

                              = (1 + + + ...). Où z est la flèche au milieu du fuseau, a est la demi-corde, ou demi-distance entre émetteur et récepteur considérés comme ponctuels, e est le quotient de la longueur d’onde par a.

                              Second exemple : dire qu’une molécule (grande de 5 Å environ) a absorbé un photon infrarouge un million de fois plus grand qu’elle, est la même chose que de dire qu’elle a émis un photon d’énergie négative, à rebrousse temps. Et vous avez résolu le problème de la convergence de cet immense photon sur cette minuscule molécule : au signe près, c’est le même que celui de la divergence de l’émission de l’antiphoton, d’énergie négative. En radioélectricité, le phénomène est bien connu : une antenne réceptrice concentre le champ dans son voisinage, et modifie l’impédance vue par l’émetteur. Mais l’orgueil corporatif est ainsi fait, que l’information ne percole pas des techniciens vers les théoriciens : un singe de rang élevé, est incapable de rien apprendre qui lui vienne d'un singe de rang hiérarchique inférieur. Cela a été amplement prouvé chez les macaques du Japon, et c'est vrai aussi des humains...

                              Oui, bien sûr, les physiciens avaient une seconde excuse pour oublier des choses aussi simples : il avaient peur qu’on les confonde avec les diseuses de bonne aventure, et être aussitôt exclus du club, s’ils osaient raisonner trop ouvertement et clairement sur la causalité microscopique à rebrousse temps. Mais si vous ne leur aviez pas martelé à ce point, dès l’enfance, le dogme de l’autosimilitude à toute échelle de la droite R, ils se seraient autorisés à distinguer l’échelle macroscopique de l’échelle particulaire, ce qu’ils ne savent toujours pas faire clairement. En particulier, ils sont à ce jour (1999) encore incapables de discerner entre l’échelle anthropocentrique, où l’on traite statistiquement des événements d’échelle quantique, et où l’on calcule des ondes d’ignorance statistique (à la dilution fulgurante), et l’échelle quantique, où aucune onde quantique individuelle ne diverge au hasard, mais a bien une destination définie. D’où leur malaise secret envers des concepts aussi pathologiques que la « réduction du paquet d’onde ». Concepts pathologiques, car issus de non-sens confusionnels. Là encore, non seulement on a cru que la topologie fine de la droite R, convenait pour décrire la partie temporelle de l’espace-temps, mais en plus, on a cru que ce temps est universellement partagé, « cinématiquement compatible » partout. Or, il n’y a rien de cinématiquement compatible entre les divers « grains » du temps. Voici l’exemple de grains d’espace-temps qui s’étalent sur une quinzaine de milliards de nos années macroscopiques : des photons du rayonnement fossile à 2,7 K, qui n’avaient plus interagi avec rien depuis que l’Univers leur est devenu transparent, arrivent maintenant dans nos radiotélescopes. Et pour eux, à temps propre nul, l’émission et la réception sont simultanées : c’est un seul et même grain de temps, individuel. Notre temps macroscopique, avec sa thermodynamique irréversible, n’est qu’une émergence statistique d’un immense réseau de granules tous discordants entre eux.

                              Vous eussiez dû rappeler aux physiciens qu’en théorie des graphes, tout arc joint deux sommets... car en diagrammes de Feynman, quatre arcs sur cinq n’ont qu’un seul sommet. La faute de logique est ouvertement dessinée, aux yeux de tous. Mais l’aveuglement de chapelle isolationniste, joue à plein.

                              Dans un diagramme de Feynman, la réaction quantique correspond aux apex du graphe. Deux apex sont reliés par un propagateur : propagation d'un photon, existence d'un électron, etc. Mais tout propagateur devrait relier deux apex, et on l’oublie.
                              Ceci est extrait, avec pertes des figures et formules, de http://lavaujac.club.fr/GEOMETRIE_infond.htm qui est disponible en ligne depuis août 2003.
                              Dernière modification par Caton, 06 janvier 2007, 13h51.

                              Commentaire


                              • #30
                                Mais je l'ai déjà lu cet article et ça ne répond pas à la question. Le problème est tellement simple: ce qui est macroscopique n'est pas forcément classique, comment faire pour connaître le comportement d'un système donné.

                                Commentaire

                                Chargement...
                                X