Note sur l'auteur

 

Dans cette introduction j’explique mon histoire, et les heureuses circonstances scientifiques et technologiques qui ont permis la création et la publication de cet e-book.

Je m'appelle Maurizio Vignati, je suis né en 1941 et j’ai obtenu mon diplôme en physique à l’Université de Rome “La Sapienza”.

J’ai commencé à avoir de profonds doutes sur la théorie du Deuxième Principe de la Thermodynamique à partir de la deuxième année d’études universitaires. Je croyais que la formulation de cette théorie était en contradiction profonde avec la Méthode Scientifique de la Physique Classique qui m’avait été enseignée.

Comme on le sait, la Méthode Scientifique prévoit que différents critères généraux soient respectés lorsqu’on analyse un problème de Physique Classique.

Tout d’abord, en Physique on ne considère que les phénomènes qui se produisent. Au contraire, le Deuxième Principe de la Thermodynamique est fondé sur un axiome relatif à quelque chose qui ne devrait pas exister, car il interdit à l’Homme de construire une certaine machine thermique.

Par exemple, l’axiome exprimé en 1903 par le grand scientifique Max Planck (1858-1947) affirme :

Il est impossible de construire une telle machine qui, fonctionnant en un cycle, produise un effet autre que l’extraction de chaleur d’une réserve (de chaleur - NdR) et la production d’une valeur équivalente de travail.”

À cette première contradiction vient s’y ajouter une seconde : on m’avait enseigné que l’élaboration logico-mathématique de l’axiome permet de déduire un Principe qui devrait représenter le comportement de phénomènes thermiques naturels : le fameux Principe d’Augmentation de l’Entropie.

Cela m’a semblé une anomalie paradoxale, puisque l’axiome fait référence aux capacités technologiques de l’Homme; je me suis donc demandé comment il était possible pour un axiome qui interdit à l’Homme de construire une machine thermique de donner naissance à un Principe de Nature.

Ces doutes m’ont tourmenté bien au-delà de mes études universitaires, et m’ont poussé à rechercher un système physique qui puisse contredire l’axiome.

Plusieurs années plus tard, vers 1975, lorsque je travaillais déjà  dans un organisme public comme physicien Expert Qualifié (dans le domaine de la sécurité contre l’exposition aux rayonnements), j'ai eu une intuition prometteuse en relisant mes anciennes notes de Physique Terrestre.

C’était le chapitre sur la tension de vapeur saturée des gouttelettes de brouillard.

Comme tous les météorologues le savent, la pression de vapeur déterminée par une goutte d’eau n’est pas constante mais, à température égale, elle dépend du rayon de courbure de la goutte.

Plus ce rayon est petit, plus la tension de vapeur saturée augmente.

Ce phénomène est à l’origine d’une instabilité des dimensions des minuscules gouttelettes d’eau qui forment le brouillard.

En effet, l’augmentation de la tension de vapeur saturée d’une goutte d’eau (qui est déterminée par son rayon de courbure) a pour conséquence une augmentation de l’évaporation à la surface de la goutte, comparativement à une surface d’eau plane présente dans le même environnement. Cette perte de contenu engendre une diminution du rayon des gouttes, et par un effet en cascade, l’augmentation du taux d’évaporation.

Le résultat est que les gouttelettes tendent à devenir de plus en plus petites, de plus en plus rapidement au fur et à mesure qu’elles s’évaporent.

Mon intuition m’a alors suggéré que le contraire devait aussi être vrai.

En consultant un célèbre texte de Chimie-Physique sur le sujet, j’ai compris que mon intuition était juste : si le rayon de courbure au lieu d’être convexe (comme c’est le cas pour une goutte) est concave (comme c’est le cas pour un ménisque), alors la tension de vapeur saturée diminue à mesure que diminue le rayon de courbure convexe.

À ce moment précis j’ai eu une autre intuition: la vapeur capturée par les ménisques, au lieu de faire diminuer la teneur en eau liquide sous-jacente (comme c’est le cas pour une goutte), aurait tendance à la faire augmenter. Mais, contrairement à ce qui se passe dans le cas d’une goutte, cette augmentation de la masse liquide ne peut plus déterminer une variation du rayon concave de courbure, car les molécules de vapeur capturées confluent immédiatement dans la masse d’eau située en dessous du ménisque.

Ainsi, alors que le ménisque capture la vapeur d’eau éventuellement présente dans le milieu environnant, son rayon de courbure tend à rester constant.

Je venais donc de trouver une sorte de piège qui semblait être capable de capturer, même à une température constante et uniforme, toutes les molécules d’eau en phase de vapeur éventuellement présentes dans son environnement.

Il fallait maintenant résoudre le problème de la création d’une surface d’eau de forme concave de grandes dimensions; pour que ce « piège à vapeur » soit efficace, il semblait nécessaire augmenter énormément la surface concave exposée à la vapeur.  

La solution fut trouvée comme suit: si l’on rapproche deux cylindres en verre immergés dans l’eau, la tension superficielle aspire le ménisque vers le haut le long de la ligne de contact des deux cylindres (la génératrice du cylindre).

Plus le diamètre des cylindres en verre est petit, plus le rayon de courbure concave est petit, plus le ménisque monte vers le haut.

Fig. 1

Par conséquent, pour avoir une grande surface d’eau avec un petit rayon concave de courbure, il suffit d’immerger dans l’eau un grand nombre de cylindres en verre en contact mutuel ; ceux-ci doivent avoir un très petit diamètre - le plus petit possible.

Je devais donc créer un récipient que l’on puisse fermer hermétiquement, au fond duquel il aurait fallu introduire un volume d’eau, qui aurait eu une surface plane. Une atmosphère saturée de vapeur se serait formée dans le volume fermé, dont la pression de vapeur aurait été déterminée par le fait que la surface liquide était plane.

Ensuite, il fallait introduire à l’intérieur de ce volume fermé un récipient ouvert vers le haut (comme un verre ou un vase de Dewar) surélevé par rapport au liquide à surface plane.

À l’intérieur de ce vase de Dewar, je devais introduire un grand nombre de cylindres en verre de très petit diamètre en contact mutuel ; le tout comme indiqué dans la figure suivante.

Fig. 2

Le fonctionnement auquel je m’attendais était le suivant :

Puisque le verre est hygroscopique, les cylindres en verre auraient capturé, tôt ou tard, des petites quantités d’eau et, lentement, des ménisques se seraient formés le long des différentes génératrices des cylindres en verre en contact mutuel.

Ces ménisques auraient donc commencé à capturer la vapeur d’eau du volume fermé et le liquide en excès aurait glissé le long des génératrices en se dirigeant vers l’intérieur du vase de Dewar et en s’accumulant à la base des ménisques. Une surface d’eau plane se serait donc formée à un niveau piézométrique supérieur et avec des dimensions inférieures par rapport à celle initialement introduite dans le volume fermé.

Au fur et à mesure que le temps passait, la quantité d’eau à surface plane présente au niveau piézométrique supérieur aurait dû augmenter et, proportionnellement, diminuer au niveau piézométrique inférieur.

Pour les cylindres en verre, j’ai utilisé des fibres de verre de petit diamètre récupérées de câbles à fibres optiques utilisés en ophtalmologie. Pour le récipient j’ai utilisé un pot en verre hermétiquement scellé avec un volume d’environ 300 ml.

Restait le problème de maintenir l’ensemble du système à une température constante; faute d’un thermostat, j’ai décidé de tenter l’expérience en enfermant le tout à l’intérieur d’un placard plein de livres.

Il ne s’agissait pas d’une expérience scientifiquement significative, mais je n’avais pas d’autre choix.

D’autre part, les variations de température que le dispositif aurait subies se seraient produites lentement, ce qui (compte tenu également de la petite taille du conteneur) aurait pu raisonnablement déterminer une situation très similaire à celle qui pouvait être obtenue à l’aide d’un thermostat.

Après plusieurs mois d’attente, j’ai découvert que le dispositif s’était comporté conformément à mes attentes : tout le liquide s’était concentré à l’intérieur du vase de Dewar et le fond du récipient hermétique en verre était totalement sec !

L’eau était montée toute seule contre la force de gravité, uniquement grâce à la température.

Cela montrait que mes doutes concernant le Deuxième Principe de la Thermodynamique étaient fondés, même si je ne pouvais certes pas m’attendre à ce que mon expérience soit prise en compte par d’autres physiciens.

En fait, la température n’était pas restée constante, mais de mon point de vue, le résultat obtenu m’incitait à continuer à rechercher d’autres moyens plus significatifs pour démontrer le caractère erroné de ce Principe.

De nombreuses années se sont écoulées sans que rien de significatif ne se passe mais, au cours de mes études en Physique, un autre doute m’était venu concernant le théorème de Carnot: je n’étais guère convaincu que la performance du cycle de Carnot puisse avoir la même valeur lorsque le gaz exécute le cycle à proximité de la température critique. J’ai alors cherché dans les bibliothèques de Rome de la documentation sur les gaz réels pour effectuer ce type de vérification.

Un jour, dans les années ‘80, j’ai trouvé une publication sur les propriétés thermodynamiques de l’Argon - un gaz rare, souvent utilisé dans les expériences et l’instrumentation scientifique.

L’ouvrage s’intitulait “Thermodynamic Properties of Argon From the Triple Point to 300 K at Pressures to 1000 Atmospheres” – NSRDS –NBS-27 (“Propriétés Thermodynamiques de l’Argon du Point Triple à 300 K sous des Pressions allant jusqu’à 1000 Atmosphères” – NSRDS –NBS-27).

C’était une publication de niveau exceptionnel pour son époque (1969), car non seulement elle rapportait les propriétés thermodynamiques de l’Argon sous forme de tableaux, mais les auteurs avaient également réussi à réaliser une équation de type algébrique de ce gaz, qui représentait très précisément ses propriétés thermodynamiques réelles, même à proximité du Point Critique - un aspect très important pour les objectifs que je m’étais fixés.

Les auteurs avaient également réussi à réaliser des équations algébriques pour les fonctions dérivées, telles que l’Énergie Interne, l’Entropie, etc.

Grâce à cette documentation complète, j’ai réussi à écrire des programmes informatisés (en langage GW-BASIC) me permettant de calculer l’évolution de variation des performances de cycles thermodynamiques idéaux, tels que le cycle de Carnot, le cycle de Stirling et le cycle d’Ericsson, au fur et à mesure que leur position changeait dans le plan Pression-Volume.

Fig. 3

Fig. 4

Fig. 5

Les programmes calculaient numériquement les performances des cycles, sur la base du Premier Principe de la Thermodynamique, et les comparaient aux performances théoriques établies par le Deuxième Principe de la Thermodynamique.

Pour les cycles idéaux de Stirling et Ericsson, il a été nécessaire d’imaginer l’utilisation de récupérateurs parfaits de chaleur, car  ces cycles thermodynamiques idéaux peuvent être bouclés uniquement par l’emploi d’un dispositif idéal.

Afin d’introduire ces récupérateurs parfaits de chaleur dans les programmes informatisés, j’ai dû élaborer des théorèmes ad hoc.

Plusieurs années plus tard, entre 1985 et 1986, j’ai enfin pu recueillir des résultats qui se sont avérés très surprenants.

En ce qui concerne le cycle de Carnot, mes calculs ont confirmé la constance des performances idéales, à température de fonctionnement égale, quel que soit le positionnement de ce cycle, conformément à ce qui est prévu par la théorie actuelle, même à proximité de la température critique (contrairement à mon intuition).

Fig. 6

Cela a également été confirmé pour le cycle de Stirling avec récupérateur parfait de chaleur.

Fig. 7

Le cycle d’Ericsson avec récupérateur parfait de chaleur faisait, par contre, exception à la règle. Lorsque ce cycle avait lieu à des pressions basses et à des températures nettement supérieures à celles de la Température Critique, les performances calculées numériquement rentraient dans les valeurs prévues par la théorie courante du Deuxième Principe de la Thermodynamique.

Par contre, lorsque le cycle avait lieu à des pressions proches de celles du point critique et à des températures légèrement supérieures à la température critique, la progression des performances du cycle d’Ericsson étaient considérablement différentes de celles du cycle théorique, atteignant parfois des valeurs deux fois plus élevées que les valeurs théoriques.

Fig. 8

J’ai cherché en vain des erreurs, à la fois dans les programmes informatisés et dans les théorèmes; mais les résultats étaient bien ceux-là et, ce qui est très important, ils ne reposaient pas sur un théorème (le théorème de Carnot), mais sur le Premier Principe de la Thermodynamique. En outre, ils ne concernaient pas un gaz imaginaire, comme le gaz parfait pris en considération par la théorie, mais un gaz réel.

De plus - ce qui est extrêmement important pour moi - le cycle d’Ericsson qui présentait les performances les plus élevées était réversible !

Par conséquent, s’il existait un cycle d’Ericsson réversible aux performances plus élevées que celles du cycle de Carnot, ce que le théorème de Carnot interdisait devenait alors possible: on pouvait imaginer de combiner ces deux machines, l’une opposée à l’autre, pour créer une seule machine capable d’exploiter entièrement la chaleur et de la transformer en travail mécanique - ce que l’on peut définir comme une Machine Thermodynamique Parfaite (MTP), interdite par l’axiome fondamental de la thermodynamique.

Mais des calculs informatisés ultérieurs basés sur le NBS-27 et sur mes théorèmes m’ont fait découvrir une réalité encore plus bouleversante : il existait un couple de cycles d’Ericsson adjacents qui, une fois opportunément opposés, pouvaient constituer la Machine Thermodynamique Parfaite que l’on vient de mentionner.

C’était quelque chose de très différent de la construction idéale déjà citée, consistant en un cycle de Carnot et un cycle d’Ericsson. En fait, le cycle de Carnot est un cycle idéal (imaginaire), alors que les deux cycles d’Ericsson susmentionnés sont réalisables.

Il devenait donc clair pour moi que la construction idéale du théorème de Carnot, (qui  - pour rappel - interdit l’existence d’une MTP composée de deux machines thermiques fonctionnant en opposition mutuelle), au lieu d’être impossible, est la seule qui puisse garantir la conception d’une machine thermique complexe capable d’exploiter entièrement la chaleur absorbée en la transformant en travail utile.

Cela était évident pour moi, car mes calculs démontraient l’absence de fondement de l’axiome qui était à la base de la théorie du Deuxième Principe de la Thermodynamique.

En fait, je venais de découvrir non seulement un dispositif qui contrevient au Deuxième Principe de la Thermodynamique, mais aussi une méthode permettant de convertir toute la chaleur en travail utile.

Cette méthode consiste à opposer deux systèmes thermodynamiques aux performances différentes entre deux températures de fonctionnement : soit justement ce que le théorème de Carnot interdit.

C’est alors que j’ai décidé de déposer en Italie une demande de brevet intitulée “Metodo di conversione dell’energia termica in lavoro e convertitore che ne risulta” (“Méthode de conversion de l’énergie thermique en travail et convertisseur qui en résulte”.

La demande de brevet que j’ai présentée le 26 janvier 1987 porte le n° 4756687.

En connaissance de cause, je m’attendais à ce que ma demande soit refusée sur le prétexte de la violation du principe de conservation de l’énergie.

Mais contre toute attente, le certificat de brevet m’a été accordé le 14 avril 1989 sous le n° 1206242.

Entre temps, deux événements scientifiques importants concernant le problème énergétique sont survenus.

Le premier a eu lieu vers la fin du mois de septembre 1988. L’agence “New China” venait d’annoncer une nouvelle bouleversante (pour la physique) : un scientifique chinois, le Dr. Xu Yelin, avait inventé, construit et mis en service une machine capable de “générer une petit courant électrique en utilisant uniquement la température ambiante”.

Fig. 9

Cette nouvelle a été publiée le 7 octobre 1988 par le quotidien italien Il Messaggero, bien qu’elle soit reléguée à la page n° 11, à l’instar d’autres événements d’importance secondaire.

Grâce à l’institut italien pour le Commerce Extérieur j’ai réussi à obtenir un exemplaire de la publication du Dr. Xu Yelin.

Xu Yelin avait pratiquement réalisé la Machine Thermodynamique Parfaite, interdite par le Deuxième Principe de la Thermodynamique : une machine à mouvement perpétuel de la Deuxième Espèce.

Fig. 10

Cet événement contrastait nettement avec une annonce publiée dans le numéro de janvier 1988 du magazine scientifique italien “Sapere”. Dans ce numéro, Sapere avait publié à la page n° 4 une annonce intitulée “Mouvements perpétuels et assimilés”.

Dans le préambule de l’annonce on informait que le magazine reçoit fréquemment des projets et des théories concernant diverses inventions ou techniques, surtout concernant (notez bien!) les Machines à Mouvement Perpétuel !

Aux auteurs de toutes ces demandes de publication actuelles et futures, le magazine répondait en s’appuyant sur le texte de la résolution adoptée en 1775 (mille sept cent soixante-quinze) par l’Académie Royale des Sciences de Paris. Puisqu’il est facile de trouver ce texte sur le net, je n’en cite ici que la première phrase :

Cette année l’Académie a approuvé la résolution de n’examiner aucune solution aux problèmes concernant les sujets suivants : la duplication du cube, la trisection de l’angle, la quadrature du cercle ou n’importe quelle machine permettant de démontrer le mouvement perpétuel

Un autre évènement très important est survenu le 23 Mars 1989, lorsque Martin Fleischmann (renommé professeur britannique en Electro-chimie) et le chimiste américain Stanley Pons ont annoncé dans une simple conférence de presse, la découverte d’un nouveau phénomène physique capable de produire la fusion nucléaire à la température ambiante.

Après ces événements, j’ai décidé de me confronter avec un professeur de physique qui était considéré comme l’un des plus grands experts du Deuxième Principe de la Thermodynamique.

Je le connaissais bien car il avait été aussi mon directeur de thèse à la faculté de Physique.

J’ai remis à ce professeur aussi bien une copie de la publication de Xu Yelin que les résultats de mes calculs basés sur la publication NBS-27, et j’ai attendu qu’il examine ces éléments.

Lors de notre rencontre, je l’ai trouvé hostile vis-à-vis des deux documents que je lui avais fournis. Au sujet de la publication de Yelin, il n’a même pas voulu en discuter, affirmant (sans pourtant fournir aucune justification) que cette étude ne pouvait pas représenter un experimentum crucis pour le Deuxième Principe de la Thermodynamique.

Concernant mes calculs, il s’est montré contraire, justifiant son rejet par une série d’arguments extrêmement génériques, ce qui m’a finalement laissé complètement insatisfait.

Je me suis donc persuadé qu’il était nécessaire d’exposer à d’autres chercheurs ce que j’avais découvert en publiant moi-même un livre.

Dans l’un des plus importants mémoires de Clausius, publié en 1854, j’ai remarqué une erreur de nature logique concernant la démonstration de son célèbre et homonyme Intégral.

Il m’a fallu environ trois ans pour résumer mes arguments afin qu’ils soient décemment présentables sous forme de livre.

Ensuite j’ai commencé à envoyer le texte rédigé en italien à des éditeurs nationaux qualifiés dans le domaine scientifique.

Je n’ai reçu que des réponses négatives, accompagnées de rapports rédigés par des experts anonymes, lesquels justifiaient le rejet par des raisons ridicules.

C’étaient les Réviseurs, qui, désignés à cet effet par l’Éditeur, appliquaient la procédure de la soi-disant “Évaluation par les Paires”. J’ai donc appris que, si un texte scientifique ne passe pas cette procédure, non seulement il n’est pas publié par les éditeurs scientifiques qualifiés, mais, même s’il était publié par d’autres éditeurs, il ne serait pris en considération par aucun scientifique.

C’était en 1993 et ​​c’est à ce moment-là que j’ai décidé de « passer en force ».

J’ai fondé une maison d’édition et publié le livre en italien sous le titre “Riflessioni sulla Potenza Motrice del Calore Ambientale – e sulle macchine idonee a sviluppare questa potenza(“Réflexions sur la Puissance Motrice de la Chaleur Environnementale - et sur des machines propres à développer cette force”). Le titre était délibérément provocateur, car il rappelait le célèbre titre du livret publié en 1824 par Léonard Sadi Carnot.

La première chose que j’ai faite a été d’en envoyer un exemplaire gratuit à toutes les bibliothèques universitaires italiennes.

Lorsque, après quelques années, j’ai été obligé d’arrêter l’activité de la maison d’édition, un total d’environ 300 exemplaires du livre avaient été distribués (vendues ou donnés).

Entre-temps, j’ai travaillé à la promotion de mes idées et, à la suite de cela, j’ai été invité à exposer mes thèses sur le Deuxième Principe de la Thermodynamique à l’occasion de conférences de vulgarisation, auxquelles participaient et assistaient également des scientifiques et des professeurs qui se sont bien gardés de prendre position sur ce que j’exposais.

En 2000, un autre événement scientifique de relief est survenu : un magazine scientifique chinois en ligne a publié un deuxième mémoire de Yelin, dans lequel le scientifique décrit une autre diode capable de remplir une fonction similaire à celle du diode réalisé en 1988, car il convertissait l’énergie thermique environnementale directement en électricité.

Cependant, alors que le dispositif construit en 1988 était une diode à vide pneumatique, celui conçu en 2000 consistait en une diode à semi-conducteurs construite selon la technologie des circuits intégrés.

Fig. 11

J’ai été informé de cet événement vers 2003-2004. Ce deuxième mémoire de Yelin n’est écrit qu’en chinois, mais il a probablement été découvert dans les pays occidentaux, car il présente un résumé en anglais:

« Expérience et analyse sur la diode nonbias

Xu Yelin

(Institut de Biophysique, Académie des Sciences Chinoise, Pékin, 100101)

Abstract: Une diode nonbias est une diode qui réalise la conductivité dans une seule direction sans un courant ou un voltage de polarisation. À cause de l’agitation thermique des electrons de conduction d’un conducteur ou semi-conducteur, lorsque les deux extrémités d’une diode nonbias sont connectées avec un fil, un courant continu qui peut piloter une charge traverse le fil. Les performances sont aujourd’hui de 100mV et 0,1 microampère. Le voltage a déjà atteint sont maximum tandis que le courant a encore de grandes potentialités d’augmentation. La diode nonbias a donc de larges perspectives d’application. Le présent document introduit la méthode de construction, les résultats de mensuration des performances, l’analyse du principe de fonctionnement et l’analyse énergétique de la diode nonbias. L’énergie de la diode nonbias est le résultat d’une effective application du cycle naturel »

Par la suite, grâce à un autre signalement, j’ai réussi à repérer les dix demandes de brevet relatives à ce nouveau type de dispositif déposées dans divers pays par l’Académie Chinoise des Sciences.

Même après la fermeture de ma maison d’édition, j’ai longtemps poursuivi mon travail de vulgarisation et, entre autres, j’ai résumé le contenu essentiel de mon étude sur le Deuxième Principe de la Thermodynamique dans le rapport introductif de la conférence : “Controversie su Termodinamica e Vita(Controverses sur la Thermodinamique et la Vie), tenue le 15 décembre 2008 à l’Université de Rome III.

Vincenzo Valenzi, l’organisateur de la conférence, a également été actif comme promoteur de la publication de mon rapport (traduit en anglais) dans le site du CIFA-ICEF (Comité International de Recherche et d’Étude des Facteurs de l’Ambiance).

Ce rapport est disponible sur le site www.cifafondation.org sous CIFA News (n° 44, janvier-juin 2011) avec le titre : “Reflections on the Second Principle of Thermodynamics”. “Réflexions sur le Deuxième Principe de la Thermodynamique”.

À l’occasion de cette conférence, j’ai distribué gratuitement à tous les scientifiques présents un CD contenant mon rapport introductif et d’autres fichiers de support.

J’espérais ainsi susciter une quelconque réaction ; que des conditions puissent être créées pour engager un débat sur le sujet, mais rien de tel ne s’est produit.

Le seul participant qui a finalement réagi s’était déjà exprimé négativement sur mon approche et a par la suite maintenu son opposition.

Tous ces efforts n’ont abouti à aucun résultat : personne ne croyait que mes calculs étaient corrects, mais surtout (ce qui est encore plus grave) personne ne semblait prendre au sérieux l’information que Yelin avait réussi à concevoir et à construire non moins de deux dispositifs capables de violer l’axiome fondamental du Deuxième Principe de la Thermodynamique.

Cependant, cette expérience négative a eu au moins deux effets positifs.

Le premier : j’ai compris que la vérification de mes calculs numériques était très coûteuse à réaliser : quiconque eût souhaité le faire aurait dû examiner de manière critique un trop grand nombre de concepts.

Premièrement, il fallait étudier les théorèmes que j’avais développés spécifiquement en relation avec le cycle idéal de Carnot et avec les cycles de Stirling et d’Ericsson avec récupérateur parfait de chaleur.

Deuxièmement, il fallait examiner les programmes informatiques que j’avais écrits en langage symbolique GW-BASIC, destinés à calculer les performances des cycles thermodynamiques idéaux en question.

Du point de vue des physiciens et des scientifiques, tous ces efforts ne semblaient pas justifiés. Chacun d’entre eux aurait dû mener ces vérifications lui-même, car le livre n’avait pas été soumis au processus d’Évaluation par les Paires actuellement utilisé.

D’autre part, ces physiciens et scientifiques avaient de bonnes raisons de croire à l’existence d’erreurs dans mes raisonnements et dans mes calculs, puisque la théorie de Kelvin et Clausius développée dans la seconde moitié du XIXème siècle était encore de leur coté.

Il est vrai que dans mon livre j’avais signalé l’existence d’une erreur de logique dans le mémoire de Clausius de 1854, mais à l’époque de la publication (1993), je n’ai pas eu le courage d’insister sur cet aspect, qui est donc resté exposé de façon presque secondaire et sans importance.

Le deuxième aspect positif a été une prise de conscience: le scepticisme avec lequel les deux travaux fondamentaux de Yelin avaient été accueillis était dû à la même dévotion des scientifiques envers la théorie dynamique de la chaleur de Clausius.

En mars 2013, un nouvel événement scientifique important s’est produit : le magazine Nexus New Times (édition italienne) a révélé une autre nouvelle bouleversante concernant le Deuxième Principe de la Thermodynamique (dans l’édition internationale de Nexus New Times, le mois de divulgation est différent).

La rubrique “SCIENCE NEWS”, éditée par la Direction de ce numéro 102 du magazine italien, s’intitulait : “Quenco: un convertisseur d’énergie quantique”. Aux pages 49 et 50, était affiché le communiqué de presse des inventeurs dans lequel ils annonçaient le lancement commercial imminent d’un convertisseur d’énergie thermique appelé justement “Quenco”.

L’annonce comprenait le résumé tiré de la demande de brevet déposée en ligne le 16 octobre 2012. Le nom QUENCO, donné par les inventeurs à ce dispositif, est en fait l’acronyme de “Quantum Energy Convertor”.

L’article publié par Nexus New Times citait les sources de l’information ; il s’agissait du site Internet KeelyNet.com, 26 octobre 2012; page d’accueil de Quenco, 24 octobre 2012

http://www.quentron.com.

Le site (maintenant disparu du net), fournissait quelques informations sur le principe de fonctionnement de ce dispositif.

Selon le communiqué de presse, le Quenco fonctionnerait grâce au phénomène physique du saut quantique des électrons à travers une barrière électriquement isolante interposée entre deux métaux (le soi-disant “effet tunnel”), à condition que cette barrière soit de très faible épaisseur, de l’ordre de 1 nm (un nanomètre).

Fig. 12

Dans le communiqué de presse on soulignait le fait que même à la température ambiante égale à 20° C ou à 293 K (293 degrés Kelvin), il y a des électrons libres (ou presque libres) qui, grâce à l’agitation thermique perpétuelle des molécules (voir : Mouvements Browniens), possèdent des énergies cinétiques équivalentes à des températures même de 600 K (600 degrés Kelvin, soit environ 327° C).

Cependant, on sait bien que ces valeurs dépendent de la nature de la couche superficielle du métal. Par conséquent, si de ce côté-là de la barrière, qui deviendra une anode, on place un métal avec un faible travail d’extraction, et de l’autre côté, qui deviendra une cathode, on place un métal avec un travail d’extraction élevé, à température égale, il y aura beaucoup plus d’électrons qui sauteront de l’anode vers la cathode.

Sans aucun doute, même le dispositif Quenco, basé sur une très mince barrière électriquement isolante interposée entre deux conducteurs de compositions différentes, se compose, dans sa structure générale, de deux systèmes thermodynamiques opposés (c’est-à-dire travaillant en opposition), dont l’un prévaut sur l’autre.

Par analogie avec les deux systèmes conçus par Yelin, le Quenco se compose, lui aussi, en termes généraux, de la juxtaposition de deux systèmes thermodynamiques ayant des propriétés différentes ou, en utilisant des termes simplifiés, des “performances” différentes en termes d’émission électronique.

Que ceci soit précisément l’aspect général du dispositif, on peut le prouver en considérant que, si les deux électrodes étaient composées du même métal, ou que le dispositif était de nature à rendre identiques les deux flux d’électrons opposés, aucun principe de fonctionnement ne pourrait plus être identifié.

Il semble clair que même ce dispositif ne peut pas comprendre une seule source de chaleur; s’il fonctionnait conformément aux intentions de ses inventeurs, il devrait y avoir deux sources de chaleur à des températures différentes. La première devrait correspondre à l’environnement, avec sa température variable ; la seconde, moins chaude, devrait apparaître spontanément et serait constitué d’une zone située à l’intérieur du dispositif.

En ce qui concerne le flux de chaleur nécessaire pour fournir l’énergie dissipée dans la résistance de charge, il serait produit par cette différence de température ; il proviendrait donc de l’environnement et il serait dirigé vers ladite zone interne moins chaude. Ainsi, en fait, seule la source constituée par l’environnement fournirait l’équivalent (en termes de chaleur) de l’énergie dissipée dans la résistance de charge.

La structure décrite serait en condition de favoriser le saut quantique dans une direction par rapport à la direction opposée. De cette manière, l’électrode dans laquelle les électrons devraient converger pour la plupart, acquerrait une charge électrique négative, laquelle aurait tendance à ralentir l’arrivée d’autres électrons.

Par conséquent, ces électrons, “... perdent de la vitesse (ils deviennent plus froids) mais gagnent en énergie potentielle (énergie électrique potentielle). Quenco est donc une réalisation parfaite du Démon de Maxwell et viole donc, selon la pensée actuelle, la Deuxième Loi de la Thermodynamique, même si en réalité il ne peut que prouver que les interprétations de Kelvin-CLAUSIUS étaient erronées. (tiré du communiqué de presse)”  

Selon la page publiée sur Internet le 3 novembre 2013 par Quenco (Quantum Energy Convertor), une production d’électricité  immédiate d’environ 1 ampère par centimètre carré était attendue à température ambiante. Mais en utilisant des métaux avec un travail d’extraction plus faible, on s’attendait à ce qu’on atteigne non moins de 10000 A/cm2.

Si ces valeurs étaient atteintes, en connectant un nombre suffisant de ces dispositifs en série pour atteindre un voltage suffisamment élevée, on pourrait alimenter le moteur d’un bateau.

On pourrait ainsi réaliser ce que Kelvin considérait impossible dans la Note * à la page 13 de son mémoire de 1851 :

Si cet “axiome” n’était pas valable pour toutes les températures, il conviendrait d’admettre qu’une machine autonome pourrait être mise en marche et produire un effet mécanique en refroidissant la mer ou la terre, sans aucune limite autre que celle de la sortie totale de chaleur de la terre et de la mer ou, en réalité, de tout le monde matériel”.

À la page 49 du numéro de mars 2013 du magazine Nexus New Times (édition italienne) déjà cité, on décrivait une expérience incroyablement simple que n’importe qui peut reproduire pour prouver la violation de l’axiome de Kelvin concernant le Deuxième Principe de la Thermodynamique.

Selon la nouvelle, attribuée à Philip Hardcastle et datée du 22 octobre 2012, il s’agirait de prendre une vanne thermo-ionique (dans le cas d’espèce, la pentode Philips E180F) et de connecter avec un fil conducteur l’anode et une grille n° 3 (grille de suppression) pour assembler la première électrode. L’autre électrode est constituée de la cathode. Selon Hardcastle, toutes les autres électrodes en saillie par rapport au tube à vide peuvent être coupées.

La source journalistique rapporte que lorsqu’on place la pentode dans un four, aux extrémités des deux électrodes non connectées à une charge résistive, une tension électrique apparaît, laquelle à une température de 500 à 550° C peut atteindre une valeur d’environ 850 mV.

En connectant par contre les deux électrodes à une charge, le courant électrique atteint quelques pA (picoampères) au-dessous de 400° C, alors qu’il peut atteindre des valeurs de quelques µA (microampères) vers les 500° C.

Cela semble indiquer que ce système fonctionne comme une diode sans polarisation de Yelin dans sa première conception. En fait, la pentode est sous vide pneumatique ; l’anode et la troisième grille sont composées de métaux à faible coefficient d’émission, tandis que la cathode présente une couche superficielle à coefficient d’émission élevé et/ou à faible travail d’extraction électronique.

De plus, comme la pentode est dans le four, chacune de ses parties prend la température du four lui-même et aucune différence de tension interne ne peut donc être créée entre les métaux.

La ressemblance avec le dispositif de Yelin apparaît également évidente dans le fonctionnement : la cathode, grâce aux éléments à faible travail d’extraction qui la composent, émet beaucoup plus d’électrons en raison de l’effet thermo-ionique par rapport à l’anode et à la 3ème grille, de sorte que la cathode devient positive et l’anode devient négative.

Les autres électrons tirés par la cathode vers l’anode doivent vaincre le champ électrique opposé qui se forme spontanément au début, et qui tend à les ralentir (ce qui équivaut à leur refroidissement), exactement comme c’est le cas dans les diodes de Yelin et dans le convertisseur Quenco.

Si l’anode et la cathode avaient les mêmes propriétés d’émission et de réception d’électrons, l’expérience de Hardcastle ne pourrait pas fonctionner.

Ces deux nouvelles étaient beaucoup plus importantes pour moi que celles concernant les deux dispositifs de Yelin.

L’expérience de Hardcastle semble être plus significative en ce qui concerne la violation de l’axiome du Deuxième Principe de la Thermodynamique, que celle de Yelin, car pour le réaliser on n’a pas besoin de construire quoi que ce soit, mais simplement d’acheter un tube thermo-ionique, qui est disponible à un prix dérisoire sur le marché.

L’expérience relative au dispositif Quenco semble, elle aussi, être beaucoup plus importante que les deux réalisées par Yelin.

En fait, la diode pneumatique à vide sans polarisation réalisée par Yelin en 1988 peut produire un très faible courant électrique; celui à l’état solide réalisé en 2000 est plutôt compliqué et difficile à construire, tandis que le dispositif Quenco consiste en une simple barrière électriquement isolante interposée entre deux conducteurs de courant électrique.

Ces nouvelles, qui, à mon avis, auraient dû figurer à la une de tous les journaux et constituer le thème d’ouverture de tous les journaux télévisés, sont par contre restées totalement ignorées.

C’est donc en 2013 que j’ai décidé d’intervenir à nouveau sur le sujet, en écrivant et en publiant un deuxième livre - celui-ci.

Désormais, j’avais identifié les erreurs que j’avais commises lors de la rédaction de mon premier livre et je pouvais donc les éviter.

Premièrement j’avais mis les lecteurs en difficulté sur les calculs mathématiques relatifs à la performance du cycle d’Ericsson ainsi que sur la compréhension de mes théorèmes.

Mon autre erreur était d’avoir à peine souligné l’erreur de logique commise par Clausius dans son mémoire de 1854.

J’avais également compris que, pour atteindre l’objectif que je m’étais fixé, il fallait démolir la théorie thermodynamique développée par Clausius, laquelle rendait invraisemblable, aux yeux des scientifiques, toute machine capable de violer l’axiome qui sous-tend la théorie elle-même.

Il ne restait plus qu’une dernière difficulté à surmonter : les scientifiques ne lisent pas, ou ne prennent pas en considération, un livre qui n’a pas été soumis à la procédure d’Évaluation par les Paires en usage aujourd’hui.

J’ai décidé d’ignorer cette procédure et de poursuivre mon chemin. 

Mon nouveau livre devait respecter trois critères : il devait s’agir d’un livre électronique; je devais mettre en évidence autant que possible l’erreur de logique de Clausius; il devait s’agir d’un livre  destiné au grand public, lisible même par ceux qui n’avaient aucune notion de thermodynamique ou mathématiques.

C’est ainsi que j’ai commencé à m’aventurer dans le travail incertain de rédiger un livre électronique visé à démanteler la théorie dynamique de la chaleur actuellement en vigueur.

Heureusement, le mémoire de Clausius de 1854 avait été numérisé et mis à disposition pour consultation sur internet; je pouvais le citer dans mon livre et ajouter un lien vers la source.

Au cours de mon travail, j’ai découvert que tous les autres ouvrages ou mémoires de Clausius et des autres Pères Fondateurs de la théorie dynamique de la chaleur avaient également été numérisés et mis en ligne. Encore une fois, j’ai pu identifier des erreurs de logique dans tous les théorèmes démontrés par les Pères Fondateurs.

Force est de constater que ces erreurs interviennent toujours avant que les théorèmes eux-mêmes fournissent l’opportunité d’invoquer l’axiome fondamental qui a été placé à la base de la théorie dynamique de la chaleur.

Malgré mes prévisions pessimistes, j’avais enfin atteint mon objectif  !

J’ai donc décidé de perfectionner mon étude du Deuxième Principe de la Thermodynamique et de répéter l’expérience de Hardcastle en suivant des procédures plus efficaces, ce qui m’a permis d’obtenir des résultats positifs supérieurs à mes attentes.

Fig. 13

Au bout de plus de cinq ans de travail, j’ai pu prouver que la théorie thermodynamique n’est pas défendable, indépendamment de l’axiome, car elle a toujours contenu des erreurs de Logique qui n’avaient jamais été découverts.

En répétant et en améliorant l’expérience de Hardcastle j’ai également réussi à démontrer que l’axiome lui-même est erroné.

Voilà comment et pourquoi ce livre électronique est né.