CARDINALES n°1

CARDINALES n°1

Dr Nikola Tesla : Qu’a-t-il découvert et pourquoi il est tombé dans l’oubli ? Antigravitation, Armes Scalaires, OVNIs....

 

 

Dr Nikola Tesla

Publié le par José Pedro 

                                                                                          

“Dr Nikola Tesla a été considéré comme l’une des personnes les plus célèbres sur Terre.

Aujourd’hui, il a disparu de nos livres et des manuels scientifiques.

Qu’a-t-il  découvert et pourquoi il est tombé dans l’oubli? ”

Nexus Magazine

Nikola Tesla – l’homme qui a éclairé le monde

  • Existe-t-il dans l’histoire de l’humanité quelqu’un qui aurait rendu possible le rêve de l’être humain d’obtenir une énergie libre et gratuite?
  • Pourquoi aujourd’hui, seuls les inventions et les progrès techniques fusent en matière d’appareils informatiques, téléphone portable et malgré cela, nous vivons avec une technologie obsolète, vieille, polluante sans progrès visibles pour l’être humain?
  • Pourquoi les inventions et les brevets innovants, efficaces, presque gratuits, sont-ils rapidement achetés et stockés dans les tiroirs de l’oubli?

Autant de questions qui ont une réponse et une réalité ténébreuse qui persiste de nos jours comme une grande main noire qui s’étend même dans les racines les plus profondes d’une société qui se tait et consent.

Nikola Tesla est né le 10 juillet 1856 dans un petit village appelé Smiljan (Croatie actuelle). Son père était un pope orthodoxe. Il a fait ses études à Graz et Vienne et il a terminé son éducation à Paris.

Le physicien serbo-américain a travaillé depuis 1884 comme assistant de Thomas Edison . Plus tard, il a créé son propre laboratoire à New York. En 1891, il avait inventé un grand nombre de dispositifs utiles.

Lors d’une conférence de presse, Tesla a annoncé un moteur à rayons cosmiques. Lorsqu’on lui a demandé s’il était plus puissant que le radiomètre de Crooke, il répondit “des milliers de fois plus puissants.”

En 1891, il fait breveter ce qui pourrait un jour devenir son invention la plus célèbre: la base pour la transmission sans fil du courant électrique, connu sous le nom de bobine Tesla.

“… À travers tout l’univers il y a de l’énergie: est-elle statique ou cinétique? Dans le premier cas nos espoirs sont vains, dans le second – et cela nous le savons avec certitude – il ne s’agit seulement que d’une question de temps pour que les hommes réussissent à attacher leurs machines aux engrenages de la nature ” Nikola Tesla

Nikola se félicitait avant tout que ses inventions aideraient l’humanité plutôt que d’avoir un prix ou une reconnaissance, même économique; de sorte qu’à son époque, beaucoup moins aujourd’hui, aucun scientifique ou inventeurs ne serait disposés à offrir à la société.

Son cœur était aussi grand que son intelligence et ses inventions, dont beaucoup ont été oubliés par la pauvreté dans laquelle il a vécu sa dernière étape de la vie.

Tesla était fasciné par l’énergie rayonnante et son potentiel à devenir de l’énergie libre. Il savait qu’il était possible d’exploiter l’énergie directement par “connexion à la véritable force de la nature.”

Le vaisseau Terre nécessitait un plan de vol moderne. Tesla voulait aider les pays défavorisés. Il savait, et rien n’a changé, que des milliers de personnes meurent de faim chaque jour, dont beaucoup d’enfants.

Nikola Tesla pensait que ceux qui dirigent notre économie, dans le monde occidental, nous permettent de profiter d’un niveau de vie élevé, de loisirs par rapport à nos voisins au sud de la ligne imaginaire que nous appelons limite. L’énergie dirige l’économie des pays et le but de la vie de Tesla était de rendre l’énergie également accessible et disponible pour l’ensemble des personnes, n’importe où sur la planète, mais cela l’a coulé, a t-il dit.

Il faisait l’objet  d’attaques directes personnelles, tentant de ternir sa brillante carrière et de l’isoler dans la misère abjecte.

Cependant, contre toute attente, il a continué à promouvoir son plan pour la transmission d’énergie sans fil.

             . Pourquoi  l’énergie n’a pas été encore donnée à égal accès pour toutes les personnes et tout les pays?

Nikola était un homme plein de contradictions, sérieux et réservé, mais également charmant.

Bien qu’il était seul, il savait attirer les gens autour de lui. Mince et grand, toujours parfaitement habillé, avec sa posture élégante et aristocratique, il attirait l’attention.

Il est mort à 86 ans.

Ses inventions et théories ont été soigneusement oubliées.

  • Pourquoi?
  • Que s’est-il passé en réalité?
  • Qui voulait que ses inventions tombent dans l’oubli?

Pendant queques temps, Tesla a travaillé avec Edison et il l’admirait. Mais Edison ne le respectait pas, il le fit travailler 18 heures par jour, sept jours par semaine afin de résoudre les problèmes techniques qu’il avait.

 

 

Tesla a décrit comment il pourrait améliorer les effets du générateur d’ Edison, ce dernier a répondu:

“Je vais vous donner 500 $ si vous parvenez à le faire.”

Après des mois de travail, Nikola réussi. Edison, sans donner l’argent promis, a déclaré:

“Tesla, vous ne comprenez pas l’humour des Américains.”

En réponse, Tesla est parti. Edison enviait le grand cerveau de Tesla et son arme était l’humiliation.

Il a ensuite commencé à travailler sur la construction et plus tard il a créé son propre laboratoire. Mais les monopolisateurs de l’énergie avaient beaucoup de pouvoirs et ne voulaient pas des changements.

Tesla a dit qu’il pourrait offrir des informations et de l’énergie sans utiliser de fils, mais les magnats des banques avaient déjà acheté les mines de cuivre pour couvrir une grande partie du pays avec des réseaux câblés pour la distribution d’énergie.

Tesla a continué à développer la transmission de l’énergie libre pour tous dans le laboratoire construit en 1889 dans les montagnes de Colorado Springs .

Il a créé une tour haute tension afin de démontrer le transport d’énergie sans fil et gratuite et il a demandé plus d’argent pour continuer les recherches, ils lui ont refusé intentionnellement.

Le “projet Wardenclyffe “, dénommé ainsi, a dû être abandonné par manque de fonds et la tour fut détruite.

En 1934, Tesla a fait une interview pour le journal The Times et il a dit:

” J’espère vivre assez longtemps pour être en mesure de placer un dispositif dans cette pièce qui se met en marche avec l’énergie de l’environnement qui se meut autour.”

Quand Tesla est décédé, ses grandes inventions des 10 dernières années ont été oubliées, et volontairement, on a fait en sorte qu’il soit connu pour son excentricité.

Deux faits importants ont fait tomber sur lui tout le poids de l’ignorance :

  • Son refus d’envoyer les articles à la communauté universitaire, par conséquent ils étaient opposés à toutes ces fabuleuses inventions
  • Son souci constant d’obtenir une énergie libre, gratuite pour tout le monde, quelque chose que logiquement les seigneurs et les puissants de ce monde n’étaient pas disposés à permettre, dans un monde fait pour être exploités seulement par eux.

À sa mort, l’histoire manipulée tentée d’effacer son empreinte et d’exalter des hommes comme Edison qui a été proclamé comme étant le père de l’énergie et qui a rejoint sans hésitation les critiques contre Tesla en dépit que sans lui, Edison n’aurait été personne.

En 1901, Marconi a envoyé son fameux signal radio en disant avoir inventer la radio.

Mais il a utilisé 17 brevets de Tesla et la Cour suprême a corrigé l’erreur en 1943, après la mort de Tesla. Malgré ce verdict, l’histoire s’est chargée d’effacer ce grand homme qui a travaillé pour l’humanité et non pour leur propre profit ou au profit de quelques-uns.

Il était à contre-courant et ils lui ont scellé un destin vers l’oubli.

Nikola Tesla créait ses inventions au bénéfice de l’humanité . C’est pour cela qu’ il n’était pas en conformité  avec l’industrie de l’époque,  qui voyait son travail comme un grand danger pour les sources de revenus.

La situation n’a pas changé aujourd’hui. Les multinationales ne permettant pas qu’on puisse connaitre ou mettre en œuvre le travail de Tesla. Ils commettraient des assassinats si les inventions de ce grand homme seraient fabriquées.

Parmi ses réalisations, figurent les inventions suivantes:

  • la radio
  • le moteur à courant alternatif
  • il lutter pour l’étude d’un standard électrique
  • la lampe à pastille de carbone (lumière de haute intensité)
  • le microscope électronique
  • l’avion décollant et atterrissant  verticalement
  • la résonance
  • le radar
  • sous-marin électrique
  • les rayons-X
  • la bobine Tesla
  • la télécommande
  • le rayon de la mort
  • méthodes et outils pour le contrôle du climat
  • transmission de la vidéo et des images par des méthodes sans fil
  • Transfert d’énergie sans fil
  • systèmes de propulsion des moyens électromagnétique
  • extraction de l’énergie en grande quantité à partir de n’importe quel point de la Terre, etc.

Il doit être considéré comme le plus grand savant et le meilleur inventeur  de l’histoire .

Tesla est mort seul, oublié, abandonné, comme tous les grands savants de l’histoire dans sa chambre d’hôtel à 86 ans. Il a été retrouvé par une femme de ménage le jour suivant.

Le jour même, au cours de la Seconde guerre mondiale, le FBI était chargé de réquisitionner tous les matériaux, des caisses, des carnets de notes… le Rapport Tesla étant créé, ils réalisaient des contrôles dans ces lieux où Nikola Tesla pouvait avoir des annotations ou des références de ses inventions.

Aujourd’hui, tout son travail est toujours sous secret d’État.

  • Pourquoi?
  • De quoi ont-ils peur?
  • Ont-ils le secret de l’énergie libre et gratuite de Tesla et est-ce non souhaitable que ça tombe dans les mains de la société, car tout le modèle économique que nous ont imposé les multinationales et le pouvoir économique serait brisé?

Le gouvernement invisible qui est derrière le réel dirige la société et la soumet à ces caprices. Ils ont réalisé un travail gigantesque sur Nikola Tesla, en l’effaçant de l’histoire, en prenant soin qu’il soit vu comme un excentrique et un fou, l’amenant à la ruine et la mort dans l’oubli.

Ceci est son histoire, son héritage, sa vie, sa réalité et il a été coulé  pour vouloir offrir au monde un niveau de vie dont il ne jouit pas aujourd’hui.

Nous devons le sortir de l’oubli, le mettre sur un piédestal puis exiger que ses découvertes  cessent d’être séquestrées et qu’ils se mettent au service du progrès mondial.

Source: http://www.bibliotecapleyades.net/tesla/esp_tesla_40.htm  

http://www.snastro.org/media/pf_Introduction_geologie.pdf

 
UN NOUVEAU MODÈLE :

 

Nous sommes sur le point de parler de quelque chose concernant la santé et la nutrition qui est probablement tout nouveau pour vous. Ce sujet n’est pas en soi difficile à comprendre, mais puisqu’il représente un changement de modèle total sur la façon dont vous regarderez la santé et la nutrition, nous devrons y aller par étapes.Nous allons apprendre comment inclure l’énergie qui guéri dans des produits alimentaires. Aussi, pour tout expliquer, nous devrons examiner quelques secteurs très ésotériques comme les hautes mathématiques et les particules subatomiques. Ne vous affolez pas, ce ne sera pas si compliqué et après chaque section difficile, je récapitulerai ce que vous êtes en train de lire et vous n’aurez plus qu’à vous souvenir de l’essentiel. Nous allons aussi apprendre comment les fréquences d’énergie qui guérissent sont transférées des produits que vous ingérez dans chaque cellule de votre corps avec des implications profondes pour une meilleure santé.Cela étant dit, commençons :  

La Nature de l’Énergie Toute l’énergie à laquelle nous pensons normalement est caractérisée tout autant par la particule que par des propriétés semblables à celle d’une vague. La forme d’onde de toutes ces énergies peut être représentée sur un graphique comme une vague hertzienne (forme sinusoïdale).

Energie1
Que nous parlions de l’électricité, du magnétisme ou de la lumière pour nous éclairer, la seule différence entre toutes ces formes d’énergie se trouve au niveau de ces vagues qui montent et descendent (la fréquence) ainsi que de l’intensité des hausses et des chutes (leur amplitude).  

 

L’Énergie Scalaire L’Énergie Scalaire, cependant, est un élément différent. L’énergie scalaire basse à toujours existé depuis le début de temps, cependant, c’est seulement récemment que les scientifiques l’ont découverte et ont commencé à s’en servir.En réalité c’est vers le milieu des années 1800 que l’on a d’abord proposé l’existence de l’énergie scalaire par une série de 4 équations révolutionnaires du mathématicien écossais, James Clerk Maxwell.

Energie2
Juste une petite explication, « H » se réfère au champ magnétique. « E » se réfère au champ d’énergie. La plupart des autres symboles sont des lettres grecques comme epsilon et delta. Le triangle à l’envers représente le Différentiel Vectoriel.  

 

Mais oubliez tout cela. La clef de ces équations, ce qui les rend remarquables dans l’histoire est l’utilisation du symbole « P » qui représente la Densité de Charge Scalaire, c’est la première représentation que l’on a théoriquement proposé pour l’existence de l’énergie scalaire. C’est presque un demi-siècle plus tard que Nicola Tesla fut capable de démontrer réellement l’existence de l’énergie scalaire. Quand Tesla est mort, il a emporté son secret avec lui et il a fallu presque un autre siècle tout entier avant que la science ne soit de nouveau capable de démontrer positivement l’existence de l’énergie scalaire et de pouvoir explorer son potentiel  

Qu’est ce qui est Scalaire ? Des ondes ? La définition standard des ondes scalaires, c’est qu’elles sont créées par une paire de vagues identiques (communément appelées la vague et son anti-vague) qui sont en phase dans l’espace, mais déphasées temporellement. C’est-à-dire que les deux vagues sont physiquement identiques, mais déphasées de 180 ° en termes de temps. Le résultat est que ces vagues scalaires sont entièrement différentes des ondes hertziennes normales.

Energie3
Différentes comment ? L’énergie scalaire diffère des champs électromagnétiques hertziens standard dans un certain nombre de directions importantes :  

 

D’abord, elle ressemble plus à un champ qu’à une onde. Au lieu de courir le long de fils ou se déplacer dans des rayons, elle a tendance « à remplir » son environnement. Cela devient très important pour développer la technologie de fixation sur des produits avec l’énergie scalaire.  

L’énergie scalaire est capable de pénétrer des objets solides sans perte d’intensité. En fait, c’est exactement ce que Tesla a démontré il y a plus de 100 ans quand il a projeté une vague scalaire par le sol sans perte de force des champs. De nouveau, c’est essentiel pour développer la technologie de fixation sur des produits avec l’énergie scalaire.  

Elle implante sa signature sur des objets solides. C’est en réalité le coeur de la question. Tous les champs électriques peuvent implanter leur signature sur des objets, mais pas autant que l’énergie scalaire. Cela devient extrêmement important quand nous parlons du mécanisme de fixation du champ d’énergie sur des produits et ensuite quand cette charge est transférée des produits dans chaque cellule de notre corps.  

L’énergie scalaire peut se régénérer et se réparer elle-même indéfiniment. Cela a aussi des implications importantes pour le corps. Autrement dit, une fois que la charge est implantée, vous pouvez la conserver avec l’ingestion régulière de produits chargés.  

En fait, les bonnes fréquences scalaires ont une gamme entière d’effets avantageux et profonds sur le corps humain. (Nous les détaillerons très bientôt.)  

Dans la communauté du Nouvel Âge il y a eu beaucoup de discours sur les bénéfices que peuvent apporter les Tachyons, la Radionique, les Pyramides, etc… L’analyse montre que ce sont tous, au fond, des dispositifs produisant des effets scalaire mais, ils ne peuvent avoir l’efficacité que donne l’ingestion de produits traités avec l’énergie scalaire.  

Production d’Énergie Scalaire Actuellement, des ondes scalaires peuvent être produites de nombreuses façons. Par exemple, vous pouvez les produire électroniquement, magnétiquement, physiquement (selon le mouvement d’une bande de mobius) ou optiquement (par le mouvement de modèles de phase sur un moniteur d’ordinateur). Vous pouvez aujourd’hui acheter des montres-bracelets qui incorporent le déplacement mobius des bandes qui produisent des champs scalaires protecteurs.  

Fixation de l’Énergie Scalaire sur des Produits Comme je l’ai mentionné au début, toute la vie est fondamentalement basée sur l’énergie et donc, toute la vie a des éléments de structures capables de tenir une charge scalaire. En effet, les mêmes structures qui permettent à la charge scalaire d’être incorporé dans des produits admettent aussi que la charge puisse être transférée au corps humain par ces mêmes produits.Par exemple :  

* Il y a beaucoup de structures cristallines dans chaque paroi cellulaire, toutes capables de tenir une charge.  

* Il y a beaucoup de structures à cristaux liquides dans le réseau de collagène comprenant tout l’espace entre les cellules. Elles sont aussi capable de tenir une charge.  

Et dans notre ADN ? Nous allons devenir très abstraits pendant un moment, avant que nous ne commencions à simplifier les choses et résumions tout cela.  

Il y a les modèles de Mécaniques Quantiques qui décrivent les particules subatomiques comme les Excitons, Plasmons et Solitons qui peuvent stocker et transporter l’information biologique le long des macromolécules en réponse à l’énergie scalaire de base.  

Autrement dit, l’énergie scalaire est capable de s’imprimer également sur votre ADN.  

Avant que nous ne parlions des bénéfices de l’énergie scalaire pour notre santé, cela vaut la peine d’examiner la preuve que tout ce dont je parle est réel.

 
Les Armes Electromagnétiques Scalaires Soviétiques

 

Ce dossier présente les concepts de bases des armes électromagnétiques scalaires soviétiques, parmi les principaux types disponibles, ainsi que les preuves et les indices de leur utilisation largement répandue.

 

L'Electromagnétisme scalaire, c'est l'Electrogravitation

 

L'électromagnétisme scalaire est une extension de l'électromagnétisme (EM) actuelle qui inclut la gravitation. C'est une électrogravitation unifiée, et, ce qui est plus important, c'est une théorie unifiée. Ses bases ont été découvertes par Nikola Tesla.

Dans l'extension EM scalaire, l'énergie du champ EM peut être transformée en énergie de champ gravitationnel et vice et versa. Cette transformation peut être structurée et localisée, dans des zones ou objets spécifiques. Un tel passage contrôlé de l'électromagnétisme  à la gravitation n'est pas possible dans l'EM normal ou la physique actuellement enseignée dans les manuels occidentaux.  Cependant des fragments et morceaux de cette théorie ont été éparpillés à travers la littérature de physique depuis quelques temps, mais aucun scientifique orthodoxe de l'Ouest ne semble avoir réalisé que ces portions anormales pouvaient être intégrées en une nouvelle physique étonnante. Des expérimentateurs non-orthodoxes, des inventeurs, et des scientifiques ont réalisés des découvertes dans cette arène depuis plusieurs décades, mais de nouveau personne n'a réalisé les implications exactes ou la manière précise dans laquelle leurs résultats pouvaient être combinés avec la physique électrique actuelle.

Fer-De-Lance

Une telle léthargie n'est certainement pas présente en Union Soviétique. Depuis au moins trois décennies, l'Union Soviétique a développé l'électrogravitation et l'a appliquée pour développer d'étranges nouvelles armes secrètes d'une capacité et d'une puissance incroyable. Ils ont poursuivi le plus grand programme de développement d'armes jamais lancé par aucune nation et, de manière efficace, ils l'ont tenu caché des yeux occidentaux indiscrets. J'ai appelé ce programme "Fer-De-Lance", d'après le serpent mortel d'Amérique du Sud du même nom.

Le redouté fer-de-lance est un serpent d'une grande agilité dont l'effet de la morsure est létale.  Il dresse souvent une embuscade à sa proie infortunée, et frappe à l'improviste sans prévenir. Sa première frappe soudaine est habituellement mortelle à sa victime qui expire rapidement en se tordant de convulsions dans son agonie. Puisque le développement soviétique d'armes scalaires électromagnétiques a été prévu pour le même but, le nom semble approprié.

Un effort équivalent à environ sept projets Manhattan a été placé dans Fer-De-Lance par les soviétiques, et le programme a réussi presque au-delà de l'imagination. Les sinistres armes sont maintenant développées, déployées, et testées. L'embûche est complète ; Fer-De-Lance est enroulé et prêt à frapper.

Les armes "énergétiques" et "à énergie dirigée (DEWs)"

Le nom soviétique ordinaire pour ce type de science de l'armement est, "énergétiques". A l'Ouest ce terme est habituellement associé aux armes à énergie dirigée conventionnelle (DEW) [Directed Energy Weapons] comme les armes à faisceaux de particules, lasers, systèmes d'énergie dirigée en radio-fréquences (RF), etc. Les Soviétiques ne limitent pas le terme de cette façon.

Les scientifiques occidentaux se sont uniquement familiarisés avec les armes à énergie dirigée où, des fragments, des masses, des photons, ou des particules, parcourent l'espace et entrent en contact avec la cible pour délivrer leurs effets. A partir de là, dans leur pensée, ils limitent le terme soviétique "énergétiques" aux types d'armes qu'eux mêmes comprennent -- armes exotiques mais normales c'est-à-dire utilisant une énergie ou une masse traversant l'espace et allant impacter une cible.

Cependant il est possible de focaliser un potentiel afin que les effets d'une arme aillent au travers de l'espace-temps lui-même, de manière que masses et énergies "ne parcourent pas l'espace" entre l'émetteur et la cible. Au lieu de cela, les ondulations et les structures dans la fabrique de l'espace-temps lui-même sont manipulées pour se rencontrer et interférer à, et dans, l'espace temps local  depuis une quelconque distance de la cible. Là, l'interférence de ces structures ondulatoires crée l'effet énergétique désiré (d'où le terme "énergétiques") dans et à travers la cible elle-même, émergeant de l'espace-temps (du vide) dans lequel la cible est incorporée dans le lieu où elle se trouve à distance. "Énergétiques", comme les soviétiques l'utilise, se réfère à ces sinistres nouvelles armes, ainsi qu'aux plus banales DEW connues à l'ouest.

En conséquence de la découverte soviétique et de décennies de développement fébrile, des armes stratégiques monstrueuses insoupçonnées à l'ouest sont déjà dans les mains des Soviétiques. Un nœud coulant est lentement et fermement resserré sur nos gorges, et il est déjà la onzième heure.

Les Soviétiques ont planifié une supercherie.

Parallèlement à ce programme de développement super-secret, les Soviétiques ont développé et mis en oeuvre un plan de mystification pour dissimuler ces armes étonnantes, ainsi que leur nature, des regards occidentaux jusqu'à ce qu'il soit trop tard.  La mystification soviétique a si bien réussie que même lorsque les scientifiques occidentaux sont confrontés avec les tests réels de ces armes directement au dessus de leurs têtes, ils n'identifient pas l'arme de guerre ni la nature des effets produits.

Dès le début de janvier 1960, Nikita Khrouchtchev a annoncé le développement en Union Soviétique d'une nouvelle arme fantastique.

Le 10 avril 1963 l'une des premières nouvelles superarmes déployées opérationnellement a été utilisée pour détruire le sous-marin atomique U.S.S. Thresher en plongée, au large de la côte est des États-Unis.  Le jour suivant, le 11 avril 1963, la même superarme déployée a été utilisée dans un mode différent pour produire une explosion sous-marine géante dans l'océan sur la Fosse de Porto Rico à 160 kilomètres au nord de Porto Rico.

Au fil des années, différents avions ont subi des interférences ou ont été descendus par les essais de ces armes soviétiques. Un cas particulier concernait la perte mystérieuse de plusieurs F-111 dans le conflit du Vietnam. Au moins un équipage de F-111 descendu a été récupéré dans les échanges de prisonniers de guerre qui ont suivi.  Sur cet avion tous les systèmes électriques se sont trouvés en difficulté simultanément. Cela était probablement dû aux équipes soviétiques spéciales convertissant des systèmes radars de missile nord-vietnamien SA-2 au mode EM scalaire, et employant une interférence de "faisceau scalaire" pour produire des bruits EM parasites dans les systèmes électriques et électroniques de l'avion.

En fin avril/début mai 1985, l'armada entière des superarmes EM scalaires stratégiques soviétiques a été activée lors d'une célébration spéciale du 40ième anniversaire de la fin de la seconde guerre mondiale.  L'activation de cette armada (qui comprenait probablement plus de 100 armes géantes), couplée à 27 générateurs géants et un grand nombre de commandes et de contrôles de transmissions, ont été surveillés sur un système de détection avancée appartenant à Frank Golden.  Après le gigantesque exercice stratégique, qui a duré plusieurs jours, la plupart des armes et des sources d'énergie ont été désactivées pour se tenir prête à l'action.

Les lancements de la navette de la NASA ont fourni une opportunité de choix  pour les tests soviétiques de ces superarmes en mode ABM dans la phase de lancement, là où un missile lancé peut être détecté et détruit peu de temps après le décollage [NDT : ABM pour anti-missile balistique]. Au début, les explosions de la pulsation électromagnétique (EMP) sur la trajectoire que la navette venait d'emprunter, ont été délibérément décalées dans le temps, pour empêcher en fait la destruction de la cible et éviter d'alerter les U.S.A. que quelque chose d'inhabituel était en train de se passer.

Le tir de navette du 26 novembre 1985 a vu un test particulièrement significatif dans ce domaine.  Dans ce cas, une très forte explosion ou "boum sonique" a eu lieu sur le site de lancement 12 minutes après le décollage de la navette, tandis que la navette était déjà au loin sur sa trajectoire prévue. Au moins deux lancements précédents de la navette avaient été utilisés comme pseudo-cibles, avec sur le pas de tir des boums décalés dans le temps qui retentissaient bien en arrière des véhicules.

Après que l'absence de réaction américaine à ces tests ait montré que les U.S.A. n'avaient encore aucune connaissances de cette nouvelle technologie et n'identifiaient même pas son emploi, les soviétiques ont apparemment décidés d'effectuer des tests où la cible serait réellement détruite.

Le 12 décembre 1985 la même arme soviétique testée contre les lancements de la navette de la NASA a délibérément interféré avec les contrôles d'un DC-8 Arrow décollant de la base Gander Air Force à Newfoundland. A une altitude de 30 mètres, l'avion transportant plus de 250 soldats américains et les membres de l'équipage civil, a perdu sa puissance et s'est écrasé au sol, tuant tout le monde à bord. Trois Canadiens témoins du crash ont été interviewés aux informations télévisées de la Canadian Broadcast Corporation le 8 avril 1986 à 22 heures. Aucune flamme ou fumée n'est sortie de l'avion avant sa chute et son crash. Cependant l'avion a été vu mystérieusement illuminé d'une lueur jaune.  Cela est la signature d'un obusier scalaire dans le mode "émergence EM continue", similaire à la manière dans laquelle les F-111 ont été descendus au Vietnam. En résumé, les systèmes électriques du DC-8 ont subi une interférence avec un bruit électromagnétique créé à travers l'espace-temps occupé par l'avion.  La charge puissante créée dans et autour de l'avion a aussi causé apparemment la perte des deux moteurs, l'un après l'autre. Avec ses contrôles inopérants et sa puissance considérablement réduite, l'avion est retombé au sol, encore dans sa configuration de décollage "nez en l'air, queue en bas", et s'est crashé et a brûlé. La "lueur jaune" était un halo électrique dû à l'acquisition d'une haute charge électrique par la paroi de l'appareil.

D'autres facteurs ont pu contribuer au crash en perturbant le décollage, la faiblesse de la maintenance des moteurs, le poids accru de l'avion dû à la glace et à la forte charge.  Jusqu'à présent personne n'a identifié la "lueur jaune" ou ce qu'elle implique, ou la possible connexion entre la perte de l'avion et le test soviétique précédent d'un système ABM en Phase de Lancement contre les tirs de navette américaines...

En septembre 1987, les deux derniers missiles Titan 34-D de l'Air Force mis à feux à la base de Vandenburg Air Force en Californie se sont désintégrés peu après le lancement. Le premier s'est désintégré le 28 août 1985 juste après le décollage. Cette perte a été attribuée a une panne d'une pompe de carburant haute puissance, provoquant une fuite massive de comburant et une fuite moindre de carburant. La seconde perte de Titan a eu lieu le 18 avril 1986 quand le missile s'est désintégré 5 secondes après le décollage. Son échec est encore sous investigation et aucune cause n'a été déterminée. Apparemment la navette et le Titan sont actuellement les seuls lanceurs viables pour le lancement des satellites américains "spy". La perte de ces satellites sensitifs -- si vraiment ils constituaient les charges utiles  -- n'aide pas mais peut être dommageable à notre capacité stratégique. Selon le Los Angeles Times (en 1986) l'unique rescapé, le satellite KH-11 a été lancé en décembre 1984 et, avec une espérance de vie de deux à trois ans, pourrait arrêter de fonctionner à la fin de cette année.

Pour le moment nous ne savons pas s'il a existé ou non une activité significative de la grille/réseau "Pivert" dans le voisinage du lancement du Titan en août 1985. Cependant, une activité significative a eu lieu manifestement dans le réseau avant le désastre du Titan du 18 avril et le jour même.

Le dimanche de Pâques 30 mars 1986, l'ingénieur Ron Cole a observé une interférence significative qui corrélait avec les mesures du Pivert soviétique. Le 18 avril, T.E. Bearden, peut-être le chef de recherche SEM aujourd'hui, a observé des traces d'un nuage radial sur Huntsville en Alabama et en a pris des photographies. Des rapports préliminaires de Thousand Oaks en Californie indique à nouveau une activité importante du réseau le 18 avril, le jour où  le second Titan a explosé.

La seconde au moins de ces deux destructions de missiles peu après le décollage est suspicieuse, puisque le réseau était positivement actif à ce moment là. Il y a également une preuve claire de l'existence de systèmes ABM en Phase de Lancement, depuis le grand exercice scalaire d'avril/mai 1985. Donc la première explosion de Titan en août 1985 tombe dans la période soviétique "maintenant testons les contre les lanceurs américains". La perte du second Titan suit les pertes hautement suspicieuses du DC-8 Arrow du 12 décembre et de Challenger du 28 janvier 1986. La même arme soviétique qui a détruit ces cibles peut aussi avoir détruit l'un ou les deux Titans incriminés.

Les Soviétiques furent capables également de manipuler significativement le climat sur l'Amérique du Nord depuis plus de dix ans sans être découvert. Ils ont testé une gamme fantastique d'armes de défense anti-missiles balistiques (ABM) depuis plus de deux décennies, et personne n'est plus avisé dans l'Ouest.

Comme cela a été dit précédemment, avant la fin novembre 1985, au moins trois essais "tirs à blanc" soviétique d'un "système ABM en phase de lancement" contre les lancements réels de la navette américaine avaient été effectués directement sur Cap Canaveral lui-même et personne encore n'avait identifié ce qui se passait ou quelle sorte d'arme était en train d'être testée. Le 12 décembre, la destruction du DC-8 Arrow à Newfoundland n'à apporter aucun indice que les américains et les canadiens savaient quelque chose sur la nature de l'arme probablement employée.

Par conséquent, après un temps d'attente suffisant pour tester nos réactions (s'il y en avait), les soviétiques se sont préparés à détruire réellement une navette après son lancement...

Destruction de Challenger, Janvier 1986

Comme le monde entier le sait, la navette Challenger a été lancé de Cap Canaveral en Floride après exposition à des conditions climatiques défavorables, et a explosée désastreusement peu après le décollage. L'évidence semble indiquer que, alors que le véhicule était en train de s'élever en condition difficile, une extrémité de son booster droit s'est brisée, a été projetée contre le réservoir principal provoquant sa rupture, une fuite importante de carburant, et une explosion catastrophique. Plusieurs autres anomalies existe encore cependant, et il est clair qu'un problème a existé avec au moins un des joints de booster. Les sept astronautes à bord du vol ont tous été tués dans la destruction violente du véhicule.

Bien sûr personne n'avait pris conscience que les Soviétiques avaient déjà testé un système anti-missile balistique en phase de lancement (LPABM) contre trois de nos précédents lancements de navettes. Ces "tirs à blanc" ont utilisé délibérément un "time-offset" pour décaler l'émergence explosive de l'énergie électromagnétique dans un lieu situé sur la trajectoire de la navette qui venait de décoller. Les tirs des tests décalés ont eu pour résultats un très grand "boum" au dessus du site de lancement après que la navette soit sortie indemne de la zone, mais n'ont pas détruit les navettes elles-mêmes. Par exemple, le boum du tir décalé a eu lieu 12 minutes après le lancement au soir du 26 novembre 1985. Un faisceau traçant (grande lumière dans le ciel) a même été utilisé sur ce lancement peu après le décollage. Le faisceau traçant a été photographié. De plus  une autre photographie prise d'une séquence montre un autre éclair de lumière soudain, descendant et se terminant dans une explosion de lumière. C'était probablement un test déplacé spatialement du "mode pulsé" pour la destruction de la navette. L"explosion lumineuse" a dû être détectée en Union Soviétique et repérée par rapport à sa position déplacée intentionnellement. Cependant, un autre mécanisme a été utilisé pour provoquer la destruction de la navette elle-même.

Le 1er janvier 1986 la présence d'un signal réduisant la résistance des métaux, rajouté sur les émissions EM scalaires des systèmes LPABM soviétiques, a été  détectée par un Frank Golden tout surpris. Il a lui-même vérifié expérimentalement à ce moment-là, la capacité du signal détecté de réduire la résistance des métaux. Golden a également annulé localement l'action du signal EM scalaire dans un test assez concluant en établissant (1) qu'il a existé et (2) ce que c'était. Le signal avait été apparemment préparé pour être utilisé contre un lancé de navette imminent.

Juste avant le lancé de la navette en fin janvier 1986, les soviétiques avaient accompli une manipulation climatique significative sur les U.S.A. Le Jet Stream avait été sévèrement détourné vers le sud dans le milieu des Etats Unis, se détournant encore vers la droite pour traverser le "panhandle" de la Floride. De l'air froid glacé du Canada a été aspiré très bas, en Floride sur l'emplacement de Challenger sur son aire de lancement. Cette exposition au froid en deçà de ses limites testées, fut probablement un facteur additionnel qui a contribué à la faillite de Challenger.  Des signatures positives de la modification du climat et de la manipulation du Jet Stream par les Soviétiques ont été observées et photographiées par plusieurs personnes, particulièrement en Alabama et en Californie...

Le 28 janvier 1986, le système d'arme EM scalaire soviétique a été soudainement localisé dans la zone de lancement. La localisation impliquait que des fréquences plus élevées étaient présentes; celles ci sont absolument douloureuses pour les petits cerveaux tels que ceux des oiseaux, dont les hémisphères fonctionnent comme un détecteur et un interféromètre scalaire. Comme cela a été commenté par les présentateurs des informations nationales, étrangement les oiseaux ne volaient pas ce matin-là. Au lieu de cela, ils restaient au sol ou évitaient la zone, puisque le ciel au dessus de la zone leur était néfaste.

Alors que Challenger s'élevait, le signal réduisant la résistance des métaux a dû s'exprimer dans et autour des boosters peu après la mise à feu, puisque, la flamme du booster agit comme un détecteur/tuner spécial à "ion-plasma" pour le signal scalaire. L'effet de ce signal local est de "charger la masse dans le voisinage immédiat" avec le signal de résonance scalaire spécifique.

L'infortunée Challenger était vouée à l'échec. Après la mise à feu, la flamme du booster a agit comme un détecteur/amplificateur de plasma pour le signal réduisant la résistance des métaux du réseau soviétique "Pivert". Le métal dans et autour de la flamme du booster s'est lentement et progressivement affaibli en raison de l'acquisition des caractéristiques visant à réduire sa résistance. Cela a contribué à la fuite du booster à partir de l'étanchéité déjà mise à mal par le froid. De la fumée s'est échappée puis des flammes, contribuant au désastre imminent.

Des vents substantiels et des turbulences d'air au dessus du site ont accru le stress sur Challenger alors qu'il s'élevait dans cette zone. Cela aussi a contribué au désastre et a peut-être été créé délibérément par la manipulation soviétique du climat.

Comme Challenger était stressée, en fait un ou plusieurs étriers fragilisés ont cédé, libérant partiellement l'extrémité du booster droit. Une autre flamme ou lumière anormale a été observée sur le véhicule, et peut avoir représenté une petite "forme d'énergie en mode pulsée" supplémentaire produite par l'arme qui attaquait déjà Challenger. Le booster a oscillé, pivotant dans le réservoir et le fracturant. Une violente explosion a résulté du contact de la flamme avec l'épanchement du carburant liquide, détruisant le véhicule et tuant ceux qui étaient à bord...

En créant une exposition excessive de la navette au froid, en induisant une diminution de la résistance des métaux dans et autour des boosters mis à feux, et en ajoutant un "point intensivement chaud", les Soviétiques ont provoqué la fragilisation et l’autodestruction de Challenger peu après le décollage, d’une manière si subtile que les scientifiques de la NASA ne suspecteraient pas ce qui a provoqué réellement la mésaventure. Les Soviétiques avaient également reculé auparavant tous leurs chalutiers et navires qui normalement espionnent un tir de navette, pour prévenir une quelconque suggestion de présence proche ou implication soviétique dans l’accident catastrophique.

Quelques jours plus tard, des "signaux dans une gamme de haute fréquence", sporadiquement intenses, étaient encore présents sur le réseau, au moins un "hinge-point( ?)" à Birmingham en Alabama a confirmé cela. Du 1 au 4 février 1986, de nombreux oiseaux volaient par inadvertance dans la zone lorsqu'une explosion intense eut lieu, et les oiseaux sont tombés morts du ciel en nombre important....

Malheureusement, la suffisance bureaucratique des scientifiques orthodoxes d'occident a matériellement renforcé le processus de duperie soviétique. La plupart des cadres scientifiques d'occident - particulièrement dans les activités de développement des armes - ont continué à voir les Soviétiques comme des paysans ignorants, encore en train d'essayer de nettoyer la boue de leurs bottes. Ce point de vue est, bien sûr, totalement faux et injustifié.

Quelques exemples suffisent pour réfuter cette attitude. Dans les mathématiques non-linéaires, l'ingénierie et la science, les Soviétiques ont devancé leurs homologues occidentaux depuis le début. L'effet (EMP) d'impulsion électromagnétique d'une explosion nucléaire est apparu dans la littérature scientifique ordinaire soviétique avant même que les scientifiques occidentaux soient conscients que l'effet existait.  Les soviétiques continuent à être en tête au niveau mondial dans la soudure explosive, l'usinage et la soudure du titane, etc. Tandis que les scientifiques soviétiques montrent peu d'inclinaison à fabriquer des bonnes machines à laver, ils produisent certainement des chefs d’œuvre de technologie -- et au-delà -- dans n'importe quel domaine dans lequel ils ont focalisé leurs efforts principaux. (On devance les soviétiques dans certains domaines tels que le matériel informatique, les logiciels informatiques, miniaturisation, etc.).

Une fois auparavant, une nation moderne, les Etats-Unis, avait développé secrètement une arme de grande capacité et l'a utilisée pour mettre à genoux un adversaire puissant, le Japon... Les frappes atomiques incroyables à Hiroshima, et Nagasaki, ont montré une fois pour toutes que dans l'age moderne la surprise technologique peut s'avérer désastreuse instantanément. Donc dans notre arrogance scientifique, nous avons présumé que cela ne pourrait jamais se passer pour nous, et que le scénario "arme secrète" ne sera jamais répété. Au contraire, il A EU LIEU de nouveau, quelqu'un d'autre l'a fait, et cela s'est passé pour nous.

Il est également de bon ton à l'Ouest de croire que toutes les lois de la physique sont déjà découvertes. Nous affirmons que nous les connaissons toutes. Pendant que nous étions en train de chanter orgueilleusement cette mélodie, les soviétiques étaient en train de découvrir progressivement de nouvelles lois en secret, ainsi que de nouveaux moyens de faire échouer les anciennes lois. Notre défense est stratégique, nous comptons sur nos capacités d'attaque, notre énorme arsenal nucléaire...  Si cette capacité d'attaque était annihilée ou détruite par les armes secrètes soviétiques, nous serions impuissants à prévenir notre propre destruction et la domination soviétique sur le monde.

Nous nous sommes vu comme indestructible, confiant dans la force de notre défense. Donc littéralement nous avons été dépouillé de notre défense. Les armes énergétiques soviétiques sont maintenant vraiment capable de détruire notre défense, notre contrée, nos forces armées sur le champ de bataille, et notre population, rapidement et efficacement. Nous avons une nouvelle lacune de proportions monumentales: pas une lacune de missile, pas une lacune de bombardier ou de sous-marin, ni même une lacune de laser ou de rayon de particule. Nous avons une lacune "d'Electromagnétismes scalaires ou d'Electrogravitation".....

Après 1895, les physiciens ne pouvaient plus utiliser les mathématiques des déplacements physiques continus pour modéliser l'Univers. La théorie quantique exigeait ce qui était alors des changements radicaux dans les hypothèses de causalité. Les atomes émettaient, ou n'émettaient pas, des radiations non sur des bases déterminées mais selon des probabilités; les constituants basiques de la matière et de l'énergie étaient soit des particules ayant des propriétés semblables aux ondes, soit des ondes ayant des propriétés semblables aux particules, selon comment et quand vous les mesuriez; position et vitesse ne pouvaient pas être mesurées simultanément à un degré de précision quelconque; l'état d'une particule est déterminé uniquement quand vous la mesurez, et cette mesure détermine aussi immédiatement l'état d'une particule reliée qui est si éloignée que l'information ne peut lui parvenir depuis la première particule. Ces difficultés ne signifient pas que la théorie quantique est imprécise; elle est hautement précise. Mais, à la différence de la théorie de la relativité, elle n'explique pas l'Univers par la voie déterministe classique.

L'un des problèmes des physiciens pour la compréhension et l'assimilation de la théorie quantique était dû au fait que l'interprétation de toutes les mesures est complètement liée aux hypothèses théoriques concernant ces mesures. Si les hypothèses qu'on établi à propos des mesures au niveau microphysique (quantique) étaient des hypothèses classiques, les mesures n'auraient aucun sens. Eisenbud (8) disait cela.

Finalement, la théorie devient si familière que nous ne réalisons plus vraiment son importance dans l'interprétation de l'observation... Lorsque la théorie échoue, cependant, les connections familières entre ses constructions mentales et ce qui est observé sont brisées. Nous devons retourner alors aux observations pures et à leurs interrelations observées, et essayer de construire à partir d'elles de nouvelles structures théoriques adaptées.

L'Électromagnétisme scalaire c'est l'Electrogravitation

L'électromagnétisme scalaire est une extension de l'électromagnétisme (EM) actuelle qui inclut la gravitation. C'est une électrogravitation unifiée et, ce qui est plus important, c'est une théorie unifiée. Ses bases ont été découvertes par Nikola Tesla.

Que ceux qui ont des oreilles entendent.

Voici le secret de l'antigravité.

La "charge électrique" d'une particule chargée -- comme celle des particules chargées d'un atome ou celle des protons de son noyau -- représente une différence d'intensité (potentiel) de flux entre la particule locale et son vide environnant. C'est l'épanchement continuel de la charge gravitationnelle ainsi que de la charge électrique. Si cet épanchement est inversé ou arrêté, il s'ensuit un effet radical sur la charge gravitationnelle. Le potentiel-5 et la charge-5 sont devenus un potentiel-4-G et une charge-4-d respectivement. Donc "charger" un objet avec sa structure EM  scalaire revient à le charger gravitationnellement. Maintenant le seul "canal d'épanchement" est à travers le champ de force 4-G. De plus, dans un noyau les nucléons vont et viennent continuellement entre proton et neutron, ce qui fait que la charge électrique est "éparpillée" à travers le noyau et partagée par tous les nucléons.

On peut rajouter que chaque élément (en fait chaque isotope) a son propre et unique "pattern d'ensemble" de fréquences scalaires d'expansion de Fourier, d'amplitudes, etc. Ce pattern peut, bien sûr, être reproduit artificiellement et être émis par des émetteurs EM modifiés. Il y a, cependant, une sorte de pattern (EG) d'EM scalaire "clef maîtresse" pour les nucléons (protons et nucléons s'intervertissent en échangeant des courants de charge virtuels).

Si on inverse la charge par l'inversion de cette structure, et puis on applique cette "charge inversée à une masse", pour l'observateur externe la masse ainsi chargée devient de plus en plus légère, et son inertie de moins en moins importante. En fait cela semble (à l'observateur) acquérir une masse négative et une inertie négative, et donc subit une accélération l'éloignant de la Terre. L'objet tombe vers le haut au lieu de tomber vers le bas.

Il y a aussi des effets de temps étranges ; cette objet peut se déplacer plus lentement à travers le temps que l'observateur dans le laboratoire, ou même se déplacer en arrière dans le temps par rapport à l'observateur dans le laboratoire. Ne croyez pas tout ce qu'on vous enseigne sur la relativité ; aucune de ces personnes n'a jamais fabriqué une seule situation de relativité générale, et rien de ce qu'ils enseignent en relativité générale n'est basée sur l'expérience directe. Il a déjà été prouvé expérimentalement que ce qu'ils enseignent est erronée.

Voici le concept d'un détecteur EG scalaire pour des ondes EG scalaires. Voici le détecteur d'onde scalaire Bendini, adapté d'un concept original par Dea et Faretto.

L'idée est vraiment simple: installez une puissante barre aimantée à l'intérieur d'une cage de Faraday reliée à la terre. Ensuite installez une bobine ouverte aux extrémités longitudinalement au dessus de l'aimant de façon qu'une ligne qui traverse l'axe longitudinal de l'aimant passe au travers de l'axe longitudinal de la bobine au dessus de lui. L'extrémité ouverte de la bobine ne doit pas toucher l'aimant.

Connectez l'autre extrémité de la bobine à un condensateur variable, afin que la bobine et le condensateur forment un circuit oscillateur-L-C-série réglable. La sortie du condensateur est connectée à un préamplificateur à l'intérieur de la cage. Une tige de réglage pour le condensateur est très soigneusement placée à travers un petit trou de la cage pour permettre le réglage depuis l'extérieur.

La sortie du préampli est un câble blindé qui passe à travers un petit trou de la cage vers un oscilloscope adjacent. Le blindage du câble est aussi mis à la terre au potentiel de référence du sol.

La théorie est celle qui suit: Supposez qu'une onde électromagnétique normale apparaisse à l'intérieur de la cage, au dessus de l'aimant ou juste à proximité, dans ce cas une oscillation accouplée apparaît dans le champ de l'aimant, et cette oscillation est transférée à la bobine qui est juste au dessus de lui. Si l'oscillation est à l'intérieur de la fourchette de fréquences sur laquelle le circuit oscillateur LC est accordé, une détection a lieu, celle-ci est amplifiée par le préampli puis elle arrive à l'oscilloscope, où elle est affichée sur l'écran.

Remarquez que le détecteur détecte une onde EM normale. Maintenant notre problème est: Comment faire en sorte qu'une onde EG soit détectée? Et comment s'assurer que nous ne détectons pas une onde EM ordinaire venant de l'extérieur? En fait cela est simple. Les ondes ordinaires (excepté pour les très basses fréquences) seront mises à la terre  par le bouclier Faraday, et ne pénètreront pas la cage. Donc ces ondes EM normales ne peuvent pas entrer dans la cage et apparaître au dessus de l'aimant, elles ne seront pas détectées. Les ondes EG scalaires, à l'inverse, pénétreront dans la cage puisqu'elles ne se couplent pas avec les électrons conducteurs dans le métal de la cage. Au dessus du pôle de l'aimant, l'espace-temps est localement courbé, après tout, un pôle est un potentiel scalaire magnétostatique, qui est une partie du conglomérat appelé "potentiel-G". Le pôle représente une augmentation (ou une diminution, selon que ce soit un pôle nord ou un pôle sud) dans la composante magnétostatique du potentiel-G local. C'est une courbure de l'espace-temps. Une onde EG entrant dans cette région amène une variation de la composante du potentiel-G magnétostatique, qui s'épanche dans la bobine comme une onde EM ordinaire.

Une autre façon de voir le détecteur est de modeler l'onde EG comme une onde longitudinale, et une onde EM ordinaire comme une onde transverse. Lorsque l'onde EG pénètre la région de l'espace-temps courbé au dessus de l'aimant, pour la bobine ("l'observateur" dans ce cas!) l'aspect longitudinal de l'onde EG apparaît comme un mouvement rotatif alterné, de telle sorte qu'une composante d'oscillation transversale est présente. Cette composante transversale apparaît à la bobine comme un champ EM ordinaire, et donc le circuit LC le détecte s'il est dans sa propre bande de fréquence.

Une autre manière de voir la situation c'est de réaliser qu'une onde EG approchant l'aimant induit une oscillation qui a augmenté  le potentiel scalaire magnétostatique (force polaire) de l'aimant. Par conséquent, l'aimant est un receveur pour les ondes scalaires, lesquelles sont détectées lors de leur propagation, comme une oscillation de la puissance du champ magnétique de l'aimant. Le couplage de la bobine au champ magnétique oscillant crée un flux de courant oscillant dans le condensateur, cela fait osciller le voltage d'entrée au préampli, qui amplifie et génère le signal pour l'affichage à l'oscilloscope.

Il est important de se rappeler qu'un potentiel magnétostatique et un potentiel électrostatique peuvent être mis en oscillation par une onde EG scalaire. En plaçant un matériel magnétique dans une cage Faraday, l'oscillation du potentiel scalaire magnétostatique (puissance polaire de l'aimant) peut être utilisée en tant que mécanisme de détection EG. En plaçant un matériel chargeable (électriquement) dans une cage de Faraday, l'oscillation du potentiel scalaire électrostatique peut être détectée. (Des exemples possibles des derniers types de détecteurs ont été donnés par Hodowanec, "Radio Electronics", Avril 1986.)

Remarquez aussi qu'on peut détecter des ondes à un niveau de référence et pas à un autre. Le changement de potentiel de la référence zéro de la mise à la masse du détecteur Bendini affecte la détection. Pour regarder à l'intérieur d'une porteuse EM normale (telle que la porteuse du "Pivert" soviétique) et voir quels signaux scalaires elle apporte, la porteuse peut être utilisée pour référencer la mise à la masse du détecteur Bendini. Pour produire un analyseur de spectre, utilisez simplement des séries supplémentaires de circuits d'accords LC en parallèle (mettez plusieurs cosses de connexions sur la bobine, et reliez chaque cosse à un condensateur d'accord séparé de capacité différente). A nouveau, la variation du niveau de référence zéro est importante, tout comme la variation de la puissance de l'aimant. Frank Golden a aussi inventé une excellente série de détecteurs d'ondes scalaire basés sur des principes déposés complètement différents.

Le résultat est: on peut vraiment détecter et mesurer rigoureusement des ondes scalaires EG, quand on considère les grandes sommes d'argent actuellement affectées pour enterrer de grands cylindres d'aluminium, on se demande pourquoi quelques fonds ne peuvent être alloués à quelques chercheurs non-orthodoxes par l'Académie Nationale des Sciences pour financer la détection et la création prouvées des ondes électrogravitationnelles...

Voici expliqué un nouveau genre de résonance: la résonance électromagnétique scalaire, ou résonance électrogravitationnelle.

En premier, imaginez que vous ayez une cavité résonnante standard, dans cette cavité on a une onde EM résonnante qui va et vient, selon les conventions, le vecteur de champ-E et le vecteur de champ-B sont à angle droit dans ce front d'onde en mouvement. Lorsque l'onde va et vient, les vecteurs varient en allant et venant ; cependant, à n'importe quel point entre les parois, les deux vecteurs ont toujours la même valeur. Donc notre onde EM résonnante forme une onde stationnaire dans la cavité.

Maintenant imaginez qu'un second front d'onde, précisément comme le premier et de la même fréquence, est superposé au premier et voyage avec lui. Cette seconde onde -- "l'anti-onde" -- a ses vecteurs forces déphasés de 180 degrés d'avec les vecteurs forces de l'onde de référence. En conséquence la somme des champs-E et des champs-B des deux ondes superposées est toujours égale à zéro, en n'importe quel point de la cavité. Pour un observateur externe, la cavité contient des champs de forces électromagnétiques non-ordinaires, d'où une énergie EM non-ordinaire.

Cependant la densité d’énergie d’une onde sinusoïdale EM dans le vide est donnée par :

Densité 2 [E + B] / 8 Pi

Cette densité d’énergie est toujours positive, de là la densité d’énergie des deux ondes en n’importe quel point entre les murs est égale à :

2  2 [E +B] / 4 Pi

où   E = E(x) ; B = B(x)

Ainsi la densité d’énergie du vide varie avec X, rigoureusement, puisque la résultante des champs E et B est de zéro, cela décrit une onde gravitationnelle stationnaire. En conséquence nous avons une onde EG stationnaire existant dans la cavité, voici un exemple de résonance scalaire. Rigoureusement la cavité a une masse et une inertie, pour un observateur extérieur, en résultat des deux courbures d’espaces-temps qu’elle contient.

Notez que dans un demi cycle la densité d’énergie du vide est plus grande qu’en ambiance, et dans l’autre demi cycle elle est moins grande ; dans la zone d’un demi cycle le temps s’écoule à un rythme plus rapide que pour l’observateur ambiant, et dans l’autre demi cycle le temps s’écoule à un rythme plus lent que pour l’observateur ambiant. Une moitié du cycle semble contenir la charge électrique et l’autre semble contenir la charge positive.  Un demi cycle semble contenir un pôle nord (potentiel scalaire magnétostatique positif), et l’autre demi cycle semble contenir un pôle sud (potentiel scalaire magnétostatique négatif).

Peut-être que maintenant on peut commencer à comprendre pourquoi un électron en continuelle accélération sur son orbite atomique n’émet pas d’énergie EM, en complète violation des équations de Maxwell, l’électron n’est pas comme tel mais un aspect complexe.

 La résonance scalaire n’est pas dans les manuels conventionnels.

La résonance scalaire est une muli-résonance électromagnétique particulière de somme zéro, de sorte qu’elle n’agit pas d’une façon électromagnétique.  Une résonance scalaire est une onde électromagnétique stationnaire, elle peut être produite électriquement, mais elle n’est pas électrique dans son comportement.  Dans n’importe quelle résonance scalaire, l’espace-temps est courbé et c’est l’ampleur (et direction) de cette courbure d’espace-temps qui oscille sous forme « d’onde stationnaire ».  Par rapport au stress du vide moyen, la moitié d’une onde sinusoïdale stationnaire est extensible, l’autre moitié est compressible. Cependant, cela est par rapport au stress ambiant local du vide.  La « masse » d’une particule est juste une caractéristique exhibée par une résonance scalaire piégée, en fait ce piégeage est fait par le « spin » de la particule individuelle.  Le concept de « masse » peut être comparé avec le concept de « capacité ». Ce qui signifie qu’une masse est un accumulateur d’ondes scalaires ; c’est-à-dire de résonances scalaires.  Elle se « charge » et « décharge » continuellement par absorption et émission d’ondes scalaires depuis et vers le flux d’ondes scalaires du vide ambiant.  En conséquence la magnitude d’une masse peut être définie en terme de valeur absolue de ce taux de « commutation » (absorption = flux entrant ; émission = flux sortant).  Pour des détails sur cela voir (Bearden, T.E. « Quinton/Perception Physics : A Theory of Existence, Perception, and Physical Phenomena, » Mars 1973, AD 763210, disponible à NTIS).

Dans l’espace-temps linéaire normal,  « charge » et « décharge » sont égales dans toutes les directions ; donc la masse exhibée est identique dans n’importe quelle direction.  Par rapport à l’équilibre du flux de « l’observateur externe », un objet en mouvement rencontre une quantité accrue de taux de flux le long de sa ligne de mouvement, exactement comme un objet se déplaçant sous une pluie torrentielle rencontre plus de gouttes de pluie par seconde dans la direction de sa trajectoire, que ne le fait un objet stationnaire.  La rencontre d’un flux accru d’ondes scalaire (par rapport à l’observateur externe) force l’objet en mouvement à absorber et émettre des ondes scalaires à un taux plus élevé le long de sa direction de mouvement que lorsqu’il ne bougeait pas.  Donc pour l’observateur externe, la masse de l’objet s’est accrue, en ce qui concerne n’importe quelle force perturbante le long de sa ligne de mouvement.

Cependant, orthogonalement à sa ligne de mouvement, le taux de flux est précisément le même que quand l’objet est au repos, donc, vu par l’observateur externe, la masse de l’objet en mouvement n’a pas changé par rapport aux forces perturbantes orthogonales.  Ainsi se trouve expliqué les deux parties de l’un des grands mystères de tous les temps, la relativité : (1) comment la masse d’un objet s’accroît selon son mouvement et, (2) pourquoi la masse s’accroît par rapport à sa ligne de mouvement et pas orthogonalement à elle.

L’inertie d’une particule est due à sa masse, c’est-à-dire à la magnitude totale de sa résonance scalaire piégée.  L’attraction gravitationnelle entre deux masses est due à leur courbure d’espace-temps, de plus, la masse est comme une capacité, elle peut capturer des ondes scalaires complémentaires en tant que résonance piégée et de là accroître sa magnitude ou « charge inertielle » ; ou bien elle peut se décharger de plus d’ondes scalaire qu’elle n’en absorbe et de là diminuer sa magnitude ou « charge interne »...

Ces ondes scalaires émises par la résonance sont émises comme un ensemble de patterns de la résonance, elles peuvent donc être considérées comme constituant un courant de résonances scalaires quittant l’objet accumulateur de masse. Les ondes scalaires absorbées dans une résonance piégée peuvent être considérées comme constituant un courant de résonance scalaire pénétrant l’objet accumulateur de masse, donc il est approprié de dire qu’une résonance scalaire est capable de « couler ».

En conséquence, il est possible d’accroître directement la masse d’un objet, en lui transmettant des ondes EM scalaires pour qu’il les absorbe. (Cela signifie qu’il y a plus d’ondes scalaires à pénétrer l’objet qu’à le quitter, donc l’objet agit comme un accumulateur augmentant sa charge interne. Cela se fait en s’assurant que le potentiel de référence de l’émetteur d’onde scalaire est plus élevé que le potentiel de référence de l’objet irradié.)

Il est également possible de diminuer directement la masse d’un objet en lui transmettant des ondes EM scalaires, de façon qu’il émette plus qu’il n’absorbe. (Cela signifie qu’il y a plus d’ondes scalaires à quitter l’objet qu’à le pénétrer, donc l’objet agit comme un accumulateur diminuant sa charge interne. Cela se fait en s’assurant que le potentiel de référence de l’émetteur scalaire est plus bas que le potentiel de référence de l’objet irradié.)

 Comme on peut le constater, « l’émetteur » d’onde scalaire est en réalité quelque peu comparable à une pompe à chaleur ; il peut agir soit comme un « émetteur d’énergie » ou soit comme un « extracteur d’énergie », selon la différence de potentiel entre « l’émetteur » et le « receveur ».

Une résonance scalaire peut avoir une structure spécifique : tant dans ses aspects courbures spatiales et fréquences que dans ses aspects « débit d’écoulement du temps ». En effet, du point de vue scalaire chaque objet à son « modèle scalaire » individuel lequel est une empreinte digitale unique. Puisque cette empreinte est spatio-temporelle, c’est un produit de l’histoire passée entière de cet objet.  Donc – d’un point de vue scalaire – deux objets ne peuvent être identiques.

Cela montre un autre potentiel plutôt étonnant : si un modèle scalaire  suffisamment précis d’un objet peut être « irradié » et mis en résonance par des ondes scalaires, on peut, à distance, créer de l’énergie à l’intérieur de l’objet ou en extraire, tout comme un diapason stimulé peut en exciter un autre à distance par résonance sympathique. Je vous laisse vérifier le rapport de cette assertion à la clairvoyance, radionique, vision à distance, etc.

Pour le sceptique, cependant, nous devons signaler que -- rigoureusement --  la mécanique quantique exige que, continuellement, dans n’importe quelle région localisée de l’espace-temps, le « pattern » de n’importe quel objet dans l’univers apparaisse momentanément en l’état virtuel, d’un point de vue purement statistique seulement. Aussi longtemps que la situation reste statistique, n’importe quel lieu dans l’univers peut continuer d’avoir les « fantômes » de tout ce qui est présent là, dans un pattern fin et éthérique, et le monde observable n’en sera pas affecté.  Cependant si on peut distinguer et « charger » scalairement ou « décharger » des patterns individuels dans ce « royaume-fantôme », l’action à distance est directement possible, comme l’est la matérialisation et la dématérialisation. Si on accepte que même une pensée elle-même produit un tel « pattern-fantôme » virtuel dans le flot de particules virtuelles du vide, alors il est au moins théoriquement possible de matérialiser des pensées et des images pensées.

Nous sommes entrés dans une nouvelle sorte de réalité où les anciennes règles et les anciennes limitations ne s’appliquent pas nécessairement.

Comme signalé, nous pouvons grandement simplifier le problème en le considérant comme des « courants de résonances scalaires », ces courants coulent du potentiel le plus élevé vers le potentiel plus bas, indépendamment de ce que nous considérons « émission » ou « réception ». En effet, émettre à un potentiel plus bas c’est recevoir, et recevoir à un potentiel plus haut c’est émettre. Donc « l’émetteur-récepteur » est un système spécial où en biaisant simplement deux nœuds différemment on détermine dans quel sens la résonance scalaire s’écoulera. On peut augmenter et diminuer la masse et l’inertie d’un objet, simplement en biaisant d’une manière appropriée les deux nœuds de l’émetteur-récepteur.

Lors d’une expérience accidentelle d’une durée de quelques heures, Golden a chargé une zone de sorte que, localement toutes les horloges ont été faussées, cela incluait des horloges électriques, des montres à piles et une horloge ancienne à pendule, le débit du flux de temps lui-même a été apparemment altéré dans la zone locale par la charge accumulée, laquelle a mis quatre jours à s’épancher et se décharger. Au bout de quatre jours de décharge, toutes les horloges et les montres sont revenues à la normale.

Si nous faisons interférer deux émetteurs dans une région de grande énergie – telle que le noyau en fusion de la Terre elle-même – et réglons l’émetteur négativement, nous pouvons extraire une énergie énorme directement de cette source !

En effet, c’est précisément par une légère variation de cet effet que les Soviétiques obtiennent l’énergie énorme avec laquelle ils alimentent leurs armes EM sacalaires stratégiques « continent-buster » incroyablement puissantes.  Des paires de fréquences scalaires – séparées de 12 kilohertz – sont émises dans la Terre elle-même sur certaines portions de la courbe de fréquence de la « gigantesque résonance scalaire » de la Terre. Le positionnement approprié des émetteurs l’un par rapport à l’autre produit une haute différence de potentielle (voltage) entre eux. En les positionnant simultanément négativement par rapport au noyau en fusion de la Terre, il en résulte un courant de résonance scalaire depuis le noyau vers les deux émetteurs.

Dans la « boucle extérieure » entre les deux émetteurs scalaires, apparaît un voltage gigantesque et un courant électrique gigantesque qui peut être capturé par des moyens appropriés, cette puissance électrique est capturée et transmise à des systèmes d’armes EM scalaires incroyablement puissantes. Là des accumulateurs spéciaux couplés à des commutateurs sont utilisés pour fournir d’énormes quantités de puissance à chaque arme.

Juste avant le 1er mai 1985 l’Union Soviétique a effectué un test opérationnel de son complexe entier d’armes EM scalaires stratégiques.  Ce test a été détecté et surveillé périodiquement par Frank Golden, quelques 27 de ces « vannes géantes d’énergies » soviétiques ont été verrouillés dans le noyau en fusion de la Terre, produisant une résonance scalaire forcée de la planète entière sous nos pieds, sur 54 fréquences contrôlées. Le reste du spectre de fréquences scalaires était embrassé par littéralement des centaines d’émetteurs scalaires soviétiques : probablement la commande et le contrôle entier du système scalaire stratégique des sous-marins, les plus hauts centres de commandes, les commandes à distances, etc., étaient activés dans l’exercice gigantesque.

Durant plusieurs jours le system était en action à une échelle époustouflante, apparemment faisant partie de la célébration hautement commémoré du 40ème anniversaire de la fin de la deuxième guerre mondiale.

Ironiquement pas un seul service de renseignement, laboratoire, ou scientifique américain n’a détecté cet exercice monstrueux pour le nouveau leader soviétique, Gorbatchev. Pas un d’entre eux n’avait un détecteur de rayonnement EM scalaire, et aucun d’entre eux ne dira – officiellement – que l’exercice ait jamais eu lieu.

Création d’énergie à distance

Un dispositif plus utile est obtenu en utilisant un interféromètre scalaire où les deux émetteurs émettent des rayons qui se croisent à distance. Dans la zone d’interférence, une bouteille d’énergie est créée.

En réglant les potentiels de référence de l’émetteur bien au-dessus de ceux de la bouteille d’énergie distante, une énergie EM émerge dans cette zone, dans ce cas l’interféromètre fonctionne dans le mode Exothermique.

En réglant les potentiels de référence de l’émetteur bien au-dessous de ceux de la bouteille d’énergie distante, une énergie EM est extraite de la zone distante et émerge de l’émetteur, dans ce cas l’interféromètre fonctionne dans le mode Endothermique.

Si l’émetteur émet continuellement, l’effet dans la zone distante est continu. Si les émetteurs émettent par pulsation et que les deux pulsations se rencontrent dans la zone d’intersection distante, alors une extraction ou émergence explosive d’énergie a lieu dans la zone d’interférence distante, selon que l’interféromètre fonctionne dans le mode endothermique ou exothermique.

[Note de J.Frendelvel: un exemple photographique d'interférométrie scalaire est présenté en document annexe , ce lien est redonné à la fin de ce document]

Mode exothermique (interféromètre scalaire)

Pour un interféromètre scalaire, « del phi » (le gradient du potentiel) s’applique entre le site de l’émetteur et le site d’intersection distant, pas à l’espace existant entre les deux. Donc on parle du « flux d’énergie » existant entre l’émetteur et l’intersection – sans rien entre. Dans l’espace intermédiaire, toute l’énergie existe comme un potentiel artificiel verrouillé (potentiel d’écoulement du gradient).

Dans le mode Exothermique le potentiel terre de l’émetteur est réglé bien au-dessus du potentiel terre du vide ambiant, l’énergie entre dans l’émetteur et « disparaît », pour « réapparaître » dans la zone d’interférence distante.

Si une émission continue d’onde est utilisée, l’énergie apparaît de manière continue dans la zone distante.

Si une émission pulsée est utilisée et prévue pour que les deux pulsations scalaires se rencontrent dans la zone distante, une énergie explosive y apparaît alors.

Si des fréquences multiples sont émises à la manière d’une expansion de Fourier d’une forme géométrique particulière, alors une forme d’énergie tri-dimensionnelle apparaît à l’intersection distante. De cette façon une coquille (ou obus) sphérique ou hémisphérique (un globe ou un « dôme » d’énergie EM) peut être créé à distance, si une émission pulsée est utilisée, ce sera une émergence impulsive ou explosive de cette forme d’énergie, si une émission continue est utilisée, ce sera une forme rayonnante continue.

En alimentant des émetteurs incroyablement puissants avec de grandes quantités d'énergie extraites du noyau en fusion de la Terre grâce à des « vannes d’énergies », de très vastes globes sphériques et dômes hémisphériques d’énergie EM peuvent être créés à distance. L’énergie dans la « coquille » d’interférence d’une telle sphère ou hémisphère, est suffisamment dense pour soulever le problème de Dirac depuis la mer de vide de Dirac, ainsi la coquille contient un plasma rayonnant.

De telles signatures d’obusiers scalaires ont été vues de nombreuses fois sur les océans, particulièrement sur le nord Pacifique par des avions de ligne allant ou venant du Japon. (Rappelez-vous il y a quelques mois la grande histoire du vol JAL dans lequel tous les passagers et l’équipage ont vu un «OVNI » sphérique géant.) De tels globes et dômes de lumières ont été vus également bien à l’intérieur de l’Union Soviétique, par des observateurs en Afghanistan et par des pilotes d’avion atterrissant en Iran.

Dans le mode exothermique impulsif, un grand flash visible peut avoir lieu si l’énergie EM est produite dans le spectre visible. Des flashes dans l’infrarouge peuvent également avoir lieu si l’énergie émergente est dans cette bande spectrale. En septembre 1979 nos satellites Vela ont détecté un tel grand « flash nucléaire » sur l’Atlantique Sud, au large des côtes du sud de L’Afrique, un second  « flash nucléaire » a été détecté par les satellites Vela en 1980 lequel était dans l’infrarouge uniquement. Il y a quelques années, une série de « flashes » et « boums » anormaux ont eu lieu au large de la côte est des Etats Unis, ils étaient dus à l’orientation, alignement et enregistrement, d’un ou plusieurs « obusiers scalaires » -- des interféromètres EM scalaires dans le mode exothermique.

De grands « boums » ont eu lieu sur le site de lancement de la navette à Cap Canaveral, associés avec trois lancements de navettes avant la fin novembre 1985.  C’étaient les essais  de ces obusiers EM scalaires exothermiques, qui étaient en train d’être testés en tant que système ABM en phase de lancement soviétique, dans ce mode, les pulsations scalaires des deux émetteurs sont injectées dans des « canaux » EM scalaires référence-zéro spéciaux lesquels sont établis dans les transporteurs EM des radars au-delà-de-l’horizon de Woodpecker (Pivert). Les pulsations scalaires voyagent par ces canaux, voyageant dans le rayon EM ordinaire de l’émetteur et le suivant dans sa courbure autour de la Terre dans le guide d’ondes ionosphérique terrestre. Les pulsations scalaires sont prévues, mises en phase, et orientées afin de rencontrer la navette s’élevant. Dans ces tests les émissions étaient décalées dans le temps afin que la navette ne soit pas détruite en fait, mais le système pouvait être testé contre des lancements réels de navettes aux U.S.  Les utilisations spécifiques de ces différents modes exothermiques seront abordées dans des sections ultérieures de ce dossier.

Dans le mode endothermique, le réglage de l’émetteur est tel qu’une énergie est extraite de la zone d’intersection distante, pour ré-émerger de l’émetteur, là l’énergie doit être capturée et déployée pour ne pas griller les émetteurs. Lorsque de très grandes quantités d’énergies sont extraites de zones distantes, les Soviétiques utilisent souvent une méthode « dépôt » de capture et stockage temporaire dans un accumulateur, l’énergie calorifique émergeant des émetteurs, un second obusier en mode exothermique est alors alimenté par une « vanne d’énergie scalaire » établie dans l’accumulateur. Cet obusier est focalisé sur le site dépôt distant – souvent Bennet Island, où des échappements sont continuellement observés par des satellites météorologiques américains.

Dans le mode endothermique impulsif, l’énergie est extraite impulsivement de la zone d’intersection distante, le résultat dans l’atmosphère est un refroidissement très pointu ou « explosion froide », il en résulte aussi un type de boum et de grondement souvent associé au tonnerre après l’éclair de la foudre.

Le 9 avril 1984 l’Union Soviétique a testé une telle « explosion froide » au large des côtes du Japon, près des îles Kuril, la « zone froide » a soudainement induit une basse pression, l’eau océanique a été brusquement absorbée de l’océan formant un nuage dense. Puis l’air s’est précipité dans la zone de basse pression et a forcé le nuage a s’élever en formant un champignon tout comme dans une explosion atomique excepté l’absence d’un flash et l’absence d’onde de choc se répandant depuis le centre de l’explosion.

Lorsque le nuage s’élève, il augmente de volume par mixage – de la même façon qu’un cumulonimbus se développe, sauf qu’il est beaucoup plus rapide, dans ce cas le nuage s’est élevé à approximativement  18000 mètres en 2 minutes environ, en gonflant jusqu’à atteindre un diamètre d’environ 300 kilomètres. L’incident a été vu par les pilotes et les équipages de plusieurs Boeing 747, des avions de lignes qui voyageaient dans le voisinage. Quelques temps après, une photo du secteur est arrivée, prise par un satellite météorologique américain, le nuage dans cette photo avait une distribution de densité anormale, différente de celle de tous les autres nuages dans cette zone.

Le « grand oeil » de Tesla pour la vision à distance

Nikola Tesla a conçu une utilisation très spéciale pour son interféromètre scalaire endothermique, il l’a conçue pour produire son « grand œil pour voir à distance ».  Le système utilisé pour réaliser cela est juste légèrement endothermique, de manière que seule une petite quantité d’énergie est extraite de la cible distante, au fur et à mesure un receveur ouvert « scanne » les rayons, temporellement, d’un côté à l’autre et de haut en bas. En scannant un autre rayon traversant la zone d’intersection, ayant des pulsations en phases, une représentation encore meilleure peut être obtenue. Finalement le receveur génère une représentation de l’énergie qui a été extraite de différents endroits de la zone endothermique distante, en affichant les signaux reçus sur un écran de scanner approprié, une représentation de la scène distante peut être créée. C’est un genre particulier « d’interféromètre micro-ondes », et – avec les techniques modernes – les images obtenues peuvent être étonnamment bonnes.  Avec le développement, cela pourrait même devenir aussi bon que les images obtenues par les radars d’acquisitions en vue de côté.  Il est assez intéressant de noter que, puisque les rayons scalaires pénètreront assez facilement sous la surface de la terre et des océans, on peut aussi regarder sous la surface de la terre et des océans avec ce type de scanner par interférométrie scalaire.

L’importance de cette capacité de reconnaissance stratégique et tactique est évidente. Camouflage, couverture  et dissimulation n’ont plus aucun effet face à un tel système. On peut facilement observer l’intérieur des bâtiments et dans les équipements souterrains. Avec un petit système comme celui-là, les fusiliers marins américains à Khe Sahn n’auraient pas eu de grandes difficultés à situer les tunnels qui étaient creusés en permanence sous le périmètre par le Viet Cong, et les cibles sous les cahutes de la jungle sont directement visibles.

Il est aisé d’imaginer que ce système est facilement adaptable à l’utilisation sous-marine. Un type de radar « sous-marin ».  Avec un tel dispositif, le problème posé par les sous-marins nucléaires en plongée est résolu. Par exemple, une zone entière peut être continuellement fouillée, exactement comme des systèmes de radars d’acquisitions le font maintenant. Un sous-marin peut être détecté et suivi à la trace alors qu’aucun de ses détecteurs ordinaires ne détectera quelque chose de particulier. En utilisant une paire séparée de rayons dans le mode exothermique, de puissantes pulsations scalaires peuvent être envoyées au sous-marin, s’inter-croisant au niveau du sous-marin dans un violent effet EMP partout dans le sous-marin et son armement. Ainsi le sous-marin et tous ses missiles sont détruits instantanément.

Ou bien, une transmission exothermique continue peut être employée par l’arme de visée à un niveau de puissance moindre, interférant progressivement avec les systèmes électriques du sous-marin et provoquant une perte de contrôle. Le sous-marin coule alors, puis est écrasé par la pression des profondeurs et implose.

C’est précisément ce scénario qui semble être arrivé au sous-marin nucléaire américain Thresher. Il a laissé une signature : le sous-marin compagnon qui croisait dans son voisinage en surface, l’U.S.S. Skylark, était dans une « zone éclaboussée » par l’interférence scalaire sous-marine.  C’est-à-dire qu’un bruit EM parasite a été généré dans tous les systèmes électriques du Skylark, dont certains ont été en fait mis hors service. Le « blocage électronique » était si intense qu’il a fallu plus d’une heure et demi au Skylark pour transmettre un message de secours au quartier général que le Thresher  avait un grave problème et que son contact avait été perdu. Certains des systèmes de communications du Skylark était en fait hors d’usage, mais sont redevenus fonctionnels plus tard de manière inexplicable, une fois que le blocage avait disparu. Ce type de « blocage » de bandes multiples et d’équipements électroniques multiples, tout comme le fonctionnement anormal de l’équipement électronique et son rétablissement mystérieux ultérieur, étaient les signatures directes de l’interférométrie scalaire contre la cible sous-marine dans le voisinage du Skylark.  Le jour suivant, le 11 avril 1963, le même système d’obusier EM scalaire soviétique a été testé dans le mode pulsé « destruction de sous-marin ». Une énorme détonation EM sous-marine a eu lieu au large de la côte de Porto Rico, à environ 160 kilomètres au nord de l’île, l’explosion sous-marine a provoqué un énorme bouillonnement de la surface de l’océan, suivi par l’élévation d’un champignon géant d’eau d’environ quatre cent mètres de hauteur, le champignon d’eau est ensuite retombé dans l’océan, achevant la signature.

Par chance tout l’incident a été observé par l’équipage effrayé d’un jet de ligne américain qui était en train d’effectuer son contrôle de position dans ce secteur. (Voir J. Durant, “An underwater explosion – or what?”, Pursuit, 5(2), Avril 1972, p. 30-31.)

Ces deux incidents étaient des tests opérationnels en mode réel des superarmes nouvellement déployées de Khrouchtchev, il a probablement organisé ce coup de poing spectaculaire dans un effort désespéré de retrouver un prestige devant le parti communiste après sa désastreuse déconvenue face à Kennedy dans la crise des missiles cubains quelques mois auparavant seulement. Apparemment la tentative fut couronnée de succès, puisqu’il est resté au pouvoir encore un an avant d’en être écarté.

Nuage en forme de champignon au large du Japon près de la zone de test Russe

Ce qui suit concerne « l’explosion froide » du 9 avril 1984. Le site de l’explosion était seulement à environ 320 kilomètres du centre ville de Tokyo, il a été vu par les équipages de plusieurs avions de ligne, dont le vol 36 de la Japan Air Lines.

Peu de temps auparavant les Soviétiques avaient annoncé à la hâte que des essais de missiles seraient menés dans une zone peu distante de l’ancien site d’explosion. Cela a pu être une tromperie pour couvrir cet incident, n’importe quelle nation dirait qu’elle savait ce qui était en train de se passer.

C’était également un « stimulus » direct aux Japonais et au reste du monde. C’est-à-dire stimuler le système et voir si les scientifiques reconnaissent ce qui s’est passé. Si c’est le cas, alors ils connaissent les armes scalaires. Si ce n’est pas le cas, alors ces pays ne savent rien des armes EM scalaires, et ces pays sont sans défenses contre eux.  Quoi qu’il en soit, vers 5 heures 14 minutes, temps standard du pacifique, le 9 avril 1984, un nuage géant en forme de champignon a surgit au dessus de l’océan au sud des îles Kuril. Le champignon s’est élevé rapidement, montant à une altitude de 18000 mètres et atteignant un diamètre de 320 kilomètres en 2 minutes.  Un pilote de Boeing 747 qui a observé le nuage, était un ancien pilote de bombardier B-52. Il a décrit le nuage comme étant très similaire à celui d’une gigantesque explosion nucléaire, excepté qu’il n’y avait aucun flash de lumière visible. Optant pour une action d’évasion, il a dévié sa trajectoire pour s’éloigner de l’explosion, et il s’est préparé à encaisser le choc de la détonation qui n’est jamais venu...

Un nuage en forme de champignon s’élevant de la mer (explosion froide)

En effet, ce nuage fortement anormal était dû à une explosion froide – un test d’un obusier EM scalaire soviétique en mode endothermique pulsé. Ainsi un test et un beau « stimulus » ont été mené : seuls quelques avions de lignes ont été «alarmés», fournissant un stimulus de haut-niveau aux observateurs compétents. Il était certain que les informations soient rapportés de cette manière à différentes nations, il était certain que la presse s’empare de l’histoire, c’était un stimulus de niveau élevé pour voir si les Etats Unis, le Japon, ou d’autres adversaires potentiels de l’Union Soviétique reconnaissaient l’essai d’une arme à explosion froide.  Par notre réaction nous les avons assurés (avec un indice de confiance élevé) que nous ne savions encore rien de l’interférométrie EM scalaire ou des explosions froides.  Cinq Boeing 747 en route pour Anchorage en Alaska, ont volé au travers et à proximité du nuage, les avions ont été contrôlés à Anchorage pour la contamination radioactive, mais rien n’a été trouvé, cela démontrait que l’énorme explosion était non-nucléaire.  La profondeur de l’océan dans cette zone est d’environ 6300 mètres, c’est en fait trop profond pour qu’un volcan sous-marin ait explosé et provoqué le nuage. (En plus un volcan aurait continué à renifler au moins un peu, ce qui élimine cette explication de l’incident.) Bref, un phénomène fabriqué par l’homme a tout lieu d’être.

En conséquence, nous savons que c’était une explosion froide, en fait, l’effet de base a été reproduit en laboratoire sur une bassine d’eau, en utilisant un petit interféromètre scalaire dans le mode endothermique. Mais l’histoire ne s’est pas arrêtée là.

Un géophysicien de l’université d’Hawaï, le Dr Daniel A. Walker, avec ses collègues, contrôlait un ensemble d’hydrophones sur le fond de l’océan, enregistrant les signaux tels que évènements sismiques, éruptions de volcan, etc.

Le Docteur Walker et ses collègues ont effectué une analyse complète des données enregistrées par les hydrophones durant et aux alentours du moment de l’incident en question, les données montrent l’absence d’un quelconque séisme naturel ou évènement volcanique qui aurait pu provoquer le phénomène du 9 avril au large des côtes du Japon.  Lui et ses collègues ont conclu que c’était soit un phénomène naturel inconnu, soit un phénomène d’origine humaine.  Leur rapport est publié dans « Science ». (Dr Walker, « Kaitoku Seamount and the Mystery Cloud of 9 April 1984,” Science, 227 (4687), Feb. 8, 1985, p. 607-611.)

Le bouclier Tesla

L’obus hémisphérique d’énergie qui, il y a quelques années a été surnommé le « Bouclier Tesla », présente un intérêt particulier.

Deux surfaces hémisphériques scalaires sont créées en utilisant des émetteurs à fréquences multiples et des expansions de séries de Fourier tronquées. L’interférence des deux hémisphères scalaires crée un grand obus hémisphérique lumineux d’énergie électromagnétique ordinaire, dans l’obus la densité d’énergie est suffisante pour soulever le problème de Dirac de la mer de vide de Dirac, l’obus est ainsi rempli d’un plasma rayonnant.

Une telle coquille peut avoir plusieurs centaines de kilomètres de diamètre à la base. L’énorme énergie nécessaire pour former un tel bouclier de défense est obtenue par une « vanne d’énergie scalaire » dans le noyau en fusion de la Terre elle même comme cela a été expliqué précédemment. Fin avril début mai 1985, 27 de ces « vannes d’énergies » ont été placées dans la Terre par les Soviétiques, si chaque vanne est capable d’actionner 4 à 6 grandes armes EM scalaires, alors l’arsenal stratégique EM scalaire soviétique contient plus de 100 monstrueuses superarmes capables de produire des explosions exothermiques, des explosions endothermiques, de manipuler le climat, de localiser et détruire des sous-marins en plongée, de détecter et détruire des missiles balistiques très rapidement après le décollage, de détecter et détruire des bombardiers stratégiques à long rayons d’action aussitôt qu’ils sont en vol, etc.

En tous cas, le bouclier géant de Tesla est utile contre n’importe quel véhicule essayant de pénétrer, si l’obus n’est pas si grand, sa densité d’énergie peut être très haute, dans ce cas, le chauffage intense du plasma fusionnera et vaporisera même des corps métalliques. De plus, n’importe quel véhicule rencontrant la coquille est soumis à un effet EMP extrêmement intense se générant partout à l’intérieur de ses circuits. Un blindage EMP est inefficace contre la création d’énergie à travers l’espace-temps de ses circuits ; un tel blindage protégera seulement contre un flux d’énergie circulant dans l’espace d’une manière conventionnelle.

Donc l’électronique de n’importe quel véhicule rencontrant le bouclier est instantanément dégradé, qu’il soit ou non blindé contre les interférences électromagnétiques ordinaires (EMI). Cela inclut les systèmes électroniques des ogives nucléaires portées par un véhicule de rentrée, électriquement tout ce qui ce qui pénètre la coquille est totalement dégradé , ensuite les matériaux explosifs sautent quand un tel effet EMP est rencontré, et les matériaux combustibles se consument rapidement ou sont mis à feu. La protection d’ablatif subit une catastrophe intéressante, puisque l’énergie n’essaye pas de s’immiscer dans la protection mais y surgit partout simultanément, l’ablation a lieu partout à l’intérieur du matériau ablatif et le fait simplement exploser instantanément. De plus, pour les boucliers Tesla plus petits (disons de 80 kilomètres de diamètre) la densité d’énergie est suffisante pour fondre ou vaporiser les métaux tels que les structures de missiles.

Avec un tel bouclier Tesla, il n’y a aucun besoin de distinguer les véhicules de rentrée portant de vraies ogives des leurres, balles, etc. Tout le « désordre » entrant dans le bouclier est simplement « nettoyé » et « stérilisé » ou détruit. Le bouclier peut s’occuper des ICBM/IRBM et leurs têtes nucléaires, des bombardiers stratégiques et leurs bombes nucléaires, des véhicules de rentrées et leurs ogives, des leurres, des balles, etc.

Direction Saryshagan – septembre 1979

Le journal “London Sunday Times” du 17 août 1980 contenait une information et une photo-croquis d’incidents dénotant les essais de très grands globes Tesla bien à l’intérieur de l’Union Soviétique, les observations ont été faites en Afghanistan par Nick Downie un caméraman de guerre britannique. Les phénomènes aperçus étaient dans la direction de la zone d’essais de missile de Saryshagan qui -- selon le Département de la Défense Américaine « la puissance militaire soviétique », 1986 – contient une ou plusieurs grandes armes à énergie dirigée (DEW).

Bien que Downie voyait le globe de lumière depuis une grande distance, il s’est enflammé silencieusement sur l’Hindu Kush et s’est élargi jusqu’à sous-tendre un arc d’environ 20 degrés, s’atténuant au fur et à mesure de son extension. (Un arc de 20 degrés sous-tendu par un objet distant de plusieurs centaines de kilomètres indique un diamètre d’objet bien supérieur à 100 kilomètres, cela donne une certaine idée des énergies énormes qui sont contrôlées et manipulées par ces armes soviétiques.)  Downie a vu le phénomène en plusieurs occasions en septembre 1979.

En décembre 1979, un globe lumineux stationnaire contenant une raie noire verticale au centre a été vu dans le ciel de la côte de St. Petersburg en Floride, ce type particulier d’observation dans cette zone a été auparavant relié avec les périodes d’activités connues à Saryshagan. Plus tard, dans le même mois, les satellites américains Vela d’alerte nucléaire ont détecté un « flash nucléaire » sur l’Atlantique sud, au large de la côte d’Afrique. La controverse a fait rage jusqu’à nos jours dans les services de renseignements américains et dans les cercles scientifiques, à savoir si c’était une explosion nucléaire ou une autre sorte de mécanisme qui a produit le flash. En effet, le flash peut avoir été produit par un obusier EM scalaire depuis Saryshagan comme une « sonnette » de plus envers le système des services de renseignements américains, pour vérifier s’ils connaissaient quelque chose ou non à propos des obusiers EM scalaires, de nouveau la réponse négative leur a dit avec un grand indice de confiance que (1) Nous ne connaissions pas encore les « trucs » EM scalaires, et (2) Nous étions toujours totalement sans défense contre l’armement EM scalaire soviétique. En tous cas, selon les observations de Downie, il est fortement probable que l’armement DEW de la zone d’essais de missiles de Saryshagan était actif en septembre 1979, et qu’il produisait les grands globes Tesla, si les DEW à Saryshagan peuvent produire les immenses globes Tesla lumineux, ce sont presque certainement des interféromètres EM scalaires et peuvent alors également produire les boucliers Tesla géants. Downie a rapporté d’autres observations de phénomènes similaires, faites précédemment par les Afghans, au loin à l’intérieur de l’Union soviétique dans la même direction vers Saryshagan...

Brièvement, abordons les utilisations d’un tel globe géant ou d’une coquille sphérique d’énergie EM et de plasma lumineux. En plaçant un tel globe géant à des centaines de kilomètres de distance du centre défendu, un arc entier du ciel peut être défendu contre l’attaque de missiles balistiques à longues portées, en plein milieu de leurs trajectoires, les missiles attaquants devront pénétrer deux fois la coquille globulaire, s’exposant deux fois aux puissants effets EMP internes. Il existe donc une très forte probabilité que tous les missiles traversant l’espace occupé par le globe sont mis hors service à l’entrée et/ou à la sortie, cela inclut les systèmes électroniques dans les ogives nucléaires elle-mêmes. Cela est donc particulièrement efficace contre les porteurs de missiles MIR V et MAR V puisque les multiples véhicules de rentrée sont normalement encore sur le véhicule principal durant la plus grande partie de la course, l’utilisation de ce globe de défense d’ABM en pleine course réduit fortement le nombre de véhicules arrivant à la dernière partie de leurs courses et à la phase terminale de leurs trajectoires.  En utilisant un globe plus petit et plus intense, et en le plaçant à l’encontre d’objets isolés ou de groupes d’objets entrants, l’effet EMP et l’échauffement local agissent contre ces objets, cela est approprié dans la dernière partie de leurs courses et dans la phase terminale des ICBM, IRBM, SLBM et missiles de croisières. Il est également utile contre les bombardiers stratégiques entrants et leurs missiles air-sol balistiques ou de croisières.  Deux modes peuvent être utilisés pour les globes – spécialement pour les petits – en premier le mode continu peut être utilisé pour « frire » ou vaporiser les objets entrants dans un volume relativement petit (disons 15 à 25 kilomètres de diamètre). En second, le mode « pulsé » peut être utilisé pour « assurer » tous les objets entrants, qu’ils aient ou non traversé la défense de pleine course « grand globe », cela fournit une garantie complémentaire de tuer les objets ; la discrimination n’est pas nécessaire, simplement de tous les avoir. L’exposition de tous les objets entrants aux attaques multiples élève la probabilité de destruction à quasiment 100%, ou bien d’être proche de ce que l’on souhaite, bien sûr le véhicule arrivant peut encore rencontrer une défense terminale consistant en un bouclier Tesla associé à des petits globes intenses mobiles à déploiement rapide.

En bref, avec ces systèmes, une défense anti-bombe et anti-ABM est possible quasiment à 100%, par la suite, les Soviétiques ont possédé une telle défense effective durant deux décennies, tout comme ils l’ont ouvertement exposé depuis 1960 lorsque Khrouchtchev a annoncé ses « superarmes » !!

Le globe EMP Tesla continu

Voici un autre incident vérifié d’un essai gigantesque d’un obusier EM scalaire soviétique à l’intérieur de l’Union Soviétique. C’est un rapport de la C.I.A. sorti sous le Décret de la Liberté d’information. On peut être tout à fait certain que l’incident a eu lieu comme il est exposé. Le phénomène a été vu depuis deux avions approchant l’aéroport de Méhrabad à Téhéran en Iran le 17 juin 1966 et rapporté par leurs pilotes. Sur l’horizon lointain à l’intérieur de l’Union Soviétique, une intense boule de lumière sphérique est apparue, « assise sur l’horizon » pour ainsi dire. Le globe de lumière a augmenté jusqu’à une taille énorme, s’atténuant au fur et à mesure, remplissant littéralement un arc du ciel éloigné quand il s’est agrandi, le phénomène a été protégé de la vue de la plupart des observateurs au sol à l’aéroport lui-même à cause d’une chaîne de montagne qui s’intercalait et qui masquait la plupart du phénomène depuis le sol. Le globe en expansion silencieuse a été observé durant quatre à cinq minutes avant qu’il ne disparaisse. De nouveau c’est une preuve positive du test d’un interféromètre scalaire géant, dans le type d’action « globe ABM en milieu de course ».

Cependant notez la date – le milieu de 1966 ! Les Soviétiques ont donc testé de telles armes scalaires de tailles et puissances énormes pendant au moins deux décennies, cela implique que le développement doit avoir commencé au moins une décennie plus tôt, soit au milieu des années 50.

 Précédemment encore, en janvier 1960 Nikita Khrouchtchev avait annoncé le développement d’une « fantastique » arme soviétique, laquelle pourrait même détruire toute vie sur Terre si l’usage n’en était pas restreint. En 1962 le bouillant Khrouchtchev a été obligé de céder et de baisser le ton avant John Kennedy, dans la crise des missiles cubains. Les missiles et bombardiers de Khrouchtchev étaient en piteux états, comme le savait bien Kennedy (par la courtoisie de l’espion russe, le colonel Oleg Penkovsky). Kennedy ne savait pas que les nouvelles superarmes de Khrouchtchev s’approchaient de leur déploiement, mais n’étaient pas tout à fait prête encore. Pour sauver la face et empêcher sa mise à l’écart immédiate, Khrouchtchev a apparemment effectué une double frappe en conduisant une démonstration ahurissante de ces nouvelles armes dès qu’elles sont devenues prêtes opérationnellement. Le 10 avril 1963 il a détecté et détruit le sous-marin nucléaire américain Thresher en utilisant un obusier EM scalaire en mode « continu » immergé dans l’eau. Le jour suivant il a démontré le mode destruction sous-marine « pulsé » pour les sous-marin en plongée en produisant une explosion sous marine géante à 160 kilomètres au nord de Porto Rico. Ironiquement, alors l’Atlantique était très fréquenté par les navires de la marine américaine qui effectuaient des recherches suite à la disparition du Thresher, un second test des armes qui ont anéanti le sous-marin, a eu lieu au sud d’eux, inaperçu et méconnu, bien que vu et annoncé au F.B.I. et aux Gardes Côtes américains par un pilote et un équipage d’un avion de ligne américain, qui ont observé l’explosion sous-marine.  Nous pouvons donc cerner le développement de ces armes par les Soviétiques comme commençant bien avant 1960, le premier déploiement opérationnel de cet armement stratégique gigantesque a eu lieu au début de 1963. Remarquez que le test de 1966 observé ici est complètement compatible avec ce calendrier de développement estimé. Ainsi les grandes armes EM scalaires soviétiques ont été opérationnelles sur le terrain pendant 24 ANS !!! Cela implique qu’au moins trois générations complémentaires d’armes EM scalaires ont été développées et déployées à ce jour...

Mystérieuses lumières sur le Pacifique nord

Des incidents de tests soviétiques des armes globe Tesla et bouclier Tesla sont observés de manière routinière par des pilotes de ligne survolant le Pacifique nord en provenance du Japon ou y allant.  En voici un exemple typique. Deux avions de ligne, les vols 403 et 421 de la Japan Air Lines, ont observé et rapporté un grand globe de lumière rayonnante posé juste au delà de l’horizon et s’étendant bien au-dessus de celui-ci. L’avion était aux environs de 42 degrés nord et 153 degrés de longitude à ce moment, l’observation était donc à environ 1100 kilomètres à l’est de Kushiro. Le diamètre de la boule a été estimé à au moins 18-27 kilomètres par les pilotes, selon la distance réelle de la sphère elle peut avoir été beaucoup plus grande. Cet incident a été rapporté dans le journal de Tokio « Asahi Evening News » le 22 juin 1982.  De nombreuses observations similaires ont été rapportées par des pilotes d’avions de lignes survolant ces eaux.

Une sphère blanche vue dans l’Atlantique nord en 1976

Voici une autre observation plus proche de chez nous. Cet incident a été observé depuis un navire de passage le 22 juin 1976 dans l’Atlantique nord, dans la fourchette 21h13mn – 21h40mn, il a été rapporté dans le « Marine Observer » Vol.47, 1977, p.66.

D’abord une lueur orange a été observée derrière des nuages éloignés, quelques minutes plus tard une sphère de lumière blanche lumineuse a été observée à gauche de la lueur orange, juste au-dessus des nuages, la sphère blanche s’est lentement agrandie jusqu’à devenir une sphère beaucoup plus grande, s’affaiblissant au fur et à mesure de sa croissance. A sa taille maximum le sommet de la sphère blanche a atteint un angle d’élévation par rapport à l’observateur d’environ 24 degrés et 30 minutes, le développement pour atteindre sa taille maximum a duré environ dix minutes. A 24h40mn la sphère  avait faibli et a disparu, la sphère était suffisamment ténue que les étoiles pouvaient être vues au travers à tout moment. De nouveau cet incident se conforme fortement au mode grand globe Tesla de l’interféromètre EM scalaire soviétique.

La signification et le rôle de la lueur orange ne sont pas connus pour le moment.

Boule de feu Tesla continue

Voici un autre incident qui constitue un stimulus au gouvernement britannique, afin de voir si les Britanniques sont conscients de l’électromagnétisme scalaire. De nouveau c’est un rapport de la C.I.A. déclassiffié sous le décret de la Liberté d’Information, donc les détails sont fiables. Le 10 septembre 1976 le vol 831 de la British European Airways, reliant Moscou et Londres et volant au-dessus de la Lithuanie à ce moment-là, a observé une boule intense de lumière au-dessus des nuages sous l’avion, la lumière était si intense qu’elle a éclairé le ciel dans tout le voisinage.  Le pilote concerné a rapporté l’objet lumineux aux autorités soviétiques au sol avec qui il était en contact, il a reçu des instructions sévères d’ignorer la lumière, et de continuer strictement son chemin pour sortir de là.  Ici nous voyons un incident impliquant un intense petit globe Tesla du genre avec lequel la défense pourrait « assurer » les objets, qui auraient déjà pénétré en pleine course un grand globe, ou les avions approchant la zone défendue.  Evidemment les Pouvoirs soviétiques suivaient l’avion à la trace et savaient qu’il était dans le voisinage, cela semble logique, alors qu’ils ont placé délibérément la boule fortement lumineuse sous l’avion afin que le pilote et l’équipage ne puissent pas ne pas la voir.  L’étrange message au pilote a été simplement prévu pour accroître l’intensité du stimulus, le stimulus devait être quelque chose comme, « Les Soviétiques font quelque chose dans la recherche et le développement qui leurs permet de créer à distance d’intenses boules lumineuses, et de placer ces objets dans l’air dans le voisinage de l’avion, ou l’englobant, probablement pour l’intercepter ». Le but bien sûr était d’observer la réaction du gouvernement britannique après que le pilote ait rapporté l’incident à son arrivée à Londres.  De nouveau la réaction des Britanniques – et celle des Etats Unis également – a été comme prévue, de nouveau nous avons montré que nous ne savions rien des armes électromagnétiques scalaires, et nous n’en avons pas reconnue une lorsque nous avons rencontré ses effets.

Système ABM terminal

Des choses très propres peuvent être faites si on « niche » plusieurs boucliers Tesla – disons trois ou quatre – concentriquement, l’un à l’intérieur de l’autre, dans ce cas même les radiations nucléaires (tels que les rayons gamma) issus d’une explosion nucléaire en haute altitude d’une défense-suppression peuvent être traités. Par exemple, supposez que trois de ces boucliers soient placés sur un grand secteur vital, ensuite, supposez qu’une explosion nucléaire de haute altitude ait lieu au-dessus du bouclier externe. La radiation gamma frappe presque instantanément le plasma dans la coquille externe, où elle est absorbée, dispersée et ré-émise à une température plus basse. (C’est après tout ce que le plasma fait.) A l’intérieur de la première coquille, la radiation dispersée est maintenant dans la gamme des rayons-X et ultra-violet. Suivons à la trace le composant le plus mortel, les rayons-X.  Les rayons-X dispersés frappent ensuite la seconde coquille de plasma, et sont absorbés, dispersés et ré-émis à une température plus basse ; à l’intérieur de la seconde coquille la radiation dispersée est maintenant dans le domaine du visible et de l’infrarouge, avec un peu d’ultraviolet.  Cette radiation optique frappe à son tour la troisième coquille de plasma, et est absorbée, dispersée et ré-émise à une température encore plus basse ; à l’intérieur de la troisième coquille, la majeure partie de l’énergie est maintenant dans la gamme des fréquences radio (RF), avec un petit contenu d’énergie dans les bandes spectrales du visible et de l’infrarouge.  A ce point, la protection des interférences électromagnétique ordinaire (EMI) des équipements électroniques au sol à l’intérieur du troisième bouclier peut gérer n’importe quelle interférence résultant du bruit RF émergent.  Comme on peut le voir, trois obus sont suffisants pour convertir le rayonnement gamma et X (et ultraviolet et infrarouge) principalement en énergie RF inoffensive avant que les trois coquilles ne soient pénétrées, donc la tactique de suppression délibérée de la défense par une explosion nucléaire préliminaire en haute altitude peut être contrée par des boucliers Tesla multiples.  De plus, bien sûr, n’importe quels véhicules ordinaires pénétrant les trois boucliers sont exposés aux violents effets EMP successifs et sont presque certainement détruits électriquement. Les véhicules sont aussi soumis aux multiples périodes d’échauffement intense, donc combustibles, carburants, explosifs et ablatifs sont détruits, de plus, les structures métalliques peuvent être fondues ou vaporisées.  Vu de cette manière : tout ce qui frappe un de ces boucliers Tesla part en pfffuuuit ! Exactement comme une mouche frappant la grille écran électrisée d’un destructeur d’insecte.  Pendant des années des navires ont observé et rapporté de tels « phénomènes lumineux » de boucliers multiples au-dessus de régions éloignées de l’océan. Les services de renseignements américains, par routine, n’ont pas pris garde aux « lumières dans la nuit » sur les zones éloignées de l’océan, et donc de cette manière les tests soviétiques sont passés relativement inaperçus par la bureaucratie...

Les rayons de Pivert se croisent au-dessus de l’Amérique du Nord

En juillet 1976 les Etats Unis ont reçu des salutations très spéciales pour leur Bicentenaire de la part de l’union Soviétique. A ce moment, les systèmes de communications du monde dans la bande de 3 à 30 mégahertz ont soudainement rencontré une interférence substantielle en provenance d’émetteurs soviétiques extrêmement puissants qui ont été soudainement activés. Ces émetteurs continuent leurs émissions à ce jour. Les estimations de la puissance de ces émetteurs varient, mais l’échelle des valeurs s’élève à plusieurs centaines de mégawatts, avec une puissance nominal de 100 mégawatts.  Ces puissants émetteurs ont été surnommés bien à propos les « Piverts » à cause du son caractéristique de la modulation du signal à la réception, c’est-à-dire que le signal reçu fait le son du « picotage »  très semblable à un Pivert frappant un morceau de bois de son bec.

Plusieurs nations ont protesté, mais les puissants signaux ont continué jusqu’à ce jour, la seule réponse soviétique a été d’ajouter un système « spectre de diffusion », afin que l’émetteur ne demeure pas trop longtemps sur une fréquence spécifique, mais permute périodiquement à d’autres fréquences.  Ces émetteurs n’ont apparemment jamais été localisés précisément par l’Intelligence américaine, mais leurs rayons comportent de nombreuses caractéristiques du radar au-delà-de-l’horizon [OTH, over-the-horizon], ils ont été classés radars OTH par l’Intelligence américaine, et peuvent sans aucun doute effectuer cette mission et d’autres très intéressantes que les services de renseignements américains n’ont pas étudiées.  Le « Soviet Military Power » du département de la défense (1985, p.45) montre l’intersection directe au-dessus des Etats Unis des rayons radar de Pivert utilisés dans un rôle OTH. De plus il est montré un rayon de « scanner » supplémentaire lequel peut scanné à travers la « grille » d’intersections au-dessus des Etats Unis, formée par l’interférence d’onde de forme des deux rayons Pivert principaux.  D’abord, ils peuvent être employés dans un mode radar OTH conventionnel, puisque leurs rayons suivent le guide d’onde de l’ionosphère terrestre et se courbent autour de la Terre. Dans ce mode ils peuvent détecter les bombardiers et les missiles, que ce soit dans leur phase de lancement ou dans leur course.  Ces armes à grilles d’interférences scalaires peuvent être employées pour attaquer biologiquement des populations entières dans un secteur ciblé, cet aspect n’est pas développé dans ce rapport, je me contenterais de dire que des signaux de modulation ELF (extrême basse fréquence) verrouillés en phase de 10 hertz et moins sont souvent détectés sur des fréquences Pivert multiples simultanément. Dans un secteur ciblé, cette modulation – qui est suffisamment plus forte que la résonance Schumann du champ magnétique terrestre – entraînera un certain pourcentage des cerveaux en « entraînement forcé ». Dans ce cas, ces cerveaux humains sont « synchronisés » aux signaux de Pivert afin que des fréquences cohérentes multiples soient verrouillées en phase en eux. C’est-à-dire que des canaux EM cohérents et multiples existent maintenant directement dans ces cerveaux entraînés. A ce point, des expansions de Fourier peuvent maintenant être employés pour attaquer géométriquement des zones spécifiques du  cerveau. De plus, toujours avec les expansions de Fourier des patterns EM scalaires de maladies peuvent être modulés sur les [ondes] porteuses. Des effets biologiques spécifiques peuvent être induits à volonté dans les populations entraînées, limités seulement par l’état de l’art de la technologie soviétique utilisée pour les attaquer. Les effets possibles inclut : morts instantanées, crises cardiaques, perturbations émotionnelles sévères, pertes de contrôles des fonctions internes, maladies, déficience du système immunitaire, et même implantations de pensées, d’émotions, et d’idées qui sont interprétées par les sujets comme étant les leurs.  Alors que la discussion de ce domaine est au-delà de la portée de ma connaissance, les aspects biologiques des émetteurs Piverts sont horribles. Je me bornerais à dire que, dans des milliers d’expériences, Kaznacheyev a démontré que presque n’importe quel genre de pattern de maladie et de mort cellulaire pouvait être transmis électromagnétiquement. Kaznacheyev a rapporté l’effet dans le proche ultraviolet, des expérimentateurs à l’Université de Marburg en Allemagne de l’Ouest ont répété les expérimentations dans l’infrarouge.

Le résultat est que les photons eux-mêmes peuvent transporter des modèles de maladies et de mort entre les cellules. La technologie EM scalaire permet la synthèse du pattern potentiel réel (qui après tout représente le contrôle total de charge et la distribution de charge, et de là, la biochimie dans la cellule) d’une maladie particulière ou d’un mécanisme mortel. Les                                                              et d’autres mécanismes ont été induits par les expérimentations de Kaznacheyev.

Le Dr Popp d’Allemagne de l’Ouest a publié une analyse du système de contrôle maître photon virtuel des cellules. Puisque l’EM scalaire représente l’ordre délibéré du flux de particule virtuel dans des modèles déterminés, le système de contrôle maître peut aisément être pénétré avec des techniques scalaires pour induire maladies et désordres à volonté...

URL de cette page: http://voltair.free.fr/scalar/scalaire.htm


Document photographique annexe d'une interférométrie scalaire   

 


Mise à jour du 11 février 2006  Cette traduction francophone de ce dossier de l'électromagnétisme scalaire a été mis en ligne en 2001. En 2005, José Frendelvel publie son ouvrage "L'or des étoiles : nouveau regard sur le système solaire". Entre autre, ce livre met en évidence la présence de réseaux scalaires sophistiqués sur... notre Lune !  Depuis un certain temps déjà, nous pouvions nous demander pourquoi les agences spatiales ne nous avaient toujours pas fourni une cartographie lunaire digne de ce nom. Quarante ans après la "conquète lunaire" des misions Appolo, la meilleure cartographie est toujours celle des Lunar Orbiter des années 66 et 67 avec une résolution d'environ 300 mètres par pixel en noir et blanc. En effet, la cartographie de la mission Clémentine en 1994 bien qu'ayant une résolution d'une centaine de mètres par pixel (mais toujours en noir et blanc) est d'une qualité exécrable lui otant quasiment toute valeur. SMART-1, 3ème mission photographique arrivée en orbite lunaire en janvier 2005 devait nous fournir une cartographie de la Lune avec une résolution de 40 m (nous sommes encore loin de la résolution de 1 m en couleur des photos satellites de la Terre). Un an plus tard, en début 2006, nous n'avons eu que 5 ou 6 petites images de la Lune (toujours noir et blanc) d'uns résolution d'environ 200 mètres par pixel. Dans les faits, les agences spatiales nous cachent certaines réalités de la Lune en omettant de nous fournir de bonnes images photographiques de la Lune. Par ses différentes implications, cette  incroyable découverte de réseaux scalaires lunaires apportent enfin une réponse au pourquoi des dissimulations de la NASA et consoeurs.

L'or des étoiles : Nouveau regard sur le système solaire  http://frendelvel.free.fr


Les Armes EM Scalaires (1ère Partie) par GoldenAwaken

LES ENGINS A ANTIGRAVITE: PRINCIPES ET REALISATIONS

Publié le 18 Septembre 2010 par Scaramouche

Catégories : #Technologies alternatives

Les différents principes, d'après les théories de la Physique et les réalisations concrètes d'engins à antigravitation. 

Il y eu de nombreux inventeurs indépendants qui au cours de l'histoire, s'intéressèrent à la possibilité de pouvoir faire léviter des objets. Avec l'arrivée de l'aviation, dès le début du XXème siècle, plusieurs voulurent fabriquer des engins volants, utilisant comme technologie la propulsion "à antigravité". Mais voyons tout d'abord, au niveau de "la Physique", l'historique des différentes théories. Lesquelles ont inspirées et permirent la réussite, de la réalisation de ce mode de propulsion révolutionnaire.  

Les différentes théories liées à "l'antigravitation".

La première de ces théories, qui remonte à l'Antiquité Grecque, est celle des monocordes. En langage moderne on dirait qu'il s'agit de la théorie des résonances et des harmoniques ondulatoires. Une petite partie de ce savoir s'est retrouvé, du Moyen Age à nos jours, dans les lois du solfège et de la gamme bien tempérée en musique. Voilà pourquoi, aussi étonnant que cela puisse paraître, les travaux sur les "sons" ont aussi eu leurs importance. Car chaque son émet bien une fréquence, et les fréquences ont elles-aussi leur utilité.

La seconde est la théorie implosive de Shumann et de Schappeller qui permis à Viktor Schauberger, dès les années vingt, de construire et de faire fonctionner plusieurs engins révolutionnaires, entres autres des turbines hydrauliques implosives à rendement apparent "sur-unitaire", c'est à dire produisant plus d'énergie à la sortie de la turbine qu'à l'entrée. (Photo du dépôt de brevet ci-dessous, cliquez pour agrandir). 

 

La troisième théorie (publiée en 1903) nous vient du mathématicien Britannique Whittaker et pour l'expérimentation, du physicien Nicola Tesla. Il s'agit de la théorie des potentiels et des ondes longitudinales scalaires. Dès 1896, Tesla avait observé des pertes de masse et d'inertie d'objets de son laboratoire, soumis aux ondes scalaires en phase (ou en résonance synchrone si vous préférez) à très basse fréquence  (6Hz) de ses bobines "Tesla". Ces expériences ont été reproduites avec succès depuis 1995 par un expérimentateur indépendant de Vancouver (Canada), John Hutchison, ainsi que par le physicien Brésilien Fran De Aquino qui a publié ses travaux en référé au Brésil et les a soumit également au CERN (Centre Européen de Recherche Nucléaire). 

C'est principalement sur ces théories que se basèrent les Allemands pendant la guerre, pour réaliser leurs soucoupes. Les autres théories qui ont suivies viennent des recherches menées aux Etats-unis, après la Seconde Guerre Mondiale. 

Les Etats-Unis lancèrent la recherche dans ce domaine dès la fin des années quarante. Les Américains avaient en effet récupéré en 1945, beaucoup de plans et de pièces détachées de soucoupes nazies. Mais malheureusement pour eux, après montage, ils n'arrivèrent pas à faire fonctionner cet engin (1). Mais ils ne résonnaient pas, par rapport à la théorie qu'il aurait fallu. De plus, soit par "chauvinisme", ou une "mentalité Américaine", bien connu (croyant être les seuls à pouvoir détenir la solution) les physiciens militaires Américains ont toujours rejetés obstinément toute l'approche théorique qu'avait eu les nazis sur l'antigravité, préférant alors travailler uniquement sur le modèle quantique standard et celui de la "relativité générale étendue". Ceci explique pourquoi les moteurs à anti-gravitation Américains étaient alors au départ si différents des moteurs Allemands, de type Schuman et Gerlach. Ils tentèrent donc de reproduire le fonctionnement exact de ce type d'engin, sans y parvenir, pendant plusieurs années.

Jusqu'en 1968, les chercheurs Américains avaient utilisé la théorie de la relativité générale étendue d'Einstein, publiée en 1928 (qui prévoit pour la première fois la possibilité d'annuler la masse et l'inertie sans dématérialisation), tout en échouant à pouvoir comprendre et reproduire parfaitement la technologie des engins extraterrestres. Comme ceux trouvés à San Diego, Roswell, Kingman et ailleurs (2). 

En 1971, la section militaire du "Lawrence Livermore Laboratory" réussit péniblement à mettre en place un nouveau "modèle mathématique" (assez complexe) à partir du modèle quantique standard. Il ne permettait de reproduire, que partiellement la propulsion de certains des engins extraterrestres capturés. Ce système fonctionnait, mais pas pour toutes les "directions", que l'on veut voir appliquer à un engin volant.  (ils travaillaient en fait, d'après une base de la Physique qui est fausse, il ne fallait donc pas s'attendre à trouver la solution).

Ce modèle théorique, établit qu'une inversion de la température quantique statistique dans un système d'atomes inverse (autrement dit: "annule") le signe de masse et d'inertie du système. Cet effet, appelé "Magnetic Field Disruption" (MFD) par les militaires, est utilisé pour le système de propulsion de l'engin triangulaire "TR-3B". Ce dernier utilise en fait un moteur hybride ("MFD", antigravitationnel et "EMHD", Electro-Magnéto-Hydro-Dynamique). La propulsion "MHD" étant parfaitement connu, et développée d'après la théorie de Maxwell.

Ces différentes théories, donneront en fait plusieurs manières différentes, de concevoir des systèmes de propulsion à antigravité.

 

Les différents engins utilisant l'antigravité, mit au point depuis le début du XXème siècle.

Les premiers modèles, "à tornades d'eau", de Viktor Schauberger.

Dans les années trentre, Schauberger s'intéressa aussi à l'antigravité et fît de nombreux travaux dans ce domaine. Il fit voler lors de ses expérimentations deux types différents de modèles réduits de "soucoupes volantes", qu'il baptisa "Répulsim" (photo ci-dessous). Une turbine spéciale, placée au sommet de la soucoupe, met en rotation un mélange d'air et de 1% d'eau refroidie à sa température critique de transition de 2,93°C. L'air est centrifugé en tornade sous la soucoupe et remonte par la colonne centrale de la tornade vers le sommet de la soucoupe où il est à nouveau centrifugé par la turbine. Les différences de température entre le haut et le bas de la tornade ainsi que les différences de pression et de charge électrostatique entre le centre et la périphérie de la tornade (appelée aussi vortex) créent une énorme force de propulsion par dépression de l'environnement de la soucoupe. A partir d'une vitesse de rotation de 7000 Tours/min. La tornade s'auto entretient et la turbine n'a plus besoin de son moteur d'entraînement. De plus, à partir de 30000 Tours/min., le vortex annule la masse et l'inertie de la soucoupe et aussi de tous corps placés dans sa proximité immédiate (à quelques centimètres). Il y a alors antigravité. 

  

Les soucoupes Allemandes et la recherche nazi pendant la guerre.

Le dernier modèle de moteur antigravitationnel conçu par les nazis et le plus évolué, fût élaboré en 1943-44. Il comprenait deux cylindres superposés et contrarotatifs, de un mètre de diamètre, en métal diamagnétique. Chaque cylindre contenait de la vapeur de mercure, sous vide, mise en rotation équatoriale par les cylindres. Des ondes radio, émises à l'intérieur des cylindres formant une cavité résonante, induisait un courant électrique intense dans la tornade de vapeur de mercure. Une fois ionisée, la vapeur de mercure devenait un puissant électro-aimant tournant. Chaque tornade de mercure tournait dans le sens de rotation mécanique de son cylindre respectif. A partir d'une vitesse de rotation relative entre les tornades, d'environ 8Km/seconde. Le système annulait totalement sa masse et son inertie. L'ajout d'un faisceau radio supplémentaire permettait alors de créer une force de propulsion dirigée dans le champ antigravitationnel. L'énergie électrique du vide quantique dans le vortex de mercure était récupérée par auto-induction, ce qui permettait d'alimenter éternellement la tornade (3).
Le concepteur de l'original de ce type de moteur, était le Professeur Gerlach, qui avait travaillé sur les extensions de la relativité générale en relation avec Albert Einstein dans les années vingt. Son moteur n'était qu'une évolution moins "grossière" du moteur magnéto-électrostatique et électromécanique de Shumann développé à partir de 1934 et dont la première version opérationnelle fût installée sur le "RVZ-1", qui vola en 1936.
Les moteurs Shumann (appelés aussi "lévitators Shumann"), développés dans le cadre du programme de recherche Allemand, équipèrent eux tous les prototypes "Vril" et "Haunebu", à l'exception du Vril 8 "Odin" et du Haunebu III, qui étaient eux équipés du moteur Gerlach. Les nazis firent aussi appel, assez tardivement et en complément des autres théories (citées plus haut), à la théorie (incomplète) "unifiée des champs" d'Einstein (appelé aussi "relativité générale étendue") datant de 1928. A partir de 1944, ils prirent du retard car ils furent confrontés à des distorsions "spatio-temporelles" (le phénomène de "vortex"), durant les vols avec leurs prototypes Vril 8 "Odin" et Haunebu III. Problèmes qu'ils eurent du mal à appréhender et à résoudre, car ils ne pouvaient être décrits par les modèles théoriques existants à l'époque (4).

 

Les différents engins connus, issus de la recherche militaire Américaine.

L'engin triangulaire "TR-3B", "Darkstar" (illustration ci-dessous), existe depuis 1986. Il a été mis au point conjointement par les firmes Boeing et Lockheed. C'est en fait un engin à moteur "hybride" ("MFD", antigravitationnel et "EMHD", Electro-Magnéto-Hydro-Dynamique). Les moteurs du TR-3B, ont seulement quelques points communs avec le moteur de l'Allemand Gerlach, mais en beaucoup plus compliqué et en moins efficace. 

 

C'est en quelques sortes, le successeur du TR-3A "Black Manta" (illustrations ci-dessous), qui datait de 1965-66, un modèle presque identique, mais avec un système de propulsion différent. Le "TR-3A" et le "TR-3B" sont tous les deux capables d'évoluer dans l'espace, mais à quelques milliers de kilomètres seulement, sans trop s'éloigner de la Terre (en effet, cet éloignement diminue proportionnellement la puissance de leurs "moteurs").

 

Tous les deux font suite à l'ARV, "Antigravity Research Vehicle" (photo et schema ci-dessous), qui a été développé plusieurs années auparavant, aux cour des années cinquante. Il s'agissait d'une soucoupe expérimentale, pouvant évoluer dans l'espace. Son mode de propulsion "à antigravité" est différent des engins cités précédemment (ses capacités d'évolution la limite à notre système Solaire). Elle fût construite en plusieurs exemplaires et existe en trois versions (5).

 

 

Un aperçu de la recherche indépendante, avec les disques de John Searl.
John Searl était un chercheur indépendant, qui découvrit son principe de l'antigravité, alors qu'il cherchait à concevoir un générateur pour produire de l'énergie, à partir du vide (6). Poursuivant ces recherches, il construira près de quarante disques à antigravitation, tous contrôlé, qu'il appela des "IGV" ("Inverse Gravity Vehicle"). Voici l'un des appareils fabriqué, et qui vola effectivement en octobre 1967 (photos ci-dessous), malheureusement perdu par la suite. Ce n'était pas un petit modèle, mais un disque de plusieurs mètres de diamètre, élaboré en tant que prototype, pour pouvoir voler avec des passagers et qui pesait plusieurs centaines de kilos.

   
Ce modèle en vol (cliquez pour agrandir):

Les disques évoluaient grâce au système de production d'énergie "SEG" ("Searl Energy Generator"), qu'il avez conçu. Comme vous le voyez avec le schéma ci-dessous, d'un autre modèle de Searl, appelé le "Demo 1": 

 

 

Les tentatives de Searl, de révéler cette technologie aux dirigeants et aux autorités officielles.
Dans les années soixante-dix, Searl voulu offrir sa technologie au Royaume-Uni. Au couple royal, la Reine Elisabeth et le Prince Philip, il fit parvenir le message suivant: "Veuillez accepter ceci, je peux vous montrer comment construire cet appareil pour produire de l'énergie et pour fabriquer réellement un nouveau type de vaisseau aérien, ou simplement un appareil capable de remplacer l'avion." Dans leur réponse le couple le remercia vivement, mais en précisant bien qu'il ne désirait pas le voir.

Searl montra alors son invention aux autorités Américaines. Il se livra même à une démonstration à la Edwards Air Force Base. Au cours de la démonstration, à la télécommande, il fît faire un virage à 25 "G", pour montrer les performances de son disque volant. Les militaires Américains lui dirent: "Bon, cela pourrait tuer tous les passagers à bord des avions, nous ne voulons pas voir cet appareil, trop dangereux, nous ne pouvons pas nous en servir."

Searl fit alors des essais pour déterminer la valeur des "G" à l'intérieur de son appareil. Dans un de ses essais, une ampoule était suspendue à l'intérieur de l'appareil. Elle était censée se casser sous la force minimale de 2 "G". Searl fit diverses évolutions avec l'engin, qui auraient dût détruire l'ampoule, mais après les essais, elle était intacte. Démontrant ainsi que l'attraction terrestre à l'intérieur de l'appareil n'était pas la même que dans un avion classique (7).  

Quand les autorités tentèrent de mettre fin aux recherches de Searl.
En fait, comme beaucoup d'autres, Searl gênait terriblement avec ses inventions innovantes.

En 1982, alors qu'il était dans sa maison de Mortimer dans le Berkshire en Angleterre, un groupe de soldats pénétra chez lui, confisqua son appareil prototype et arracha tout le câblage électrique de son atelier. Il fût accusé de vol d'électricité par la compagnie locale et condamné à payer une amende. Comme son appareil ne lui fut jamais rendu, il refusa de payer l'amende, et à la suite de ce refus, il se retrouva en prison. 

Searl avait demandé à un ami d'aller chez lui pour reprendre ses papiers. Il s'y rendit, mais dira à Searl, qu'il y avait trop de choses en désordre et qu'il y retournerait plus tard. Et pendant son incarcération, son atelier de travail fut incendié par des militaires Britanniques. Tous ses papiers, les montages, les plans,...etc. Tout a brûlé. Ils ne leur aura fallu que quatre jours pour détruire des années de travail. 

Quelques années plus tard, Searl avait installé en Nouvelle Zélande, un atelier pour construire un nouveau prototype et le mettre au point (suite à ce qui c'était passé, il avait décidé pour la sécurité de ces travaux de s'éloigner du Royaume-Uni). Pendant un séjour dans son pays natal, il fût de nouveau arrêté sous un faux prétexte, mais suffisant pour l'envoyer une fois de plus en prison pendant un certain temps.

Son nouveau prototype resta donc sans surveillance, mais il le croyait être en sûreté. Quand il retourna en Nouvelle-Zélande après sa libération, les choses avaient changé. L'homme qui lui avait permis d'utiliser son terrain était depuis décédé, et la femme de ce dernier avait alors tout vendu. Le terrain, l'atelier et la soucoupe. Le nouveau propriétaire, un policier, avait vendu l'appareil à un ferrailleur au prix du métal, pour le cuivre qu'il contenait. Et il s'était débarrassé du reste. La déception était grande pour Searl, car tout avait été détruit. Par la suite, à partir de 1987, Searl, qui s'était séparé de sa femme, préféra pour sa tranquillité, vivre un moment dans la clandestinité sous un nom d'emprunt (8).

Searl a malgré tout su rebondir. Il a depuis reprit ses activités de recherche, avec plus de moyens. La futur crise des énergies fossiles, comme le gaz et le pétrole, a sensiblement fait révisé le jugement qu'avait eu de nombreux scientifiques, sur son travail, en matière de production d'énergie libre.
Il y a une société crée par Searl, la "Searl Aerospace Corporation" (dans le but de protéger la technologie et les droits d'exploitation de ses disques "IGV", parce que certains essayèrent de s'approprier ses inventions). Cette société a même établit un contrat de licence, pour un partenariat d'exploitation avec des constructeurs Américains (The Boeing Compagny, Lockheed Martin Corporation, Northrop Gruman Corporation et la General Dynamic Space ont étaient approché) pour un éventuel développement des "IGV". Comme vous pouvez le voir sur le contrat de licence ci-dessous (cliquez pour agrandir):

 

Les avantages des engins à antigravitation.

Donc la possibilité de fabriquer des engins à antigravité existe depuis bien longtemps, et serait parfaitement réalisable. Utilisé enfin pour des applications civiles, leurs avantages sont évident et font rêver:
- Plus besoin de carburant, puisque le système produit sa propre énergie, - Plus de problème de pneumatique, donc tous les terrains deviennent accessibles, même les plus accidenté. (Sans parler du nombre de pneu, sans cesse croissant, qui devient problématique, du fait du manque de centres de traitement. Et la collecte des pneus en est à être, paradoxalement, en diminution, car ils n'arrivent plus à absorber la quantité à recycler). - Plus aucune pollution,  - Plus de bruit de moteur gênant, - Durée de vie bien plus longue des véhicules, qu'avec ceux avec un "moteur à explosion", qui s'use beaucoup plus vite, et se montre plus compliqué à construire, - Des frais de fonctionnement réduits pour les utilisateurs et/ou les propriétaires, puisqu'il n'y a plus besoin d'acheter du carburant et de l'huile de moteur, ni de changer les pneus régulièrement. - Rapidité des engins accru, donc une durée des trajets réduits. - Tout-à-fait utilisable par les transports en commun, les compagnies aériennes, les entreprises de transport de marchandises. - Possibilité pour les heureux propriétaires, de pouvoir se déplacer directement, partout dans le monde, sans être obliger d'avoir recourt aux transports de voyageurs privés (comme les compagnies aériennes). - Pour les Etats, une réduction des dettes, puisque il n'y aurait plus à acheter de pétrole.

Le seul inconvénient, serait d'apprendre à piloter de tels véhicule. Mais je pense que les gens, une fois formé, arriveraient à les piloter sans problème (ils savent bien conduire une voiture).   

 

Pourquoi cette technologie n'est-elle pas mise en place et rendue accessible au public.

La suprématie Américaine sur l'espace.

Il y a une raison "technologiquement" parlant, auquel personne ne pense, mais qui est en fait très simple. Les Américains, ont construit des véhicules à antigravité dès les années cinquante-soixante, s'ils avaient procédé "normalement", comme pour toutes les découvertes, et avaient déposé officiellement à l'époque, les brevets de ces inventions, et bien, n'importe quels pays ou entreprises n'auraient eu qu'à payer les "droits d'exploitation", pour pouvoir utiliser cette technologie. Sans oublier qu'au niveau juridique, le droit de protection des brevets est valable vingt ans en moyenne. Ensuite, c'est la loi, n'importe quels brevets "tombe dans le domaine public et peut être librement utilisé" (pour les dessins et modèles, la durée est de 25 ans et renouvelable une fois seulement). Voilà une des raisons pour laquelle, ils ne l'ont pas rendu public, avec dépôt de brevets. S'ils avaient procédé ainsi, et bien dès les années soixante-dix ou quatre-vingt, tous les pays du monde, disposant d'un minimum de moyens, auraient pu sans aucun problèmes, accéder à l'espace (et n'oublions pas que l'ARV est capable de voyager dans le système Solaire). Et vous imaginez bien que les Américains veulent rester à être les seuls à disposer de ce moyen de locomotion, pour pouvoir se rendre dans l'espace (9). Ils tiennent tout simplement à garder cet avantage indéniable, en matière d'accès et d'exploration de l'espace, vis-à-vis des autres nations. Vous pensez bien que si ils en avaient les moyens, les autres pays ne se gêneraient pas pour aller dans l'espace, au contraire. Mais voilà, les Etats-Unis veulent être les seuls à pouvoir y accéder "librement et totalement", si l'on peut dire. Tant que certains pays se limite à envoyer des fusées, pour mettre des satellites en orbite, ça leur est parfaitement égal et ils s'en moque complètement. Mais si d'autres pays pouvaient se rendre en n'importe quels points de notre système Solaire (et pourquoi pas plus loin), les Etats-Unis ne seraient plus les seuls, et ils devraient alors compter avec d'autres nations. De plus, quand on connait toute la complexité des relations internationales, si ça se reproduisait à l'échelle de l'espace et de planètes entières, imaginez un peu la situation que cela pourrait engendrer: tels pays s'emparerait de telle planète, un autre ne serait pas d'accord... Bref, vous avez comprit (dès que l'on revendique ou réclame un territoire, cela provoque souvent des conflits ou une guerre).  Tandis que là, étant les seuls, les Américains disposent d'une parfaite liberté de mouvement et personne ne les dérange. Et ils tiennent à garder cet avantage, pour assurer leur suprématie, tant technologique que militaire.

 

L'argent.

L'autre raison est bien sur d'ordre financier. Ceux que cela dérangerait vraiment, ce sont évidemment les producteurs de pétrole et les compagnies pétrolières, tous les fournisseurs et les distributeurs de carburants et d'hydro-carbure de la planète. Et les Gouvernement, qui pour les uns perdraient des milliards de chiffre d'affaires, et pour les autres, ne toucheraient plus les taxes et les impôts, liés à la vente des carburants. Sans oublier le manque à gagner des péages sur les autoroutes. Puisque avec de tels véhicules, on peut se passer de route. 

 

Restreindre la liberté de mouvement et facilement contrôler les déplacements de la population.
Mais au-delà des préoccupations financières, il y a aussi la question de la liberté de circulation et pour ne pas dire, de la liberté tout court.  le vrai obstacle, c'est bien les dirigeants de la planète eux-mêmes, qui n'auraient plus aucuns moyens de contrôle sur les mouvements de population, et ne pourraient donc plus contrôler vos déplacements. Il y a beau "ne plus y avoir de frontières parce qu'on a fait l'Europe", c'est assez facile de vous empêcher de vous rendre où vous voulez, quand vous voulez allez dans un autre continent (évidemment, difficile d'aller en Amérique du Sud ou en Australie, en se servant de sa voiture). Vous êtes donc bien obligé d'utiliser les compagnies aériennes, avec toutes les contraintes "sécuritaires", de plus en plus nombreuses, inhérentes à ce mode de transport: fouille des bagages, scanner corporel à rayons x, contrôle des papiers avec utilisation de passeports bio-mètrique à puce, total dépendance des passagers vis-à-vis des compagnies (on se souvient dernièrement, du voyageur Français qui fût évacué, "manu-militari", par les policiers Brésiliens et qui a était envoyé en prison).

Tous les dirigeants du monde, veulent pouvoir disposer d'un réel contrôle sur leur population, et bien-sûr sur ses déplacements, qu'ils soient à l'intérieur du pays ou à destination de l'étranger (10).  

L'hypocrisie gouvernementale et politique.

Malgré la rhétorique habituelle des dirigeants et des politiques, sur la "liberté des individus et la démocratie des pays", il faut se rendre à l'évidence que nous ne sommes pas vraiment libre de nos mouvements. Puisque pour ces déplacement "longue-distance", nous dépendons tous des autorités et des compagnies privées. Voilà aussi pourquoi ils laissent systématiquement les gens dans l'ignorance la plus totale, sur l'existence de ces nouvelles technologies. Si les véhicules à antigravitation étaient généralisés et produit en série, et bien la population mondiale se rendrait finalement compte, du manque de liberté (de mouvement), qu'elle devait subir auparavant. Et il deviendrait alors impossible de revenir en arrière. Que voulez-vous, un peuple qui a goûté à la vrai liberté, est ensuite beaucoup plus difficile à diriger et à exploiter. 

 

(1) Pour plus d'informations, sur la récupération de la technologie Allemande, par les Américains, voir "Les Black Program: le Projet Paperclip", dans la catégorie "Les programmes secrets".

(2) Pour plus d'informations, sur les opérations de récupération et sur les crash d'ovnis, voir "Les Black Program: le Projet Moon Dust", dans la catégorie "Les programmes secrets".

(3) L'inventeur Canadien Hammel a reproduit, de manière empirique et sans le chercher vraiment, une version mécanique de ce moteur où les tornades de mercure sont remplacées par des cônes oscillants et superposés en aluminium.

(4) Pour plus d'informations, voir "Les soucoupes volantes du IIIème Reich".

(5) Pour plus d'informations, voir "Les Black Program: le Projet Senior Citizen", et "Les Black Program: Le Projet Aquarius", dans la catégorie "Les programmes secrets".

(6)  Pour en savoir plus sur les autres travaux de Searl, voir "La production d'énergie illimitée non polluante".

(7) Dans un véhicule "à antigravitation", on ne subît aucune accélération, étant donné que l'on se retrouve à être en apesanteur. Pas de contraintes des "G", pour l'équipage ou les passagers.

(8) Ce n'était pas trop difficile, étant donné qu'il n'existait pas de "carte d'identité", à cette époque. Il existe maintenant une carte (non obligatoire), mais les autorités ne sont pas encore parvenu à la faire accepter à l'ensemble de la population Anglaise.

(9) On se doute bien, de l'évidente mauvaise foi et de la complicité certaine, de la part des Gouvernements mondiaux (qui subissent aussi la pression des lobby, qu'ils soient pétrolier, financier ou autre). Mais l'éventualité d'une utilisation publique d'engins à antigravité, même si c'était improbable, était parfaitement possible. Il leur fallait donc, ne pas prendre de risque et garder cela secret. 

(10) On peut tous ce rendre-compte que les "mesures de sécurité", de toutes sortes, augmentent sans cesse, limitant de plus en plus la liberté de circulation.

Sources:

www.Searlsolution.com; www.magnetosynergy.com; Radio Ici et Maintenant, "l'Antigravitation" et "Les Ovnis nazis", émissions du 31 0ctobre 2003 et 9 décembre 2004, par Jean-Marc Roeder et Roch Sauquere.

 

DES INVENTEURS ET DES APPAREILS A ENERGIE LIBRE SANS PIECES EN MOUVEMENT : Page 3 de Moray à R.Q.M.

Page  créée le 17 octobre 1999

Retour au Menu

Accès au moteur de recherche

MORAY THOMAS HENRY 

Moray est né le 28 août 1892, à Salt Lake City, cinquième ville du monde à posséder à cette époque un système centralisé d’électricité.
Il était le septième enfant de sa famille, fils d’un homme d’affaires devenu ingénieur en électricité. Il a découvert les écrits de Tesla à l’âge de huit ans. Il s’est aussi inspiré des travaux du Français, le Dr Gustave Le Bon, auteur de " l’Evolution de la Matière " et de " l'Evolution des Forces ".
 

COSRAY Research Institut, 2505 S. 4 th East, Salt Lake City Utah 84115

 

 

Il obtint ses diplômes au Collège de Commerce des Saints des Derniers jours. Il les compléta par correspondance avec un cours d’ingénieur en électricité et obtint son doctorat en ingénierie électrique en 1918 à l’Université Suédoise d’Upsala.
Il a été ingénieur, dessinateur dans les compagnies Utah Power & Light Co., Phoenix Construction et ingénieur chef à Arastard Construction & Engineering Co., Division Electrical Engineer, Mountain States Telephone & Telegraph Co. et également ingénieur consultant dans le privé. Moray a été un pionnier dans l’utilisation des transistors.  

 

Dès le début des années 1900 et jusqu’en 1930 il démontra devant une presse ravie, la conversion à sur-unité. Fin 1910, il put faire une démonstration d’un petit appareil électrique (8 watts) produisant un arc miniature devant ses amis Lorine et Parnel Hinckley. Il pensera d’abord que l’électricité statique était en cause mais trouvera ensuite en 1911, qu’il n’en était rien.
La vie de Moray rivalise avec un roman noir. Un jour, des coups de feu tirés d’une mystérieuse berline noire ont atteint sa voiture, pourtant équipée de vitres pare-balles, sans blesser personne heureusement. Le 02/03/1940, Henry Moray, pourtant bon tireur, mais non violent, a été agressé dans son propre laboratoire, et a reçu une balle dans la jambe. C’est pourquoi, il a toujours eu ensuite un fusil à portée de main. Il a été agressé de nombreuses fois sur la voie publique.
En l’absence de la famille, le laboratoire était régulièrement saccagé. Les menaces étaient courantes. H. Moray croyait que ses mystérieux opposants faisaient partie du complot communiste (dans tous les esprit à l’époque), mais il s’agissait de jalousie professionnelle de la part d’autres scientifiques, ou de compagnies collaboratrices avides de celles qui ont disparu avec l’argent de H. Moray.
A une certaine époque des amis l’ont persuadé de s’associer à l’Agence Rurale d’Electrification (R.E.A). Son assistant Félix Frazer a fracassé l’appareil de Horay car l'inventeur avait refusé de donner les informations concernant la construction de sa machine. Ce mécontent, ingénieur du gouvernement affecté à REA était censé l’aider, mais n’était qu’un " agent " lié, pour des raisons politiques avec des groupes d’intérêts qui avaient bien calculé que H. Moray n’était pas assez riche pour reconstruire son appareil. Ils ne s’étaient pas trompés. Même s’il a poursuivi ses recherches, H.Moray n’a pu le reconstruire et l’a démonté ostensiblement.
H. Moray a refusé fermement de vendre ses inventions à des compagnies qui ne en lui garantissaient pas une utilisation libre pour le bien être des gens. Il pensait avec effroi qu’une grande compagnie pouvait acheter son invention pour l’enterrer.
Dans les années 30, H. Moray eut des problèmes pour développer un certain nombre d’appareils à semi conducteurs. Le bureau des brevets rejeta sept applications de l’appareil (non conforme aux lois physiques connues) dont l'une en 1927, sur un semi conducteur, système sans mouvement au germanium, sous prétexte qu’il fonctionnait sans cathode chaude. Son travail sur les semi conducteurs était très en avance sur son temps et ne pouvait pas être compris par les experts.
Il a malgré tout poursuivi les démonstrations de sa machine jusqu’à ce qu’il soit menacé de perdre les droits de son brevet s’il continuait.
Jusqu'à sa mort en Mai 1974, il fit des exposés sur son appareil, pour des étudiants ou des groupes restreints.
Les travaux de Henry Moray

 

On dit qu’il fut alerté très tôt par ce qu’il a ensuite nommé Energie Radiante en voyant la nuit ses phares de voiture " coller " à un poste de ligne téléphonique éteint. C’est là qu’il fut confronté pour la première fois à un rythme sonore et vibrant et s’étonna de savoir ce qui pouvait le produire. Il pensait que les oscillations électriques, sous forme d’ondes au-delà de celles de la lumière, arrivent sur Terre continuellement, et en repartent telles des vagues, et en plus grande quantité de jour que de nuit. (Selon un rapport du Chicago Institute of Technology, la planète Terre reçoit l'équivalent de 160.000 CV par habitant)
H. Moray disait que l’électricité était une modification de l’éther. Il avait travaillé avec la " bible " de l’époque : "The Principles Underlying Radio Communications" (brochure n° 40, 600 pages des meilleurs plans en 1918 et 1922). Et aussi avec les numéros 120 et 121 du Bureau des Standards.
En Juin 1925, après une démonstration où il put alimenter une vieille lampe à carbone de 16 bougies, et d’une demi capacité, il alluma une lampe de type C.G.E. de 100 watts devant R.L. Shoup et sa femme. Il appela son invention " Energie Radiante ". Cette démonstration fut suivie d’une autre devant Massey et Brown, associés à ce moment-là à l’Hôtel Roberts de Salt Lake City.
Le 06/08/1925, R.L. Judd vint voir l'inventeur et fut très impressionné en voyant fonctionner un appareil, un cylindre de 15 cm de haut et 20 cm de diamètre.
En Octobre 1925, H. Moray fit avec Judd l’expérience suivante. Sur le toit du poulailler ils placèrent l’appareil, et dressèrent l’antenne après avoir coupé le commutateur central de la maison située à 300 mètres environ. M. Judd déplaça le carton - support de l’appareil en divers endroits, et l’un comme l’autre vérifièrent qu’il n’y avait aucun équipement caché dans le poulailler.
L’appareil fut mis en marche, M. Judd chronométrait pour voir le moment où apparaîtrait la lumière. H. Moray a pu allumer la lampe de 100 watts, faire grésiller un vieux fer électrique Hotpoint de 655 watts. Après avoir enlevé l’antenne à la demande de M. Judd, la lumière s’éteignit. En la reconnectant, la lumière revint. Ceci fut fait plusieurs fois en enfonçant de plus en plus dans la terre, selon des emplacements choisis par M. Judd et chaque fois l’intensité lumineuse augmentait avec la profondeur. Cela dura deux heures et demi car M. Judd voulait voir pendant combien de temps la machine fonctionnerait. H. Moray lui proposa alors de l’installer plus confortablement pour passer la nuit !
M. Judd regrettait énormément que le Dr Harvey Fletcher de Western Electric et des Laboratoires Bell n’ait pu être là pour voir fonctionner l’appareil. M. Judd parti, Moray plaça l’appareil à l’intérieur de la maison où il fonctionna 3 jours et 3 nuits sans arrêt, sans baisse d’énergie.
Dans l’espoir de développer son appareil et d’obtenir un brevet, H. Moray se mit d’accord avec R.L. Judd pour avoir l’aide des Drs Fletcher, Milton Marshall et Carl Eyring de l’Université Brigham Young (plus tard chez Bell).
A la fin de 1928, comptant sur les compétences des Dr Eyring et Fletcher il leur divulgua complètement le principe de sa " valve " radio, en réservant au Dr Marshall les informations sur la réalisation concrète. Il déposa ensuite un brevet pour son semi conducteur au germanium. Il s’aperçut alors que les informations données pour le brevet avaient été rendues publiques et que d’autres les utilisaient. M. Judd ne pouvant financer le passage du stade expérimental au stade industriel, H. Moray fut trompé par un groupe d’hommes d’affaires de l’Utah et dut intenter une action en justice contre leur compagnie et dissoudre ensuite la société.
En 1939, H. Moray qui poursuivait ses travaux, dépensa une somme fantastique. Son appareil, une boîte qui ne pesait que 25 kg ne nécessitait alors que quelques watts de courant, et fournissait 50.000 watts (ce que contredit Moreland qui dit 3000 watts).
Des essais ont été faits sur l’automobile : les moteurs qui pouvaient tourner jusqu’à 36.000 tours/minute restaient froids et, dans l’obscurité émettaient une lueur violette autour d’eux, un peu comme cette lumière dont parlait H. Moray dans le cas d'utilisations thérapeutiques de son principe.
Le convertisseur de Moray

 

H. MORAY en 1937 près de son convertisseur qui alimente 35 lampes de 100 watts.

L’appareil en question consistait en un certain nombre de semiconducteurs ou " détecteurs " dont H. Moray expliquait, avec ses croquis, l’analogie avec un poste à galène ou à cristal de pyrite de fer. On sait aujourd’hui que le tube détecteur était un prédécesseur du transistor (bi-polaire), composé de zinc et d’une matière radioactive provenant d’une mine d’Abisco au Nord de la Suède. Ces tubes étaient fabriqués par une entreprise de Berlin, probablement Loewe-Opta. Seul un tube sur quatre répondant aux exigences de l'appareil pouvait être utilisé.
Cet appareil devait être connecté à un câble en cuivre très isolé, de 10 à 15 m, placé dans le jardin. En débranchant " l’antenne ", le convertisseur cessait de fonctionner. Comme Tesla, il modulait des fréquences électriques de manière à les faire entrer en interaction avec le champ de tachyons, pour en extraire ainsi l’énergie. T. Bearden pense qu’il captait l’énergie infinie du point zéro du vide ou ZPE.

 

 

La lumière émise par les lampes de l'appareil de H. Moray était très actinique et réduisait le temps d’exposition de développement des photographies. Sur les photos des lampes, on voyait un anneau sombre perpendiculaire à la base de l’ampoule, cela ressemblait à un cercle de brouillard noir translucide, comme si la lampe se reflétait elle-même sur l’air ou projetait sa propre ombre. Les témoins qui ont vu ce courant d’énergie radiante disent que les ampoules semblaient totalement remplies de lumière, comme si le gaz qu’elles contenaient était complètement incandescent.
Quels que soient la charge et le nombre de lampes le courant s’adaptait. Il était même particulièrement efficace pour élever rapidement à haute température des éléments de chauffage.  

 

 

Selon le Dr Moreland il y a 4 sortes d'appareils de Moray

  • celui construit vers 1910, à l’époque où les rares émetteurs de radio étaient si puissants qu’il était dangereux d’être à côté d’eux. On comprend ainsi facilement pourquoi il a pu obtenir 8 watts de sortie avec une antenne de 210 m de haut et sur 300 m, à proximité d’une station située à quelques kilomètres.
  • le deuxième était celui de 25 watts, au début des années 20, et qui utilisait un cristal radio modifié et dont l’énergie à la sortie alimentait une lampe au lieu d'un micro. Vers 1925 l’appareil de seconde génération pouvait produire 100 watts, c’était un perfectionnement du précédent.
  • La troisième génération était semblable à précédente, mais le cristal était alors placé dans un coffret de bois. C’est cet appareil pouvant produire jusqu’à 650 watts qui a été testé par Harvey Fletcher et d’autres. Comme le quatrième, il ne fonctionnait que quelques minutes et jamais plus d’une heure avec une charge de plus de 200 watts.
  • Le quatrième pouvait produire davantage, mais en raison de la surchauffe, il fallait donc limiter les charges à moins de 200 watts pour ne pas griller la " Pierre Suédoise ".

 

Composition d'un appareil type

 

  • Deux bobines ou inductances de 20 à 25 cm de diamètre à plusieurs couches de fil d’un diamètre inférieur à celui utilisé pour un ampérage de courant ordinaire. Il est probable qu’il existe une relation entre la dimension du fil et le nombre de tours. De plus, on peut supposer que la distance entre les bobines est aussi importante que le sens du bobinage
  • Plusieurs condensateurs ou capacités de différentes tailles
  • Un tube détecteur ou valve électronique qui empêche le retour de l’énergie au circuit extérieur et l’oblige à passer dans le circuit d’application du courant
  • Deux tubes oscillateurs
  • Une barre d’argent et une barre de cuivre placées côte à côte (ce qui s’apparente au Compound Desintegrator de John Keely)
  • Un système de démarrage
  • Un transformateur électrique abaisseur d’un rapport primaire / secondaire de 1000 pour 1

 

Tous ces composants étaient placés dans un coffret de 76 x 40 x 40 cm pesant 21 kg. Il n’y avait aucune partie mobile. H. Moray disait qu’il n’y avait pas de rayonnements dangereux autour de l’appareil en fonctionnement. Ce convertisseur serait une turbine à atome oscillant à haute vitesse et ne fabriquerait pas d’électricité mais la pomperait du ZPE.
De nombreuses personnes ont pu observer l’intérieur, certains ont même pu faire plus qu’un examen superficiel, sauf sur le tube détecteur. H. Moray n’a jamais rien voulu dévoiler à son sujet. Il reconnaissait simplement qu’il ne contenait pas de filament chauffé à l’électricité dont les rayonnements auraient permis de transporter des courants dans les différentes parties du tube, produisant ainsi l’action d’une valve.
D’autres sources ont indiqué que Moray utilisaient des matières radioactives pour cette action (voir Nelson Camus) : un composé d’uranium, opinion controversée (pourtant H. Moray aurait eu des ulcères cancéreux aux mains).
Qui plus est, on ne sait pas si le tube détecteur et les oscillateurs utilisaient les mêmes matériaux. On peut supposer qu’il ne s’agissait pas de tubes à vide puisqu’ils restaient froids et que H. Moray ne disposait pas de pompe à vide dans son laboratoire. Alors les tubes étaient peut-être remplis de gaz, mais on ne sait lequel. Ces tubes, en particulier, le détecteur, paraissaient être la partie la plus faible du système de H. Moray et la cause de problèmes fréquents lors de démonstrations.
H. Moray a également gardé le silence sur les matériaux de ses condensateurs ainsi que leur capacités ; seule leur taille est variable mais cela ne donne pas d’indication sur leur capacité !
Quant aux barres d’argent et de cuivre - mais était-ce bien de l’argent ou du cuivre ou un alliage traité avec la même énergie radiante qu’elle contribuaient à produire ?- leur rôle demeure mystérieux et les questions sur leur transmutation possible, leur taille et leur emplacement restent sans réponse.
H. Moray a seulement utilisé une antenne avec prise de terre au début, ce qui élimine la possibilité qu’il ait capté l’énergie des lignes électriques ou des émetteurs radio. Les tests de l’époque, dont certains ont duré plus de 157 heures qui ont fait dire à certains que H. Moray avait caché des batteries qui auraient du alors elles-mêmes contenir quelque chose de nouveau !
Comment B. Perreault voit l'origine des produits radioactifs que H. Moray aurait utilisés 
En 1912, H. Moray a passé deux ans comme missionnaire de l’Eglise Mormon à Upsala, en Suède. Passionné de réception radio par le cristal, il utilisait son temps libre pour chercher le minerai qui pourrait fonctionner en tant que détecteur radio. Il avait trouvé deux spécimens qui allaient bien.
L’un était la galène sensible qu’il avait trouvé à flanc de colline, l’autre était une matière blanche, poudreuse, ressemblant à de la pierre qu’il avait trouvée dans une voiture de chemin de fer, située à Abisko en Suède dans une région connue pour ses grandes quantités de minerai d'uraninite ou pechblende. Selon des documents de l'AirForce, nous savons qu'il s'agissait d'un silicate fossilisé provenant d'Abisko. Il existe un minerai très rare, la coffinite, un silicate d'uranium, qui pourrait bien être, au vu des expériences récentes la roche de H. Moray.
Il y a longtemps de cela on se servait du quartz (dioxyde de silicium) écrasé pour faire les routes des exploitations minières. H. Moray avait pris de cette poudre - impuretés comprises - et l’avait fondue avec une lampe à souder en sachant qu’à cette époque là, la silice fondue était un bon détecteur pour la radio à cristal, tout comme la galène. B. Perreault, lui, dit que la matière de H Moray était un type de galène argento - zinco - ferreuse qu’il pouvait synthétiser et dont on trouve la formule dans le brevet US Electrothérapeutique n° 2.460 707.
Un jour H. Moray mit dos à dos deux échantillons avec un "catswisker" en argent et à sa grande surprise, il obtint des résultats étonnants. Par le fait avec cette combinaison, il put faire marcher un petit pavillon de haut parleur.
A la fin du printemps 1925, H. Moray conçut des appareils qui pouvaient sortir des puissances plus élevées. On lui demandait souvent d’extraire davantage de courant et la matière blanche qui ressemblait à de la pierre surchauffait et grillait. Quand il eut épuisé cette matière, il lui fallut trouver un substitut.
Bruce Perreault poursuit :
Cependant H. Moray était incapable de comprendre ce qu’il y avait comme impuretés dans sa matière de silice fondue. Ceci l’a contraint à une recherche exhaustive sur les matériaux semi conducteurs. Le silicium et le germanium ultra pur offraient les meilleures promesses. Pour en augmenter la sensibilité, il provoquait en eux un rayonnement artificiel. Ses résultats l’amenèrent à une formule de mélange satisfaisant. C’était un zinc tribo luminescent comprenant dusulfide de zinc pur dopé avec un activateur bismuth. Cette matière était ensuite soumise au rayonnement émis par un seul tube à vide alimenté en haut voltage et qui contenait du chlorure de radium. Ceci créait du bismuth actif connu de nos jours sous le nom de polonium – 210. Il émettait une lueur bleu-vert après traitement. C’est ce que H. Moray dénommait " rayonnement artificiel ". Quand on le dopait en germanium ultra pur, cela donnait une excellente matière de type transistor que H. Moray désignait par " matériau de fission " - que l’on dit avoir été supérieur à ceux des transistors du laboratoire Bell.
H. Moray disait avoir augmenté la radioactivité de la carnotite, de l’uranium et d’autres corps radioactifs y compris une combinaison de cuivre et de plomb.
H. Moray n’a jamais pu reproduire sa '' Pierre Suédoise '' matière de silice fondue qui donnait de l’énergie. Cependant, il a pu construire des cylindres qui contenaient un fil corona central. Lorsque ces cylindres étaient chargés avec de l’énergie électrostatique ils ajoutaient du courant aux ions. Avec certains circuits, on pouvait obtenir de l’énergie en excédent.
A l'appui de ce que H. Moray affirmait dans une lettre à E.G Mensen au sujet de son appareil :
" …il peut fonctionner sans le détecteur, mais la lumière varie et brille ou faiblit selon des cycles réguliers ", C.R. Benzel écrivait le 30/03/1933 à Harvey Fletcher :
" M. Moray a été incapable de me faire une démonstration de son appareil car, disait-il, il n'avait plus du tout de la roche ou du matériau inhérent au détecteur et qui semble être une partie très importante de l'appareil. Mais il pouvait faire un tube pour remplacer ce matériau."
C’est dans " Beyond the Light Rays ", en 1931, qu’il est fait mention pour la première fois de la " Pierre Suédoise ", deux ans après que Murray O. Hayes l’ait écrit dans une lettre à un investisseur potentiel qui en a adressé copie à Fletcher pour avoir son avis. M. Hayes avait investi dans la société de H. Moray et affirme que l'inventeur lui avait tout dévoilé. Le Dr Moreland pense que trouver la " Pierre ", l’inventer, et ne pouvoir la reproduire est bien contradictoire, mais toutefois que Murray Hayes a bien dit la vérité en décrivant cette " Pierre " comme un alliage de plomb auquel on aurait ajouté de la matière radioactive lors de la fonte, et en le laissant re - cristalliser. Harvey Fletcher (Prix Nobel pour le transistor), qui a légué tous ses dossiers à l’Université Brigham Young a d'ailleurs écrit :
" Moray avait pris un morceau de plomb traité avec le procédé qu’il avait inventé, et l’avait mis à la place du cristal."
Etude des travaux de H. Moray par le Dr Moreland. 
John Moreland docteur en physique a effectué sur Henry Moray des recherches couvrant une période de 1880 à nos jours. Parmi un grand nombre de livres témoignant de la quantité phénoménale de connaissances de cette époque, certains lui ont apporté une aide précieuse, ceux de Rutherford, Curie, Chadwick, Lind, Geiger, Crowther, celui de H. Moray, bien sûr, et particulièrement ceux de Gustave LeBon. Ces ouvrages étant très difficiles à se procurer, le Dr Moreland a créé une société pour les rééditer, et a ajouté ceux de Paul Brown, Rodney Sego (disponibles depuis le 15/05/1997) ainsi que ceux d’autres chercheurs en Energie Libre.
Pour le Dr Moreland l'appareil de H. Moray est le " Saint Graal " de la recherche sur l'Energie Libre. Lui-même vend un livre au profit de la recherche et qui traite plus en détail d'autres sujets chez Aztec Publishing 1251 Smith Thompson Road Bethpage TN 37022-9110. Tél : 615 888 6428 Fax 618 888 2538.
Dans toutes ses recherches, non seulement pour les appareils de Moray mais pour Hubbard, Hendershot et Testatika,  une constante lui est apparue : les matériaux radioactifs (même les aimants néodyme et samarium / cobalt) qu'il était alors facile de se procurer car non soumis encore à réglementations.
Le Dr Moreland ne compte pas revenir sur tout ce que l’on connaît bien au sujet de Moray, mais présenter plutôt des éléments de sa propre recherche.
Le Dr Moreland a remarqué sur les photos deux choses inhabituelles à l'époque
1 - Un détecteur Pickard utilisant différentes combinaisons de zincite, oxyde de zinc ou zinc triboluminescent, de la chalcopyrite (une sorte de pyrite ou sulfate de fer, du silicium, famille du germanium et du bismuth métal.
2 - Très probablement la " Pierre Suédoise " de Moray, ce " truc " si bien empaqueté pour le cacher à des yeux indiscrets  se trouvant dans le circuit d’entrée du cristal radio et entre le cristal et l’antenne.
Le Dr Moreland présente un (parmi 150) brevet intéressant qui lui a donné une meilleure idée de ce que pouvait être la " Pierre Suédoise " de Moray. Il s’agissait d’alliage de plomb au radium ou autre matière radioactive que lui avait donné un amateur radio Suédois. Si H. Moray l' avait trouvé dans un wagon comme il l’a dit, on peut se demander pourquoi il n’est pas retourné en Suède en chercher, puisque tout son travail reposait dessus. Il ne l’a pas fait, car ce n’était pas une roche. Mais alors, pourquoi ne pas retrouver la personne qui lui avait fourni cette " pierre " ?
Aidé par un chercheur Suédois, le Dr Moreland, pense que H. Moray avait fort bien pu rencontrer un amateur de radio qui lui avait montré ainsi qu’à d’autres les capacités d’amplification de signal radio de cette " pierre ", mais sans en dire plus. Cet amateur radio a très probablement été tué lors de la guerre qui a éclaté peu après. Le livre du Dr Moreland annonce de possibles révélations à ce sujet si son collègue Suédois parvient à les obtenir.
Le Dr Moreland a dopé un alliage particulier avec de l’uranium et a obtenu 12, 5 watts de sortie. Il a fait fonctionner cet appareil de façon intermittente pendant plusieurs jours sans baisse en sortie.
Ce type d’appareil avec l’alliage de Moreland était un magnifique récepteur reproducteur. Il rediffusait l’émetteur voisin avec un tas de bruit qui couvrait toute la bande et interférait avec la radio et la télévision de tout le voisinage, ce qui le contraignait à faire ses essais tard dans la nuit. Si ce petit appareil faisait cela avec ses 12,5 watts, celui de H. Moray de 650 watts aurait fait bien davantage dans tout Salt Lake City. C’est aussi à cette époque que le Gouvernement instaura une réglementation sur la puissance des émetteurs et leurs fréquences, ce qui obligea H. Moray, manquant également de " Pierre Suédoise " à faire d’autres recherches.
Comment les résultats des tests de 1928 donnant 50.000 watts de sortie ont-ils été interprétés ?
L’appareil était enfermé dans une malle et deux lampes de 100 watts et de 10 watts y étaient reliées. Les essais ont duré 83 heures et 34 minutes. Ensuite, H. Moray a relié un fer plat de 575 watts et une lampe de 60 watts pour prouver que l’on pouvait extraire plus de courant de l’appareil. Evidemment, si l’on multiplie la durée par les watts, on dépasse les 50.000 watts. Mais l’appareil n’avait en fait donné que 110 watts, soit un peu moins de 10.000 watts en tout. Beaucoup d’investisseurs potentiels ont demandé confirmation de ces récits. Fletcher disait , et le Dr Moreland partage cette opinion :
" M. Moray n’est pas du tout un scientifique, il a seulement eu de la chance, il a réussi quelque chose de nouveau et d’utile par accident plutôt que par une étude sérieuse…je remets en question son honnêteté…j’ai prévenu mes amis de ne rien investir."
Toujours selon le Dr Moreland, la dernière génération d’appareils, munie d’un alliage convenable, et de détecteurs en série permettait d’augmenter le courant et le voltage à chaque étage, jusqu’à 250.000 volts et environ 12 milliampères. Si on multiplie cela en utilisant la formule P = UI, on trouve jusqu’à 3000 watts.
Dans ces derniers appareils on voit 35 lampes et un fer plat. Les 6 rangées de dessus contiennent toutes 5 lampes, les 5 lampes de la rangée du bas sont des 100 watts. Le fer plat qui tire les 575 watts est aussi branché dans un adaptateur dans la rangée du bas. Si on additionne tout, on arrive à 2875 watts. C’est bien loin des 50.000 watts annoncés. Cependant il ne faut pas oublier que l’on ne pouvait extraire autant de watts pendant longtemps sans risquer de griller la " pierre " ou l’alliage.
Cet appareil fonctionnait par la conversion directe de rayonnement alpha en électricité et non par la conversion d’une quelconque énergie de l’espace. La seule énergie externe était fournie par le signal radio, simple catalyseur pour faire démarrer et entretenir la conversion, provenant d’un émetteur à proximité.
C’est la méfiance de H. Moray vis à vis de ceux qui voulaient travailler avec lui qui l’a empêché d’arriver à la commercialisation de son invention. Le Dr Moreland conclut qu'il n'en reste pas moins que H. Moray a eu réellement des appareils en fonctionnement, donnant du courant à partir d’une très faible entrée d’énergie, et qui représentaient une étape majeure dans le développement de l’Energie Libre. 
Voir http://www.geocities.com/ResearchTriangle/Lab/1135/moreland.html 
Henry Moray et l’alchimie 
Contrairement à l’or obtenu actuellement par transmutation mais qui est radioactif et instable, H. Moray affirmait - mais sans en livrer le secret, avoir fait de l’or stable et suffisamment durable pour être titré et ceci sans cyclotron ni autre appareil fracassant l’atome, uniquement dans son laboratoire, et sans but commercial.
Il a écrit avoir produit, ou mieux traité du plomb ordinaire de telle façon qu’il ne fondrait pas en dessous de 2000 ° et du cuivre de façon à ce qu’il ne fonde pas en dessous de 3000 °. Il dit avoir eu des centaines de témoins qui ont testé ces métaux
Une once de plomb traité par H. Moray, fut titrée ensuite par le Laboratoire Boaz Mine à Norris Mont et a montré 35 cents d’or. Cent quarante grammes de terre sans aucune trace d’or ont montré après traitement un taux d’or correspondant à $122.50 à la tonne. Le bureau des titres à Salt Lake City a réalisé un test intéressant à partir d’eau venant d’un puits artésien, sans trace d’or avant traitement par H. Moray et qui donnait ensuite à la tonne $10.50 d’or et $2.63 d’argent.
L'Institut COSRAY 
Henry Moray a eu deux fils, John Eugène, enseignant à Salt Lake City et Richard R. qui vit dans un ranch au Canada. Ce dernier est très réservé pour parler en public des recherches de son père car il n’a pas oublié les ennuis subis par ses parents. Les fils Moray poursuivent, (en 1995), le travail de leur père qui comprenait aussi une thérapie par rayons. Ils ont l’espoir de constituer un capital suffisant pour reconstruire l’appareil. (Dan Davidson a reconstruit un modèle de convertisseur qui malheureusement a brûlé, il le décrit dans son livre " Breakthrough…" disponible chezDelta SpectrumouHigh Energy, voir dans notre catalogue de Références)
Les fils Moray forment une société familiale qui détient tous les détails de l’appareil de leur père. Ils seront prêts lorsque des fonds seront disponibles pour accomplir le travail. C’est à l’Institut Cosray que se trouve l’organisation de base de la recherche. L’énergie radiante est leur projet principal, même s’ils font des contrats de recherche avec d’autres personnes.
Moray fils n’a pu donner de réponses au Pr Seike, sur les fréquences utilisées dans l’appareil de son père. Mais un film de 110 minutes, commenté par T. Bearden a été projeté au congrès de la DVS à Toronto en 1981. Il traite surtout des armes qu’offrent les technologies basées sur le travail de Tesla sur le champ gravitationnel. Cette vidéo, tout aussi intéressante que démoralisante peut être acquise auprès de P.O. Box 1472, Huntsville, Alabama 35807.
D'autres informations sur Henry Moray :
- (1978), quatrième édition de " The Sea of Energy in which the Earth Floats ", de 1960 par John Moray, fils de Henry
- (1945 et 1956), seconde et troisième édition de " Radiant Energy" For Beyond the Light Rays Lie the Secrets of the Universe " , déjà parue en 1931 sous forme d’un petit pamphlet de H. Moray " Beyond the Light Rays "
Il y a d’autres éditions, avec un changement dans le titre. La quatrième édition, la dernière de la main de Moray est considérée comme étant la meilleure, la cinquième, une version éditée, présentant quelques différences avec elle.
- " The Complex Secret of Dr. T. Henry Moray " par Jorge Resines. Le premier livre est épuisé, mais une nouvelle édition illustrée, hors commerce, était encore disponible dans les années 80 chez COSRAY
- V. Rosgnilk (Ravatin) consacre un chapitre à Moray dans son ouvrage Emergence de l'ENEL.
M.R.A. MAGNETIC RESONANT AMPLIFIER 
Joel McClain et Norman Wootan expliquent les principes à l'origine du MRA
Le M.R.A. est un circuit LC à faible charge résonant et amplificateur accordé à quartz et magnétique basé sur les théories de Tesla, Keely (en particulier, les travaux ont été publiés à sa mémoire), Russell, Bearden, King et bien d’autres. Pour le concevoir et le construire il a été nécessaire d’étudier l’éther, la résonance des groupes géométriques tétraédriques et la Règle des Neuf.

 

 

 

 

 

 

 

Règle des Neuf et pyramides 
En emboîtant deux tétraèdres et en les plaçant dans une sphère, on obtient un modèle réduit du champ magnétique de la terre. Aux endroits où les bases des tétraèdres touchent la sphère, on trouve les latitudes sous lesquelles toutes les pyramides anciennes ont été bâties. En reliant les lignes entre les points, on obtient une carte des lignes magnétiques (géobiologiques)ley linesqui ont été tracées de façon précise il y a des milliers d’années.
Si, comme certains l’ont suggéré, l’ancienne connaissance sacrée a été donnée par des extraterrestres afin de permettre la construction des pyramides, et si, comme nous l’avons vu, la résonance est la clé de l’anti gravité aussi bien que celle de l’énergie, alors le tétraèdre a des applications qui vont extrêmement loin.
Dans toutes les ruines des civilisations qui ont construit des pyramides ce modèle de la Terre a été trouvé. C'est un modèle de rapport harmonique naturel existant à chaque niveau, de l’univers au niveau subatomique. Cette connaissance et l’utilisation de l’énergie constituaient probablement le programme d’études des Ecoles de mystères en Egypte et en Grèce.
En observant la géométrie des réseaux de silicium ou de germanium, on trouve des tétraèdres. L'expérience du Dr Nieper basée sur la bobine transistorisée de S. Seike permet au silicium d’accomplir une auto résonance, ce qui a pour résultat d'alléger le circuit. Ceci implique que la résonance peut aussi être la clé de neutralisation des forces de la gravité, ou plutôt de l’effet dénommé gravité, car la gravité est un effet et non une force.
En faisant résonner la matière on suspend la gravité lorsqu’on annule le spin de l’énergie qui contient la matière. En faisant tourner virtuellement les réseaux, le spin des particules subatomiques s’arrête virtuellement, comme un objet en rotation vu avec une lumière stroboscopique synchronisée. La gravité étant un effet complexe à quatre pôles, en stoppant le spin, on perd l’effet.
La matière qui contient le quartz et l’aimant du MRA contient des volumes dont chacun est un tétraèdre à 45 ° par rapport à l’axe des pôles des molécules. L’énergie résonante crée les harmoniques nécessaires pour faire résonner les deux matériaux. C’est l’application de la Règle des Neuf. C’est un standard, LE standard de la géométrie de l’univers, c’est la loi qui régit la nature, et c’est l’outil de mesure de toute interaction électrique et mécanique.
Faire résonner la matière pour la convertir en énergie
Matière = Energie. En observant un morceau de quartz ou un aimant, on observe de l’énergie piégée. Si l’on tape sur le quartz, on obtient une étincelle car le potentiel électrique du quartz fait un bond immédiat. Si l’on fait tourner un aimant par rapport à une bobine, du courant électrique circule dans le fil. Toute la question est de savoir comment extraire de l’énergie de ces matériaux sans le concours de l’énergie physique nécessaire pour taper ou tourner.
Dans le passé, des chercheurs ont remarqué qu’il se produit de nombreux effets à une résonance globale d’ensemble qui comprend normalement  une gamme de trois octaves. Il y aura trois notes harmoniques dans chaque octaves pour un total de neuf fréquences de résonance.
Ainsi, le potentiel appliqué sur le quartz le " frappe ", sans qu’il soit besoin de forces physiques. Si on relie cette sortie à une bobine autour d’un aimant, les domaines de l’aimant qui contiennent une petite partie de son poids et qui font tout le travail dans un générateur, seront obligés de tourner. C’est ce spin que l’on nomme rotation virtuelle, car c’est le spin de l’énergie sans le spin de la matière.
Il ne s’agit là que d’une application, il est difficile d’être sûr que la règle s’applique partout ailleurs. Il faut remonter très loin en arrière pour trouver une réponse à cette question. Elle implique phi, la constante universelle, et elle s’enracine profondément dans la construction des grandes pyramides terrestres.
L’application M.R.A. 
Le piézo a une alimentation d’électrons libres virtuellement inépuisable qu’il libère quand il est sous pression (stress). En utilisant le piézo en séries avec la bobine primaire on élimine presque le courant primaire, car c’est le voltage qui stresse le piézo, et non le courant. Il ne lui faut en réalité qu’une très petite puissance, et il fournit le courant à la bobine primaire qui fait vibrer les domaines de l’aimant. Le piézo est le catalyseur pour le courant circulant avec la bobine primaire, et il est additif. C’est pourquoi il se développe des potentiels élevés à la fois sur le piézo et la bobine primaire.
C’est à ce point là que la résonance devient importante. Il faut trois octaves d’écart entre la fréquence de résonance de l’aimant et le signal fourni au piézo. Le courant qui circule est riche en harmoniques, ce qui est nécessaire au fonctionnement du circuit. Bien que le courant soit simple, il utilise les concepts de phi, de la rotation virtuelle, de la géométrie tétraédrique, du piézo et de la théorie du transformateur. Il faut de solides connaissances en électricité, en raison des hauts voltages.
Joel Mc Clain et Norman Wootan ont construit un M.R.A. 
Le gain d’énergie vient de l’augmentation dans l’impédance effective sous certaines conditions de fonctionnement. Quand l’énergie disponible à partir de la bobine secondaire est la même ou augmente en même temps que l’impédance du circuit primaire, on obtient un gain d’énergie qu'il est impossible d'obtenir avec des circuits résonants en matériaux classiques. Les composants étant des appareils passifs, réactifs, engendrent des pertes. On choisira donc des composants en fonction de la fréquence à appliquer, le but étant de réduire les pertes au minimum.
Le M.R.A. comprend un oscillateur à faible puissance réglable qui fournit un signal à ultra sons à faible niveau sur un côté d’un transducteur en titanate de baryum. Le côté opposé est relié à une bobine primaire enroulée autour d’un noyau d’aimant en ferrite-baryum. L’extrémité opposée du primaire revient à l’oscillateur. La bobine ou primaire du MRA est un noyau magnétique, qui, en fonction de la capacité déterminée du piézo est un appareil à perméabilité accordé. En RF, pour atteindre une fréquence de résonance stable, c’est ce qui est souvent utilisé. On choisit les matériaux magnétiques d’après les caractéristiques de l’appareil projeté afin de réduire les courants de Foucauld dans la gamme de fonctionnement. On évite alors la fréquence de résonance de l’aimant lui-même car celle-ci entrerait en vibration avec le courant oscillant. Dans le cas classique d’une application audio, cet effet de distorsion harmonique n’est d'ailleurs pas le bienvenu.
Dans le MRA, c’est précisément l’effet souhaité : l’aimant ferrite-baryum résonne de manière audible sur des fréquences harmoniques des gammes de fréquence de résonance.
Il y a de l’énergie dans les harmoniques et celle-ci sert autant à lutter contre les pertes de courants parasites qu’à s’opposer au flux de courant primaire tout en contribuant au courant en circulation à l’intérieur du circuit résonant.
L’effet final net  est le suivant : lorsque le MRA est désaccordé des harmoniques de fréquence audible " battent " sur un courant primaire, s’opposant ainsi à son flux, tandis que l’augmentation de courant en circulation, relie plus de puissance au secondaire, et donc à la charge. C’est ainsi que l’on atteint un accroissement d’énergie, en prenant avantage des harmoniques naturelles au lieu de les considérer comme des effets indésirables à séparer par filtrage.
Quand le M.R.A. est désaccordé, l’impédance effective augmente, comme on le voit près de la source, tandis que l’énergie disponible à la charge décroît selon une moindre proportion. Ceci se mesure avec un circuit test de résistance équivalente. Cependant, le désaccord est dépendant de la charge, et il faut faire de légers réglages si la charge réclame plus d’énergie que la gamme de puissance d’une interaction harmonique. Après un nouvel accord, l’énergie vers la charge augmentera en intervalles quantiques alors que le courant en circulation sera renforcé par la réaction du noyau perméable. On peut le constater par un faible voltage différentiel qui augmente sur l’appareil servant de charge.
Une fois que l’aimant " résonne ", sa fréquence et par conséquent ses harmoniques restent stables aussi longtemps que les séries de gamme résonante ne sont pas dépassées. Donc, le désaccord affecte seulement le piézo et l’augmentation de courant en circulation est un résultat du rapport de phase entre l’harmonique et la source.
On voit une augmentation mesurable de voltage sur le primaire, plus élevée que celle du voltage source (ce qu’on voit au secondaire), mais c’est différent du gain d’énergie qui, lui est un résultat direct de l’impédance effective.
Il est cependant possible d’induire une rotation virtuelle en appliquant la fréquence résonante de l’aimant plutôt que d’utiliser une énergie physique pour faire tourner une masse comme dans un générateur dans lequel existe un mouvement relatif entre une bobine et un aimant. Cette rotation virtuelle fait vibrer les réseaux et les domaines. Dans ce but, il faut une puissance supérieure à l’énergie libérée par la rotation virtuelle (tout en augmentant la vibration sans utiliser une puissance excessive).
C’est ce que l’on voit dans la rotation de polarité du diélectrique aussi bien que dans l’énergie moléculaire qui se produit dans le composant réactif, c’est à dire la sonnerie. Les structures en réseaux du piézo et de l’aimant sont compatibles pour une rotation virtuelle, les matériaux se complétant électriquement l’un l’autre.
Un secondaire est enroulé autour du primaire et est relié à un pont redresseur  dont la sortie de pont va à la charge en courant continu.
Joel Mc Clain a utilisé un condensateur de filtrage sur la sortie de pont. Un condensateur classique à diélectrique en polyéthylène a une constante diélectrique de deux à trois fois celle de l’air dont la constante 1 sert de base. Le dioxyde de titane a une constate de 170 et un facteur d’énergie correspondant de seulement 0,0006, comparable à celui du polyéthylène, ce qui rend la perte de courant primaire dans le diélectrique extrêmement faible.
La comparaison s’arrête là car le condensateur composite au titanium est un appareil piézoélectrique aussi bien qu’un excellent condensateur. La chaleur a une influence défavorable sur le facteur de puissance de la plupart des matériaux diélectriques. Le zirconate de titanium contient des molécules polaires qui tournent lorsqu’elles sont soumises à une pression thermique, élevant ainsi la constante diélectrique si la fréquence appliquée est égale ou inférieure à la fréquence de résonance du diélectrique.
A la résonance des gammes la rotation des molécules polaires participe à la chaleur. Quand la constante diélectrique augmente, il se produit une libération importante d’électrons libres - résultat des propriétés piézoélectriques de l’appareil.
Dans la pratique, le MRA est accordé sur une résonance pour transférer un maximum d’énergie, ce qui est directement relié à l’utilisation de la pression thermique à résonance et à son effet sur la rotation polaire soutenue et la libération des électrons donneurs.
Il y a aussi une résistance de charge placée sur le condensateur pour empêcher à la sortie de courant continu de devenir trop élevée quand le circuit est accordé. A 30 ohms, une résistance de 10 watts a suffi.
Mc Clain et Norman Wootan ont obtenu des voltages en courant alternatif de presque 1000 volts pour seulement 30 volts de signal d’entrée. Une fois le circuit accordé, l’aimant " chantera " à environ 8 à 10.000 hZ. Si le piézo chante, on dépasse ses capacités de puissance, et on doit réduire le nombre de tours du primaire.
La fréquence qui fait résonner le piézo et l’aimant à la résonance optimum sera triple (trois octaves au-dessus) de la fréquence à laquelle l’aimant "chante ". Il s’agit là des neuf harmoniques de la Règle des Neufs.
Une fois le circuit en marche, on remarque la variation de 0,1 (ou plus) volt en courant continu selon le moment de la journée. C’est du à la nature des forces éthériques inhérentes au champ magnétique terrestre. Il faut observer attentivement le pic de voltage qui se produit au lever du soleil ou avant. Mc Clain et Norman Wootan ont mesuré une chute de 0,084 volts en courant alternatif sur une résistance en série de 2,75 W, pour un total de 0,085 W de perte dans le primaire. Avec ceci, ils atteignent 2,75 W de courant de sortie utilisé pour une lampe et un moteur.
L’augmentation de voltage signal fait décroître le courant primaire tout en survoltant la puissance de sortie ce qui augmente encore le rapport de gain d’énergie. Mc Clain et Norman Wootan pensent qu’il est possible de faire de plus gros systèmes avec des bobines plus grosses, davantage de piézos, et une fréquence inférieure, aussi longtemps que la combinaison du groupe est à l’intérieur de la gamme de fréquence de résonance des composants.
Voir méthodes et mesures sur le circuit démo G.H. Mini MRA FE-6B par R. Nectroux dansExtraordianry Sciencesite INE
Voir également Robert Taylor (365, Market Place, PO Box 2164 Roswell, GA 30075) qui est l'auteur du brevetUS 5197279 " Electro Magnetic Energy Propulsion Engine " dans lequel il annonçait 620 % de sur unité pour son appareil de type MRA.
Témoin : Robert Emmerich 6915 Alogoquin Drive, Loveland, CO 80537. Références dans ISNE 1996 pages 415 à 426.
Voir les schémas sur le site http://www.danwinter.com/physicsofphi/ et aussi Richard Edwards
MYERS ROY J.

 

 

Roy J. Myers, âgé de 32 ans s’est trouvé détenu en 1911 au pénitencier d’état de Florence, en Arizona pour une charge relativement mineure (un faux). A la prison, R. Myers était chargé de l’installation électrique et c’est là qu’il a découvert par hasard le secret de son appareil.
Sur demande de Miss Kate Barnard, déléguée aux œuvres et détentions en Oklahoma, après présentation de la requête et vote d’un texte à la chambre présidée par le gouverneur Hunt, il fut libéré sur parole pendant trente jours pour aller présenter son brevet à Washington. A son retour, il a obtenu une libération conditionnelle le 12/07/1913 et a par la suite travaillé à Globe, AZ et à Baltimore, MD.
A 34 ans, il a acquis ses connaissances en électricité dans des ateliers de la côte Pacifique. Même s’il n’a pas approfondi les mystères de l’électricité, il avait trouvé le moyen de l’absorber à partir de l’air et de la transformer pour qu'elle soit utilisable par les humains.
 

L'absorbeur magnétique consistait en plaques ou disques d’acier disposés en cercle au sommet d’une haute tour. La machine était simple. C’était en réalité un transformateur installé sur un trépied élevé faisant penser à un moulin à vent.
Il n’y a pas de batteries, pas de partie en rotation ; la machine est aussi résistante qu’un poteau électrique. Selon la revue Electricité Populaire en 1912, un absorbeur expérimental construit en prison faisait marcher un moteur de 25 CV. Il reste encore à voir ce que ferait une machine perfectionnée.
L’absorbeur selon R. Myers est fait d’un noyau de fer entouré de fil de cuivre. Le secret de l’invention réside dans la façon dont les disques composant l’absorbeur sont magnétisés - secret qu’il avait découvert par hasard en prison. Le potentiel maximum était de 8 volts en courant continu. On a donc calculé à l’époque (1912) qu’un absorbeur de 22 m de diamètre au sommet d’une tour de 60 m suffirait à alimenter la ville de Phœnix pour un coût de $1500.
Le premier appareil terminé a été fait à Baltimore où R. Myers pouvait obtenir facilement de quoi fabriquer une machine moins grossière que celle de la prison. R. Myers était assisté par W. E. Chenot qui dit avoir acheté les droits du brevet de R. Myers pour l’Allemagne.
Avec deux appareils de mesure Westinghouse, ils ont testé la force du courant récolté dans l’air, et en se servant de deux des quatre transformateurs rectificateurs, le voltmètre enregistrait 4, 5 volts et l’ampèremètre capable d’enregistrer jusqu’à 75 ampères a été cassé par la force du courant. La sortie d’énergie électrique augmentait curieusement lors des orages électriques.
Deux autres brevets US méritent attention par rapport au travail de R. Myers : n° 1.112 411, 29/09/1914 par R. Ackley, et le n° 1.411243 du 28/03/1922 par M. Favre-Bulle.
PERRIGO HARRY (OU JOESEPH)  Kansas City, MO

 

La première machine de H. Perrigo

H.Perrigo, diplômé du M.I.T. en ingénierie électrique a obtenu, en 1926 le brevet US n° 78.715 du 31/12/1925 pour un accumulateur d’ondes éthériques, le "Magnicogenerator"  classé comme pour tant d'autres brevets dans la rubrique " machines à mouvement perpétuel et autres inventions impossibles ". De nombreux témoins dignes de foi ont pu voir son accumulateur dont un modèle en fonctionnement a été présenté aux membres du 65 ème congrès américain lors de sa deuxième session (Vol.56, Partie 1, 1918, page 363, 15/12/1917)

C’est en 1911 que H . Perrigo avait eu l’idée de sa machine alors qu’il travaillait sur une dynamo d’une centrale de Peedee en Caroline du Sud. La dynamo était complètement débranchée, mais Harry avait tout de même reçu une décharge électrique sur un de ses fils. Il s’était dit que l’électricité ainsi produite pourrait être accumulée et condensée pour avoir du courant sans pièces mobiles.
En 1915, un beau jour, l’idée ayant fait son chemin et les magasins étant fermés, H. Perrigo eut vite fait de faire le tour de la maison et de récolter ce qu'il lui fallait. Il utilisa plusieurs brins de fil de cuivre, deux cercles de broderie, une rallonge de la table de la salle à manger, une boîte à pain prise dans le placard, des bandes déchirées dans un drap. Et c'est ainsi qu'avec des clous de toiture et de la paraffine, H. Perrigo et sa femme ont fabriqué le premier accumulateur à énergie, et qui marchait ! Le lendemain à midi, les lampes et un petit moteur fonctionnaient avec l’énergie obtenue du fouillis de fils sur la table de la salle à manger.
En 1916, les murs de l’atelier de H. Perrigo étaient tendus d’un long réseau de fils, ils étaient percés de clous de toiture, chacun étant entouré de fil de cuivre. L'accumulateur en fonctionnement était encombrant, mais sa puissance était augmentée avec les courants d’air, quand on le ventilait à la main, ou quand des gens passaient, alors qu'elle diminuait dans l'air calme.
La première démonstration a eu lieu en 1919, l’appareil produisait 1600 W, le témoin, également décédé était Russel P. Howard de Phœnix. On ne connaît pas la date de la dernière démonstration.
En août 1927, une voiture alimentée avec l'appareil de Perrigo était présentée à Kansas City. Un examen minutieux avait montré la présence d’une batterie mais les ingénieurs ont calculé que sa taille (25,4 x 64,2 x 36,7 cm) ne lui permettait pas d’alimenter la voiture à elle seule. De plus, le 10/08/1927, les journaux ont fait état d’un autre test dans lequel il n’y avait absolument aucune batterie.
Il n’existe pas beaucoup d'informations sur l'invention de H. Perrigo (sinon par Gaston Burridgs, Physic Observer). H. Perrigo souffrant d'une dépression nerveuse est décédé peu de temps après le brevet en 1926.
Comment capter l’énergie produite par les éclairs 
Un nuage émettant un éclair toutes les vingt secondes dissipe l’énergie électrique à raison de un million de kW continus, ce qui suffit à allumer de façon permanente 10 millions de lampes de 100 watts. Les courants des pics de 90 % de tous les coups de foudre - il y en a en moyenne 100 qui frappent le sol chaque seconde - dépassent 20.000 ampères, 10 % d’entre eux donnent plus de 60.000 ampères et on estime les plus importants à 260.000 ampères (à comparer avec les 2 ampères que tirent la plupart des appareils ménagers).
Le voltage entre les nuages ou entre les nuages et la terre est estimé entre 100 millions et un trillion de volts. Dans un flash, la charge moyenne est de 20 coulombs, soit environ 10 trillions de joules. Si on convertit cela en énergie utilisable, cela donne 1000 milliards de kW par an, alors que l’on estime à 33 milliards de kW la consommation mondiale vers l’an 2000.
Où va cette énergie ? Une grande quantité part en chaleur et en son (tonnerre). On estime la température des canaux d’éclairs à 25.000 ° K, celle de la surface du soleil étant de seulement de 12.000 ° K selon les calculs. Unam dans " Comprendre les éclairs " dit qu’en mesurant chaque coup de tonnerre et en appliquant une théorie convenable, l’entrée d’énergie par unité de longueur de trajet d’éclair est de 1 million de watts par seconde.
Le reste de l’énergie (qui n’est pas dissipée en chaleur et en son) est transformée en rayonnement électromagnétique (ou ondes dans l'éther ce qui était connu de Hertz qui a découvert l'effet photoélectrique en 1887) produit par l’accélération rapide des électrons dans le coup de foudre. Cette énergie prend la forme de bruits radio qui ont gêné, voire supprimé des transmissions radio à l'époque de ses débuts.
On les appelle parasitessfericset siffleurs dont les couinements, sifflements, et craquements sont audibles sur de nombreuses bandes radio. Les fréquences produites par les parasites varient sur tout le spectre radio.
Le coup de foudre vers le sol et le flux de retour au nuage produit une concentration de fréquences autour de 1-10 kilocycles par seconde. Entre les nuages les courants donnent 103mégacycles par seconde avec un maximum de 12,5 kilocycles.
Naturellement, on a pensé à utiliser cela comme source d’énergie. C’est Tesla qui, le premier a produit des éclairs artificiels à grande échelle le 11/10/1899 à Colorado Springs. Il a ainsi prouvé que la transmission d’énergie sans fil était réalisable et efficace. Mais il n’y a pas assez d’énergie pour un seul lieu, même en utilisant une haute tour. On pourrait obtenir une charge continue avec un système de collecte ou alors capter l’énergie produite par les éclairs, à savoir, les parasites.
Il ne fallait qu’une méthode pour transformer le rayonnement existant en énergie utilisable, c'est la voie suivie par H. Perrigo qui a mis au point un système pour intercepter et recueillir " l’énergie de l’onde électrique du champ d’éther global ", et la transformer en force électromotrice utilisable.
Dans une interview du 07/08/1927, H. Perrigo exposa sa théorie selon laquelle la révolution de la terre crée une forme de courants électriques, éternellement présents dans l’éther. Son idée était de capturer ces impulsions électriques, à peu près comme une antenne radio le fait avec les ondes radio. Son circuit agissait comme les enroulements de la dynamo morte jadis à Peedee : le mouvement était fourni par la Terre.
Pour utiliser l’énergie des éclairs, on pourrait se servir d’un appareil de Tesla pour stimuler le champ de la terre pour produire davantage d’éclairs et capter ensuite l’énergie électromagnétique qui est libérée dans les flashs d’éclairs accrus (sic). On peut aussi mener une recherche poussée sur l’appareil de H. Perrigo et le faire fonctionner.
La machine de Perrigo décrite par les témoins oculaires en 1922

Le "Perrigo" complet était une petite masse compacte de fils de cuivre. Elle était composée de 4 parties : deux plaques de plomb, un bloc de bois entre les plaques, une grosse bobine de fil de cuivre en dessous. Les plaques étaient installées sur le dessus du transformateur et H. Perrigo affirmait que cette disposition accroissait le processus d’accumulation d’énergie.
Il y avait deux plaques accumulatrices carrées en plomb portant 100 protubérances rondes espacées de façon à correspondre aux prises de cuivre. Ces protubérances en plomb étaient entourées du même fil fin que celui des prises. Elles étaient disposées en 10 rangées de 10. Les connexions d’enroulement de la plaque de plomb du dessus étaient différentes de celles de la plaque de dessous.  

Une fois les plaques mises en sandwich avec un isolant entre elles, il existait entre deux points sur les plaques un voltage mesurable. Un transformateur très compliqué était fixé sur ces deux points.
L'isolant était un bloc de bois de 2,54 cm d’épaisseur et 30 centimètres carrés et comportait 100 trous correspondant aux protubérances sur les plaques avec une centaine de prises à moitié enfoncées dedans.
Chaque bobine de cuivre sur les plaques de plomb avait un noyau en faisceau de fils de cuivre du diamètre d’un cure dent tout en étant plus long. Du fil de cuivre fin comme de la soie comme celui destiné coudre les boutons, était enroulé serré et bien lisse sur plusieurs couches sur les fiches de cuivre.
Chaque prise ou bobine spéciale était en contact grâce à une soudure lisse dessus avec l’extrémité d’une prise de cuivre dans le bloc de bois au dessus.
La centaine de bobines était reliée par un dédale de connexions réalisées par tâtonnements dans le but de donner un maximum de voltage entre les bobines et les prises. Dans l'appareil de H. Perrigo, chaque clou était entouré de fil très fin, ce qui en faisait un petit électroaimant. Ensuite, par tâtonnements, H. Perrigo avait relié les extrémités des électroaimants aux autres clous de telle façon qu’il y ait un voltage maximum entre le fil et le clou.
Le bloc de 30 cm au carré pesait 37,8 kg, il n’avait pas de partie mobile, alors qu’il allumait 45 lampes de 100 watts sans aucun clignotement (soit 4500 watts). La grosse bobine avait 25,4 cm de diamètre, 10 cm de hauteur et comportait du cuivre massif. H. Perrigo affirmait que la capacité de son appareil était de 500 CV (373.000 watts).
Fonctionnement de la machine de H. Perrigo 
La qualité de l’électricité d’un appareil de H. Perrigo était celle décrite dans celui de Henry Moray : on pouvait alimenter un grand nombre de lampes au moyen de fils fins comme des cheveux et qui étaient froids. On disait que l’éclat des ampoules était clair, sans la brume habituelle.
Apparemment il y avait un voltage élevé entre les deux plaques de plomb, voltage qui, en passant à travers la bobine transformatrice en dessous se voyait réduit, le courant étant augmenté pour l’usage domestique. Avec un léger changement dans ces interconnections, H. Perrigo pouvait produire un voltage différent, en courant continu ou bien en alternatif.
La seule et mince explication que l’inventeur ait fournie était que son appareil " condensait " l’électricité de l’air en " dispersant les ondes d’éther ". Pour le Dr Moreland, le fil d’acier était recouvert de matière radioactive émettant des particules alpha capturées par le fil de cuivre.
Il y a longtemps, un chercheur de Pekin dans l’Illinois avait fait l’expérience suivante : en connectant un récepteur à un condensateur de téléphone, il pouvait détecter les décharges du condensateur sans aucune source d’électricité à proximité. C’est ce même petit phénomène qui a aussi éveillé l’intérêt de H. Moray en 1909. (Moray qui s’est inspiré de Tesla et des travaux de Gustave le Bon " L’évolution de la matière ".)
Autres appareils dignes d’intérêt : celui de Chauncey J. Britten, brevet US n° 1.826.827 du 13/10/1931, Voir également C. Earl Ammann, José Yglesias, Roy J. Myers
Voir http://www.geocities.com/ResearchTriangle/Lab/1135/perrogos.htm

RQM AG - RAUM QUANTEN MOTOREN 
SQR Institute for Space Quanta Research Hummelwaldstrasse 40 CH - 8645 JONA/Rapperswil (Switzerland) Fon ++41 +55 214 23 50 Fax ++41 +55 212 52 09
rgm@access.ch 
http;//www.rqm.ch/ 
La société Raum-Quanten-Motoren AG a été fondée le 24 février 1993 avec un capital - actions de CHF 500.000 et 15 actionnaires. RQM a obtenu la médaille d’or à Eureka, à Bruxelles, en 1994. Le 2 juin 1995, après de multiples recherches préliminaires, particulièrement à Aix La Chapelle, en Allemagne, il a été possible de reproduire l'effet RQM.
Pour éviter dès le début tout problème avec l'administration ce n'est pas sur la production d'Energie Libre que l'accent fut mis. La demande de brevet déposée le 7 mai 96 à Berne portait essentiellement sur le principe de construction et s'intitulait : " Dispositif et procédé de production d'impulsions électromagnétiques." Le 29 novembre 96, la communication était officielle, et depuis, l’extension internationale dans 94 pays est en cours.
Les expériences des débuts de RQM 
Au départ, le système de pilotage montrait des points faibles à cause des pics importants d'énergie et des effets d'avalanche provoqués par le découplement d'énergie. Il fut donc décidé de mettre au point une nouvelle et meilleure électronique de commande, suivie ensuite d'un autre système de commande qui permettait de définir un grand nombre de paramètres à la main grâce à un potentiomètre rotatif. On put ainsi faire une série d'expériences qui aboutirent à un nouveau générateur à impulsions à 5 canaux permettant d'avoir un réglage reproductible en nanosecondes.
Pour les nombreux essais, il fallut ajouter aux systèmes de mesure, un oscilloscope à mémoire, 2 et 4 canaux, un système scanning laser vibrometer, appareil relié également à l'ordinateur. Il a été nécessaire de faire fabriquer spécialement à l'extérieur le logiciel adapté qu'aucun système informatique existant ne pouvait offrir.
Parallèlement de nombreux textes furent étudiés, de nombreuses recherches de brevets effectuées pendant la mise au point du brevet RQM.
Coup d’œil dans l'intérieur du cœur RQM breveté
Les Générateurs grâce à un nouveau procédé électromagnétique peuvent convertir des différences de pression mécanique dans l’espace quantique - médium - forces naturelles présentes partout ressemblant beaucoup aux forces de gravitations connues en énergie électrique. Ce sont des manipulateurs d’espace quantique entièrement électroniques, sans pièces en mouvement. Un système d’électro-aimants disposés selon une géométrie spécifique permet la production d’énergie.
Lorsque le procédé RQM est en marche, le flux " Raum Quanten " généré agit sur les électrons libres du cœur RQM breveté et provoque une différence de potentiel donnant ainsi naissance à un courant électrique écologique.
Les relations entre RQM, les médias et d’autres chercheurs 
J-M. Lehner, président de RQM dit, entre autre:
" On peut comparer les bâtiments où l'on étudie la physique aujourd'hui à la tour de Pise; elle fait montre de graves erreurs dans ses fondations."
Les nouvelles connaissances sur l'électromagnétisme et la gravitation bousculent les fondations de la physique classique. C'est pour cette raison que de nombreux professeurs n'osent plus s'exposer à concrétiser leurs propres recherches, et demeurent dans l'immobilisme et aussi que R.Q.M. a reçu de violentes critiques.
'' La société RQM vend des actions à de nombreuses personnes intéressées. Mais pourra-t-elle répondre aux attentes. Les données des prospectus sont trop vagues ou inutilisables. La question relative à l'efficacité d'un moteur n'a pas obtenu de réponse…La DVS craint les dommages potentiels que les activités de RQM pourraient engendrer (au sujet du concept de conversion du VFE). ''(source DVS).
Compte - tenu des expériences habituelles avec certains journalistes qui ont tendance à tourner les résultats intéressants en dérision et du fait que RQM privilégie la réalisation du système aux séminaires, journées d’information et ateliers techniques, les médias ont reçu un bref communiqué sur les résultats obtenus. Le journalBlättervald est resté étonnamment silencieux. Il est possible que les journalistes avertis secondés par des experts n'aient plus su quoi dire à la suite du communiqué.
Informations prometteuses sur RQM, le rapport de 1 : 8,6 de l'appareil
Dès 1994, RQM et RQF avaient adressé des documentations à 200 universités et grandes écoles d’Allemagne, de Suisse et d’Autriche. Fin mars 95, aucun poste n’avait encore été pourvu par les candidatures. En 1998, deux ingénieurs ont été remplacés dans l'équipe.
Des réponses à des lettres de Quant'homme :
Le 06/04/97, M. Wolfgang.Bahmann membre de INE et secrétaire de la délégation Européenne de PACE écrit :
" RQM a jusqu'à présent beaucoup promis mais n'a pas encore tenu ses engagements, je suis très sceptique sur ce point."
Le 09/04/97, M. Wolfgang Wiedergüt président de BINDU, groupe de recherche sur l'Energie Libre écrit :
" Le développement de RQM va encore se faire attendre, parce que, selon nous, le savoir faire utilisé ne suffit pas pour réussir concrètement."
Ces réponses sont arrivées juste avant l'information suivante : RQM dispose depuis le 20/05/1997 du premier rapport d'expertise confirmant un coefficient d'efficacité h= 427% sans facteur de correction et de 225% après application de ce facteur.
'' Le 12/07/1997, pour la première fois, notre équipe d’ingénieurs a réussi un stockage intermédiaire électronique stabilisé des impulsions RQM. C’est un pas important pour une production d’énergie complètement électronique.
Le résultat était la simplification de tout notre processus de mesure et permettait l’exécution et l’enregistrement de l'énergie d’entrée et de sortie de l’appareil RQM dans la gamme DC sans métrologie à haute fréquence. C’est aussi une avancée importante pour de futures mesures indépendantes faites par différents organismes.
L’appareil expérimental produit nettement des déplacements de porteurs d’une charge longitudinale puissante, avec d’autres courants longitudinaux ou ondes scalaires.
Notre équipe a réussi ainsi à convertir électroniquement ce nouveau courant RQM en courant continu normal de 400 à 800 V comme il est généralement utilisé pour alimenter avec efficacité un convertisseur de courant continu en alternatif.

 

 

 

 

Unités 1 et 2 expérimentées chez RQM
Une seconde unité expérimentale complète, munie d’un nouveau contrôle amélioré d’impulsions est en service depuis le début de février 1998. Les nouvelles séries d’électronique de puissance de RQM sont utilisées depuis janvier 1998. Cet appareil n° 2 est utilisé comme démonstration d’un appareil domestique pour tous les visiteurs de RQM. Il est équipé de systèmes de mesure de courant à l’entrée et à la sortie qui montrent une entrée de 64 watts et une sortie de 500 watts. ''
" Il y a plusieurs sauts quantiques en physique qui accompagneront l’homme au 21 ème siècle. Les confirmations scientifiques se feront peut-être attendre quelques années. Attendons-les, ce sera certainement un épisode très intéressant " dit J.M. L ehner, Président de RQM, le 19/02/1998.
Théories à l'origine de RQM

 

 

Champ magnétique classique Champ selon Oliver Crane

 

 

Elles se trouvent dans les travaux de Oliver Crane ( voir dans les dossiers Sur la Piste de l'Energie Libre dans la partie Chercheurs…) et l’ouvrage "Zentraler Oszillator und Raum-Quanten-Medium" de Oliver Crane/J.M Lehner/Chr.Monstein. Ce que Oliver Crane, physicien maintenant décédé présente avec l'oscillateur central dans l'univers et l'émission d'énergie scalaire correspond à ce que T. Bearden avait précédemment présenté.
Christian Monstein, ingénieur diplômé a montré au moyen de deux expériences différentes des résultats stupéfiants dénommés " Effet Monstein " et " Hooper-Monstein ". L’effet Monstein montre une enveloppe de flux magnétique à vitesse de flux élevée, que l’on appelle flux quantique de l’espace. Cet effet se produit avec un cylindre magnétique de 50 mm de diamètre en rotation à 6000 tours/minute ce qui équivaut à une vitesse périphérique de 16 m/s.
Dans ces expériences, il est complètement nouveau de voir l’effet magnétique diminuer avec une augmentation de révolution en sens horaire en regardant le pôle sud, c’est à dire, si l’on accélère le cylindre magnétique dans la direction du flux. La vitesse périphérique augmentant, la force du champ magnétique s’approche de zéro.
Lorsqu’elle a atteint zéro, la vitesse périphérique correspond alors à la vitesse de flux de cet aimant. Si l’aimant regardant vers le pôle sud est accéléré dans le sens anti horaire, alors, la densité de flux magnétique augmentera continuellement, ce qui revient à dire que l’effet magnétique devient plus grand. La preuve du flux d’espace quantique démontre indirectement l’existence d’un médium d’espace quantique présent dans tout l’univers, puisqu’il ne peut y avoir de flux sans médium, comme il n’y a pas de flux d’eau sans eau ni de flux d’air sans air.
Des flux se déplaçant en opposition donnent une répulsion. Si l’on a des flux magnétiques dans la même direction, une zone de basse pression est créée entre les aimants, lorsque les pôles sud et nord sont réunis. Le pôle sud et le pôle nord sont poussés l’un vers l’autre par la pression externe du médium statique alors que l’observateur, lui, n’y voit qu’une attraction apparente. Le résultat est le même, mais les énergies viennent d’une direction opposée à 180 ° de celle que l’on connaît habituellement.
Ceci signifie qu’il est maintenant possible d’expliquer la répulsion magnétique ainsi que l’apparente attraction et tous les effets magnétiques et électromagnétiques - de simples effets de flux - grâce à la dynamique des fluides de Daniel Bernoulli (1700-1782).
Les résultats étant les mêmes dans le vide sur terre aussi bien que dans l’espace, font qu’il n’est plus possible de parler d’attraction.
Cependant, en plus des ondes et du rayonnement électromagnétiques, il existe des pressions mécaniques dans la zone à très haute fréquence du son venant de toute part dans l’univers, et dont la cause se trouve dans les multiples réflexions et déviations au large de toutes les masses de l’univers, qui ont pour origine les explosions de supernovae et / ou de l’oscillateur central supposé être au centre de l’univers. Ce centre est dans la direction de Regulus l’étoile la plus brillante de la constellation du Lion. Selon les connaissances actuelles, c’est dans cette direction que la plupart des rayonnements gamma peuvent être mesurés et non pas dans la direction du cœur de notre galaxie.
En conclusion, on peut donc dire que, s’il n’y a pas d’attraction magnétique - et physiquement, cela ne se peut pas - il n’y a donc pas d’attraction à travers les masses. C’est à dire que la gravitation n’est pas causée par l’attraction de masse, mais par des ondes de pression mécaniques à super haute fréquence venant de toutes les directions de l’univers, et qui sont transférées ou transmises par le médium d’espace quantique. Ce sont ces mêmes forces qui poussent l’un vers l’autre les pôles sud et nord d’un aimant. Du reste, il n’y a pas d’attraction de l’eau des océans à marée haute, mais, en fait, les pressions extérieures sont affaiblies, détournées et/ou réfléchies en raison de la masse de la lune qui intervient, ce qui permet aux forces centrifuges dues à la rotation terrestre d’avoir un effet plus grand.

 

 

Jean-Louis Naudin (voir son site) a reproduit l'expérience de Hooper-Monstein en utilisant - Deux cylindres composés de 10 aimants Neodymium-Iron-Boron empilés. La distance de parcours était de 200 mm, la durée environ 0,2 s.
- Les appareils de mesure : un Teslamètre électronique avec sonde de Hall, un voltmètre digital Voltcraft VC506 utilisé en tant que millivoltmètre.
Un cadre de 205x390 mm en fil de cuivre de 8mm de diamètre était placé entre les aimants.
 

 

 

Il a constaté qu'en déplaçant les deux aimants, le champ magnétique mesuré avec le teslamètre est quasiment à zéro, et que l'on peut mesurer une induction électromagnétique du double de celle mesurée avec seulement un aimant en déplacement.
Voir aussi les nouvelles connaissances scientifiques dans les domaines électromagnétique, électrostatique, gravitationnel et les études sur le courant (Travaux de Hulse et Taylor, prix Nobel de physique en 1993).
Effets sur la radioactivité du système RQM d'après J-M. Lehner
L'élimination totale et sûre des déchets nucléaires demeure encore un problème non résolu. Personne n'est en mesure de garantir qu'une telle élimination restera stable pendant des centaines d'années. La catastrophe de Tchernobyl et ses conséquences montrent nettement qu'il faut trouver une technologie qui neutralise le matériau radioactif. Le tout dernier incident au CERN à Genève indique aussi que, très souvent, le matériau radioactif disparaît via des éliminations de déchets ordinaires (émission TV Suisse " 10 sur 10 " du 23/04/96).
Ce sont les physiciens quantiques (y compris ceux de RQM) qui relèvent le défi pour réparer les dégâts dus au nucléaire. Ils se basent sur les plus récentes découvertes scientifiques dans les domaines de l'électromagnétisme, de l'électrostatique, de la gravitation et de la dynamique des fluides. Après avoir présenté un nouveau système énergétique non polluant, ils pourront réaliser, à un coût raisonnable, un procédé de neutralisation de matériaux radioactifs. Voir également dans notre site les travaux du groupe de Cincinnati).
Il est possible maintenant d’espérer dans la nouvelle physique des causes. Oliver Crane a montré dans son ouvrage "Oscillateur central etspace quanta medium" que la causalité devait être le principe de base de la physique. Selon Crane, les méthodes mathématiques ne sont pas la voie permettant de résoudre les problèmes de la physique. " Aucun facteur exclusivement abstrait n'est accepté." Cependant, ce facteur est celui de l'espace absolument vide (mathématiquement) de la théorie de la relativité. C'est pourquoi, Crane a rempli tout l'espace avec le" space quanta medium". (Les quanta sont infiniment plus petits que les particules élémentaires).
O. Crane avait vu juste, des paramètres idéaux (avec des valeurs zéro ou infinies) n'ont jamais été observés ni prouvés par l'expérience : ils n'existent pas. Par conséquent, s'ils font partie de la théorie, c'est que la théorie est fausse.
En se basant sur les principes de Oliver Crane, il serait possible avec la technologie RQM, de neutraliser les déchets radioactifs par une sorte de chargement énergétique. Avec un système RQM symétrique, on pourrait, au moyen d'une " fixation " brève et poussée des quanta de l'espace, stabiliser tous les éléments radioactifs au nombre inférieur à 82, et donc stopper définitivement leur radioactivité. Il faut pour cela une version spéciale RQM qui fonctionne sur la base d'un principe inversé et en tout cas inverse de celui de la production d'énergie nucléaire. On pourrait donc, selon RQM, changer artificiellement la demi-vie de la désintégration radioactive et en principe éliminer les déchets radioactifs au moyen de méthodes non traditionnelles. 
Nota: selon la revue "Magnetik" de RQM, seules les radiations radioactives peuvent être stoppées par un apport brusque d'énergie.
Dernière minute :
Jean-Marie Lehner, après le dépôt de bilan de la société RQM fin mars 1999 ne reste pas inactif et cherche des investisseurs. Il a établi de bons contacts avec une société de Capital-Risque américaine qui apporterait un financement sous certaines conditions en accord avec lui-même. TransAltec (voir Inge et Adolf Schneider INET et NET-Journal) a rencontré M. Lehner le 23 juillet 1999 après la publication en Suisse d'un article très critique au sujet de RQM. TransAltec essaie d'aider J-M Lehner dans sa recherche d'investisseurs pour que les travaux sur les générateurs puissent se poursuivre.
23/01/2002 : Le projet RQM, grâce au financement et à la gestion de Euro-American Venture Capital Federation Inc. a repris en mai 1999. Jean-M. Lehner, président de RQF et président-directeur général (PDG) de EAVCF Inc. depuis le 23.12.1999, est responsable de la réalisation aussi rapide que possible des projets RQM: SOLUTION ENERGETIQUE ET TRANSMUTATION DE LA MATIERE.
(3 personnes pendant 6 mois) jusqu'à la mise en service 24 heures sur 24 des installations d'essais disponibles pour la solution énergétique.
L'objectif de RQM au 30/12/2001 : augmenter l'efficacité du facteur F pour atteindre une valeur supérieure à 1.0 en utilisant un phénomène de résonance dans des matériaux convenant à la plaque conductrice.
Réaliser un fonctionnement non-stop de l'appareil expérimental SQM/RQM sans entrées d'énergie externes.

 



24/08/2015
0 Poster un commentaire

A découvrir aussi


Ces blogs de Politique & Société pourraient vous intéresser