Water, the unknown substance

Water is one of the most widespread elements in nature, it covers more than 70% of  planet surface and it’s the basic element that allowed  life development  in all its forms,  We, ourselves,  are made up of more than 60% of water and it is essential for our existence.

Nevertheless scientific world seems little interested in deepening its understanding; serious studies are relatively few and refer mainly to its chemical appearance. But water continually shows to flee our full understanding, and there are many mysteries related to its behavior, let us give some examples:

Hot water freezes more quickly than cold water.

Solid water floats on liquid water

Despite its innocuous appearance it is the strongest solvent existing in nature, in fact all the compounds dissolve in water sooner or later.

When water freezes it increases his volume, while in general other elements tend to contract in cold.

the H2O molecule at room temperature and normal pressure is liquid, this is not a normal thing considering that for example the hydrogen sulphide, of very similar chemical formula (H2S), is a gas, despite having double molecular weight compared  water;

But there are many other oddities that escape complete comprehension. Perhaps this is why those who tried to look beneath the surface of this marvelous substance did not have great luck; I would rather say that water is so “hot” that they burned themselves. We remember great scientists like for example the Russian Boris Derjaguine, Jacques Benveniste and the Nobel Prize Luc Montagnier, but the list would be long.

Surely one of the greatest experts in the world of water behavior is Dr. G. Pollack, who has signed many studies and research on the subject.

In his beautiful and courageous book “the fourth phase of water”

Dr. Pollack introduces an innovative concept linked to the so-called “social behavior of water”. This book is the result of years of research on the subject; it is written in a clear and familiar way, in order to be understood by anyone. Most of the book is based on simple observations relating to behavior and the changes that this extravagant element takes, on external conditions changing. Pollack’s observations are replicable and evident, and do not directly concern the chemical characteristics of water but its “dynamism”, or better its capacity of restructuring in particular situations. Most scholars find these concepts indigestible and … dangerous, so they prefer not to consider them and hide dust under doormat.

One of Pollack’s fundamental discoveries is related to the behavior assumed by water in the contact areas with other elements, the zone called “interfacial”.

From observations and subsequent experiments, Dr. Pollack noted how water assumes particular conformations in the interfacial area. After coming into contact with a foreign element, water seems to modify its structure for a certain zone along contact area. In this area water seems assuming a crystalline structure that tends to exclude any foreign element. For this reason Pollack defined this area: exclusion zone (EZ); in fact in this area only well-ordered water molecules can exist.

This area can be easily identified by using colored gel microspheres spread in water; in this case we may note that in the interfacial area the water remains transparent as colored spheres are kept out. Using light and infrared absorption tests, it can be seen that water in interfacial area has different length wave absorptions.

The bizarre thing is that this “Exclusion” interface area is not the same “size” for all materials. Generally for testing EZ, hydrophilic or hydrophobic materials are used, and the material par excellence used in the Pollack tests is  Nafion® which seems to have the exclusion zone among the most extensive.

This behavior of water is really inexplicable, because there is no apparent reason why water has to change its physical structure just by contacting an external element, but above all, in order to do this “restructuring”, water necessarily need to find some form of energy, and it’s not clear where all this energy should come from.

To tell the truth, Pollack tries to give an explanation on which is the source from which water takes energy, in order to be able to modify its structure and even modify its polarity in some cases. Pollack identifies source being  radiant energy, and arrives at this conclusion because with the knowledge  currently available, in fact there should not be other possibilities, in particular Pollack believes that origin is infrared which is ubiquitous and therefore available everywhere even in  deep sea..

However, this explanation  seem contradict some experimental result made on water test  by our group. In fact  we have noticed how some factors can cause voltage variation and polarity inversion, regardless of radiant sources presence. We have made the following observations:

– Two electrodes of equal material but with different shapes immersed in a solution produce a voltage.

– when you increase  the system  pressure you can observed shows an increase in voltage. For example this happen if you use a vertical tube full of water in which the pressure at the bottom  of course it is increased by gravity compare the top .

we noticed that greater is adherence and / or “wettability” of a liquid , or better more hydrophilic it is (Ndr interesting  etymology of this word from the Greek hydros, “water”, and philia, “friendship”) and  higher  will be tension produced, the effect is easily visible when in one solution an electrode has a greater adherence than the other electrode.

From these experiments it seems that water is able to extract energy from some unknown source. As far as the influence of radiant energies, such as heat and infrared, from  experiments we note that their contribution to the system has a multiplicative effect with respect to the energies involved, this is precisely what can be misleading for  researchers.

Alas, having to accept as an accomplished fact that water is able to find energy from some external and incomprehensible source that allows it to change and restructure itself, it would at least interesting try to understand what the purpose for those structures modifications and change of polarity, and why water reacts differently depending on of the type of material with which it comes into contact, almost as if it was able to recognized its essence.

We know that water is generally sensitive  to the environment in which it is found, for example from  Masaru Emoto  studies it has been seen how  water seems to incorporate  emotional state of people who are close to it; but water also reacts differently to different types of music with a “mirror” behavior. It could be said that it has a “simpatic” behavior in attempt to “resemble” the environment in which it is.

For this reason I think that in the interfacial area water tries to restructure itself in the most similar way to the contacted element. For example it will try to arrange its internal structure in a more similar way to crystalline structure of the metal with which it is in contact, showing his polymorphic attitude. Just as different materials have different crystalline structures, water in its function of secularity or “aliking attitude” also takes on different crystalline structures and this is why EZ varies from material to material.

Domenico Cirillo, a researcher who worked for years in contact with the great Emilio del Giudice, said discussing these water exotic behaviors: “according to the last models (from Del Giudice to Pollack) water seems to give its electrons and protons certain mobility, a certain freedom of action and interaction. So water can be seen as a set of dipoles (the molecules) immersed in a medium that enjoy a certain degree of freedom. It looks like a plasma description  … “

I personally believe that the reason why we don’t perceive water as a plasma is related to its intrinsic speed of movement. Plasma is like an area of very strong storm with a high kinetic component. The movements are so erratic and fast that we cannot understand them, it is as if conventional plasma was a film in which frames pass very fast, while water is the same film but with a slow frame rate.

Pollack speaks in his book of a fourth phase of water, and plasma is indeed the fourth state of matter.

The water could actually be”slow plasma”, as for example the glass appears to us as a solid but in reality it is a “slow-moving liquid”.

It would therefore be interesting to compare Professor Pollack’s water studies with studies on plasma and charge aggregates proposed by physicist Kenneth Shoulder.

I believe that to face these topics studies it is necessary to have an open mind attitude, and a great spirit of observation and multi-disciplinary skills, exactly as the great Pollack does, otherwise there can be no real scientific progress.


L’acqua, questa sconosciuta.

di Enrica Fiorini

L’acqua è uno degli elementi più diffusi in natura, ricopre più del 70% del nostro pianeta ed è l’elemento fondamentale che ha permesso lo sviluppo della vita in tutte le sue forme. Noi stessi siamo costituiti per più del 60% d’acqua ed essa è imprescindibile per la nostra esistenza.

Risultati immagini per acqua pianeta

Nonostante ciò il mondo scientifico sembra poco interessato ad approfondirne la comprensione; gli studi seri sono relativamente pochi e si riferiscono principalmente al suo aspetto chimico. Ma l’acqua dimostra continuamente di sfuggire alla nostra piena comprensione, e sono molti i misteri legati al suo comportamento, facciamo qualche esempio:

  • L’acqua calda congela più rapidamente di quella fredda.  
  • L’acqua solida galleggia su quella liquida
  • Nonostante la sua apparenza innocua è il più forte solvente esistente in natura, infatti tutti i composti si sciolgono in acqua prima o poi .
  • L’acqua quando ghiaccia aumenta di volume, mentre in genere gli elementi al freddo si contraggono.
  • la molecola di H2O a temperatura ambiente e pressione normale è liquida è non è una cosa normale visto che per esempio l’acido solfidrico, di formula chimica molto simile (H2S), è un gas, pur avendo peso molecolare doppio rispetto all’acqua;

ma ci sono molte altre bizzarrie che sfuggono alla completa comprensione. Forse è per questo che chi ha provato a guardare sotto la superficie di questa meravigliosa sostanza non ha avuto grandi fortune, direi piuttosto che si è … scottato. Ricordiamo grandi scienziati come per esempio il russo Boris Derjaguine, Jacques Benveniste e il premio nobel Luc Montagnier, ma la lista sarebbe lunga.

Sicuramente uno dei più grandi esperti al mondo del comportamento dell’acqua è il Dr. G. Pollack, che ha firmato moltissimi studi e ricerche sull’argomento.

Nel suo bellissimo e coraggioso libro “la quarta fase dell’acqua”

il Dr. Pollack introduce un concetto innovativo legato al cosiddetto “Comportamento sociale dell’acqua“. Questo libro è il risultato di anni di ricerca sull’argomento ed è scritto in modo chiaro e fruibile, allo scopo di essere compreso da chiunque. La maggior parte del libro si basa su semplici osservazioni relative al comportamento e alle modifiche che questo stravagante elemento assume, al variare delle condizioni esterne. Le osservazioni di Pollack sono replicabili ed evidenti, e non riguardano direttamente le caratteristiche chimiche dell’acqua ma la sua “dinamicità”, ossia la sua capacità di ristrutturazione in particolari situazioni. La maggior parte degli studiosi trovano questi concetti indigesti e … pericolosi, quindi preferiscono non considerarli e cacciare la polvere sotto allo zerbino.

Una delle scoperte fondamentali di Pollack è relativa al comportamento assunto dall’acqua nelle zone di contatto con altri elementi, ossia quella zona chiamata “interfacciale”.

Da osservazioni e successivi esperimenti, il Dr. Pollack ha notato come l’acqua assuma conformazioni particolari nella zona interfacciale. Dopo essere venuta a contatto con un elemento estraneo, l’acqua sembra modificare la sua struttura per una certa area prospiciente alla zona di contatto. In questa area l’acqua assume una struttura di tipo cristallino, e tende ad escludere qualsiasi elemento estraneo. Proprio per questo Pollack ha definito questa zona: exclusion zone (EZ); infatti in questa zona possono esistere solo molecole d’acqua ben ordinate.

Questa zona può essere facilmente individuata utilizzando delle microsfere di gel colorati, in questo caso si nota che nella zona interfacciale l’acqua rimane trasparente . Usando dei test di assorbimento della luce e di infrarossi, si può notare come l’acqua nella zona interfacciale abbia assorbimenti diversi.

La cosa bizzarra è che questa zona interfacciale di “Esclusione” non è uguale per tutti i materiali. Generalmente per questi test vengono usati materiali idrofili o idrofobi, e il materiale per eccellenza usato nei test di Pollack è il Nafion® che sembra avere la zona di esclusione tra le più estese.

Questo comportamento dell’acqua è veramente inspiegabile, perché non c’è alcun motivo apparente per il quale l’acqua debba cambiare la sua struttura fisica per il solo contatto di un elemento esterno, ma soprattutto, per poter fare questa “ristrutturazione” essa ha necessariamente bisogno di attingere a qualche forma di energia, e non è ben chiaro da dove dovrebbe provenire tutta questa energia.

Ad onor del vero Pollack cerca di dare una sua spiegazione sulla fonte alla quale l’acqua attinge per poter modificare la propria struttura e modificare in alcuni casi la sua polarità. Pollack individua come fonte l’energia radiante, ed arriva a questa conclusione perché con le conoscenze che sono attualmente disponibili, in effetti non ci dovrebbero poter esser altre possibilità, in particolare Pollack ritiene l’origine siano gli infrarossi che sono onnipresenti e quindi disponibili in ogni luogo.

Questa spiegazione sembrerebbe però essere in contrapposizione con risultati di alcune sperimentazioni fatte sull’acqua dal nostro gruppo. Nei nostri test abbiamo notato come particolari fattori possano provocare variazione di tensione e inversione di polarità, indipendentemente dalla presenza di fonti radianti. Abbiamo fatto le seguenti osservazioni :

– Due elettrodi di egual materiale ma con forme diverse quando immersi in una soluzione producono una tensione.

– Aumentando la pressione del sistema in osservazione si nota un incremento della tensione. Per esempio se  si usa un tubo verticale pieno d’acqua  nel quale per gravità la pressione nella parte inferiore e  maggiore di quella superiore abbiamo un ulteriore incremento della tensione.

– abbiamo notato che tanto maggiore è l’aderenza e/o la bagnabilità di un liquido e cioè quanto più esso sia idrofilo (Ndr bellissima l’etimologia della parola dal greco hydros, “acqua”, e philia, “amicizia” ) tanto maggiore è la tensione prodotta, l’effetto è facilmente visibile quando in una soluzione un elettrodo ha un aderenza maggiore rispetto all’altro elettrodo.

Da queste sperimentazioni sembrerebbe che l’ acqua sia in grado di estrarre energia da qualche fonte sconosciuta.  Per quanto riguarda invece l’influenza delle energie radianti come calore e infrarossi,  dagli esperimenti si nota che il loro apporto nel sistema ha comunque  un effetto moltiplicativo rispetto sulle energie in gioco, è proprio questo che può trarre in errore.

Dovendo ahimè accettare come fatto compiuto che l’acqua è in grado di trovare energia da qualche fonte esterna e incomprensibile che le permette di modificarsi e ristrutturarsi, sarebbe almeno interessante cercare di capire qual’è lo scopo e perché essa reagisca in modo diverso a seconda del tipo di materiale con cui viene a contatto, quasi come ne riconoscesse l’essenza.

Sappiamo che l’acqua è un elemento generalmente sensibile all’ambiente in cui si trova, per esempio dagli studi di Masaru Emoto si è visto come l’acqua sembri recepire lo stato emozionale delle persone che gli sono vicine; ma essa reagisce diversamente anche a tipi di musica diversa con un comportamento in un certo senso “speculare”. Si potrebbe dire che ha un comportamento “simpatico” nel tentativo di “assomigliare” all’ambiente in cui si trova.

Per questo penso che nella zona interfacciale l’acqua tenti di ristrutturarsi nel modo più simile al elemento con cui è venuta a contatto . Per esempio essa cercherà di disporre la sua struttura interna in modo più simile alla struttura cristallina del metallo con cui è a contatto mostrando di essere polimorfica. Così come i diversi materiali hanno diverse strutture cristalline, l’acqua nella sua funzione di specularità o simpatia assume anch’essa diverse strutture cristalline ed è per questo che la EZ varia da materiale a materiale.

Un ricercatore che ha lavorato per anni a contatto con il grande Emilio del Giudice, Domenico Cirillo ha detto discutendo di questi esotici comportamenti dell’acqua : “secondo i modelli ultimi (da Del Giudice a Pollack) l’acqua sembrerebbe conferire ai suoi elettroni e ai suoi protoni una certa mobilità, una certa libertà di azione e interazione . Quindi l’acqua può essere vista come un insieme di dipoli (le molecole) immersi in un mezzo che godono di un certo grado di libertà. Sembra la descrizione di un plasma…. “

Personalmente credo che il motivo per il quale non percepiamo l’acqua come un plasma sia legato alla sua velocità di movimento intrinseca. In un plasma ci si trova all’interno di una specie di tempesta fortissima con un alta componente cinetica. I movimenti sono così erratici e veloci che non riusciamo a comprenderli, è come se il plasma convenzionale fosse un film in cui i fotogrammi passano molto veloci, mentre l’acqua è lo stesso film ma con una velocità di fotogrammi rallentati.

Pollack parla nel suo libro di una quarta fase dell’acqua e il plasma è in effetti il quarto stato della materia.

L’acqua potrebbe essere in effetti un “plasma lento”, così come per esempio il vetro ci appare come un solido ma in realtà è un “liquido superviscoso-lento”.

Sarebbe pertanto interessante poter confrontare gli studi sull’acqua del Professore Pollack sull’acqua con gli studi sul plasma e sugli aggregati di carica del grande fisico Kenneth Shoulder.

Credo che per poter affrontare lo studio di questi argomenti sia necessario affacciarsi con mente aperta, e con grande spirito di osservazione e con capacità di multi disciplinarietà, esattamente come fa il grandissimo Pollack, altrimenti non ci può essere un vero progresso scientifico.

Per chi è interessato all’argomento acqua troverà qualche informazione interessante in questa intervista al Prof. Emilio del Giudice qui

La fusione fredda di Andrea Rossi

di Urbani Camillo

Era il lontano  23 marzo 1989 quando Fleishmann e Pons annunciavano,  nel generale  scetticismo  della comunità scientifica mondiale,  di essere riusciti ad ottenere per la prima volta la fusione fredda. Sono passati 30 anni e la fisica continua a trattare con diffidenza questo argomento . Ancora oggi, la fusione fredda è considerata una pseudoscienza e i ricercatori  che se ne occupano  non sono visti come  veri scienziati, ma come illusi inseguitori di sogni impossibili.

Uno dei personaggi più controversi e chiacchierati,  che opera in questo campo, è sicuramente Andrea Rossi; negli ultimi 10 anni si sono susseguiti  svariati suoi annunci  che promettevano  il lancio imminenti di tecnologie  che sfruttavano la fusione fredda per ricavare energia o calore. Purtroppo tutti questi annunci  non sembravano fino ad ora, ad aver  portato a  risultati concreti.  Questo  ha alimentato ancor più lo scetticismo generale e la  mancanza di interesse da parte del mondo accademico e dei media nei suoi confronti, e in quello dei suoi apparati.  Per questo potrebbe succedere che la più importante scoperta energetica del secolo (a detta dal prof. Sergio Focardi ex preside della facoltà di fisica di Bologna) faccia il suo ingresso nella storia completamente snobbata  dai Media.

Sono un laureato in fisica ed ho seguito la faccenda della Fusione Fredda fin dagli albori. Ho fatto delle sperimentazioni  nel mio laboratorio casalingo, e mi è capitato di assistere a degli  effetti strani e difficilmente spiegabili,  ma niente di certo. Come fisico non posso portare dati verificabili, ma posso affermare, e non sono il solo, di  avere assistito a fenomeni strani e inspiegabili,  in questo tipo di esperimenti.

L’errore che spesso si compie nel cercare di capire il fenomeno della fusione fredda è quello di  voler dare delle spiegazioni  usando  meccanismi e concetti conosciuti e familiari, adatti a descrivere e spiegare il solido mondo materiale.

La realtà ha due facce, due modi di essere compresa, uno è il modo pragmatico della scienza ufficiale di cui la massima espressione è la Fisica, la seconda faccia riguarda il suo  aspetto “trascendente” derivante dall’Alchimia e da altre incredibili tradizioni che in questo momento storico sono completamente ignorate o ridicolizzate.

L’uomo  ha delle fortissime convinzioni preconcette rispetto al mondo che lo circonda. Queste idee  gli vengono  instillate sin dalla nascita da altri individui della società a cui appartiene.   Si tratta delle  convinzioni più disparate,  che nei secoli  e in diverse aree geografiche,  si sono modificate così   tanto, da essere spesso  in contrapposizione.  Alla luce di ciò dovremmo essere  un po’ più cauti sulle  nostre sicurezze rispetto alle leggi che governano l’universo che ci circonda.

Nei vari momenti storici, l’essere umano,  ha  difeso a spada tratta idee e concetti  che riteneva  verità immutabile e assoluta.  Idee che poi sono state  ribaltate dagli eventi o da cambiamenti di moda. La verità e le convinzioni dell’uomo sono sempre in evoluzione, l’ incontestabile di oggi, potrebbe risultare ridicolo domani.

E’ utile ricordare che il nostro benessere e la nostra tecnologia sono il frutto e la risultanza della ricerca di grandi personaggi del passato, che avevano delle convinzioni ben diverse dalle nostre e che oggi ci farebbero sorridere.  I più grandi studiosi del passato erano anche   grandi alchimisti  mistici ed iniziati.  Per esempio  il grande Newton oltre ad essere un grande scienziato era un ancor piu’ grande alchimista. 

Questa nota introduttiva ha lo scopo di proporre a chi legge un atteggiamento  più possibilista rispetto agli argomenti che andremo a sviluppare.

Ipotizziamo  che la realtà materiale sia oggettiva solo  per  quel gruppo di individui che fanno parte di una   stessa  organizzazione percettiva  accordata,  ben radicata è condivisa tra tutti. Tramite  un accordo interpretativo questo gruppo di individui  crea  le basi e la struttura che regge la  realtà condivisa, così che  essa   viene  da loro vissuta e percepita come reale, verificabile e ripetibile.

Se la stessa realtà fosse vista da consapevolezze, non accordate,  con premesse percettive differenti, e quindi non in risonanza con  quell’accordo interpretativo, essa non avrebbe per loro alcuna qualità e  sarebbe per essi  equivalente a ciò che definiamo  come “materia oscura”.

Con la fisica noi non penetriamo l’essenza delle cose, ma ci accontentiamo di  dargli una descrizione, certo si tratta di  una descrizione molto utile e precisa, ma resta sempre e solo una descrizione.  Nel  tentativo di scoprire la realtà che ci circonda  andiamo per approssimazioni successive. Per esempio per capire  l’atomo prima è stato dato un modello atomico sul  tipo del  sistema solare con palline al centro (neutroni e protoni) e palline che girano intorno. Poi il modello è stato modificato perché il modello cozzava con l’idea che  gli elettroni essendo  cariche elettriche in movimento,  girando avrebbero perso energia; quindi è stata introdotta l’idea di  onde stazionarie.. e così siamo poi arrivati alla  teoria degli orbitali… le palline (neutroni, protoni elettroni) hanno cessato  di essere solo palline, ma  sono state  considerate come onde (solo a volte  però…). Poi occorreva risponde ad altre domande del  tipo: come fa l’energia a concentrarsi in una zona sferica (quando sono palline)? Non c’è un involucro che la confini, perché mai  dovrebbero auto-confinarsi? E così via, a continue  domande si  risponde  cambiando e/o ampliando il modello. Siamo passati  a equazioni d’onda, pacchetti d’onda con l’elaborazione di nuove formulazioni matematiche. Così il modello rappresentativo si è  tramutato  nelle equazioni di Schrödinger (Vienna, 12 agosto 1887 – Vienna, 4 gennaio 1961).  Schrodinger è stato un fisico austriaco, di grande importanza per i contributi fondamentali alla meccanica quantistica e in particolare per l’equazione a lui intitolata, per la quale vinse il premio Nobel per la fisica nel 1933

Si  ritiene che un  fenomeno fisico reale avvenga  per una serie di elementi che lo determinano. Si tratta di una specie di scomposizione in serie, dove f1 f2 … sono le forze che determinano il fenomeno.

Fenomeno = f1+ f2+f3… fn

La scienza in questo periodo storico considera solo termini dati da forze meccaniche di varia natura. Ma in altri periodi si consideravano anche  elementi più eterici come per esempio le “influenze astrali”.  Galileo e  Newton, per esempio, facevano gli oroscopi, considerando l’influenza degli astri come componente importante che agiva su un fenomeno, e le sperimentazioni ne tenevano quindi opportuno conto.

Consideriamo quindi la nostra formula  che descrive il Fenomeno, ogni termine della serie ha una sua “pesata” o fattore di importanza; in diversi tempi storici l’importanza delle “pesate” è mutata. In Alchimia c’è un termine ritenuto molto  importante ed è dato dall’atteggiamento mentale dello sperimentatore. Si tratta di un modo di porsi con volontà, con sicurezza  e  con fede. Il peso di questo addendo ai giorni nostri viene normalmente trascurato  cioè un fenomeno non dipende dallo sperimentatore o dall’osservatore.

In medicina  negli studi su placebo  l’importanza dell’atteggiamento sia del malato, che del medico, però è stata ben osservata e se ne tiene debito conto.

Con lo sviluppo della fisica quantistica poi le cose sono cambiate anche per la scienza. Gli esperimenti della doppia fenditura e quello  della scelta ritardata di Mandel  implicano un interazione netta tra fenomeno e osservatore.


Abbiamo quindi  ipotizzato che  la realtà possa essere la risultanza di un accordo tra tutti gli “osservatori” che hanno aderito a quella realtà, e che in alcuni casi la volontà di un osservatore possa  giocare un ruolo particolare nell’indirizzare  e/o modificare localmente la realtà .

Cioè la realtà è fondamentalmente  rigida, immutabile   e consequenziale,  segue  regole prestabilite e accordate. Ma allo stesso tempo,  gli individui, localmente, in casi particolari possono “dissociarsi” e  apportare delle piccole modifiche nei limiti  della propria energia/fede/volontà e  alla “disponibilità/malleabilità” che gli viene loro concessa dagli  altri individui che gli stanno attorno.  

Passiamo ora a parlare della fusione fredda di Andrea Rossi,  una scoperta che ritengo stia per sconvolgere il mondo così come lo conosciamo. E’  incredibile come venga ignorata e ridicolizzata, ma forse questo atteggiamento è un  bene perché  se nessuno ci crede allora nessuno la ostacola.

Abbiamo visto che Il fenomeno della fusione fredda parte da lontano, con elettrolisi di palladio in deuterio, con ripetitività quasi inesistente.

Per chi volesse conoscere dettagliatamente la storia delle diverse sperimentazioni che si sono succedute nel  campo della fusione fredda,  può trovare informazioni in questo articolo : http://www.fisicamente.net/FISICA_2/index-1926.pdf

Per quanto mi riguarda ritengo che la vera partenza della fusione fredda sia da collocarsi con glie esperimenti del Prof. Piantelli che con una barra di nichel e idrogeno rilevò anomalie di calore.

Anche qui ripetibilità modestissima o nulla. Provai per un anno a riprodurre nel mio laboratorio casalingo l’esperimento pubblicato sulla rivista di Fisica “nuovo cimento”. Assieme ad  un altro ricercatore dell’INFN creammo un monitoraggio in continua e procedemmo a cicli di adsorbimento e rilascio dell’idrogeno da una barretta di nichel, passando da 90° a 400° e poi spegnendo. Si vedevano  qua e la picchi strani di temperatura ma niente di certo. Scrivemmo a Piantelli  che ci rispose che anche per lui la riproducibilità era aleatoria.  Però   non ci parlò del suo elemento  “segreto”, lui usava un impulsatore, cioè invece di riscaldare la resistenza con corrente continua, usava impulsi intensi e brevi la cui sommatoria introduceva l’energia richiesta per riscaldare. Questa notizia emerse successivamente  da un racconto di Focardi ancora disponibile su YouTube.  Il prof. Focardi disse che la stanza dove Piantelli eseguiva le sue sperimentazioni, era piccola,  ad un certo punto  consigliò Piantelli di ripulirla, “Per esempio”, racconta Focardi: “che ci faceva un impulsatore in quella stanza? Confonde e basta.” Piantelli non raccontava tutta la verità a Focardi, l’alimentazione ad impulsi era una parte del segreto per la ripetibilità.

Arrivò quindi Andrea Rossi, un personaggio eclettico, imprenditore,  filosofo con la passione per la fisica e la ricerca.

Rossi aveva alle spalle un passato  turbolento, una sua innovativa azienda che operava trasformando  rifiuti industriali per la produzione di idrocarburi, aveva intaccato interessi di politici ed ecomafie, i quali per ringraziamento gli scatenarono una guerra mediatica e  legale obbligandolo alla resa totale e alla chiusura degli impianti. Rossi  si era interessato a Tesla e da questi studi aveva ricavato un informazione che sarà   fondamentale per lo sviluppo della sua tecnologia. Tesla aveva notato che  un conduttore  che venisse sottoposto a un impulso molto  intenso, tanto intenso che se venisse  prolungato  lo  distruggerebbe,  potrebbe invece  sopravvivere se l’impulso  fosse dato in tempuscoli brevissimi al limite della sopportazione.

Il fattore interessante era il comportamento del conduttore, che dopo essere stato sottoposto a quell’intenso trattamento presentava anomalie rispetto alla fisica classica. Rossi si presentò a Focardi che in quel momento era una delle personalità più riconosciute in questo  campo, e gli  mostrò le sue sperimentazioni.

 Usò polvere di idruri di nichel e litio che sottopose a riscaldamenti con resistenze riscaldatrici pilotate a impulsi fortissimi e unidirezionali (impulsi tipo Tesla). Rossi non  spiegò tutto a Focardi, che per correttezza assicurò di non voler sapere  i segreti di Rossi, per rispettare la sua proprietà intellettuale. Rossi continuò a depistare tutti  cominciando ad accennare alla presenza di un misterioso catalizzatore che avrebbe favorito il fenomeno e accentuò il tutto chiamando il suo generatore: E-cat.

Focardi decise di fare delle valutazioni sulla bontà degli esperimenti di Rossi, per prima cosa immerse in un secchio d’acqua il piccolo E-Cat e misurò personalmente energia elettrica in ingresso ed energia di calore in uscita ottenendo risultati sbalorditivi. Mentre le prove con Piantelli davano al massimo guadagni di pochi Watt l’E-Cat di Rossi dava kW di potenza con rendimenti variabili; si parlò di COP 6 ma anche di COP 100 in certe prove.

Focardi protrasse le prove con i secchi d’acqua per tempi così lunghi che nessuna reazione chimica poteva realizzarli,  infine consigliò di approntare un esperimento molto più lungo che durò settimane, con un raffreddamento a scambiatore di calore. Il capannone dove Rossi mostrava il  fenomeno ricevette parecchi visitatori. (Ci sono ancora i filmati).  Rossi era convinto di poter entrare sul mercato nel giro di pochi mesi e  cominciò a proteggere la sua scoperta mettendo in giro voci infondate. Per esempio in tutte le foto del laboratorio metteva in bella mostra una grossa bombola di Idrogeno, oppure una piccola di deuterio.

Si seppe poi che usava solo polveri di idruri, fra l’altro sbalorditivamente la massa usata era piccola si parla di 50g / 100g appena.  Le radiazioni sembravano essere assenti o al massimo c’erano  un pò di raggi  gamma facilmente schermabili.  Cominciarono quindi le prime prove pubbliche..

La prima fu contestata in quanto si basava su evaporazione dell’acqua, ma il vapore uscente non era trasparente (cioè era umido e non secco) e questo comportava errori madornali nel calcolo del calore.  La prova pubblica successiva, a mio avviso fu  buona e  dava COP 3 ma si disse che l’esperimento era inficiato da  una valvola di misura che era troppo vicina ad un’altra … In verità a conti fatti da me e da altri questa cosa influiva pochissimo al massimo il COP scendeva a 2,5.  Seguirono altre prove, una in particolare creò perplessità. Si tratta di  quella di Bologna da 1 MW di potenza. Rossi aveva collocato centinaia di E-Cat in un container. Per pilotarli aveva preso in affitto un generatore di corrente molto grosso.   Mi fu riferito in seguito, da una persona che aveva partecipato all’esperimento,  che alcuni giorni prima della prova annunciata, un sovraccarico del generatore mandò fuori uso un sacco di resistenze riscaldatrici degli E-Cat. Mi dissero che più di metà furono inutilizzabili. La prova quindi si svolse con poco più di un terzo dei generatori funzionanti,  e invece del tempo previsto l’esperimento  fu  inaspettatamente breve. Rossi operava come libero sperimentatore,  non aveva finanziamenti statali ma solo fondi privati, che gli erano  arrivati  grazie alla sua società “Leonardo C.” Dopo la sperimentazione Rossi sosteneva di essere  pronto a entrare sul mercato, ma passava il tempo e di E-Cat sul mercato nemmeno l’ombra. La cosa poi peggiorò quando Rossi per un po’  di tempo  intrattenne rapporti con un piccolo gruppo di sperimentatori greci, forse sperando nell’arrivo di finanziamenti da parte del governo o di qualche facoltoso magnate;  ma quando sfumò questa possibilità, la collaborazione si chiuse in malo modo. I greci sfruttarono le conoscenze acquisite dalla collaborazione e fondarono una società denominata “Defkalion”. Paventavano di poter replicare  il fenomeno Rossi,  e cosi facendo riuscirono ad attirare a loro volta finanziamenti. Da subito Rossi sostenne di non avere dato  ai greci il segreto dell E-cat, ma non venne creduto.


L’ing. Italiano F. Cappiello finanziò per un po’ le prove ma infine si accorse che i greci  baravano. Questo episodio assieme al fatto che nel mercato non si vedeva nulla, cominciò a creare dubbi anche a chi in un primo momento aveva creduto nella tecnologia di  Rossi. Cominciai a dubitare pure io, ma avendo visto qualcosa sull’esperimento Piantelli rimanevo convinto che il fenomeno c’era ma non era stato capito. Si arrivò al 2014, e  Rossi anziché  mettere sul mercato una generatore E-Cat,  rilanciò un nuovo prodotto, detto “Hot-Cat”. Questo, a suo dire, era una evoluzione più interessante rispetto al semplice E-Cat in quanto operava a temperature superiori arrivando addirittura a 1200°. Questo apriva prospettive di generare vapore a 500° con la possibilità di utilizzare  dalle turbine a vapore per produrre elettricità. Dopo queste dichiarazioni, molti ricercatori possibilisti erano ancor più perplessi, perché a quelle temperature saltava anche la poca e indigesta teoria che veniva fino a quel momento usata  per spiegare il fenomeno LERN.

Inizialmente si supponeva che il fenomeno fosse legato alla capacità di far adsorbire ioni H+ nella struttura cristallina del nichel o metalli simili con affinità per l’idrogeno (come palladio, titanio, nichel..). Persino un gruppo di ricercatori dell’ENEA di Frascati replicarono in parte il LERN proprio usando l’adsorbimento di idrogeno nel cristallino del nichel :

Con il nuovo Hot-cat si raggiungevano temperature troppo alte perchè il cristallino dei metalli reggesse.

Quindi qualcosa di scientifico e oggettivo c’era, ma le quantità di energia in surplus era modestissima. Rossi parlava di migliaia di Joule, invece  i ricercatori riuscivano a stento a vedere  pochi Joule, poco sopra l’errore di misura;  se non fosse stato per marcatori di conferma come piccole radiazioni che comparivano nessuno gli  avrebbe dato peso. Non parevano esserci prospettive di industrializzazione. Per questo e altri motivi (forse militari) i finanziamenti furono tolti, con grande disappunto dei valenti ricercatori di Frascati.

Con temperature sopra i 500° tutto il discorso dell’adsorbimento di idrogeno in nichel saltava. A quelle temperature il cristalli di nichel “rammolliscono”,  a 1000° poi … assurdo. La teoria non reggeva più e  i dubbi su   Rossi crebbero esponenzialmente, quello che diceva era fuori da ogni possibilità teorica.

Il grosso dei ricercatori seri rimase dell’idea che qualcosa c’era ma non utilizzabile sul piano pratico, si trattava di fenomeni di confine da inquadrare con ricerche approfondite. Rossi organizzò una conferenza a Pordenone per la presentazione dell’Hot-Cat.  Ci andai anch’io,  in quel momento l’attenzione era alta, tant’è che si riempirono due sale di spettatori. Io riuscii a entrare nella prima sala e a fare anche una domanda a Rossi su dove provenisse secondo lui tutta quella energia in surplus. In quella sede conobbi molti personaggi come  Passerini del blog “22 passi”, Aldo Proia, che era in quel momento in società con Rossi, Paolo Mazzorana… e molti altri. Credo che quello fu l’apice di interesse mediatico in Italia. Da lì in poi prevalsero i dubbi e la demolizione della credibilità del  personaggio . Associazioni tipo CICAP cominciarono una forte  opera denigratoria. I mesi passavano e anche i miei dubbi crescevano, cosa aveva in mano veramente Rossi?  Un bel giorno ricevetti una telefonata in cui mi si proponeva di andare a misurare il rendimento di un E-Cat di Rossi. Accettai e diedi dei consigli per realizzare una prova inconfutabile. Il metodo che scelsi fu quello suggerito da Focardi, e cioè di scaldare una grande quantità di acqua. Allestimmo  una vasca coibentata contenente 125 litri. Se le misure operavano al di sotto dei 60° la quantità di calore sottratta per evaporazione sarebbe stata modesta. La prova fu interessante, l’E-Cat era fornito da un ex dipendente di Rossi che ne aveva partecipato anche alla  costruzione. Lui sapeva moltissime cose in merito. Era in attrito con Rossi per  essere stato licenziato quando quest’ultima aveva deciso di trasferirsi nel Stati Uniti.

Durante l’esperimento eravamo in 6 persone,  oltre a me , c’era un ingegnere e 4 periti industriali, le condizioni erano ideali per una verifica seria, al di fuori di possibili taroccamenti da parte di Rossi. Avevano un E-Cat come quello che si vedeva dentro il container.

Durante il test ho scoperto che:

1° L’innesco era una manovra molto più complessa di quanto detto da Rossi, se non ci fosse stato il tecnico (ex collaboratore) col cavolo che avremmo  visto qualcosa!

2° L’innesco usava impulsi, ON OFF con pause (la temperatura fu raggiunta in un ora quando sarebbero bastati 15 minuti se l’impulso fosse stata costante; chiesi al tecnico perché usassero un sistema così macchinoso,  mi rispose che se non si faceva quella manovra la reazione non partiva. Mi mostrò come individuare la reazione analizzando le curve di temperatura nel computer portatile collegato ai sensori dell’E-Cat. Quando la reazione partiva, le curve diventavano esponenziali, in quel caso l’alimentazione elettrica veniva spenta;  si osservava che, pur in assenza di qualsiasi input energetico, la temperatura saliva o rimaneva alta per periodi di tempo variabili e a volte di 10 o più minuti, come era possibile? Quando la temperatura cominciava a scendere venivano inviati nuovi impulsi di alimentazione finchè non ripartiva, o si arrivava ai 110°. Non sempre le curve erano esponenziali, il che significava che l’innesco era aleatorio, a volte sì a volte no. Quello che contava era che in media qua e la avveniva. Chiesi se a volte non avvenisse mai, mi rispose sì, ma non si capiva il perché.

3° Il contatore geiger non segnava nulla (ne avevo due).

4° Il processo durò circa 5 ore. Il calore in uscita lo misuravo con uno scambiatore di calore consistente in un lungo tubo di rame immerso in una vasca coibentata contenente 125 lt d’acqua.  Presi così tanta acqua per evitare di andare sopra i 60° temperatura, sopra tale valore l’evaporazione è alta e asporta un sacco di calore. Ricordo  che 1 grammo di  acqua si riscalda con circa 4 Joule di energia per ogni incremento di un grado centigrado. Un grammo di acqua che evapora, a causa del cambiamento di stato, sottrae invece una quantità ENORME di energia ben 2227 Joule e la misura diventa imprecisa. Alla fine feci la somma di tutta l’energia in ingresso, ma proprio tutta, partendo dall’inizio e, nelle incertezza, consideravo il  caso più sfavorevole, in modo da essere certo. Non considerai neanche il calore che comunque era disperso per trasmissione, per evaporazione e altro, e  trovai comunque un rendimento poco superiore a 1 ma certamente  superiore. (Ripeto senza conteggiare in uscita un sacco di calore disperso). L’ingegnere calcolò tutto e arrivò a 2,5 di COP facemmo la media dei due COP nella relazione.

5° Ricordavo che Focardi aveva raccontato di aver misurato deboli raggi gamma in uscita, io non avevo strumentazione adatta per fare questo tipo di rilevazioni, però presumo che i gamma c’erano in quanto il mio Wattmetro collegato in serie si bloccò e dovetti smontarlo togliere batterie tampone e farlo ripartire. L’ingegnere aveva un grosso Wattmetro professionale che funzionava con una pinza amperometrica e che  era scollegato da tutto;  sentiva solo i campi elettromagnetici su un filo conduttore dell’alimentazione. Anche questo funzionava a batterie, e si bloccò. Dovemmo smontarle. Per fortuna, tolte le pile e risistemate ripartì a funzionare. Anche il contatore ENEL che andai a guardare sia prima che dopo per avere altra conferma, era bloccato e sfarfallava a caso. Mettemmo sotto il mio generatore elettrico da 3 kW di potenza,  a benzina; funzionò bene per soli 15 minuti ma poi cominciò a perdere colpi. Ora i raggi gamma possono fare quelli effetti, la probabilità di tutte quelle rotture insieme è molto scarsa.

6° Autosostentamento finale per almeno 15 minuti Il bello però arrivò alla fine delle cinque ore. Staccammo tutto per chiudere l’esperimento, era attaccato solo il computer portatile a batteria autonoma, il tubo di uscita dell’E-Cat era lasciato scaricare in aria, non si vedeva vapore uscire. Prudentemente misi la mano molto lontana dal tubo di uscita per verificare… Sorpresa c’era vapore secco trasparentissimo che usciva a 110°! Presi una bruciatura e ritirai la mano. Come era possibile! La quantità di calore sottratta per evaporazione raffredda rapidissimamente e la temperatura dovrebbe scendere a vista d’occhio. Invece per almeno 15 minuti usciva vapore secco e la temperatura rimaneva a 110° quando non saliva addirittura. Per chi se ne intende è come vedere un asino volare. Incredibile! Cosa poteva esserci all’interno per fornire tutta quell’energia? In seguito l’E-cat  fu aperto e smontato, si costatò che dentro non c’era nulla di più di quello che Rossi aveva sempre detto.

Focardi aveva fatto la stessa prova immergendo un E-Cat in un secchio rosso pieno d’acqua (ci sono le foto) e ha misurato energia in ingresso ed energia di calore in uscita, trovando COP notevoli. Focardi disse con quel metodo, per quanto rozza sia la prova è impossibile sbagliarsi! E’ così, e qualsiasi fisico degno di questo nome ve lo può confermare. Ma i denigratori scrivono che Focardi era vecchio (ma non era ancora malato in quelle prove).

La diffidenza sui vari test fatti da Rossi è una costante,  così si legge che molti verificatori di terze parti nella prova di Lugano sarebbero in realtà amici di Rossi, e che  altri avrebbero taroccato perché pagati… è sempre la stessa cosa, anche se mostrassi le foto dei test che abbiamo fatto noi, si troverebbe una scusa per dire che sono taroccate.  Insomma è tutta fuffa e siamo  tutti allocchi ingannati dal mago A. Rossi.

Per quanto mi riguarda, la verifica che potemmo eseguire sull’E-cat cambiò tutto; i miei dubbi sparirono e diventai un “credente” non per fede ma per verifica sul campo. Il mistero però si infittiva, c’era qualcosa non quadrava. Per cominciare  non c’era controllo del fenomeno, l’innesco era aleatorio e rendeva  il generatore inutilizzabile a livello pratico. Non si può vendere una caldaia che a volte va a volte non va. Rossi lo sapeva bene e non la raccontava giusta. Lo giustificai tenendo conto che aveva bisogno di finanziamenti da privati, se avesse cercato di cooperare con una università gli avrebbero dato disponibilità solo se avesse procurato  i finanziamenti. Insomma la ricerca aveva un costo e servivano soldi.

La parola chiave era “RIPETIBILITA’”. Provai  a riascoltare gran parte delle dichiarazioni di Rossi, con sorpresa, scoprii che la parola ripetibilità non era mai pronunciata. Lasciava intuire che ci fosse ma non lo diceva. Il fenomeno comunque c’era e veramente era gigantesco a livello di kJoule, se solo ci fosse stata la ripetibilità, tutto  sarebbe decollato alla grande. Ma non c’era, ecco spiegato il comportamento.

Mi chiedevo cosa stesse facendo Rossi per rimediare alla non ripetibilità, Il tecnico mi aveva raccontato delle polveri che Rossi mescolava, mi disse che la maggior parte delle prove era fatta in modo approssimativo non stechiometrico. Cercava di capire se il fenomeno aumentava o diminuiva. Da quello che emerse le variazioni erano poche, usare Deuterio al posto di Idrogeno, aggiungere idruri di ferro, rame…, o altri microelementi davano variazioni modeste.

Nelle ultime prove da Stoccolma in poi Rossi aveva aggiunto un apparato elettronico che emanava un segnale radio di frequenza opportuna. Rossi asseriva che “favoriva” il fenomeno, io dedussi: “diventava più ripetibile”.

Il tecnico era completamente all’oscuro di quella cosa, lui era un perito meccanico, costruiva gli E-Cat, li testava, ma nulla sapeva della parte elettronica. Nel frattempo Rossi era approdato in USA e aveva trovato una ditta a cui fornire 1 MW di potenza per un anno. Le cose non  andarono come sperato,  c’erano continue interruzioni. Più tardi Rossi raccontò che passava intere notti nel container col lo stetoscopio. “Uno stetoscopio?” ma che se ne faceva. Rossi ammise  che fu un periodo molto difficile, e lo fu di certo, perché alla fine la ditta non fu per niente soddisfatta, confutò i dati forniti da Rossi che aveva garantito COP 6 e lo citò perfino in giudizio. Si arrivò al processo, e il tutto finì con un patteggiamento, la proprietà del brevetto sarebbe rimasta a Rossi ma la ditta non avrebbe corrisposto i milioni di dollari pattuiti. Comunque per il lavoro svolto e il raggiungimento della fornitura di calore pur fatta in modo discutibile Rossi ricevette alcuni milioni di dollari e poté proseguire nelle sue ricerche.

Sulla vicenda si scatenarono le polemiche, ci sono versioni contrastanti del processo, ma nei racconti in rete a mio avviso ci sono esagerazioni e falsità che non concordano con altre versioni. Sicuramente Rossi rischiò molto grosso, non aveva portato tutto  ciò che paventava. Chi legge questo articolo:


 senza aver avuto come me, esperienze sul campo non può che pensare  che il personaggio Rossi sia discutibile, e probabilmente  un truffatore.

Mi è capitato altre volte di essere chiamato a vedere e valutare  apparati Free Energy, per accertarne la validità, ho conosciuto così molti individui più o meno in buona fede; devo dire che Rossi è infinitamente diverso, si impegna personalmente, cerca di dimostrare le use ragioni , tiene un blog di relazione con il pubblico e risponde a molte domande. Come cultura a parte alcune sviste commesse sulle  unità di misura tipo kW a posto di kWh  (errori comuni che si possono commettere nella fretta) Rossi dimostra una notevole conoscenza negli argomenti tecnici che tratta, con agganci esterni che esprimono cultura e ricerca. Certo questo è solo il mio parere,  ripeto che egli non corrisponde al modello di truffatori che operano nel campo della free energy e che mi è capitato di incontrare.

Sicuramente nella sua carriera non ha sempre detto la verità:  esagerato, depistato, fuorviato. Sicuramente non era in una posizione comoda, con tutto il mondo accademico contro, con una tecnologia senza una teoria solida, con dei generatori che funzionavano a fasi alterne, con idee da difendere dalla competizione  e dovendo pure  autofinanziarsi e procurarsi i soldi della ricerca, ha dovuto anche lui arrangiarsi.

La faccenda del processo fu esaustiva: il prodotto E-Cat non aveva caratteristiche atte alla vendita industriale. Questo concordava esattamente con quanto avevo visto nella prova fatta sull’E-Cat. Il fenomeno c’era  ma era ben  lungi da essere vendibile.

Il punto vero di svolta si ebbe successivamente quando Rossi presentò un apparato che differiva moltissimo dal vecchio E-Cat si trattava dell’E-cat Qx che fu presentato il 24 Novembre 2017 a Stoccolma.

Il filmato completo è visibile qui :

Un piccolo tubo di vetro di alcuni centimetri di lunghezza e circa un cm di diametro, contenente presumibilmente un pò  di idruri di Nichel e Litio ha alle sue estremità due elettrodi a cui viene applicato un brevissimo ma intensissimo impulso (impulso Tesla) che produce un lampo di luce innescando una corrente plasmatica di scarica. Questa corrente viene mantenuta attiva per alcuni secondi fornendo un’onda elettromagnetica di pochi volt di frequenza intorno ai 100 kHz.

Non è stato fornito il dato sulla condizione iniziale si sa solo che all’inizio la resistenza elettrica tra i due capi è infinita, cioè è un circuito aperto, poi la scarica impulsiva accende un plasma esattamente come nelle scariche delle lampade al Neon;  a questo punto interviene una conduttività, ma si dice, senza resistenza, questa conduttività viene aiutata e mantenuta nel tempo da un’opportuna onda elettromagnetica da 100KHz circa, fornita per 4 secondi. Poi si spegne il tutto per far ritornare la situazione allo stato di equilibrio di partenza e si mantiene tutto  spento per altri 4 secondi.

Quando ho visto come veniva pilotato  il sistema  mi è stato subito chiaro ed ho capito cosa cercava di fare.  Gli ultimi sostenitori di Rossi, che non avevano  ancora perso la speranza  nella bontà della scoperta non capirono molto di quella sperimentazione e  bocciarono la prova come inutile, mentre per me  era una conferma  preziosa, avevo intuito giusto, e ne ho scritto in questo articolo:


Si stava ritornando  da dove si era  partiti:  Tesla! L’impulso Tesla applicato al plasma, destabilizza le leggi della fisica classica, esattamente come rilevato dal grande Tesla alla fine del 1800.  In qualche modo Rossi era riuscito a sfruttare questa destabilizzazione.

Nella dimostrazione di Stoccolma Rossi pronunciò finalmente la parolina magica: “ripetibilità”. Nella relazione del 31 gennaio 2019 sull’E-Cat SK parlò molto più a fondo  di ripetibilità. In quel caso non potendo valutare  la percentuale di ripetibilità, dato che non vi erano istituti  o  operatori esterni  che avessero potuto duplicare l’esperimento, andò a prendere il linguaggi della fisica nucleare e parlò di “sigma 4”

Normalmente si dà la probabilità di un evento in percentuale, più recentemente per descrivere il grado di certezza della scoperta, i ricercatori  hanno iniziato a parlare di  “1 sigma ”, “2 sigma ”, … “5 sigma”. Ma che

cosa significa “ 5 sigma”?

Non è la probabilità che l’evento esista o non esista, ma piuttosto la probabilità di ottenere i dati simili a quelli presentati, rifacendo lo stesso percorso di prove.

“La ragione per cui il termine è tanto fastidioso è che le persone vogliono sentire affermazioni perentorie, come per esempio: ‘La probabilità che esista l’Higgs è del 99,9 per cento.

Questa lettera greca viene utilizzata per rappresentare la deviazione standard, che fornisce una misura di quanto si allarga la distribuzione dei dati intorno a un valore medio. Nel caso della fisica delle particelle, la sigma utilizzata è la deviazione standard che deriva da una’ distribuzione normale dei dati, nota familiarmente come curva a campana (gaussiana). In una distribuzione normale si ha praticamente che il 68% delle misurazioni differisce dalla media meno della deviazione standard che è di 95%.

Finalmente! Si cominciava a mettere dei punti fermi: si asseriva che c’era alta ripetibilità. 

Il 31 gennaio del 2019 Rossi sbalordisce tutti con una variante del Qx chiamata SK. Il prodotto presentato è basato sempre su un plasma come il Qx ma è incredibile si direbbe quasi un auto-sostentamento, infatti una volta innescato il plasma basta una piccola onda elettromagnetica per tenerlo acceso ,si tratta ti erogare una potenza piccolissima minore di un milliWatt. Si accende o spegne a volontà. Se si trascura l’energia per raffreddamento il suo rendimento balza a livelli di migliaia di COP. A regime, una potenza di 1 milliWatt in ingresso si produce 22.000 Watt di potenza in uscita.

La cosa è così sbalorditiva che non può essere un inganno, se un truffatore vuole ingannare, darebbe sicuramente valori credibili, accettabili dal buon senso.  La novità del  SK è data inoltre da un plasma espanso, Rossi chiama questo doppio globo di plasma  con il termine “la ballerina”.

Quando la mostrò mi vennero automaticamente alla memoria i lavori dell’Ing. LaPoint che nel 2015 mostrò una serie di tre filmati su YouTube riguardanti il trattamento di un plasma con particolari campi magnetici.

Con un gruppo di magneti ad imbuto, LaPoint crea un a zona sferica in cui all’interno i campi magnetici sono quasi inesistenti, la sfera viene contenuta da campi magnetici che la circondano e che formano una specie di contenitore con dentro il plasma.

 LaPoint suggerisce che nelle particelle elementari il confinamento sia di questo tipo. In altre parole l’energia di una particella come l’elettrone non si autoconfina in una sfera come fa la materia con la gravità, NON c’è un equivalente di una forza gravitazionale interna che aggrega, ma si tratta di un’energia in forma plasmatica che rimane intrappolata all’interno di un vuoto senza campi magnetici;  è come se odiasse i campi magnetici e preferisse le zone dove non ci sono. Il campo magnetico che la circonda finisce con imprigionarla, ma per repulsione,  è una prigione volontaria. Il plasma preferisce  rimanere in quel posto piuttosto di entrare in balia dei ventosi campi magnetici che lo obbligano al loro volere e lo privano della libertà.

LaPoint nei suoi meravigliosi filmati fa vedere come si muove; è probabile che in quella sfera le particella ruotino formando strati di differente consistenza, questi strati finiscono per avere tra di loro una sorta di “attrito”. Si può ipotizzare che in quello stato le particelle siano molto meno coese e si sgretolino interagendo in una sorta di “sfregamento”, liberando energia sotto forma di radiazione.

Siamo in una zona in cui le leggi della fisica  che  conosciamo non sono sufficienti per comprendere quello che succede, siamo come la navicella Enterprise  in viaggio all’esplorazione di nuovi mondi… e di nuovi paradigmi.

Dopo quei filmati LaPoint sembra essere stato “fagocitato” dalla scienza ufficiale, non ne abbiamo più notizie e forse  è stato tutto rilevato dai militari ed è  diventa segreto di stato…

Tornando a Rossi in sue dichiarazioni egli  afferma di aver sottoposto il plasma del Qx a campi magnetici di vario tipo, fino  a trovare la configurazione più redditizia, che era  formata da due sfere plasmatiche leggermente oscillanti, la figura risultante fu chiamata: “la ballerina”.

Penso che anche per Rossi la  cosa sia stata una sorpresa. Il suo atteggiamento ora è cambiato nell’ultima dimostrazione del 31 gennaio 2019 ha curato pochissimo l’evento. E’  un atteggiamento classico di chi si sente sicuro di avere in mano un prodotto vendibile, così vendibile che non necessita di troppa pubblicità.

Il suo modello di business  è cambiato. Ora non pone più l’attenzione sul generatore, ma si limita a proporre la vendita del calore, assumendosi oneri e onori della gestione dell’impianto.  A questo punto, dato che il cliente paga il calore ricevuto, non ci sono discussioni,  Rossi deve essere in grado di ottenere quello che promette. Infatti  con il tipo di contratto offerto da rossi  Il cliente collega in parallelo la caldaia SK e  se questa avesse un malfunzionamento, un relè farebbe ripartire la caldaia tradizionale. Si paga solo dopo aver ricevuto il calore. Rossi invita a tenere un diario per l’ufficialità.

Con questo tipo di tecnologia potrebbe vendere calore a prezzi enormemente più bassi, ma si limita a un 20% di diminuzione per non turbare il mercato.

Rimane da spiegare come funzionava ‘E-Cat di prima maniera. Semplice! Si formavano micro-plasmi, l’Impulso unidirezionale intenso, casualmente formava  localmente delle piccole sfere di plasma che tendevano ad autosostenersi in una sorta di desiderio di  sopravvivenza.

In Alchimia è proprio interpretato così, tutto ha una sua vita, ciò che sta in alto sta anche in basso. La vita ha gradazioni differenti, tempi differenti, interazioni differenti.

La formazione di micro-plasmi è:

1) Favorita da intensi impulsi destabilizzatori.

2) Favorita dal modo di essere della materia, la polvere fine è migliore dello stato solido che ha una  cristallizzazione rigida.

3) Favorita dal calore entro certi parametri.

4) Poiché lo stato della materia plasmatico è molto più sensibile e plasmabile che non lo stato solido liquido e gassoso, la presenza di osservatori particolarmente  determinati  ha interazione con questi elementi particolarmente “plasmabili” e può  favorire  il fenomeno. Quindi la probabilità che esso si presenti diventa  più alta se l‘operatore si pone con una certa attenzione o con un atteggiamento volitivo. (Questa parte naturalmente è legata alla sfera dell’alchimia, ma come abbiamo visto la quantistica  ci porta verso questo tipo di visione )  

5) A mio personale avviso:  se  non si usano impulsi intensi il fenomeno è così raro da non essere visibile, questo spiega la non ripetibilità. Pur usando impulsi intensi il fenomeno non è così frequente, ma la giusta configurazione e la   presenza di  individui “testardi” e determinati  può favorire  il fenomeno  che ha quindi più probabilità di essere notato. Rossi senza esserne cosciente fa parte degli individui di questo tipo.

6) Quando il fenomeno si innesca, è trascinante, in Alchimia si dice: “il simile attira il simile”.   Rossi  diceva che  “il gatto  insegue il topo”, intendendo con questo che se riusciva a mettere in moto con certezza un piccolo topolino era come  accendere un piccolo cerino che dava fuoco alle polveri circostanti. Quando poi esse si accendevano a loro volta tenevano in movimento il topo…

7) Quando si innescava il fenomeno le polveri emettevano uno strano sfrigolio, questo rumore si poteva sentire con lo stetoscopio. Ecco perché Rossi dichiarò di aver passato notti intere con lo stetoscopio a testare gli E-Cat che non funzionavano. Gli E-Cat non redditizi semplicemente non “friggevano”.

Ci sono molte possibilità che si aprono per il il futuro per poter sfruttare questo fenomeno per   la produzione diretta di energia elettrica, per esempio si potrebbe circondare il piccolo sole  detto “la ballerina” con celle fotovoltaiche, magari modificate per quelle precise frequenze di emissione.

Si dovrebbe ottenere facilmente 4 kW elettrici in corrente continua, il resto sarebbe calore da smaltire.

Tesla e altri ricercatori hanno rilevato che legato a questo tipo di fenomeni  possono verificarsi  fenomeni gravitazionali. Esiste uno strano effetto poco ripetibile detto effetto Hutchison : è un’insieme di fenomeni gravitazionali e altro scoperti casualmente da John Hutchison durante i tentativi di studiare le onde longitudinali di Tesla nel 1979 con intensi impulsi Tesla. Egli usava almeno due impulsatori di Tesla abbinati ad onde elettromagnetiche.

È possibile che un domani  la scoperta di Rossi ci porterà all’antigravità. Essa  dovrebbe essere rilevata quando differenti sfere plasmatiche tipo “la ballerina” interagiscono scambiandosi energia o materia. Parte della teoria è stata descritta da Kenneth Shouders, che studiò i microplasmi dati dalle comuni scintille.

Urbani Camillo

Strani reperti archeologici

fonte: theecology

Nel corso della storia dell’umanità, gli archeologi hanno recuperato molti manufatti dalle viscere della terra. Insieme a vasi e frecce antiche, hanno trovato oggetti misteriosi che rompono la logica e provocano accesi dibattiti tra uomini di cultura. Comprendere lo scopo di questi oggetti è molto difficile, e ancora di più, capire da chi e per cosa sono stati creati. Ecco una selezione dei reperti archeologici più incredibili e inspiegabili.

Il contenuto

Dodecaedri romani

Questi oggetti in bronzo con un diametro da 3 a 11 cm appartengono al II-III secolo d.C. e. Certamente il loro scopo non è stabilito. Usi previsti: telemetro, dado, candelabro, rilegatura a guanti.

Sfere ondulate

Quando si sviluppavano miniere in Sud Africa, sono state trovate sfere misteriose con un diametro di 2,54 cm, alcune delle quali erano piene di sostanza spugnosa. L’età degli artefatti è di 2,8 miliardi di anni. Tre linee parallele sono disegnate sulle sfere lungo l’asse.

Impronta antica

Nel 1987, nel New Mexico fu trovata un’impronta fossile, anatomicamente simile a quella degli uomini moderni. L’artefatto si è congelato in pietra circa 290 milioni di anni fa, quando ancora non c’erano persone sulla Terra. Non lontano dal manufatto furono trovate tracce fossilizzate di uccelli e animali.

Meredith Stone

Nel 1872, negli Stati Uniti (New Hampshire), durante gli scavi, fu scoperto un antico uovo di pietra alto 10 cm, decorato con incisioni. Rimane un mistero come gli antichi possano aver lavorato la pietra così facilmente. Alcuni scienziati sostengono che fu fatto nel XIX secolo, ma allora non è chiaro come si trovasse così in profondità.

Coni d’oro

In Europa sono stati trovati quattro coni d’oro che raffigurano esatti cicli solari e lunari. L’età del manufatto più antico è di 3.300 anni. Cosa rappresentassero questi coni non si sa. Alcune supposizioni sono: copricapo da sacerdote, ciotola rituale, elemento di uniformi militari, arredamento.

Disco genetico

Questo disco del peso di 2 kg mostra tutte le fasi dello sviluppo intrauterino di una persona. L’artefatto è fatto di materiale ultraresistente, ma stratificato. con tecnologia moderna è impossibile fare qualcosa del genere. Che tecnologia usavano gli antichi per elaborare il minerale in questo modo?

Palle di pietra

In Costa Rica, sull’isola di Champ e in alcuni altri angoli del mondo, sono state scoperte antiche sfere di pietra con un raggio di alcuni centimetri a 1,5 metri. Gli scienziati stanno ancora discutendo sulla loro origine.

Figure d’oro incas

In Sud America, trovarono antiche figure dorate che sembrano raffigurare aerei. Gli aeromodelli, costruiti a loro immagine e somiglianza, hanno un’aerodinamica eccellente. Come facevano gli antichi a sapere dell’esistenza degli aeroplani?

Le copie ingrandite di figure d’oro hanno eccellenti proprietà aerodinamiche.

Manoscritto di Voynich

Il manoscritto Voynich è scritto in una lingua unica, a differenza di qualsiasi altra lingua del mondo. Questo sistema alfabetico non è ancora stato decodificato.

Disco galattico

Il Museo Raphael Larco Herero in Perù custodisce un antico disco che sembra rappresentare la struttura della nostra galassia.  Vi è in particolare indicato un punto che corrisponde alla posizione del nostro sole rispetto al centro della galassia. Dove sapevano gli antichi indiani, se nell’antichità non c’erano i telescopi?

Antichi bulloni

E’ possibile che ancor prima che i dinosauri apparissero sulla Terra, venisse usata una tecnica che usava i bulloni e le bobine di induzione? Ciò sembrerebbe evidenziato da reperti trovati in Russia. La loro età è di 280 milioni di anni. Questi bulloni sono apparsi sulla Terra prima degli umani.

UFO e alieni

artefatti raffiguranti umanoidi e UFO.

Presta attenzione alla forma dell’UFO: è la stessa della foto precedente.

Gli scienziati devono ancora fare molte scoperte scioccanti, perché alcuni reperti archeologici negano fondamentalmente la teoria dell’evoluzione di Charles Darwin e sostengono che la vita intelligente sulla Terra esisteva molto prima dell’attuale generazione di persone.

Skystone, Nomoli e La Dama del Mali.

fonte: skystone Pitoni

Vi sono nella storia moderna degli esploratori che hanno scoperto cose sensazionali, ma che poi spesso vengono dimenticati poiché ci si ricorda solo delle loro scoperte. Vi sono ancora altri casi di esploratori come Angelo Pitoni che hanno scoperto cose sensazionali e ci si dimentica sia di loro che delle loro scoperte perchè troppo scomode e inspiegabili.

È senza dubbio il caso del professor Angelo Pitoni, un esploratore che ha scoperto oggetti che teoricamente non dovrebbero esistere, e proprio per questo motivo non se ne parla , nonostante tali scoperte si possono sia vedere che toccare.

Il professor Angelo Pitoni è una persona fuori dal comune, e descrivere la sua vita è davvero un impresa titanic, è una via di mezzo tra Indiana Jones e l’agente 007.

Qualcuno l’ha conosciuto sulla frontiera afghana mentre insegnava ai mujahiddin a costruire bombe a tempo. E magari ci ha vissuto assieme qualche avventura bella da raccontare. La storia di Angelo Pitoni da Rieti, geologo per la Fao, botanico e agronomo dilettante, scopritore di miniere di smeraldi, esperto di lapislazuli non è di quelle comuni. Anche perché molto prima di essere geologo Pitoni è stato medaglia d’oro della resistenza, commando delle Special Forces inglesi e dell’Oss americano (l’antenato dlla Cia), amico di don Zeno Saltini, il fondatore di Nomadelfia, decorato con la Silver Star americana, agente segreto a 20 anni, eroe a 21, esploratore e avventuriero nelle giungle amazzoniche a 23, gran seduttore e scopritore di una città maya. Insomma, nella sua vita c’è materiale sufficiente per farne almeno quattro o cinque.

Il bello è che una vita come la sua Pitoni ha trovato anche il tempo di sposarsi un po’di volte, mettere al mondo un discreto numero di figli e di scrivere un libro eccezionale sugli anni della guerra civile, Gioventù senza scelta, che meriterebbe un editore e tanti lettori.

A Pitoni tra le montagne afghane capitava spesso di discorrere di antiche civiltà, quasi un modo di esorcizzare le imboscate degli spetsnatz (le truppe speciali sovietiche) e dimenticare un attimo le vicende di quello sfortunato paese. E l’eco di quelle discussioni deve essergli germogliato dentro di lui, proprio in questi ultimi anni, gli è capitata la storia forse più appassionante della sua vita avventurosa.

Una storia di civiltà scomparse, di leggende e di strane magie che è meglio lasciar raccontare direttamente a lui. «Nel 1990 ero in Sierra Leone, incaricato di valutare la consistenza di alcuni giacimenti di diamanti. Il problema era che gli indigeni che li scavavano non volevano nessun altro tra i piedi. Grazie a un collega, un nero americano che lavora lì, riesco a fare amicizia con alcuni capotribù e alla fine mi danno il permesso di fare qualche saggio, delle prospezioni. Sono lì che sto esaminando uno strato quando uno di loro mi fa: ”Ho capito cosa cerchi, tu cerchi gli angeli caduti”. E mi racconta che una antica civiltà di angeli si era talmente pervertita che Allah li aveva fatti precipitare sulla Terra, loro, il cielo e le stelle. Le stelle sono i diamanti. E il cielo? E quello mi porta a vedere un mucchio di roccia che affiora. Roba che pulita rivela di essere di un bell’azzurro cielo. Sul momento penso che si tratti di turchese. Comunque ne prelevo dei campioni per farli esaminare una volta tornato a casa».


Pitoni non si rende nemmeno conto che il capotribù gli ha raccontato una specie di versione africana del misterioso Libro di Enoch, quello che gli interessa è la pietra azzurra. E ha ragione. Ci mostra una serie di analisi: «I laboratori dell’università di Ginevra, quello di Roma, quello di Utrecht, quello di Tokyo, di Freiberg affermano tutti la stessa cosa: la pietra azzurra ”non esiste”. O perlomeno non esiste in natura. La sua composizione: oltre il 77% di ossigeno, poi carbonio, silicio, calcio, sodio… fa pensare a un prodotto sintetico, una specie di intonaco.

Interessante è stato constatare che quando un piccolo pezzo di pietra è stato polverizzato ed osservato al microscopio, la polvere si presentava fibrosa, a cristalli bianchi, ed era inspiegabilmente priva di qualunque colore blu-azzurro che scompare inspiegabilmente.

Quanto alla datazione, si ritiene che il composto organico presente nella pietra del cielo, sia compresa tra 15.000 e 55.000 anni.

La prima domanda conseguente è: come può l’ossigeno costituire una pietra? Ed il mistero si infittisce ancor di più se si considera che il colore della pietra non è giustificato dalla composizione chimico-organica della stessa. Perciò furono eseguiti ulteriori cinque diversi tipi di test: analisi a raggi X, spettrometria al plasma, gas cromatografia, spettrometria di massa ed infine spettrometria infrarossa, ma nessuno di questi hanno prodotto risultati a spiegazione delle caratteristiche della skystone lasciando i ricercatori senza risposte.

All’Università di Utrecht, Paesi bassi, la pietra subì altri diversi test con acidi ma nessuno di essi riuscì a danneggiarla o modificarla. E’ stata poi sottoposta a riscaldamento fino ad una temperatura di 3.000 gradi Celsius e ciò nonostante la sua composizione non si è affatto alterata. Fino ad oggi l’unica cosa che i ricercatori sanno è che non è stata creata dalla natura, e non sembra aver avuto origine sulla Terra

Salta fuori che qualcosa di simile è stato trovato anche in un mercato del Marocco (secondo me viene sempre dalla Sierra Leone) e analizzato a Londra ha dato gli stessi risultati, il ”Corriere della Sera” parlò addirittura di una specie di pericolosa kryptonite, proveniente dallo spazio. Roba da Superman. In ogni caso quando sono tornato in Africa ho prelevato altra pietra, non è difficile, si trova in strati abbastanza superficiali. La cosa curiosa è che la Skystone, l’ho chiamata così, pietra del cielo, sembra provochi strani fenomeni. Tutti quelli a cui l’ho data mi dicono che se la porti addosso dà effetti benefici: via l’ansia, via i reumatismi, intuizioni felici… Io ci credo poco, penso che la Skystone possa favorire una specie di effetto psicologico, un placebo. In ogni caso io mi annoto tutto e chiedo sempre testimonianze scritte ai ”miracolati”, hai visto mai…». «Ma torniamo in Africa. Dopo il ritrovamento della pietra azzurra ”il cielo”, chiesi al mio amico capotribù se nella stessa zona, la provincia orientale di Kono, per caso non avessero trovato anche gli angeli caduti. Come no? E mi fanno vedere una statuetta di un tizio piuttosto brutto, dal volto insolito. Mi dicono che li chiamano Nomoli e che ”sanno” che è meglio lasciarli in pace.

E ogni volta che scavando per cercare i diamanti ne trovano una smettono immediatamente. Io spargo la voce che c’è un premio per chi mi segnala i Nomoli, e un premio doppio se mi chiamano quando ne trovano uno ancora da scavare. Così riesco ad arrivare sul posto dove gli indigeni hanno appena individuato una statua.

Si tratta adesso di stabilire la stratigrafia e di datarla per riuscire a capire pressappoco l’età di queste sculture. Per fortuna in uno dei primi strati salta fuori un bel bastone lavorato, mentre sei strati più sotto, con ben evidenti le ricorrenze idriche, ecco un Nomolo di notevole fattura. Finalmente ho in mano qualcosa che che mi permetterà una datazione.

A Roma faccio esaminare il bastone al dottor Gioli Guidi dell’Enea, che mi manda dal professor Giorgio Belluomini della ”Sapienza”. Dopo un po’ Belluomini mi chiama e mi fa: ”Quanto crede che sia antico questo bastone?”. Che so, 500 anni… ”Guardi, ho fatto tre esami e non ci sono dubbi, il bastone ha più o meno 2.500 anni”. Se lo strato del bastone corrisponde a 2.500 anni orsono, sei strati più sotto siamo al 12.500 avanti Cristo. Già 2.500 anni per l’Africa sono un’enormità. Ma il 12.500 dà le vertigini». Anche perché tra pietre azzurre e statue strane alla fine vieni sempre a cascare su epoche lontaissime e conoscenze ”impossibili”.

Pitoni ha scoperto che statue simili a quelle trovate da lui esistono al British Museum di Londra e al Musèe de l’Homme di Parigi. In entrambi i casi i curatori gli hanno spiegato che le statue non corrispondono a nessuna civiltà africana conosciuta («E’tte credo», sorride Pitoni) e sono lì da inizio secolo, un po’ trascurate. Ma il cammino di Angelo Pitoni pare seguire una specie di via preordinata, cui è difficile sottrarsi (effetto della Skystone?). Sempre per motivi di lavoro si sposta in Guinea Conakry, ai confini col Senegal e si imbatte (ma il sospetto è che stesse aspettando proprio lui) in un’altra leggenda, quella della malvagia donna pietrificata del Mali (nulla a che vedere con la nazione omonima).

Pitoni ”sente” che deve andare a vederla, anche perché gli raccontano che è gigantesca, una montagna. Tanto fa che convince il dottor Moussa Kourouma, archeolgo e direttore del Museo Nazionale della Guinea a partire con lui. «Due giorni di viaggio ed eccoci al villaggio Mali. Ci ricevono con onori e ci danno una guida: altri 5-6 km a piedi ed eccoci sotto la Donna del Mali, una scultura gigantesca, una montagna scolpita. Il volto è alto almeno 25 metri, nell’insieme tocca i 150.

Qualcuno ha scritto che è frutto di erosione eolica. Tutta una serie di cose me la fa escludere. Certo che anche lì…». Pitoni si ferma e poi prosegue con l’aria di chi sa che desterà altri dubbi: «La scultura fa parte di una emersione di granito, divisa in due da una faglia intermedia, con un bradisismo che eleva la parete dove è la Dama e provoca l’abbassamento della parete opposta. Ora un bradisismo lento come quello che ho osservato si può muovere al massimo di un centimetro l’anno. E lì c’è un’elevazione di 200 metri, che divisi per un centimetro fanno 20 mila anni. Ho buone regioni di credere che la statua esistesse già quando il bradisismo non si era ancora manifestato. Domanda: chi poteva scolpire una statua alta 150 metri nel granito, magari 20 mila anni fa?». Quindi? Quindi Pitoni è ora tra quelli che credono all’esistenza di una civiltà antichissima, madre di tutte le altre, anche perché dalla stessa zona gli sono arrivati altri indizi che sta valutando.

La Dama del Mali

I tratti somatici della figura femminile sono decisamente indoeuropei, ed in particolare colpisce l’espressione regale ed imponente, che ben si accosta con la specie di corona sulla testa e con il vestito simile ad una tunica regale.

È inoltre d’obbligo sottolineare la perfetta modellazione della testa e del dorso, nonché il loro pressoché ottimo stato di conservazione. Questa scultura fu già scoperta da alcuni studiosi, che incredibilmente la ritennero l’effetto di una erosione eolica, e questo è sicuramente il mistero più grande dato che anche un bambino capirebbe che si tratta di una raffinata scultura umana, senza contare che analisi hanno dimostrano l’inesistenza di fattori che potrebbero aver causato un’ erosione eolica. La scultura è stata studiata anche dal dottor Moussa Courouma, archeologo e direttore del Museo Nazionale della Guinea.

La “Dama del Mali” si trova su una parete di roccia alta ed uniforme sopra un baratro vertiginoso ed è meglio conservata sul lato ovest poiché esso è più protetto dalle intemperie rispetto al lato est.

La testa è alta circa 25 metri, mentre l’intera scultura è alta circa 150 metri, e sotto di essa la roccia continua a picco per altri 200 metri, tenendo presente che l’intero monte su cui è posta è alto 1500 metri. Il volto guarda verso sud-sud est, rivolto però leggermente in basso verso la grande valle circostante, e stranamente l’intera scultura è di colore diverso dalla formazione geologica di cui fa parte.

La roccia sulla quale è scolpita la “Dama del Mali” è un’emersione di granito con una faglia intermedia che la divide in due con un bradisismo che spinge verso l’alto la parete dove è la scultura e spinge verso il basso la parte opposta. L’effetto di scorrimento causato dal bradisismo è di qualche centinaia di metri, per cui la parte di roccia che contiene la “Dama del Mali” risulta molto più in alto del resto del monte. Di conseguenza l’opera fu scolpita prima dell’inizio del bradisismo e quindi molto più in basso della posizione attuale.

In breve, Pitoni ha dichiarato che, in base ad analisi sul tipo di bradisismo, l’età minima della scultura è di 20.000 anni.

A causa del sua aspetto regale e di quella che sembra una corona, tale scultura sembra rappresentare una regina non identificabile poiché non riconducibile a nessuna nozione posseduta dall’uomo moderno, dato che teoricamente quando fu scolpita la “Dama del Mali” non esistevano ufficialmente civiltà tanto progredite da poter compiere un opera simile. La stessa cosa vale per la strana roccia Skystone che ancor oggi non si riesce a capire come sia stata prodotta.

Analizzando la struttura geografica in cui è posta, si ha l’idea che tale scultura sia stata realizzata in epoche remotissime quando delle acque arrivavano nei pressi del monte dove vi è la “Dama del Mali”, dato che sembra essere scolpita appositamente su una specie di scogliera affinché guardasse verso una distesa d’acqua, probabilmente l’oceano o un grande lago.

Inoltre la “Dama del Mali” sembra essere logicamente collegata alla “Skystone”. Questo fa pensare ad una antica civiltà avanzata che si estendeva dalla Sierra Leone alla Guinea (ma forse anche nel Mali), risalente ad un periodo che va dai 12.500 ai 35.000 anni fa. Ciò è in realtà molto possibile, dato che ci sono reperti archeologici tangibili che fanno pensare all’esistenza di civiltà avanzate in quell’epoca in tutto il mondo, come dimostrano la molte strutture sommerse al largo della costa di Cuba e l’enorme struttura sommersa a Yonagumi (Giappone), entrambe frutto di civiltà avanzate sviluppatesi nell’ultima era glaciale, che va appunto dai 12.500 ai 35.000 anni fa.

Non è un caso che nella vicina zona del Mali si trova anche il misterioso popolo dei Dogon . Questo popolo sembra avere conoscenze astronomiche inspiegabili, che dicono derivare d antichi eroi chiamati “Nommo” provenienti dalla stella Sirio.

A questo punto è evidente l’esistenza anche in quelle zone dell’Africa di un’antichissima civiltà evoluta oramai dimenticata, forse proprio Atlantide, di cui ci rimangono ampie tracce concrete, come i resti di materiali artificiali e la gigantesca scultura scoperti da Angelo Pitoni. Di conseguenza è ovvio che una tale civiltà abbia lasciato anche altre tracce consistenti nella vasta zona in cui sembra che si sia sviluppata, ma non ci si deve stupire che non sono siano state ancora trovate, dato che la ricerca archeologica in questa zona continua ad essere nulla, se si escludono i pochi tentativi del coraggioso esploratore Angelo Pitoni.

Angelo Pitoni è purtroppo morto, pertanto spetterà ad altri svelare i misteri delle sue scoperte. Se si vuole essere scettici, si può obiettare che alla fine rimane da chiarire se la Dama del Mali sia davvero una struttura di origine artificiale o sia un incredibile scherzo della natura, ma davanti alla Skystone sembra cadere anche lo scetticismo più duro.

Influenza di microorganismi in eventi climatici estremi.

16/01/2019 By  Guglielmo Menegatti

Al centro delle gocce di pioggia e dei chicchi di grandine si trova il
Pseudomonas syringae – un batterio che ghiaccia l’acqua e la cui azione di congelamento fa condensare il vapore acqueo in nuvole, pioggia, grandine, nevischio.

  L’idea che dei microorganismi possano influenzare la formazione e l’organizzazione di nubi e siano in grado di causare eventi atmosferici e modificare il clima, può sembrare fantascientifica. In realtà si tratta di un fatto riconosciuto, comprovato e studiato dalla meteorologia; esistono svariate pubblicazioni su questo argomento, anche se l’informazione è praticamente sconosciuta al grande pubblico.

In natura esiste un microrganismo che si trova diffusamente nell’acqua, nella vegetazione ed in atmosfera, e che è in grado di modificare la struttura dell’acqua, trasformandola in neve, grandine e pioggia; il microrganismo  in questione si chiama “Pseudomonas syringae”.

    Il nome “Pseudomonas” deriva dal greco e tradotto  significa “pseudo unità”, questa denominazione è giustificata dal fatto che normalmente all’interno dello stesso involucro convivono due batteri.   Potrebbe essere proprio questa doppia conformazione che dona al batterio le sue speciali capacità .

   La teoria attualmente in auge sostiene che questi microorganismi producono una proteina dotata di un particolare pattern grafico (una specie disegnino in bassorilievo). La proteina mediante semplice contatto con l’acqua, sarebbe in grado di trasformarla senza alcun uso di energia. Questo stupefacente pattern dovrebbe fare a costo zero un cambiamento di fase dell’acqua ….    
   Per un approfondimento sulla teoria corrente che descrive la formazione di ghiaccio vedere questo link.

Nel documento si spiega come tramite il semplice contatto interfacciale tra l’acqua e la superficie del batterio, si modifichi la disposizione delle molecole dell’acqua, senza però chiarire quale sarebbe  la sorgente dell’energia necessaria per creare la disposizione stessa.

   Gli studiosi del settore  considerano come un dato di fatto che la produzione di ghiaccio, l’alterazione del PH, la variazione della concentrazione, l’alterazione della disposizione cristallina, ecc. si realizzano (come per miracolo) senza dispendio di energia per semplice contatto interfacciale.  

Il “Pseudomonas” potrebbe invece conoscere il segreto per generare biologicamente energia gratuita e pulita, che poi utilizza nella produzione di ghiaccio. Il batterio riesce così ad effettuare la trasformazione in ghiaccio ad una temperatura superiore a quella considerata normale per il congelamento.

brina creata a temperature più alte di quelle necessarie per ghiacciare l’acqua

      Nonostante il funzionamento di questo straordinario microorganismo non sia chiaro, da anni gli scienziati riescono a sfruttare la sua proteina nella tecnologia usata per creare neve e ghiaccio artificiale. 

   In questo video si può verificare l’efficacia del batterio nel produrre ghiaccio :

Per la sua capacità intrinseca di congelare, il microrganismo Pseudomonas è sottoposto ad una devitalizzazione per poi essere impiegato per la produzione della neve artificiale o altri scopi inerenti la refrigerazione:



Può sembrare incredibile, ma una gran parte della responsabilità per i recenti disastri climatici  che conosciamo (repentini cambiamenti di temperatura, nuvolosità, eventi estremi, numero eccessivo di uragani di intensità elevata, venti fortissimi etcc)  potrebbe essere dovuta all’uso indiscriminato fatto dall’uomo della proteina di Pseudomonas nella refrigerazione.

   Per avere un’idea dell’impatto ambientale, dell’energia usata e anche delle masse d’acqua che sono utilizzate negli impianti per produrre la neve artificiale consiglio la lettura di questi link.

 Vi sono parecchi studi sull’impatto ambientale dei generatori di neve artificiale, ma sembra che questo delicato argomento non abbia ancora fatto breccia nei sensibili cuori degli ambientalisti.

In questo studio in lingua francese è descritto l’impatto ambientale de generatori di neve artificiale:

Evaluation des riques sanitaires lies a l’utilization d’adjuvants pour la fabrication de la neige de culture

   In questo studio invece si pongono alcune domande sulla creazione del ghiaccio artificiale e delle sue conseguenze.:


   Pseudomonas purtroppo è anche un batterio patogeno che colpisce principalmente le piante e la sua tecnica d’attacco consiste nello sciogliere il legno del fusto per poterlo digerire;

inoltre egli agisce anche sul terreno nei pressi delle radici, ammorbidendolo e rendendolo gommoso.  Il microorganismo infatti secerne un liquido viscoso allo  scopo di creare un ambiente protetto dove crescere e moltiplicarsi;  il liquido  penetra nel terreno modificandone la struttura.

Inoltre è anche in grado di produrre un film plastico che probabilmente consente la creazione di colonie che si assemblano in modo da moltiplicare la loro capacità energetica. Qualche cosa di simile si verifica anche con un batterio che si chiama “Desulfobulbaceae“, per un approfondimento si veda il link.
   Il microrganismo vive anche in atmosfera ed è un fatto noto che egli  contribuisce alla formazione della neve, grandine e pioggia.

  la diffusione innaturale che viene fatta dall’uomo, utilizzano in larga scala questa proteina per usi “industriali”, e dei relativi batteri  devitalizzati,   favorisce anche la moltiplicazione del batterio attivo,  perché predispone alberi, terreni, acqua e atmosfera a divenire casa e nutrienti per le nuove colonie. 
   Per questa ragione il batterio si diffonde con una tale forza al punto che sono state messe a punto le avvertenze minime per evitare la propagazione epidemica, avvertenze che sono identiche alla propagazione dei comuni microrganismi endemici per l’uomo.

   Per altre informazioni sulle patologie vegetali provocate dal batterio si veda questi link:
   La sua propagazione è tanto piu pericolosa perché sfrutta anche il ciclo dell’acqua per cui sono necessarie anche altre precauzioni.
   Questo articolo, puntato dal link qui sotto, probabilmente, rappresenta il miglior lavoro sull’argomento e mostra quanto Pseudomonas sia terribile, virulento e capace di modificarsi in funzione delle sue necessità contingenti:



    In questo capitolo, si riporteranno in sintesi, alcuni indizi che portano a pensare che gli effetti sul clima e sulla vegetazione possano essere generati da Pseudomonas.
    Le prove riportate riguardano solo quegli effetti fisici che sono visibili, ricorrenti e constatabili da chiunque.
E’ importante ricordare che il batterio vive in grosse colonie ed è in grado di instaurare una forma comunicativa con gli altri batteri della colonia, al fine di perseguire uno scopo comune, legato alla preservazione e sviluppo della propria specie. Purtroppo questo intento va in contrapposizione al benessere di altre specie, in particolare della nostra. la presenza del batterio può essere legata a problemi della nostra salute, un esempio lo troverete in questo link.

   1) ALBERI

       A) Gli albero cadono con una frequenza sempre maggiore, sia nei boschi sia nelle città urbane, la causa è il terreno intorno alle radici che è reso molle dal liquido viscoso che secerne il batterio.
       I crolli di alberi attribuiti al vento non sono sempre ragionevoli perché frequentemente le aree sono delimitate da da altri alberi intatti e ciò fa che essi siano piuttosto dovuti all’epidemia che si è propagata.  Come per esempio in questo caso:

      B) I tronchi che si spezzano e si stracciano come i BaoBab africani per il loro peso o per il vento.
      La causa è la malattia provocata dal batterio che vive all’interno della vegetazione  compromettendo il cuore dell’albero senza risultare molto visibile dall’esterno, come si vede in questa immagine l’albero sembra svuotato all’interno:

      C) Incendi nei boschi, ciò è dovuto al liquido viscoso che è facilmente infiammabile, inoltre frequentemente gli alberi bruciano in modo anomalo è cioè dall’interno.     

      Premesso che il batterio quando è in condizioni normali di equilibrio (di quantità) molto probabilmente è utile e forse indispensabile per creare un clima corretto.

      Pseudomonas non è un solo batterio ma un’intera famiglia e inoltre sembra intelligente perché agisce su molti fronti contemporaneamente sfruttando la collaborazione di altri microrganismi.

      Per un approfondimento si veda il seguente link:

      Per la formazione delle piogge abbondanti si veda il documento linkato qui sotto.
      L’assolutamente straordinario comportamento di Pseudomonas fa anche pensare che impieghi reti elettriche e fulmini per favorire le mutazioni o l’amalgama di combinazioni genetiche.
      In altre parole le piogge abbondanti potrebbero essere il risultato del suo lavoro per progredire, diffondersi o creare altre specie da utilizzare come schiavi:

   3) NUVOLE

     Da alcuni anni le nuvole hanno uno strano aspetto, in alcuni casi si parla anche  di “scie chimiche” ma in realtà molti di questi casi sono effetti prodotti dalla capacità di Pseudomonas di costruire leggere reti plastiche, reti che ovviamente hanno una persistenza elevata in atmosfera e inoltre sono indipendente dal clima. 

Nuvole filamentose:

     Queste reti plastiche sono in genere confuse con quelle prodotte da alcuni ragni ma lo studio riportato sotto smentisce questa ipotesi.

     In questo link invece altre ipotesi sul fenomeno delle reti che sembra aumentare in tutto il mondo e in fondo nella stessa pagina altri link
     Nel link qui sotto un’ipotesi delle associazioni delle masse d’aria e del relativo sconvolgimento climatico ma anche dal metodo con il quale i batterio si propaga.
     Non servono calcoli complicati per prevedere che fra pochissimi anni la Terra sarà completamente colonizzata.


     I miei studi sull’argomento mi hanno portato a valutare anche altre ipotesi di Pseudomonas sia nelle sue possibili mutazioni sia nell’ingerenza rispetto al comportamento degli animali e degli esseri umani.
     Pseudomonas potrebbe essere un autentico mostro che tenta di modificare la natura a suo favore e le sue tecnologie operative unite alla sue capacità d’infezione potrebbero rappresentare un grave pericolo.
     Gli studi su questa materia sono di una complessità enorme e comunque al di sopra delle mie capacità e quindi posso solo posso solo auspicare che qualcuno valuti con attenzione e spirito scientifico quei fatti che sono sotto gli occhi di tutti e che incrementano in quantità giorno per giorno.

     Una metodologia interessante di studio e approfondito è proposta in questo link

Aggiornamenti sul Qx di Andrea Rossi

di Camillo

E’ passato un anno dalla sorprendente dimostrazione di Stoccolma e Andrea Rossi sembra aver in mano una caldaia commerciabile.


Con il Qx Rossi ha dimostrato di aver cambiato il sistema di innesco, passando all’utilizzo di intensi impulsi brevissimi (forse milioni di Volt per  microsecondo). Si tratterebbe di un impulso sovrabbondante che essendo però brevissimo non distrugge la resistenza di carico che deve comunque essere piccolissima. Poiché il primo ad utilizzare e a studiare questo tipo di impulso  è stato  Tesla, viene definito  appunto “impulso Tesla”.

Nei primi E-Cat Rossi utilizzava per l’innesco una serie di accensioni spegnimenti protratti fino a che il fenomeno si innescava. A quel tempo la sua attenzione era concentrata sulle miscele pensando soprattutto ad un fenomeno su base catalitica, poi ebbe l’intuizione di concentrarsi soprattutto sull’impulso di innesco.
L’evoluzione seguente al e-cat Qx
Con il Qx Rossi aveva ottenuto una buona ripetibilità, il suo problema era sempre stato l’innesco. A volte c’era a volte non si capiva perché non voleva accendersi.
Il fenomeno una volta innescato produceva calore, ma l’innesco ripetibile a comando … era  ancora una chimera. Il Qx ha  risolto in gran parte il problema e inoltre ha fatto vacillare la precedente teoria basata sull’adsorbimento di idrogeno nel nichel, infatti sopra i 600° Non si può parlare di reticolo cristallino del Nichel e l’e-cat Qx arrivava oltre i 1000° quindi il LERN deve trovare risposte nella sola modalità di innesco. Come rilevò Tesla con impulsi immensi le leggi della fisica vengono destabilizzate per un piccolo tempo, in questo intervallo si possono usare sotterfugi per ricavare energia.
Rossi sperava di poter utilizzare il Qx per produrre direttamente elettricità. Ma a quanto sembra di capire la reazione si è presentata troppo INSTABILE. Anche riducendo le pretese a poche decine di Watt il controllo si è dimostrato molto difficile. Alla fine ha dovuto rientrare nella semplice produzione del calore, in compenso fortunatamente questa volta sembra che l’innesco sia sistematico. D’altro canto se verrà confermata la possibilità di produrre con continuità  e a costi irrisori tutto questo calore, si potrà comunque  utilizzare  il Qx per ricavare indirettamente energia elettrica sfruttando l’abbondante produzione di calore.In un post Rossi afferma che la caldaia di ultima generazione può essere accesa o spenta a comando in qualsiasi momento, tanto da essere pilotabile da un relè per controllo della temperatura.

Secondo Rossi da un po’ di tempo stanno scaldando con questo metodo un locale da 250 metri quadri.
Alcuni diranno che Rossi aveva già detto di aver prodotto 1 MWatt di energia per un anno. Però quella dimostrazione è stata molto contestata a causa della discontinuità, in pratica Rossi ammette che dovette intervenire manualmente per settare continuamente i parametri, ci furono moltissimi inconvenienti e l’apparato si dimostrò tutt’atro che industrializzabile.

Ora sembra che ci sia controllo e ripetibilità a comando, QUESTO VUOLE L’INDUSTRIA!
Il 31 Gennaio verrà presentata una relazione autogestita da Rossi su come stanno riscaldando i 250 metri quadri. Gli invitati sono ditte interessate all’acquisto di calore.
Rossi si limita a vendere calore, mantenendo il controllo delle apparecchiature, suppongo che questo sia dovuto a due fattori: mantenere la proprietà di brevetto, ma anche la paura che ci siano sorprese negli apparati che comporterebbero penalità e rischi se gli apparecchi fossero venduti con garanzie.
In attesa di vedere i rendimenti, se accettiamo per vere le dichiarazioni di Rossi, il calore prodotto dovrebbe avere un costo almeno dimezzato rispetto al commercio attuale, MA SOPRATTUTTO IRRISORIA EMISSIONE DI GAS SERRA, il che è fondamentale.