ENERGIA E VITA






Modello metafisico
 (fonte:www.syti.net)


Questo diagramma è un modello metafisico globale per descrivere l'universo, la materia, la vita, l'evoluzione, il DNA, il cervello, l'uomo e il suo posto nella Creazione, gli stati di coscienza, i legami tra spirito e materia, il potere dell'immaginazione, la sincronicità, l'inconscio collettivo e fenomeni come l'intuizione, l'ispirazione, la telepatia, la prescienza, le reminiscenze di vite precedenti o del passato di un luogo.
Questo modello è basato in parte sulle conoscenze scientifiche attuali, e in parte su ipotesi ancora impossibili da dimostrare, o su nozioni che non rientrano nel dominio della fisica ma della metafisica.
Eppure ciò che oggi è di dominio della metafisica, sarà un giorno della fisica, poiché la scienza avrà spinto più lontano i limiti della conoscenza verso l'infinitamente piccolo, là dove si trovano le dimensioni che sottendono la materia.
Nell'attesa, questo modello metafisico deve essere considerato come un'ipotesi, alla ricerca di una sintesi tra scienza e spiritualità.


Il mondo materiale
Alla base del diagramma si trova la dimensione che noi conosciamo meglio: la materia.
È il mondo delle particelle e degli oggetti formati da queste particelle: atomi, molecole, galassie, stelle, pianeti ed esseri viventi. (Per maggiori dettagli sul mondo della materia e i suoi livelli di organizzazione, vedere la pagina sulle
dimensioni della materia)
Per comprendere le dimensioni successive, al di là della materia, è importante sapere che le particelle di materia non sono come delle biglie o dei micropianeti. Per i fisici le particelle (di cui il nostro mondo e noi siamo costituiti) sono in realtà onde ed energia o, più precisamente, quanti di energia. Ovvero dei "pacchetti di energia", o ancora, delle concentrazioni di energia nello spazio.
Bisogna anche sapere che lo spazio tra le particelle non è completamente vuoto. Il "vuoto quantistico" è un livello minimo di energia, ma è comunque energia. Delle particelle di materia nascono spontaneamente dall'energia del vuoto. Infatti, il vuoto racchiude una sorprendente quantità di energia.
Inoltre, le leggi che regolano la materia non sono le stesse ma variano a seconda che si tratti di "piccoli" oggetti come le particelle, o di grandi oggetti che popolano il nostro mondo familiare. Il mondo degli oggetti grandi è regolato dalle leggi della fisica classica e, dunque, le stesse cause producono gli stessi effetti. Se noi facciamo cadere un bicchiere per terra, il bicchiere si romperà ogni volta che ripeteremo l'esperimento.
Nel mondo delle particelle (di cui gli oggetti grandi sono tuttavia costituiti), regolato dalla fisica quantistica e in contraddizione con la logica ordinaria, le stesse cause non producono sempre gli stessi effetti.
La stessa esperienza (come una collisione tra particelle) potrà dare più risultati possibili, ma secondo una percentuale determinata e prevedibile. Detto in altre parole, in fisica quantistica, è impossibile determinare il risultato di un'esperienza, ma è possibile prevedere con grande esattezza la percentuale dei diversi risultati possibili sulla media di un gran numero di esperimenti. La distribuzione di queste probabilità dei risultati è rappresentata, in genere, da una curva che i fisici chiamano "funzione d'onda" (con i risultati possibili sull'asse delle X, e il livello di probabilità sull'asse delle Y).



La matrice energetica
I fisici sono d'accordo nel supporre che al di là della materia verso l'infinitamente piccolo, l'universo sia costituito da energia e da informazione. Oltre la materia si trova probabilmente una matrice energetica che sottende la materia e che sarebbe la sua informazione, allo stesso modo in cui il DNA è l'informazione della cellula che lo contiene.
Grazie alla teoria delle supercorde, la fisica comincia ad avvicinarsi a questo mondo. È a questo livello che si situerebbe "l'ibozoo uu", un concetto vicino alle supercorde, utilizzato dalle teorie ummite per designare i costituenti fondamentali della materia.
È anche questo il mondo descritto dalla teoria dell'universo olografico di Karl Pribram, secondo il quale la materia e i suoi "pacchetti di energia" sarebbero dei campi di interferenza (nelle zone in cui le onde si sovrappongono, le energie delle onde si sommano, come nell'immagine qui sotto). Da questo punto di vista la nostra realtà sarebbe paragonabile ad un ologramma. Un ologramma costituito non solo di luce, come gli ologrammi della tecnologia umana, ma un ologramma fatto di materia...




Gli attrattori di probabilità
Qui comincia quello che gli spiritualisti chiamano il "mondo non-manifesto". Entriamo adesso nel dominio della metafisica, e dunque, nel dominio della pura ipotesi, anche se queste ipotesi possono essere basate su delle esperienze vissute e su ciò che chiamiamo intuizione.
Al di là dei campi di interferenza, dell' "ologramma", o della "matrice energetica" del livello precedente, ci sarebbe una dimensione costituita da "attrattori di probabilità".
Questi "attrattori" sarebbero come dei campi che aumenterebbero le probabilità di sincronizzazione tra gli eventi, che si tratti di eventi quantici, biologici o umani.
A livello quantico, gli attrattori influenzerebbero direttamente la realtà determinando la "funzione d'onda".
A livello macroscopico, gli eventi sono principalmente il risultato delle leggi della fisica classica e della biologia. Ma gli attrattori eserciterebbero la loro influenza sulla probabilità di sincronizzazione degli eventi nel tempo. In un sistema complesso, l'ordine secondo il quale accadono gli eventi è determinante per il risultato finale. È il cosiddetto "effetto farfalla": un fattore infinitesimale può rivelarsi determinante se capita al momento giusto e nel posto giusto.
Inoltre, questi attrattori sarebbero capaci di favorire l'incontro tra due molecole che si uniranno per formare una molecola organica e poi una cellula, o ancora, l'incontro tra due esseri umani destinati ad incontrarsi e realizzare grandi progetti...
È dunque in questa dimensione che si trova la chiave di quelle coincidenze straordinarie, che non sono dovute al "caso", ma a ciò che lo psicoanalista Carl Gustav Jung ha chiamato la "sincronicità".
Se il cervello possedesse delle "funzioni quantiche" che lo connetterebbero a questa dimensione, sarebbe spiegata l'influenza dei nostri sogni e della nostra immaginazione sulla realtà. Grazie a questa connessione, il nostro spirito avrebbe il potere di aumentare o diminuire le probabilità degli eventi.
Questa connessione è tanto più probabile nel momento in cui le dimensioni soggiacenti la materia non si collocano in un "altrove" lontano; esse risiedono nel cuore stesso della materia che costituisce i neuroni del nostro cervello. (Vedere Deepak Chopra e la sua ipotesi del cervello quantico, e il libro del Dott. Melvin Morse, "La Connessione Divina")
Gli "attrattori di probabilità" sono generati e modulati dalle sfere che costituiscono la memoria dell'universo e delle anime. Sono influenzati dal pensiero e dalle azioni degli esseri viventi, dalle "necessità" del punto di vista della Creazione (cioè dalla riduzione dell'entropia), e dallo spirito dell'Universo che "sogna la sua Creazione".
L'universo non è onnipotente. Non ha un potere illimitato sulla materia. Dipende dalle leggi della fisica che lui stesso ha generato, e dalle leggi stabilite dai diversi livelli di organizzazione della materia: le leggi della biologia, le leggi instaurate dalle stesse creature, dalle società e dalle civiltà. Ma l'universo dispone comunque di un potere che agisce su tutti i livelli della Creazione: la sincronicità, che guida la materia e gli eventi per favorire delle feconde associazioni tra particelle, molecole, cellule, o esseri umani.
 




La memoria dell'universo e delle anime
Come la precedente, questa dimensione è immateriale. Quest'immagine è dunque puramente concettuale e non descrive degli oggetti in uno spazio, ma piuttosto delle "funzioni".
Questi due insiemi di sfere rappresentano la coscienza e la memoria dell'universo. Si potrebbe dire che funzionalmente, questo sarebbe il cervello dell'universo …
Ogni sfera è un frattale e racchiude delle altre sfere che, a loro volta, contengono delle altre sfere, ecc.
Costituite da pura coscienza e informazione, le sfere sono la memoria di tutto ciò che è stato e di tutto ciò che sarà, ma anche di tutto ciò che avrebbe potuto essere e di tutto ciò che potrebbe essere.
Oppure potremmo dire che le sfere memorizzano le realtà "reali" ma anche miriadi di realtà virtuali.
Grazie ai suoi due insiemi di sfere, il cervello cosmico sarebbe bipolare, come il cervello umano ("Dio ha creato l'uomo a sua immagine"). La "memoria delle anime" sarebbe un po' come il cervello destro (il cervello affettivo), e la "memoria della Creazione" sarebbe come il cervello sinistro (il cervello razionale e organizzatore).
 


La memoria delle anime
Il primo insieme di sfere è la memoria delle anime. Ad ogni anima di un essere vivente corrisponde infatti una sfera. Questa sfera è allo stesso tempo inclusa in una sfera più grande che corrisponde all'anima collettiva di una società, a sua volta racchiusa nella sfera ancora più grande dell'anima planetaria, ecc.
Il cervello degli esseri umani è connesso a questa "memoria universale". Gli esseri viventi sono come sensori dell'universo che alimentano questa memoria cosmica attraverso emozioni, sensazioni, pensieri, idee, sentimenti … Grazie ai recettori sensoriali ed emozionali che sono gli esseri viventi, l'universo può vedersi e sentirsi, sperimentando direttamente la Creazione.
Il cervello umano è connesso a questa memoria sia a livello dell'emissione che della ricezione. La sfera di un'anima individuale è in comunicazione con le altre sfere e può captare dunque delle informazioni che provengono da altre anime, da qui i fenomeni di telepatia.
Esistono anche delle connessioni tra le sfere che si traducono in connessioni tra le persone. Due persone le cui anime sono connesse nella dimensione delle "sfere" saranno irresistibilmente portate a incontrarsi e realizzare delle cose insieme. Potremmo parlare di "persone correlate", come le particelle subatomiche correlate (in cui il cambiamento del senso di rotazione dell'una comporta lo stesso cambiamento per l'altra).
Le sfere si influenzano reciprocamente anche per risonanza. All'interno di una civiltà, ogni spirito influenza gli altri e, allo stesso tempo, è influenzato dagli altri. A loro volta, le civiltà si influenzano tra loro, al di là delle distanze e senza essere a diretto contatto. Così, l'attuale disarmonia generata dagli esseri umani sulla Terra (a causa della sofferenza degli esseri viventi, delle emozioni negative, della violenza e della distruzione) può propagarsi per risonanza alle sfere delle altre civiltà influenzandole negativamente.
 
La memoria della Creazione
LIl secondo insieme di sfere costituisce la memoria della Creazione. Come il primo insieme, è organizzato secondo una struttura frattale. La sfera di un essere vivente è inglobata nella sfera del gruppo al quale appartiene, anch'essa inclusa nella sfera della specie biologica, inclusa nella sfera dell'ecosistema planetario, che a sua volta è inclusa nella sfera della vita galattica, ecc.
Queste sfere registrano le esperienze e gli eventi vissuti dagli esseri viventi. Esse sono connesse al cervello ma anche al DNA. Le eventuali difficoltà di adattamento delle creature al loro ambiente, così come i loro sogni di evoluzione, sono captati dalle sfere che scatenano le mutazioni corrispondenti nel DNA. (Per la sua forma a spirale e la sua composizione, il DNA potrebbe essere paragonato ad un'antenna). L'evoluzione delle specie sarebbe determinata sia da evoluzioni lente e progressive, conformemente alla teoria di Darwin (adattamento e selezione naturale), che da evoluzioni brusche (i "salti evolutivi") scatenati dalla memoria della Creazione. Questo meccanismo spiegherebbe anche la sorprendente rapidità con la quale la vita è stata capace di svilupparsi sulla Terra. Sebbene le "soluzioni" inviate verso il DNA siano talvolta inventate "su misura", esse sono più spesso attinte dalla memoria di situazioni simili su altri pianeti, che esistono o sono esistiti nell'universo, e per le quali sono già state elaborate e testate delle soluzioni.
È in queste sfere che si colloca anche "l'inconscio collettivo", cioè la memoria collettiva e inconscia di una società o di una civiltà. I fenomeni di reminiscenza del passato di un luogo sono delle percezioni che provengono dalle sfere di questa "memoria della Creazione". Essa corrisponde anche agli "archetipi" e alle "idee" di Platone, alle "memorie akasciche", ai "campi morfici" del biologo Ruppert Sheldrake, o al "Waam BB" delle teorie ummite.
Essendo il cervello connesso a queste sfere, lo spirito di ogni essere umano ha la capacità di accedere all'insieme delle conoscenze accumulate nella memoria dell'universo. È li che risiede la sorgente della vera ispirazione dalla quale attingono i grandi artisti, pensatori o scienziati.
La nostra "sfera personale" è una memoria "extracorporea" (non localizzata nel cervello).
Questa parte della nostra memoria è atemporale. Le informazioni che vi sono memorizzate esistono al di là delle vie incarnate (esse dimorano dopo la morte, e preesistono alla nascita). È in questa memoria che si iscriverebbero i ricordi delle esperienze di NDE (near death experiment - persone rianimate dopo essere state clinicamente morte, e che dicono di avere visto passare i momenti della loro vita e viaggiato in un tunnel che sfociava in una luce). Durante una NDE, il cervello è cerebralmente morto e non può registrare alcun ricordo. Se esitono ricordi di queste esperienze, è perché sono sati registrati da qualche parte fuori dal cervello.
Queste sfere sono anche all'origine delle scoperte simultanee realizzate da ricercatori che compiono la stessa scoperta a distanza di qualche giorno e senza essere venuti a contatto.
Ciò è dovuto al fatto che il cervello dei secondi ricercatori ha captato nelle sfere la scoperta che i cervelli dei primi vi avevano registrato.


  La meta-coscienza atemporale
  Il "Creatore", "Dio", la "Sorgente"...
La luce simboleggia la meta-coscienza atemporale che esisteva prima e che esisterà dopo l'universo, e di cui l'universo è la Creazione. È quello che le religioni chiamano "Dio" …
Come per le dimensioni precedenti, esiste una connessione diretta tra questa "meta-coscienza dell'universo" e il nostro cervello. Una particella di questa luce è presente nel centro ultimo di ogni essere umano e di ogni essere vivente dotato di una coscienza.


Analogia informatica
L'organizzazione di queste dimensioni dell'universo presenta un'analogia con l'informatica.
Il mondo materiale che noi chiamiamo "realtà" corrisponde a ciò che noi vediamo sullo schermo del computer, con gli oggetti familiari (icone, menu, finestre …) che costituiscono l'interfaccia con l'utilizzatore.
La "matrice energetica" (supercorde, ibozoo uu …) corrisponde a ciò che genera la realtà che noi vediamo sullo schermo: flussi di elettroni nei microprocessori.
Gli "attrattori di probabilità" corrispondono alle istruzioni in linguaggio macchina che orientano e determinano i flussi di elettroni nei microprocessori.
La "memoria dell'universo" corrisponde al programma informatico in linguaggio evoluto (C++, Pascal, ecc.) che produce le istruzioni in linguaggio macchina.
Infine, la "meta-coscienza" dell'universo corrisponde al programmatore, il creatore del programma informatico.

© Syti.net - Luglio 2003


Il Big Bang. I primi attimi dell'Universo.

(G. Giacomelli)


Secondo il modello del Big Bang, l'Universo ebbe origine con un' "esplosione", che riempì tutto lo spazio, a partire da un punto materiale. Dopo questo momento ogni particella cominciò ad allontanarsi velocemente da ogni altra particella. Nei suoi primi attimi l'Universo si può considerare come un gas caldissimo di particelle elementari in rapida espansione.

Una completa conoscenza della fisica delle particelle elementari, in particolare dei costituenti ultimi e delle forze, è necessaria per comprendere cosa avvenne allora. Le teorie sull'unificazione delle forze fondamentali, sviluppate nel contesto della fisica delle particelle elementari senza alcuna connessione con la cosmologia, sono state applicate per descrivere l'evoluzione dell'Universo a cominciare da tempi piccolissimi dopo il Big Bang. Per i fisici delle particelle i primi attimi dell'Universo costituiscono un acceleratore senza limiti di energia e costo. Per gli astrofisici l'utilizzazione delle teorie fisiche rappresenta l'unico modo per capire cosa accadde nei primi attimi dell'Universo.


Per visualizzare la natura dell'espansione si ricorre all'esempio dell'espansione di un palloncino sulla cui superficie sono disegnati dei punti. Gonfiando il palloncino, la distanza fra due punti qualsiasi aumenta. Un ipotetico osservatore a due dimensioni spaziali che stia su di un punto della superficie del palloncino vedrebbe tutti gli altri punti allontanarsi da lui in tutte le direzioni. Un altro osservatore bidimensionale situato in un altro punto del palloncino giungerebbe a una conclusione analoga. Per questi esseri non esiste un osservatore privilegiato: l'espansione non ha un centro sulla superficie e il loro Universo è una superficie sferica; tale Universo è finito e illimitato, nel senso che un essere piatto può muoversi in una direzione fissa e proseguendo può tornare al punto di partenza.

Secondo la relatività generale, l'espansione del nostro Universo avviene nello spazio-tempo, in quattro dimensioni; ma è per noi difficile visualizzare la quarta dimensione come per l'essere a due dimensioni è difficile visualizzare la terza dimensione.

Si è giunti all'ipotesi del Big Bang sulla base di tre fatti sperimentali: (i) la recessione delle galassie (il nostro Universo si sta espandendo e raffreddando); (ii) la radiazione cosmica di fondo e (iii) il rapporto di abbondanza elio-idrogeno. Si sono poi aggiunte le seguenti considerazioni: (iv) le galassie distanti, situate a qualche miliardo di anni luce da noi, sono più "giovani" di quelle vicine; (v) la curvatura dello spazio-tempo sembra essere collegata al contenuto di materia e di energia nel nostro Universo.

È da ricordare che la teoria del Big Bang descrive come sta evolvendo il nostro Universo , non come ha avuto inizio. Non sappiamo nulla su che cosa "facesse" il nostro Universo prima che iniziasse ad espandersi.

Di solito si assume che le quantità fisiche che si conservano fossero tutte nulle all'inizio dell'Universo. Per la carica elettrica ciò significa che all'inizio dell'Universo e in ogni istante successivo il numero di cariche elettriche positive era ed è esattamente uguale al numero delle cariche negative.

I risultati ottenuti negli ultimi anni hanno permesso di discutere su base scientifica i primissimi attimi dell'Universo. Presenteremo l'evoluzione dei primi attimi dell'Universo con il metodo dei "fotogrammi", cioè con una serie di "fotografie istantanee" scattate a  tempi crescenti. Bisogna ricordare che la nostra conoscenza diminuisce con l'avvicinarsi al momento del Big Bang.

1. Tempo cosmico t1 = 0 , circa 15 miliardi di anni fa. Avviene il Big Bang, la singolarità che ha prodotto l'Universo. Da questo momento l'Universo inizia ad espandersi. Lo stato iniziale aveva tutti i numeri quantici conservati uguali a zero. Probabilmente anche l'energia totale era (ed è) nulla, perchè l'energia cinetica, cioè l'energia di moto, è uguale e di segno opposto all'energia potenziale gravitazionale.

2. Prima transizione di fase a t2 = 10-43 s, (tempo di Planck); la temperatura è T2 ~ 5·1031 K; l'energia cinetica media di ogni particella è < E2 > ~ 6 ·1018 ~ 1019 GeV.   t2 può essere considerato il momento in cui vengono create le particelle. Prima di questo momento le fluttuazioni quanto-meccaniche non permettevano di parlare di particelle come entità separate. Per tempi più piccoli del tempo di Planck, da t1 a t2, ci dovrebbe essere stata l'Epoca dell'unificazione della forza GrandUnificata con quella gravitazionale. Fino a quest'istante le onde gravitazionali emesse venivano subito assorbite; da questo momento sono invece libere di propagarsi.

3. Da 10-43 s a 10-35s. Se i quark e i leptoni sono veramente i costituenti ultimi della materia si può pensare che l'Universo fosse un gas di quark e leptoni, di antiquark e antileptoni e di bosoni X, Y  mediatori della forza di Grande Unificazione. I leptoni e i quark si comportano come membri di un'unica famiglia; un quark può essere trasformato in un leptone (o viceversa).

4. Seconda transizione di fase a t4 ~ 10-35 s, T4 ~ 5·1027 K,  < E4 > ~ 6 ·1014 ~ 1015 GeV per particella. Termina l'Epoca della Grande Unificazione (GUT) dell'interazione forte con quella elettrodebole (che va da t2 a t4) e si ha una transizione di fase: si passa da uno stato in cui le interazioni che cambiavano un quark in un leptone (o viceversa) erano probabili come quelle tra quark e quark (o tra leptone e leptone) a una situazione in cui ciò non è più vero. Il quark diventa molto diverso dal leptone. Il passaggio tra questi due stati è la transizione GUT, durante la quale possono essere state create nuove particelle, come i monopoli magnetici, cioè particelle dotate di carica magnetica. A t = t4 inizia l'Epoca Elettrodebole. Secondo alcuni modelli, la transizione di fase a t = t4 ha avuto inizio con un'iperespansione dell'Universo (inflazione). L'inflazione dovrebbe avere ridotto il numero di monopoli magnetici prodotti, reso l'Universo "piatto", isotropo e causalmente connesso. L'inflazione dovrebbe aver aumentato a velocità superluminale una regione del diametro di circa 10-25 cm sino ad alcuni metri in una piccolissima frazione di tempo.

5. Da 10-35 s a 10-10 s. La forza forte e quella elettrodebole sono diverse; i quark e i leptoni si comportano come oggetti diversi; i bosoni X,Y decadono in quark e leptoni.  Il loro decadimento porta a una lieve asimmetria tra materia e antimateria, con una lieve prevalenza della prima. Quest'Epoca (Epoca Elettrodebole) ha una durata temporale breve, ma che corrisponde a un grande intervallo di energie. Molti fisici parlano di deserto. Può darsi che il deserto "fiorisca", cioè può darsi che possano esistere nuove particelle (per es. le particelle supersimmetriche) con masse dell'ordine di 1000 GeV. In tal caso questo intervallo di tempo sarebbe composto di vari periodi, con possibili altre transizioni di fase.

6. Terza transizione di fase a t6 = 10-10 s, T6 ~ 1.5 · 1015 K, < E6 > ~ 200 GeV. Termina l'Epoca elettrodebole: dopo quest'istante la forza debole e quella elettromagnetica sono diverse l'una dall'altra. Inizia un'altra Epoca.

7. Quarta transizione di fase a t7 = 10-6 s; avviene l'annichilazione quark-antiquark. Come risultato dell'annichilazione q anti(q) prima, e di quella e+e- poi, si ha la scomparsa dell'antimateria, lasciando un numero (relativamente limitato) di quark e elettroni. Prima di t7 , si aveva un plasma di quark, antiquark, gluoni; da questo momento si ha un plasma di quark e gluoni (più elettroni).

8. Quinta transizione di fase a t8 = 10-4 s, T8 ~ 1.5 · 1012 K, < E8 > ~ 0.2 GeV. Si ha il confinamento dei quark per formare protoni e neutroni. Fino a questo istante si poteva parlare di quark come particelle libere. Ora i quark si uniscono in tripletti per formare protoni e neutroni (forse si uniscono in tripletti i pochi anti(q)  rimasti per formare anti(p) e  anti(n). Alla differenza nel numero di quark e antiquark corrisponde ora una differenza fra il numero di p e quello di  anti(p) (e fra n e anti(n) ).

9.  Da 10- 4 s a 1.1 s. Nell'Universo abbondano le particelle con massa inferiore a 6 MeV: elettroni, positroni, neutrini, antineutrini e fotoni. L'Universo è ancora così caldo e denso che anche i neutrini interagiscono rapidamente e sono in equilibrio termodinamico con e-, gamma. Il numero di questi tipi di particelle è di  poco diverso uno dall'altro. Invece il numero di p e di n è molto piccolo, circa uno ogni miliardo di gamma, (o e- o n). Il numero di n è quasi uguale a quello dei p.

10. Sesta transizione di fase a t10 = 1.1 s, T10 ~ 1.4 · 1010 K, < E10 > ~ 2 MeV: si ha il disaccoppiamento dei neutrini. L'energia media dei neutrini è diminuita, come è diminuita quella di qualsiasi altra particella. Come conseguenza è diminuita per i neutrini la loro probabilità di interagire; questo, connesso al fatto che la densità della materia diminuisce con l'aumentare del tempo, fa sì che i neutrini non interagiscano più con il resto della materia e diventino indipendenti. Il fatto che il neutrone abbia una  massa lievemente superiore a quella del protone  non aveva importanza quando le energie tipiche erano elevate: nelle collisioni,  un neutrone poteve trasformarsi in un protone con la stessa probabilità con cui avveniva la reazione inversa. Alle energie cinetiche di questo periodo, la differenza di massa tra n e p produce una differenza nei tempi di reazione. Per esempio poco prima del disaccoppiamento dei neutrini la reazione netrino(e) + n in e-+ p era più probabile della reazione inversa. Si è avuto quindi un aumento di protoni rispetto a quello dei neutroni. A t = 1.1 s si aveva circa il 24% di neutroni e il 76% di protoni. In una collisione pn si può formare un nucleo di deuterio, (n+ p in d + gamma) che viene rapidamente spezzato nei suoi costituenti in una successiva collisione con un fotone (gamma + d in n + p) .

11. Settima transizione di fase a t11 = 4 s, T11~ 4 · 109 K,  < E11 > ~ 0.5 MeV per particella. : annichilazione delle coppie e+ e-. I fotoni hanno un'energia al di sotto dell'energia richiesta per produrre coppie e+ e-. Quindi non vi è più una compensazione alla perdita di elettroni e positroni, dovuta alla loro annichilazione. Gli e- ed e+ scompaiono rapidamente; resta solo un piccolo numero di elettroni, quelli  che erano in numero lievemente superiore agli e+. Il numero degli elettroni che restano è esattamente uguale a quello dei protoni. L'energia che si libera nel processo di annichilazione riscalda le particelle che sono accoppiate fra loro, per esempio i fotoni, ma non i neutrini. I fotoni vengono quindi ad avere una temperatura del 35% superiore a quella dei neutrini. Il numero di neutroni continua a diminuire per lo stesso motivo illustrato nel paragrafo precedente.

12.  Da 4 a 200 s. I positroni sono scomparsi dall'Universo. I neutroni continuano a trasformarsi in protoni a causa di reazioni varie che favoriscono la particelle di massa inferiore. A ciò va ad aggiungersi il decadimento spontaneo (n in p + e- + antineutrino(e)). Il rapporto n/p è ora di 14% neutroni e 86% protoni. In questa fase, i componenti principali dell'Universo sono gamma, neutrino, antineutrino disaccoppiati con (relativamente) piccolissime percentuali di e-, p, n (un elettrone per qualche miliardo di fotoni).

13. Ottava transizione di fase a t13 = 200 s, T13 ~ 109 K,  < E13 >  ~ 140 keV  per particella: è il momento in cui avviene la nucleosintesi di elio, deuterio e altri elementi leggeri; da questo momento vi è materia nucleare composta in peso per il 24% di elio e per il 76% di protoni.

14. Da 200 s a 10000 anni. L'Universo contiene principalmente fotoni e neutrini. Vi sono anche elettroni, protoni ed elio; non ci sono più neutroni liberi. La radiazione continua a raffreddarsi e così pure la materia.

15. t15 = 10000 anni, T15 ~ 140000 K, < E15 > ~ 18 eV. Termina l'Era della radiazione (che aveva avuto origine subito dopo il Big Bang) e inizia l'Era della materia (che prosegue fino ad oggi). Per radiazione si intendono sia onde che particelle, queste ultime però con energie cinetiche molto superiori all'energia connessa con la loro massa. In quest'era, l'energia è dominata dalla materia, cioè dall'energia connessa con la massa (W=mc2). A t = t15 non si possono ancora formare atomi: infatti, ogni volta che un protone cattura un elettrone e forma un atomo di idrogeno, poco dopo avviene una collisione con un fotone che rompe l'atomo.

16. Nona transizione di fase a t16 = 300000 anni, T16 ~  4000 K, < E16 > ~ 0.5 eV per particella: è il momento della formazione degli atomi. L'energia dei fotoni è diventata così bassa che i fotoni non sono più in grado di distruggere gli atomi che si vanno formando. In un tempo relativamente breve gli elettroni si uniscono ai protoni formando atomi di idrogeno; i nuclei di elio con gli elettroni formano atomi di elio. Come conseguenza, l'Universo diventa trasparente alla radiazione elettromagnetica, che da questo momento si disaccoppia dalla materia e ha vita autonoma. Un fotone interagisce con una carica elettrica, quale quella dell'elettrone, ma interagisce molto poco con un atomo neutro. Prima di questo momento l'Universo era costituito di un gas di particelle elettricamente cariche (protoni e elettroni). Un plasma di elettroni e protoni è un quarto stato della materia, dopo quello solido, liquido e gassoso; uno stato molto abbondante anche nell'Universo attuale, perché è lo stato dominante dentro le stelle. L'Universo che era diventato buio torna a risplendere di nuovo, ma con la luce delle stelle (la lunghezza d'onda media della radiazione cosmica di fondo era diventata grande, corrispondente a raggi infrarossi).

17.  t17 = 1 miliardo di anni: formazione delle galassie. Si formano galassie e ammassi di galassie, poi le prime stelle. Si erano create disomogeneità spaziali nella distribuzione della materia: si formano delle nubi di materia e per effetto gravitazionale le protogalassie; entro queste si formano poi le protostelle. Con il passare del tempo la nube di gas di una protostella diviene più piccola, la temperatura all'interno aumenta finchè diventa così elevata che possono iniziare le reazioni termonucleari, dove si brucia idrogeno, ottenendo elio come "cenere" (nelle stelle massiccie anche l'elio brucia dando luogo a carbone, ossigeno e infine ferro). L'Universo che era diventato buio torna a risplendere di nuovo, ma con la luce delle stelle (la lunghezza d'onda della radiazione cosmica di fondo era diventata grande, corrispondente a raggi infrarossi).




18.  t18 ~ qualche miliardo di anni. Esplodono le prime supernovae. Conseguenza di questa esplosione è il lancio nello spazio interstellare di una grande quantità di materia contenente elementi pesanti sintetizzati all'interno di stelle pesanti.

19.  t19 ~ dieci miliardi di anni. Si forma la nube dalla quale per contrazione gravitazionale nascono il sole e i suoi pianeti, fra i quali la terra. Il materiale raccolto dalla nostra nube contiene in prevalenza idrogeno ed elio, cioè il materiale prodotto all'inizio dell'Universo ; sono presenti però anche quantità significative di materiali come il ferro, sintetizzati in precedenza in una stella massiccia che poi è esplosa; dopo l'esplosione questo materiale ha viaggiato e in qualche modo è giunto sino a noi.

20.  t20 ~ 15 miliardi di anni , circa un milione di anni fa, si sviluppa l'homo sapiens che inizia a domandarsi come è fatto questo nostro Universo.





La discussione dei primi attimi di vita dell'Universo ha messo in evidenza le connessioni profonde fra cosmologia e fisica subnucleare. Per questo si dice che studiare l'estremamente piccolo significa studiare e comprendere la nascita dell'Universo. 

Come illustrato nella Fig. 1 la storia dell'Universo primitivo è divisa in due Ere e in più Epoche: Era della radiazione, Era della materia; Epoca della Grande Unificazione, Epoca Elettrodebole, ecc.

Le transizioni fra Epoche sono chiamate transizioni di fase, riprendendo il linguaggio della termodinamica. Abbiamo considerato la transizione prevista  dalle teorie della Grande Unificazione (GUT) a 10-35 s, la transizione elettrodebole a 10-10 s, la transizione quark in adroni a 10-6 s, la nucleosintesi a 200 s, la formazione degli atomi a 300000 anni, la formazione delle galassie a 1 miliardo di anni, ed altre. 

Ci si può chiedere: cosa c'era prima del Big Bang? Non può esserci ovviamente nessuna risposta che abbia senso fisico perché non è possibile ottenere alcuna informazione fisica per tempi prima del Big Bang. 

E che cosa si può dire per quanto riguarda l'evoluzione futura dell'Universo? Se la densità attuale di materia è inferiore a un certo valore l'Universo si espanderà per sempre, se fosse superiore l'Universo raggiungerebbe un'espansione massima, comincerebbe a contrarsi, diventerebbe sempre più piccolo fino a giungere ad un'implosione finale. Vi sono indicazioni sperimentali nuove che suggeriscono che l'espansione dell'Universo stia accentuandosi (queste indicazioni vanno ulteriormente verificate).
Le stelle dopo aver finito il loro combustibile nucleare, debbano spegnersi una dopo l'altra; quindi l'Universo dovrebbe tornare ad essere buio, senza luce visibile. Nel futuro, più lontano, dovrebbero esservi decadimenti dei protoni e ancora più tardi "evaporazioni" di buchi neri.
Nell'ipotesi che vi sia stata un'Epoca Inflazionaria (vedi il punto 4 e la Fig. 1), ci si può chiedere che cosa è avvenuto delle altre parti dell'Universo che forse esistevano prima del tempo di 10-35 s. Alcuni fisici teorici hanno parlato di possibili "universi paralleli": anche su questi non si può sperimentare e quindi queste considerazioni sono al di fuori della scienza 
Alla teoria del Big Bang è stata contrapposta la teoria dell'Universo Stazionario: l'Universo esiste da sempre e continuerà ad esistere mantenendo una stabilità costante. Dato che l'Universo si espande, si deve accettare l'idea che si possa creare di continuo della materia dal nulla, in modo da garantire una densità costante. Molti fatti sperimentali favoriscono la teoria del Big Bang.
Ai punti 5, 7 e 11 si è spiegato come dovrebbe essere scomparsa l'antimateria, giungendo a un Universo di sola materia. Ma potrebbero anche esserci lontane "isole sperdute" di sola antimateria, anche se ciò sembra molto impropabile. Se l'antimateria venisse in contatto con la materia si avrebbe una rapida annichilazione che provocherebbe la reciproca distruzione.





"Scoperta la particella di Dio"


La ricostruzione grafica delle tracce di collisione tra particelle

Cos’è il bosone di Higgs e perché
lo cerchiamo da cinquant'anni

PIERO BIANUCCI
Alla fine il bosone di Higgs, folcloristicamente soprannominato «particella di Dio», ha fatto la sua comparsa in due colossali esperimenti del Cern di Ginevra. È il punto di arrivo di un cammino iniziato negli Anni 60 del secolo scorso. L’ultimo tassello di un puzzle che i fisici hanno messo insieme pazientemente in mezzo secolo di lavoro costruendo macchine sempre più grandi, potenti e costose.

Si chiamano bosoni, dal nome del fisico indiano Bose che con Fermi ne descrisse le proprietà, le particelle che trasportano una forza. Sono bosoni, per esempio i fotoni, cioè le particelle che costituiscono la luce, e i gluoni, la «colla» che tiene insieme i nuclei degli atomi. Il bosone di Higgs è speciale: è la particella che conferisce una massa a tutte le altre particelle, e quindi in qualche modo dà ad esse l’esistenza in quanto oggetti materiali. Questa è la sua potenza «divina».

Da ieri, dunque, conosciamo il segreto della massa delle particelle subnucleari, e quindi sappiamo come è fatto l’universo visibile (purtroppo stiamo parlando solo del 4 per cento di quanto esiste, il 96% ci sfugge perché è sotto forma di materia ed energia invisibili). Fatto non irrilevante, sappiamo inoltre perché si sono spesi sette miliardi di euro nel Large Hadron Collider, Lhc, un anello di magneti lungo 27 chilometri nel quale due fasci di protoni si scontrano a energie mai raggiunte prima.

Certo, gli scienziati preferiscono essere prudenti, tutto deve essere meglio verificato. Solo a fine luglio una pubblicazione metterà nero su bianco i risultati preliminari presentati ieri mattina nell’auditorium del Cern da Joe Incandela per l’esperimento Cms e da Fabiola Gianotti per l’esperimento Atlas. Altre misure saranno necessarie almeno fino alla fine di quest’anno. L’identikit è quello della particella tanto attesa: una massa di 125,3 GeV. Se non fosse il bosone di Higgs sarebbe davvero qualcosa di strano e, per certi versi, di ancora più interessante. Ma i margini dell’incertezza statistica dichiarati da Incandela e Gianotti sono minimi.

Incominciò Murray Gell-Mann nel 1964 immaginando l’esistenza dei quark, particelle più elementari dei protoni e dei neutroni fino ad allora ritenuti i mattoni ultimi dei nuclei atomici. Fu l’inizio del Modello Standard, il paradigma della fisica moderna, al quale subito Peter Higgs contribuì con l’idea del suo bosone, poi battezzato «particella di Dio» dal fisco Leon Lederman, premio Nobel nel 1988.

L’universo così come ora lo osserviamo è fatto essenzialmente di due tipi di quark: Up e Down. La teoria però ne prevede sei, che si manifestano a energie crescenti. Uno per volta, i fisici li hanno scoperti. Il sesto, chiamato Top perché è un po’ come il tetto che sta sopra l’edificio degli altri, fu preda del Fermilab di Chicago nel 1995. Il modello prevedeva anche sei leptoni. Di essi alcuni erano già noti (elettrone, muone, neutrino elettronico), gli altri sono stati via via scoperti: ultimo arrivato il neutrino Tau, stanato nel 2000 al Fermilab.

Erano presenti all’appello anche alcune particelle che scambiano le forze fondamentali della natura, i bosoni, appunto: il «vecchio» fotone per la forza elettromagnetica (risale a Einstein), il gluone per l’interazione forte, W e Z per l’interazione debole, queste ultime scoperte da Carlo Rubbia, premio Nobel nel 1984. Era latitante invece il bosone di Higgs, e questo era un problema, perché senza di esso il Modello Standard entrerebbe in crisi. Ecco perché ieri al seminario del Cern i fisici hanno tirato un respiro di sollievo.

Ieri è stata posata una pietra miliare. La strada però rimane lunga. Una teoria molto accreditata prevede l’esistenza di particelle simmetriche a quelle già note e altre ancora. Questo mondo di Alice riflesso nello specchio potrebbe risolvere l’enigma della materia oscura di cui gli astronomi vedono nell’universo segni indiretti. Ma restando nel Modello Standard, sarebbe importante anche osservare sperimentalmente le onde gravitazionali, e quindi i gravitoni.

Per finire, qualche numero su LHC. La macchina che ha stanato la «particella di Dio» si avvale di 9600 magneti. Di questi 1746 sono superconduttori raffreddati con 190 tonnellate di elio a 1,9 Kelvin. Poiché l’universo ha una temperatura di 2,7 Kelvin, l’acceleratore del Cern è l’oggetto più freddo che esista nel cosmo. Ed è anche il più vuoto: i tubetti percorsi dai protoni contengono meno materia dello spazio interstellare.

Sull’energia raggiunta dentro LHC, invece, bisogna intendersi. Tutti i protoni accelerati in un giorno pesano appena 2 miliardesimi di grammo. Ci vorrebbe un milione di anni per accelerare un solo grammo di materia. Inoltre l’energia di ciascun protone è paragonabile a quella di una mosca in volo e quella totale dei fasci corrisponde a un battito delle mani. Le collisioni sono enormemente energetiche solo perché l’energia è concentrata nello spazio piccolissimo di un protone: un conto è battere le mani tra loro, un altro battere una mano contro la punta di uno spillo. Ecco perché le collisioni ottenute in LHC con nuclei di atomi pesanti riescono a riprodurre le condizioni del Big Bang portandoci indietro nel tempo fino a 13,7 miliardi di anni fa.


TRATTO DA...PROF. PAOLO MANZELLI (DISCORSI)

Il passaggio dalla società industriale alla Societa della Informazione , ha sostanzialmente evitato un approfondimento integrato delle conoscenze scientifiche , procedendo verso una sempre piu’ ampia e specializzazione mirata allo sviluppo tecnologico piu’ che alle strategie di comprensione della natura delle trasformazioni sulla base di una finalita’ tesa alla comprensione universale e condivisa dei problemi di sviluppo del sapere.


Questa nuova dimensione integrata e trans-disciplinare di interesse sulla realtà fisica e biologica della informazione , emerge solo oggi agli inizi della “Società della Conoscenza” in cui stiamo vivendo . Pertanto e oggi il momento storicamente adatto per capire la informazione vista in termini di energia di elevata qualità che quindi corrisponde ad un a basso gradiente entropico, cosi che l’ energia di informazione diviene la base delle effettive capacita’ di comunicazione della natura, a partire dalle strutture atomiche e molecolari, fino ad costruire la complessità biologica degli organismi piu evoluti ivi compreso l’ uomo.

Per definire la Informazione come nuovo parametro energetico e’ necessario capire , come ha evidenziato lo storico e filosofo delle scienza Thomas Kuhn ( 1922- 96) , che la scienza non ha un carattere sequenziale, ma sviluppa storicamente nuovi paradigmi basati sulla necessita’ di introdurre nuovi concetti che permettano il superamento delle precedenti logiche riduttive della scienza. Cosi e stato per la Termodinamica classica che con Clausius introdusse il nuovo concetto di Entropia , che evidentemente non era derivabile dalle precedente impostazione della meccanica di Newton , la quale non presumeva la necessita di stabilire che la energia pur conservandosi si andava degradando facendo diminuire la efficienza di un motore.

Allo stesso modo oggi prendendo in considerazione i piu recenti sviluppi delle scienze della vita, abbiamo ritenuto opportuno ed appropriato annoverare l’ energia di informazione (EI) tra le principali forme di energia che vanno sommarsi a quelle codificabili Energia Condensata come Materia (EM) e quella derivante dall’intero spettro vibrazionale (EV) , cosi da manterene valido quanto propose il chimico Antonine Laurent Lavoisier (1743 -1794) dicendo : “Nulla si distrugge, tutto si trasforma".


Pertanto addizionando tali tre forme distinte di Energia possiamo mantenere l’ assioma fondamentale della Scienza di tutti i tempi basato sulla conservazione della Energia Totale, scrivendo : < EI +EM + EV = Costante> ; di conseguenza datosi che le variazioni (d) di una qualsiasi costante sono nulle , l’ equazione precedente diviene <> . Da essa possiamo ricavare la seguente definizione <+ d(EI ) = - d(EM) – d (EV) >, che abbiamo definito come PRINCIPIO di FERTILITA EVOLUTIVA. (PFE) 



Il Principio di Fertilità Evolutiva (PFE), consegue alla ammissione che la energia non si crea ne si distrugge, ma si trasforma in senso evolutivo. Infatti il “PFE” in sintesi dice che, all'aumentare della elaborazione di informazione (+dI) interattiva , in corrispondenza si ha una forte dispersione delle Energie differentemente codificate. Pertanto lo stato di massima entropia, riletto nel quadro del “PFE”, indica che con l’aumento di Entropia viene diminuita l'energia del sistema disponibile per compiere lavoro, ma inoltre il “PFE” pronostica in che modo la energia non viene distrutta ma si e trasformata. Infatti in gran parte la energia viene dispersa nell’ ambiente al fine di permettere il raggiungimento di una nuova condizione di minimo energetico nelle trasformazioni, mentre un’altra parte (EI) modifica il suo strato di codificazione in quello di Energia di Informazione , elevando progressivamente il suo livello di qualita’ NEG-ENTROPICA per regolare la complessita’ della vita.



Questa formulazione del “PFE” e’ qui riportata nel modo piu’ semplice ed intuitivo in quanto fa parte integrante di una teoria alquanto complessa , ed infatti introducendo le formulazioni ed i valori relativi ai tre fattori (E,M,I) essi vengono ad essere rappresentati da dei tensori tri-varianti anziche’ da semplici matrici bi-varianti , con cui si trattano le interazioni tra Energia e Materia . Quanto sopra diviene necessario proprio in quanto va presa in considerazione la produzione di Energia di Informazione (EI) che sulla base delle nella ciclicità delle trasformazioni di un sisteme aperto a scambi di energia e materia , permette la evoluzione della complessita’ degli esseri viventi guidata dalla generazione della codificazione della energia in un sistema di informazione. 


Pertanto la suddetta equazione relativa al “PFE” , nella sua teorizzazione piu completa, implica la organizzazione di una forma di energia altamente qualificata come prodotto delle interattivita’ tra EM ed EV , e pertanto tende ad assumere una dinamica di sviluppo che graficamente diviene simile alla forma tipica della antica raffigurazione alchemica cinese dello “YIN-YANG” ( risalente 200 – 300 dC). Ricordo infine che tale antico simbolismo alchemico rappresenta la concezione della continua ricomposizione oscillante delle energie generata dalla cosi detta legge di “Opposizione//Interdipendenza relativa dei contrari ”, per cui i tratti negativi si riconvertono in positivi in modo ciclico e reversibile, cosi che Lo Yin e lo Yang possono trasformarsi reciprocamente l'uno nell'altro proprio in quanto non sussistono mai lo Yin e lo Yang come valori assoluti. L'equilibrio statico NON esiste: se ciò fosse non vi sarebbe nessuna evoluzione. Infatti fin dalla antica alchimia cinese si ritenne che lo scopo della vita fosse intrinseco alla necessita di adeguarsi ad un continuo miglioramento delle perenni trasformazioni ambientali, come era gia allora evidente sulla base delle osservazioni di cambiamenti energetici dell’ ambiente nel quale i sistemi si riproducono rispondendo alle cadenze ritmiche generate dalle interazioni evolutive tra energia e materia poiche ‘ la vita ha un perenne bisogno di riciclarsi e di rigenerarsi per creare dinamiche di sviluppo evolutivo. 

Concludendo questa relazione divulgativa ritengo veramente che una nuova ERA di ricerca nel settore delle scienze della vita possa solo emergere da un cosciente superamento dei limiti storico - cognitivi delle concezioni meccaniche , che gia progressivamente stanno evolvendosi come e’ stato ampiamente delineato da questa relazione tesa ad individuare la dimensione della comunicazione di informazione nello sviluppo delle nuove conoscenze propedeutiche del passaggio tra la societa’ industriale e la futura società orientata dal quadro dei piu recenti sviluppi delle scienze della vita. 


Genetica 

C’è un solo significato della vita: l’atto stesso di vivere. Erich Fromm

intervista al Dott. Sergio Stagnaro...

C: Ecco una sintesi dello stato dell'arte sulla ricerca nella genetica, posto nel quadro di quella che potremmo chiamare teoria dell'autopoiesi estesa, nel senso che l’originale autopoiesi di Maturana Varela “organizzazione-struttura”, viene estesa alla triade: organizzazione, struttura, processo (il cui principio è EI) tratta da “La rete della vita” di F. Capra. Spesso sentiamo dire che i geni contengono l'informazione che caratterizza un essere vivente. Si può dire che questo sia un errore per due motivi fondamentali. Primo, perché confonde il fenomeno dell'eredità con il meccanismo di replica di certi componenti cellulari (DNA) che hanno grande stabilità attraverso le generazioni. Secondo, perché dire che il DNA contiene quanto necessario per caratterizzare un essere vivente, isola queste componenti (parte della rete autopoietica) dalle loro interazioni con tutto il resto della rete. E' la rete di interazioni nella sua totalità ciò che costituisce e specifica le caratteristiche di una particolare cellula, non uno solo dei suoi componenti. Il fatto che le modificazioni di questi componenti chiamati geni abbiano una conseguenza drammatica per la struttura di una cellula è comunque certo. L'errore consiste nel confondere la partecipazione essenziale con la responsabilità unica. Con lo stesso modo di ragionare si potrebbe dire che l'ordinamento politico di un paese determina la sua storia. Questo è evidentemente assurdo; l'ordinamento politico è un componente essenziale qualunque sia la storia, ma non contiene l'informazione che specifica tale storia.

S: Non dimentichiamo mai che esistono due DNA: quello nucleare che è più noto e quello mitocondriale, essenziale nella trasmissione delle patologie in tutti i vertebrati e non solo nell’uomo: io ho scoperto l’Istangiopatia Congenita Acidosica Enzimo-Metabolica (ICAEM), ignorata solo in Italia.

C: La maggior parte dei processi metabolici vengono facilitati (catalizzati) da enzimi e ricevono energia attraverso particolari molecole di fosfati note come ATP, di origine mitocondriale. I soli enzimi formano un'intricata rete di reazioni catalitiche e le molecole di ATP costituiscono una corrispettiva rete di energia. Per mezzo del RNA messaggero entrambe queste reti sono poi collegate al genoma (le molecole di DNA della cellula), il quale è a sua volta una complessa rete di interconnessioni in cui, tramite una catena di retroazioni, ciascun gene regola, direttamente e indirettamente, le attività degli altri. Alcuni biologi distinguono due tipi di reti cellulari: la rete metabolica e la rete epigenetica (che riguarda la produzione delle macromolecole a partire dai metaboliti ed include anche il livello genetico, ma si estende anche al di là dei geni). Sono comunque esse strettamente interconnesse e formano l'unica rete cellulare autopoietica. Secondo questa visione la vita, le forme e le funzioni biologiche non sono qualcosa di semplicemente determinato da un programma genetico, ma sono proprietà che emergono dall'intera rete epigenetica.

S: Stiamo attenti quando parliamo di reti, collegamenti e informazione tra le singole parti. Con la collaborazione preziosa di Paolo Manzelli ho dimostrato (la scienza, in effetti, non dimostra nulla) che nei sistemi biologici esistono la realtà locale (nota) e la realtà non locale (meno nota). L’informazione in questa seconda realtà è simultanea, catalitica, ed in essa il DNA si comporta come una antenna, secondo Manzelli: la Semeiotica Biofisica Quantistica ha appunto dimostrato che la stimolazione ormonale avviene in due fasi di differente natura: la prima è simultanea e di breve durata. [v. Stagnaro, Manzelli’s Theory highlights the Intelligibility of Nature. PLOS Biology, 01 February 2008] 

C: La teoria dell'autopoiesi non ci fornisce una descrizione dettagliata della fisica e chimica di queste reti. Tutte le strutture cellulari esistono in condizioni distanti dall'equilibrio termodinamico (sono dissipative, stati lontani dall'equilibrio con una loro stabilità propria, spontaneo emergere di nuove forme di ordine); quando il flusso di energia aumenta è possibile che il sistema incontri un punto di instabilità - biforcazione - in corrispondenza del quale il sistema stesso può entrare in uno stato completamente nuovo, dove possono emergere nuove strutture e nuove forme di ordine - emergenza - o auto-organizzazione. La creatività è una proprietà chiave di tutti i sistemi viventi, e se il metabolismo cellulare non impiegasse un costante flusso di energia (EV che si interscambia con EI) per riparare tali strutture non appena si danneggiano, esse decadrebbero ben presto allo stato di equilibrio, ossia la cellula morirebbe (da attrattore caotico a ciclo limite a punto fisso).

S: Esattamente: se io riduco il flusso ematico (EM + EV = EI) in una arteria, il microcircolo si attiva, ma la dimensione frattalica si riduce.

C: Dobbiamo quindi descrivere la cellula come un sistema aperto. I sistemi viventi sono chiusi a livello di struttura organizzativa (sono reti autopoietiche), ma aperti dal punto di vista materiale ed energetico. "la cellula entra automaticamente in relazione con altri organismi. Se essa espelle qualcosa, c'è qualche altro organismo che lo assorbirà.” (Lynn Margulis)

“L'insieme completo dei geni di un organismo, cioè il suo genoma, forma un'enorme rete interconnessa, ricca di anelli di retroazione, in cui i geni regolano reciprocamente le proprie azioni in modo diretto o indiretto. Il genoma non è una serie lineare di geni indipendenti (caratteri) ma piuttosto una rete fittamente intrecciata di effetti multipli reciproci mediati da repressori e derepressori, esoni e introni, jumping genes, nonchè da proteine strutturali." (F. Varela)

Dagli studi di Kauffman (usando reti binarie in automi cellulari) si scopre che il genoma si può rappresentare con una rete binaria ai confini del caos, ovvero da una rete con un nucleo congelato e isole separate da nodi variabili. Essa ha un numero relativamente piccolo di cicli di stati, rappresentati nello spazio delle fasi da attrattori periodici inseriti in bacini di attrazione separati. Su tale sistema possono agire due tipi di perturbazioni. Una perturbazione minima è un balzo accidentale e temporaneo di un elemento binario nello stato di attività opposto. Ogni ciclo di stati del modello è notevolmente stabile rispetto a perturbazioni minime. I cambiamenti innescati dalla perturbazione restano confinati in una particolare isola di attività, e dopo un certo tempo la rete ritorna solitamente al ciclo di stati originario (nel modello si manifesta la proprietà di omeostasi tipica di tutti i sistemi viventi). L'altro tipo di perturbazione è un cambiamento strutturale e permanente nella rete - es. un cambiamento nello schema delle connessioni o in una regola di commutazione - cui corrisponde una mutazione nel sistema genetico. Nella maggior parte dei casi c'è comunque stabilità nel comportamento della rete ai confini del caos, ma in alcuni casi tali perturbazioni spingono la sua traiettoria in un altro bacino di attrazione, il che porta a un nuovo ciclo di stati e quindi a un nuovo schema periodico di comportamento (secondo Kauffman questo è un modello plausibile dell'adattamento evolutivo). Il modello di Kauffman si è rivelato esatto. C'è un altro aspetto interessante che riguarda il DNA. Negli ultimi 50 anni gli scienziati hanno osservato che i procarioti (batteri) trasferiscono abitualmente e rapidamente differenti frammenti del loro materiale genetico ad altri batteri. In qualsiasi momento, ogni batterio può utilizzare questi geni accessori, che provengono talvolta da ceppi molto diversi e svolgono funzioni per le quali il suo DNA non è competente. Alcuni di questi frammenti vengono ricombinati con i geni originali della cellula; altri vengono ulteriormente trasferiti. Come conseguenza di questa capacità, tutti i batteri del mondo hanno accesso a un unico pool genico, e pertanto, ai meccanismi adattativi dell'intero regno batterico. Questo scambio globale di geni è noto come ricombinazione del DNA. Gli scambi continui di geni fra batteri producono un'incredibile varietà di strutture genetiche oltre al loro filamento principale di DNA. Una delle conseguenze degli scambi è la formazione di virus che non sono sistemi autopoietici completi ma consistono semplicemente di un frammento di DNA o RNA circondato da un rivestimento proteico. Mutazione e ricombinazione del DNA sono le due strade principali di evoluzione batterica.

S: Parliamo di n - DNA e mit - DNA.

C: Ma Margulis scoprì una terza strada evolutiva: la simbiosi. La prova più notevole dell'evoluzione tramite simbiosi - la tendenza di organismi differenti a vivere in stretta associazione reciproca, come i batteri nel nostro intestino - è offerta dai mitocondri, le centrali elettriche che si trovano all'interno della maggior parte delle cellule nucleate.

S: Dai batteri è nato il DNA mitocondriale.

C: Questi componenti fondamentali di tutte le cellule animali e vegetali che realizzano la respirazione cellulare, contengono un proprio materiale genetico e si riproducono indipendentemente e in tempi diversi rispetto al resto della cellula. Margulis ritiene che i mitocondri fossero in origine batteri che fluttuavano liberamente. In tempi remoti questi batteri invasero altri microorganismi e si stabilirono definitivamente al loro interno. Questi organismi fusi insieme si evolsero poi in forme di vita più complesse, che respiravano ossigeno. Vi fu dunque, in questo caso un meccanismo evolutivo più brusco della mutazione: un'alleanza simbiotica che divenne permanente. La simbiogenesi costrinse i biologi a riconoscere l'importanza vitale della cooperazione nel processo evolutivo (e non solo della competizione), ma del resto lo rilevano anche gli studi sulle formiche dove remotamente vi era meno organizzazione nei loro sistemi sociali, c'era meno creatività, più lotta e competizione, ma in un successivo grado della loro fase evolutiva ci fu cooperazione tra specie differenti di formiche, che convivendo assieme, garantì una maggior continuità, solidità e stabilità per la loro evoluzione e sopravvivenza. Per molti anni i biologi hanno considerato le sequenze proteiche come istruzioni codificate nel DNA. E' chiaro tuttavia, che le triplette di DNA sono in grado di specificare in modo prevedibile un aminoacido di una proteina se e solo se sono inserite nel metabolismo cellulare e cioè nelle migliaia di regolazioni enzimatiche di una rete chimica complessa. E' solo a causa delle regolarità emergenti di una tal rete nel suo complesso che possiamo mettere fra parentesi questo sfondo metabolico e trattare pertanto le triplette come codici per aminoacidi. Il DNA produce l'RNA; l'RNA specifica gli enzimi; gli enzimi riparano il DNA (autopoiesi). Per completare il quadro occorre menzionare gli elementi di base per costruire DNA RNA ed Enzimi: i vettori di energia che alimentano ognuno dei processi descritti (EV e EI), ossia dati dall'attività mitocondriale. Con lo studio della complessità l'attenzione si sposta dalle strutture ai processi del loro emergere. Nel passato c'era la visione dei geni come unità stabili e chiaramente distinte che trasmettono le caratteristiche ereditarie. In che modo è mantenuta la stabilità genetica? Gli errori durante l'auto replicazione del DNA sono uno su dieci miliardi. Incredibile! C'è un complesso sistema di monitoraggio, verifica e riparazione che dipende dagli enzimi (il DNA da solo non è in grado neppure di auto replicarsi). La stabilità genetica è una proprietà emergente che nasce dalle complesse dinamiche dell'intera rete cellulare. La stabilità della struttura genetica non è un punto di partenza, bensì di arrivo, un prodotto finale, il risultato di un processo dinamico ben orchestrato che richiede la partecipazione di un gran numero di enzimi, organizzati in quelle complesse reti metaboliche che regolano e garantiscono sia la stabilità delle molecole di DNA, sia l'accuratezza della loro duplicazione. Durante la propria duplicazione una cellula non passa soltanto la doppia elica del DNA appena replicata, ma anche una serie completa di enzimi, di coenzimi e di ioni (il magnesio è presente per l’attività di centinaia di enzimi) necessari ai processi metabolici così come le membrane e le altre strutture cellulari, in breve l'intera rete cellulare (v. ologramma). In questo modo il metabolismo cellulare può perpetuarsi senza mai abbandonare gli schemi delle proprie reti auto generative. In tutti gli organismi viventi c'è un sottile equilibrio fra stabilità genetica e mutabilità, la capacità da parte dell'organismo di produrre attivamente le mutazioni accettandole solo se aiutano l’evoluzione. I meccanismi di regolazione della mutabilità denotano una crescente abbondanza di dettagli (man mano che si comprendono aumenta la varietà di dettagli, e quindi diventa sempre più complesso comprenderli_ tipica situazione in cui si trovarono i teorici dei quanti, e chi studia le dinamiche complesse caotiche). Le mutazioni sono attivamente generate e regolate dalla rete epigenetica della cellula e l'evoluzione costituiscono una parte integrante dell'auto-organizzazione degli organismi viventi. La stabilità dei geni non è una proprietà intrinseca delle molecole di DNA, bensì emerge da una complessa dinamica di processi cellulari. Nel Dogma Centrale della biologia molecolare, ormai superato si diceva: i geni codificano gli enzimi, che costituiscono i catalizzatori necessari a tutti i processi cellulari. Esso descrive una catena causale di tipo lineare che collega DNA a RNA, alle proteine (enzimi) e ai tratti biologici. Visione causa effetto, deterministica a senso unico, unidirezionale (DNA fabbrica RNA, RNA fabbrica proteine, proteine fabbricano noi) senza che vi sia una possibilità di un passaggio di informazioni nel senso opposto. Questa concezione nota come determinismo genetico purtroppo influenza l'industria delle biotecnologie sull'idea che i geni determinano il comportamento, cercando di associare ad ogni gene una particolare funzione (ad esempio il gene che causa il cancro, il gene che causa la violenza, ecc.). C’è un’interpretazione distorta del DNA, considerandolo il programma o il progetto genetico dell'organismo, o il libro della vita, ed il codice genetico come il linguaggio universale della vita. C’è però qualcosa che non va, non è proprio così. Il genoma umano decodificato non è altro che l'alfabeto, e non è per nulla statico, è dinamico, ed è la sua combinazione di lettere via via differente secondo quali lettere vengono attivate che denota il comportamento umano in termini fisiologici e non. E come una qualsiasi lingua, è destinato ad evolversi (neologismi, importazione di nuove parole), a mutare, a cambiare nel tempo, conservando comunque la sua stabilità (benché ci siano lingue nel mondo che attuino il processo contrario, intendendo una lingua come orale, impoverendo il loro linguaggio, arricchendosi troppo di termini stranieri, o morendo perché nessuno le parla più - vedrei bene l'applicazione della teoria del caos nello studio dell'evoluzione delle lingue a ritroso nel tempo, del resto esse seguono la dinamica delle popolazioni, altra disciplina in cui la teoria del caos è ottimamente applicata). L'illegittima estensione di un paradigma genetico dal livello relativamente semplice della codificazione e decodificazione genetica a quello complesso del funzionamento cellulare rappresenta un errore epistemologico di prima grandezza - i geni visti come fattori causali di tutti i fenomeni biologici - è una confusione fra livelli differenti. Il principio - un gene, una proteina - non può essere valido.

S: Ed infatti non lo è: la maggior parte delle malattie alla base hanno molteplici mutazioni genetiche.

C: I geni sono frammentati, esistono i segmenti codificanti, inframmezzati da lunghe e ripetitive sequenze che non dicono nulla, e la cui funzione è oscura (catalogate superficialmente come DNA spazzatura). Tutto però ha un senso, non esistono il caso e l'inutilità. La loro distribuzione suggerisce che alcune di queste sequenze non codificanti potrebbero contribuire alla regolazione generale dell'attività genetica.

S: A questo punto bisogna riflettere sulla mia principale scoperta: La ICAEM. Le alterazioni del n - DNA ci sono, per esempio, con il Terreno Oncologico. Tuttavia, se correggiamo l’errore funzionale mitocondriale (ICAEM) con la melatonina, NIR-LED e vita regolata le malattie in genere, non insorgono. Allora, l’insorgenza delle malattie come diabete, cancro, ipertensione, si osserva quando – presente l’alterazione del n- DNA – contemporaneamente l’EV è ridotta (acidosi tessutale), corretta la quale mediante incremento di EV (mitocondri che lavorano bene) e di conseguenza aumentando la EI (ristabilendo la realtà non locale) le malattie non insorgono almeno nella stragrande maggioranza dei casi. Termino dicendo che l’alterazione del menoma richiede la ridotta EI!

S: Keller invece scopre che il segnale (o i segnali) che determina lo schema specifico secondo il quale occorre ricombinare la trascrizione definitiva proviene da quelle complesse dinamiche regolatrici che appartengono alla cellula nella sua totalità, conservate da EV e quindi EI. Le dinamiche regolatrici della rete cellulare possono far sì che da un singolo gene emergano molte proteine differenti, e che una singola proteina sviluppi molteplici funzioni. Se spostiamo la nostra attenzione da un singolo gene all'intero genoma ci sono numerosi altri problemi che inficiano il determinismo genetico. Ad esempio, quando una cellula si divide durante lo sviluppo di un embrione, ciascuna nuova cellula riceve esattamente lo stesso numero di geni, ma queste cellule assumeranno poi specializzazioni molto diverse tra loro (cellule muscolari, ematiche, nervose, ecc.). I tipi di cellule non differiscono quindi l'uno dall'altro per i geni che contengono, ma per quelli che in ciascuno di essi risultano essere effettivamente attivi in presenza di differente corredo mitocondriale! La struttura del genoma è la stessa in tutte le cellule, ma gli schemi seguiti dall'attività genetica sono differenti. I geni non agiscono per conto loro, ma devono essere attivati. Le differenze sembrano essere negli schemi dell'espressione genetica piuttosto che nei geni stessi.

S: Ricorda il DNA antenna di Manzelli: i segnali che per risonanza attivano simultaneamente il DNA sono simultanei perché la realtà è non - locale.

C: Ad esempio Jacob e Monod introdussero una teoria, una distinzione tra geni strutturali (che codificano le proteine) e geni regolatori (controllano la trascrizione del DNA e in questo modo regolano l'espressione genetica). Ciò che emerge da queste ricerche è la sempre più profonda comprensione che i processi biologici che coinvolgono i geni sono tutti regolati dalla rete cellulare in cui il genoma è integrato. Questa rete è una realtà marcatamente non lineare, una realtà che contiene molteplici catene di retroazioni, così che gli schemi dell'attività genetica cambiano continuamente come risposta al mutare delle circostanze. Il DNA pur essendo certamente una parte essenziale della rete epigenetica, non è affatto il solo agente causale delle forme e delle funzioni biologiche, come vorrebbe il Dogma Centrale. La forma ed il funzionamento biologico sono proprietà emergenti delle dinamiche non lineari della rete e possiamo attenderci che la nostra comprensione di questi processi di emergenza [v. 1.10] aumenterà sensibilmente con l'applicazione della teoria della complessità alla nuova disciplina della epigenetica. Esperimenti recenti nel campo della genetica hanno mostrato che il venir meno di singoli geni - anche quando si pensava che fossero essenziali - ha effetti molto limitati sul funzionamento dell'organismo. In forza di questa notevole stabilità e solidità dello sviluppo biologico, un embrione può partire da diversi stadi iniziali - per esempio nel caso che dei singoli geni o delle intere cellule vengano accidentalmente distrutte - raggiungendo comunque poi la stessa forma matura che contraddistingue la specie alla quale appartiene. Della serie: tutti siamo importanti ma nessuno è indispensabile ed essenziale.

S: Proprio per questi motivi, non potendo “vedere” il DNA mitocondriale e nucleare, io osservo le modificazioni finali, indotte sulle attività dei sistemi biologici.

C: Ciò chiaramente contrasta con il determinismo genetico. Che cosa fa sì che lo sviluppo segua un determinato percorso?

S: Vedi sopra, la mancanza di EV e quindi di EI a causa della compromissione della respirazione mitocondriale.

C: Fra i ricercatori genetici c'è crescente consenso nel leggere questa solidità come indice della presenza nei percorsi genetici e metabolici di una ridondanza funzionale: sembra che le cellule mantengano aperti molteplici percorsi per produrre le strutture cellulari fondamentali e sostenere i processi metabolici essenziali. La ridondanza assicura quindi oltre alla stabilità dello sviluppo biologico, una grande flessibilità e adattabilità di fronte alle mutazioni ambientali inattese. La ridondanza genetica e metabolica potrebbe essere vista forse come l'equivalente della biodiversità negli ecosistemi. La selezione naturale non opera su singoli geni, ma sugli schemi di autoorganizzazione degli organismi. E' la resistenza del ciclo vitale stesso che è diventata il soggetto su cui opera l'evoluzione. E' possibile rappresentare l'intero processo di sviluppo biologico come una traiettoria in un intervallo di fase che si muove all'interno di un bacino di attrazione [v. 1.13] verso un attrattore che descrive il funzionamento dell'organismo in quella forma stabile che caratterizza la sua età adulta. I sistemi complessi non lineari mostrano stabilità strutturale. Un bacino di attrazione può essere deformato o disturbato senza che per questo vengano a mutare le caratteristiche fondamentali del sistema stesso (dipende dal grado di rumore o di disturbo però). Nel caso di un embrione in fase di sviluppo ciò significa che è possibile cambiare entro certi limiti le condizioni iniziali del processo senza tuttavia danneggiare seriamente lo sviluppo dell'intero organismo. Pertanto la stabilità dello sviluppo, che dal punto di vista del determinismo genetico resta un mistero, è chiaramente una conseguenza di una proprietà di base dei sistemi non lineari complessi. Fin qui arriva Capra.

Ho l'impressione che si faccia una confusione tra schema, struttura e processo. Maturana e Varela parlano di schema unico nella teoria dell'autopoiesi, a cui fanno seguito diverse strutture. Capra appoggia questa teoria, introducendo ciò che lega struttura e schema, e cioè il processo (il cui principio noi lo identifichiamo con l'Energia Informazione secondo Manzelli). Mentre, parlando delle cellule, Capra è fedele all'impostazione di Maturana e Varela (uno schema, più strutture), ora trattando di DNA e geni e genoma, egli si trova in difficoltà, e dice: ci sono più schemi di organizzazione. A mio modesto parere gli manca il principio di EI.

S: Probabilmente, e pertanto non distingue le due realtà.

C: Io resterei fedele all'idea che esiste un unico schema di organizzazione (un determinismo di fondo, un disegno divino preciso, conservativo, benché in un susseguirsi, in una danza di creazione e distruzione, il quale come un vecchio saggio alla fine fa sempre tendere verso una stabilità cosmica, con la sua saggezza), cui possono corrispondere diverse strutture (materializzazione dello schema attraverso il processo di strutturazione favorito dalla EI).

S: Venendo meno la EI (Energia Informazione) per il diminuire della EV (Energia Vibratoria) e l’aumento dell’EM (Energia Materia) la struttura cambia.

C: Questo perché in primo luogo noi osserviamo la struttura, mai potremo conoscere lo schema; quindi questa diversità la vediamo nelle relazioni tra componenti, nelle relazioni che si instaurano tra i vari geni (attivati oppure no), e le relazioni tra componenti denotano la struttura. Cos'è che invece dà diversità alle relazioni tra i geni, cos'è che dà diversità e differenziazione alla struttura? Non può essere altro che il processo di materializzazione/strutturazione, il cui principio è Energia Informazione. Si potrebbe azzardare l'ipotesi, alla luce della teoria del caos, che l'Energia Informazione "detti" i parametri informativi (parametri apprendenti, parametri adattativi, parametri quindi flessibili, mutevoli, visti come pseudo - variabili in un continuo processo di apprendimento) dando luogo di volta in volta a configurazioni attive differenti.

S: Come dicevo sopra.

C: Alcuni parametri dovrebbero essere di tipo 0-1 (acceso spento), mentre altri possono essere di natura differente in conformità a com’è definito lo schema di organizzazione. Io non so in chiave biologica e genetica come dare impulso concreto alla ricerca seguendo un'impostazione simile, può essere che sia completamente infondata od inattuabile, ma secondo questa impostazione si risolvono molti dubbi e discorsi come messi in evidenza da Capra. Ho semplicemente bene in mente come funzionano le dinamiche complesse nella teoria del caos. Mi metto davanti al monitor e osservo le dinamiche di biforcazione al variare dei parametri, oppure le dinamiche degli attrattori. Vario i parametri, anche solo uno per volta e osservo come muta la configurazione dell'attrattore. L'attrattore, che non è altro che un disegno frattale in caso fosse strano, è l'immagine della struttura, è la materializzazione dello schema. Il processo di materializzazione continuo…

S: O strutturazione: il secondo termine è creativo, mentre materializzazione suona distruttivo: accumulo di acido piruvico e lattico che non vengono trasformati in acido acetico e acetil-fosfato, bruciato nel ciclo di Krebs!

C: Da schema a struttura, è dato dal mio comportamento sperimentale, di simulazione, che fa variare i parametri (uno per volta tenendo fissi gli altri, o più alla volta). Immetto informazione differente (immetto parametri via via diversi), si può dire che immetto Energia Informazione.

S: Ottimamente!

C: In un software personale, oltre a poter vedere la dinamica dell'attrattore, che si materializza/ struttura di volta in volta come nuvola di punti che evidenzia un'armonia, un ordine strutturato ("zoomato" dà sempre gli stessi disegni su scale sempre più piccole, in effetti è frattale, siamo in un ologramma), posso congiungere questi punti con delle linee, così ho una fitta rete di linee, che seguendo l'impostazione iniziale, denotano, per ipotesi (con uno sforzo d’immaginazione) le relazioni tra i vari geni. Se modifico anche solo di pochissimo un solo parametro significativo posso assistere a una modificazione della nuvola di punti osservati, che denota l'attivazione ad esempio di nuovi punti (attivazione di nuovi geni) e lo spegnimento di alcuni punti appena osservati (spegnimento di vecchi geni appena osservati). Da quest'ultima osservazione posso anche dire che non è indispensabile che nell'EI ci sia una correlazione diretta con i geni (la mia ipotesi precedente di parametri acceso/spento non è essenziale ed indispensabile). Infatti, l'"Acceso spento" è dato semplicemente dalla configurazione dei parametri EI operante sullo schema di organizzazione, che mi fa vedere, osservare in qualche maniera la struttura finale, di volta in volta, nella quale appare una rete di geni interconnessi, in relazione l'uno con l'altro, e non sempre gli stessi attivati. Se ad esempio il parametro a=0,0000000278 lo muto in a=0,0000000277, non so l'effetto ancora che produrrò sui geni, non so questo parametro quali geni indurrà ad attivarsi e quali a spegnersi, ma ciò lo saprò a posteriori osservando la struttura finale.

S: Infatti, qui l’osservazione è centrale: dobbiamo seguire nel tempo l’evolversi dell’evento, perché mai conosceremo perfettamente le condizioni iniziali, il che permetterebbe l’esatta previsione.

C: Quest'ipotesi è forse più verosimile, perché benché ci sia un determinismo di fondo (schema di organizzazione) c'è estrema sensibilità, adattabilità, flessibilità, mutamento, e quindi non so se si debba pensare anche ad un determinismo istante dopo istante che dica ad ogni istante: "questi geni si attivino, questi no". Bohm dice che c’è istante dopo istante, una causalità di fondo, dato l’ordine implicato, ma non strettamente deterministica, ed è per questo che c’è indeterminatezza, impredicibilità, ovvero spazio per la creatività. E' la nostra osservazione che costruisce le relazioni, le funzioni, le interpretazioni causa-effetto, ma nella teoria dei sistemi dissipativi si parla ben chiaro che tutto accade in maniera auto-regolante, ci sono continuamente degli equilibri complessi lontani dall'equilibrio a cui si assegna il nome di emergenze. [v. 1.10] E tali emergenze appaiono spontanee. La spontaneità non è casuale, ha un fondo di determinismo alle spalle, dato dallo schema di organizzazione, e non è neppure causale in senso stretto, perché c'è spontaneità. Potrebbe esserci causalità a posteriori nel senso di definizione data da un'osservazione secondo il suo dominio cognitivo e la sua osservazione globale nel contesto dell'accoppiamento strutturale osservato: sistema biologico - ambiente – osservatore, ovvero una causalità nel senso di Bohm dovuta all’esistenza di soggiacenti ordini nascosti (e sconosciuti ancora alla scienza) generativi ed implicati di vario grado, gerarchicamente intricati. Mi sto chiaramente muovendo in un campo inesplorato, sarei curioso di sapere cosa ne pensa pure Manzelli di tutto questo, per come lui ha definito l'Energia Informazione, e per sapere quale sia la natura di questa Informazione e da dove arrivi.

S: La sua natura è catalitica, pura. Nei sistemi biologici, di cui m’intendo un poco, giunge dalla fosforilazione mitocondriale come io ho dimostrato: la pressione sopra la parotide della prima gemella, fa aumentare il volume del fegato e pancreas anche dell’altra gemella a chilometri e chilometri di distanza. Il test dell’apnea fa però scomparire la realtà non locale e non succede nulla!

C: Volendo restare nella teoria autopoetica estesa, ossia non chiusa ma ampliata con il processo di strutturazione EI, poiché parliamo di sistemi aperti e lontani dall'equilibrio, si potrebbe pensare che l'EI interagisca (comunicando) con tutti i sistemi biologici di derivazione embrionaria identica presenti nell'organismo (e in alto livello EI ciò è permesso perché siamo nella realtà non locale, quindi non c'è consumo di energia e c'è simultaneità) e quindi con tutti i sistemi visti come continuamente connessi in rete (es. sistema nervoso-endocrino-immunitario), traendo da questa interazione l'Informazione, che va a denotare l'Energia Informazione ad ogni istante del processo autopoietico (di qui l'aggiornamento continuo dei parametri che vanno a materializzare lo schema sotteso al genoma umano visto appunto come rete di relazioni complessa non-lineare tra i vari geni che possono essere attivi oppure no). Del resto l'ipotesi iniziale (parametri acceso/spento a configurare l'attivazione o meno dei geni a seconda dei casi) potrebbe essere verosimile perché ciò che osserviamo a monitor, la nuvola di puntini, non sono i geni, ma è un'astrazione matematica (li avevo identificati come geni metaforicamente, per facilità di spiegazione). E l'ipotesi di parametri zero-uno è in sintonia con una visione di determinismo di fondo (schema) ma non accentuato (passo dopo passo), perché gli zero-uno sono dati non da un qualcosa già scritto ai tempi della creazione (perlomeno in senso stretto), ma dall'interazione della EI con tutti i sistemi biologici dell'organismo (a loro volta apprendenti, a loro volta interagenti con l'ambiente, a loro volta aupoietici, ma strettamente connessi ed interagenti uno con l'altro, a loro volta adattivi, apprendenti, flessibili, mutevoli) e con l'ambiente esterno. Questi parametri andrebbero istante dopo istante a denotare la sintesi di tutto il momento presente (in caso di alta EI, realtà non-locale) in modo tale da creare una configurazione parametrica ottimale dello schema, che va simultaneamente, istante dopo istante, a materializzarsi nella struttura stessa che noi osserviamo. Che ne dici?

S: E’ una teoria…difendibile.

C: Che ci sia una connessione tra la teoria del caos e il funzionamento del genoma umano è evidenziato pure dal fatto che ci sono relativamente pochi geni rispetti a quanti si pensava, ed essi regolano innumerevoli configurazioni e comportamenti. Alla base della complessità osservata c'è una semplicità disarmante, come le semplici regole fondamentali che regolano il comportamento dei quark. Così che semplicità e complessità si intrecciano in una maniera meravigliosa, come noto. Citi spesso il mit-DNA che posso intuire si tratti del DNA mitocondriale. Pare quasi che tu sappia già tutto, che l'Energia-Informazione ed il suo modo di distribuirsi in tutto l'organismo sia correlata al codice genetico dei mitocondri con i loro vettori d'energia. Giorno dopo giorno conversando con te mi si svela un disegno sempre più complesso e straordinario, cerco di aggiungere un pezzettino di puzzle alla volta, anche se chiaramente come ben sai il tutto è ben di più della somma delle sue parti.

S: Come si legge nei Prismi, secondo Adorno.

C: Nel mio essere poeta cammino in punta di piedi tra le cose scientifiche: non voglio certo rubare il mestiere ai biologi, o ai chimici, o ai genetisti. Alla fine dei conti resto un poeta, o meglio, è questo il dono che ho ricevuto, la poesia. Non mi approprio mai di nulla.