mercoledì 21 agosto 2019

Neutrino: la vera particella di Dio fantasma



Neutrino: la vera particella di Dio fantasma

Scienza e Fisica Quantistica

>> http://bit.ly/2LzQgg5      

Perché possiamo definire il neutrino la vera "particella di Dio"? Quali questioni fondamentali di fisica potrebbero essere risolte con lo studio delle caratteristiche non ancora note di questa particella?

Luigi Maxmilian Caligiuri - 14/08/2019

Mentre scrivo quest’articolo, qualche trilione di neutrini, prodotti dal Sole, generati dalla radioattività terrestre, dai reattori nucleari e dagli elementi radioattivi presenti nel corpo umano, mi attraversa ogni secondo senza che io praticamente me ne accorga. Il neutrino è, infatti, la sola particella elementare, sinora conosciuta, in grado di attraversare la materia senza praticamente “disturbarla”. A puro titolo di esempio basti pensare che un neutrino sarebbe in grado di attraversare molti miliardi di volte una vasca riempita d’acqua lunga quanto la distanza che separa la Terra dalla Luna prima di interagire con una singola molecola d’acqua e che ogni centimetro quadrato della nostra pelle è colpito ogni secondo da circa 65 miliardi di neutrini senza alcuna conseguenza.

Il neutrino è la “vera” particella di Dio

La ragione di siffatto straordinario comportamento è legata alle peculiari caratteristiche di questa enigmatica particella che, oseremo dire, potrebbe essa sì, a ben ragione, essere soprannominata la “particella di Dio”, data anche l’importanza che essa riveste in numerosi processi fisici fondamentali.

Il grande filosofo greco Eraclito era solito affermare che “la natura delle cose ama nascondersi” e il compito e la missione della scienza, e della fisica in particolare, è di scoprire tale natura. Nel caso del neutrino, allora, la strada giusta per conquistarne i segreti passa attraverso l’elaborazione di un modello teorico coerente e non contraddittorio in grado di spiegarne le caratteristiche note e prevederne quelle ancora ignote da un lato e di progettare e realizzare esperimenti in grado di rilevare tali caratteristiche dall’altro.

Sappiamo che i neutrini intervengono in numerosi fenomeni fisici fondamentali, dal funzionamento delle stelle alle reazioni nucleari, e probabilmente in molti altri non ancora ben compresi. Fin dalla sua scoperta fu subito chiaro che lo studio delle sue proprietà si sarebbe rivelato particolarmente ostico anche perché, a causa delle sue caratteristiche, la rilevazione delle sue eventuali interazioni avrebbe in generale richiesto la messa a punto di apparati sperimentali complessi e costosi, oltre che di difficile ubicazione (è necessario, infatti, che i rivelatori usati in tali esperimenti non siano influenzati dal “rumore” dovuto alla presenza di altre particelle in grado di determinare dei falsi positivi), essendo la massa dei neutrini particolarmente esigua (e non risentendo, pertanto, dell’attrazione gravitazionale) ed essendo essi privi di interazioni di tipo elettrico (avendo carica elettrica nulla) e magnetico.

Intorno al 1940 cominciò a farsi strada l’idea, avanzata dal fisico Hans Bethe, che una delle sorgenti più intense dei neutrini, rispetto alla Terra, sarebbe stata da ricercare nelle reazioni nucleari che avvengono all’interno del nostro Sole e qualche anno dopo, un gruppo di ricercatori giapponesi guidati da Shoichi Sakata, dimostrò che ciò che veniva chiamato neutrino, in realtà, dal punto di vista sperimentale, poteva consistere in un insieme di componenti.

Negli anni successivi, una serie di lavori di carattere sia teorico che sperimentale, indicanti chiaramente la natura “nucleare” dei neutrini, modificarono sostanzialmente il quadro allora noto della fisica delle particelle elementari. Circa nello stesso periodo Bruno Pontecorvo ipotizzò che i neutrini emessi dal Sole potessero “oscillare”, durante il loro cammino verso la Terra, trasformandosi e modificando le proprie caratteristiche, possibilità che, come vedremo, si rivelò fondamentale in relazione a un’altra caratteristica peculiare di tale misteriosa particella e per spiegare le anomalie riscontrate nella produzione dei neutrini solari la cui analisi, sin dal 1968, aveva evidenziato un comportamento apparentemente inspiegabile. I calcoli avevano infatti evidenziato che il numero di neutrini rilevati risultata significativamente inferiore rispetto a quelli previsti in base ai modelli teorici disponibili.

A partire dal 1962, lo studio delle caratteristiche di alcune particolari interazioni tra particelle richiese l’introduzione di due ulteriori tipi di neutrini, oltre a quello relativo alle particelle beta (ovvero il neutrino elettronico), rispettivamente associato ad altre due particelle elementari, il tauone e il muone.

Questa necessità evidenzia un’altra caratteristica unica del neutrino, ovvero la sua possibilità di manifestarsi in tre forme (denominate “sapori”) differenti, ognuna accompagnata dalla rispettiva antiparticella (antineutrino).

Neutrini: aveva ragione Dirac o Majorana?

Ancora più interessante, come vedremo meglio nel seguito anche in relazione a ciò che riguarda il mistero dell’asimmetria tra materia e antimateria, risulta la questione riguardo la vera natura dei neutrini, vale a dire se essi rispecchino la descrizione formulata da Paul Dirac o quella, alternativa ed estremamente più affascinante, proposta dal grande Ettore Majorana. Anche i tentativi di inquadrare i neutrini nell’ambito della descrizione più completa delle particelle elementari oggi comunemente accettata, vale a dire il cosiddetto modello standard, conducono a insuperabili contraddizioni poiché questo prevede, per i neutrini, una massa a riposo nulla e dunque una velocità pari a quella della luce nel vuoto.

Tuttavia, già verso la fine del secolo scorso, i dati provenienti dagli apparati atti a misurare le interazioni dei neutrini solari e di quelli generati dalla radiazione cosmica sull’atmosfera terrestre, risultavano incompatibili con le previsioni del modello standard, suggerendo un valore diverso da zero per la loro massa, laddove invece, paradossalmente, le misurazioni eseguite considerando i neutrini prodotti artificialmente sulla Terra e misurati nelle vicinanze delle loro sorgenti, sembravano rispettare tali previsioni (fornendo quindi un valore pari a zero per la loro massa a riposo).

Come discuteremo nel seguito, la risoluzione, almeno parziale, di questo “puzzle” non è stata per nulla semplice da trovare e, possiamo anche dire, non sembra ancora neanche del tutto definitiva.

Continua la lettura di questo articolo su:

Scienza e Conoscenza n. 69 - Luglio/Settembre 2019 - Rivista >> http://bit.ly/2LzQgg5
Nuove scienze, Medicina Integrata

venerdì 2 agosto 2019

La medicina è una sola: scienza e serendipity



La medicina è una sola: scienza e serendipity

Medicina Non Convenzionale


Il dottor Stefano Fais ci propone un'interessante riflessione sul vero senso della ricerca scientifica in medicina

Stefano Fais - 02/08/2019

Questo articolo è tratto da Scienza e Conoscenza 69.

Come scienziato non mi interessa attribuire grande importanza a termini quali non convenzionale, integrata, alternativa quando sono riferiti alla medicina. Per me, nella scienza, la cosa realmente importante è mantenere un approccio alla procedura sperimentale aperto, privo di chiusure aprioristiche e dogmatiche tale per cui ciò che a prima vista potrebbe apparire come un errore, o qualcosa di insignificante, potrebbe rivelarsi una grande scoperta se solo siamo capaci di cambiare l’angolazione, la prospettiva, da cui osserviamo il fenomeno in esame.

Quando si parla di serendipity ci si riferisce alla scoperta di qualcosa mentre si stava cercando qualcos’altro. L’esempio classico, in questi casi, è quello relativo alla penicillina.
Fleming stava studiando lo Staphylococcus influenzae quando una delle sue piastrine di coltura si contaminò e su di essa si sviluppò un’area ben delimitata priva di batteri: il resto della storia lo conosciamo tutti. Nel 2008 il «Financial Time» ha pubblicato un articolo provocatorio sul ruolo della serendipity nel futuro della medicina. In realtà la serendipity ha avuto un ruolo chiave nella scoperta di un’am-pia gamma di farmaci psicotropi, tra cui l’anilina viola, il dietilamide dell’acido lisergico, il meprobamato, la clorpromazina e l’imipramina.

Quando un ricercatore fa una scoperta mediata dalla serendipità deve prestare un alto livello di attenzione a tutto ciò che sta accadendo attorno a lui, a trecentosessanta gradi. Ma questo non basta: per scoprire qualcosa che sia veramente nuovo e fuori dagli schemi occorre mantenere una mente sufficientemente sganciata dalle tradizionali infrastrutture cognitive e culturali che normalmente rendono estremamente focalizzata su un particolare punto di arrivo – spesso predefinito – l’attività di ricerca.

Io credo che un ricercatore in medicina debba mantenere lo sguardo curioso e innocente di un bambino.

Max Planck disse che la scienza non progredisce perché gli scienziati cambiano idea, ma piuttosto perché gli scienziati attaccati a opinioni errate muoiono e vengono rimpiazzati. Otto Warburg ha usato le stesse parole per commentare il fatto che le sue idee – non mainstream sulla genesi del cancro – faticassero a essere accettate. Personalmente ritengo che le ricerche non mainstream nella scienza vadano incoraggiate e che abbiano avuto – e possano avere – un ruolo fondamentale nello sviluppo della medicina. In questa rubrica che terrò su Scienza e Conoscenza in ogni numero, parleremo sia delle scoperte che sono passate inosservate anche se ricche di prospettiva – una tra tutte il ruolo della vitamina C nella cura dei tumori – sia delle più recenti ricerche guidate da un approccio non mainstream, come ad esempio la scoperta che farmaci antiacidi possono avere un ruolo chiave nelle nuove strategie antitumorali e l’importanza dell’acqua e di antiossidanti nel mitigare l’invecchiamento. Vi aspetto in ogni numero per grandi novità!

Stefano Fais si è laureato in Medicina e Chirurgia nel 1981. Per circa 15 anni ha condiviso l’attività di medico con l’attività di ricerca e nel 1994 ha deciso di dedicarsi completamente ad essa. È attualmente Direttore del Reparto Farmaci Anti-Tumorali dell’Istituto Superiore di Sanità. È autore di più di 200 fra lavori scientifici, monografie e libri ed è nventore di 10 brevetti.

Continua la lettura su

Scienza e Conoscenza n. 69 - Luglio/Settembre 2019 - Rivista >> http://bit.ly/2LzQgg5
Nuove scienze, Medicina Integrata

mercoledì 31 luglio 2019

Perche' il Metodo Di Bella porto' gente in piazza



Perche' il Metodo Di Bella porto' la gente nelle piazze?

Medicina Non Convenzionale

In campo oncologico sta prendendo corpo una nuova scuola di pensiero, una nuova linea di ricerca e metodo multiterapico, che rivalutata e riscopre i concetti basilari, il razionale, la logica, ideate oltre 40 anni fa dal Prof. Di Bella

Redazione Scienza e Conoscenza - 31/07/2019

Tratto dal libro di Giuseppe Di Bella La scelta antitumore

Il fine di contenere e contrastare l’inarrestabile, ormai epidemica, diffusione del cancro, mi ha portato a documentare, spiegare e divulgare un metodo terapeutico basato su evidenze scientifiche non ancora valorizzate nella prevenzione farmacologica e terapia dei tumori, anche se pubblicate sulla massima banca dati biomedica www.pubmed.gov.

L’esponenziale incremento della diffusione del cancro rappresenta la più evidente conferma del fallimento delle attuali misure di prevenzione. Così come le decine di milioni di morti ogni anno per tumore certificano gli attuali gravi limiti della terapia medica del cancro. Ancora oggi le neoplasie del seno rappresentano la prima causa assoluta di morte per le donne, in tutto il mondo.

Se oggi i protocolli oncologici fossero realmente in grado di guarire i tumori solidi (gli altri, le leucemie, sono una stretta minoranza) ovviamente non avrebbe ragione d’essere la chirurgia oncologica, che oggi rappresenta l’unica efficace misura terapeutica in grado di salvare una certa percentuale di ammalati oncologi. Nel 1996, gli esiti positivi del Metodo Di Bella (MDB), avevano creato un crescente interesse da parte dell’opinione pubblica e una progressiva ostilità da parte delle multinazionali del farmaco e dei circoli di potere politici, accademici, finanziari e degli apparati sanitari collegati. Si arrivò così a manifestazioni di piazza per ottenere l’erogazione del MDB.

La ragione vera e profonda della rabbia isterica, dell’ira e dell’odio contro il Prof. Luigi Di Bella risiede essenzialmente nell’aver messo in crisi e delegittimato la dittatura terapeutica − unicamente finalizzata allo sfruttamento della sofferenza e della malattia − attraverso le dirette, numerose e pubbliche testimonianze di troppe persone guarite con le sue cura.

Il movimento di opinione popolare, nato spontaneamente, ha costretto questi poteri a sospendere per 9 anni la dittatura terapeutica. La grossolana falsificazione della sperimentazione del ’98 (come vedremo nel primo capitolo) non ha loro consentito di attuare la delegittimazione del Metodo Di Bella, che è e rimarrà un documentato atto di accusa di una gestione mercantile della medicina ed è sempre più confermato da un crescente numero di pubblicazioni sulle banche dati medico scientifiche internazionali.

Significative, sulla conduzione della ricerca scientifica e dei relativi fallimentari protocolli di cura, le pubbliche dichiarazioni del premio Nobel, Prof. Randy Schekman:

«… la ricerca in campo scientifico non è affatto libera ma in mano a una cerchia ristretta (la cosiddetta “Comunità scientifica”). ALMENO IL 50% DEI DATI MEDICI È CORROTTO… ».

Il riferimento delle istituzioni sanitarie alla tanto celebrata “Comunità scientifica” è continuo:

«Essa pontifica con giudizio infallibile, ma è ormai talmente inquinata, da aver falsificato almeno il 50% del dato scientifico».

Denuncia pienamente condivisa da Richard Horton, caporedattore del Lancet, una delle più prestigiose riviste storiche di medicina, che ha dichiarato:

«Gran parte della letteratura scientifica, forse la metà, può essere dichiarata semplicemente falsa. La scienza ha preso una direzione verso il buio».

Anche la Prof. Marcia Angell, per 20 anni caporedattrice di un’altra delle massime testate scientifiche internazionali, il New England Medical Journal (NEMJ), ha affermato:

«Semplicemente, non è più possibile credere a gran parte della ricerca clinica che viene pubblicata».

Dichiarazioni da valutare con la massima attenzione, per la competenza, l’esperienza e la cultura, il livello scientifico dei Prof. Schekman, Angel e Horton, Premi Nobel e caporedattori delle massime testate medico scientifiche mondiali non sono pericolosi complottisti, né biechi populisti, ma le rare, forse ultime voci che all’onestà intellettuale associano una grande cultura  e  rilevanti meriti scientifici. «Le evidenze scientifiche che non arricchiscono non sono pubblicate». Per questo una rilevante quantità di dati scientifici definitivamente acquisiti, certificati e incontestabili, sono rifiutati per la pubblicazione dalle grandi riviste biomediche, non sono trasferiti nella clinica e non sono inseriti nei “prontuari”, nelle “linee guida”, nei “protocolli.

Un numero crescente di medici e docenti universitari (alcuni dopo esperienze personali) ha preso coscienza dell’urgente necessità di superare l’attuale stallo nella ricerca e terapia del cancro mediante un radicale rinnovamento dei paradigmi della ricerca oncologica e il loro affrancamento da condizionamenti speculativi.

Oggi sta prendendo corpo una nuova scuola di pensiero, una nuova linea di ricerca e metodo multiterapico, che rivalutata e riscopre i concetti basilari, il razionale, la logica, ideate oltre 40 anni fa dal Prof. Di Bella.

Scopri il libro dai cui è tratto questo articolo!

La Scelta Antitumore — Libro
Prevenzione, terapia farmacologica e stile di vita
Giuseppe Di Bella