Contattaci

Ricerca

Alzheimer e Parkinson, perché abbandonare la ricerca non è una buona idea

Pubblicato

il

A seguito di un recente lavoro di revisione dei nostri progetti, abbiamo deciso di terminare i nostri sforzi nella ricerca di base nel campo della neurologia e nello sviluppo iniziale di farmaci, e di riallocare i fondi in aree dove abbiamo maggiore leadership scientifica, il che ci consentirà di aumentare il nostro impatto sulla vita dei pazienti”

. Tradotto dall’aziendalese: non conviene più, dal punto di vista economico, lavorare a farmaci per il trattamento di malattie come il Parkinson o l’Alzheimer, quindi ci dedicheremo ad altro. Parole pesanti, tanto più che a comunicarle, in una mail ufficiale inviata a Npr, è stata Pfizer, colosso del farmaco, che appena due anni fa aveva lanciato (assieme ad altre case farmaceutiche, industrie e con la partecipazione del governo statunitense) il Dementia Discovery Fund, un fondo di investimenti dedicato proprio allo sviluppo di farmaci per il trattamento della demenza. La notizia, com’era prevedibile, ha avuto un impatto immediato sia sul mercato – il valore delle azioni di Pfizer ha subito una flessione dopo l’annuncio – che sulle associazioni di pazienti, che si sono unanimemente dette “preoccupate e allarmate” dalla decisione di Pfizer, anche per il timore che altre aziende ne seguano l’esempio.

 

Qualche numero

Quantificare esattamente il numero di pazienti potenzialmente coinvolti non è semplice, dal momento che il comunicato di Pfizer parla genericamente di “neurologia”. Possiamo però considerare due tra le più comuni patologie neurologiche, ovvero le demenze (e in particolare l’Alzheimer) e il Parkinson.

 

 

Nel 2016, in tutto il mondo, si contavano circa 44 milioni di persone affette da demenza, e si stima che solo un paziente su quattro sia stato correttamente diagnosticato. La malattia è particolarmente comune nei paesi più sviluppati (Europa occidentale e nord America sopra tutti) e lo scenario potrebbe essere destinato a peggiorare, soprattutto a causa dell’allungamento della durata della vita e del conseguente invecchiamento della popolazione, dal momento che la demenza è prevalentemente un disturbo della terza età. Il morbo di Parkinson, invece, si stima colpisca tra 10 milioni di persone in tutto il mondo, con una prevalenza di circa 41 persone su 100mila dopo i 40 anni, il che rende la malattia il secondo disturbo neurodegenerativo più comune dopo l’Alzheimer.

 

Più subdoli degli altri


Per #Parkinson e #Alzheimer, come per la maggior parte dei disturbi neurodegenerativi, nonostante i grandissimi sforzi della ricerca biomedica, al momento non esiste nessuna cura. Almeno intesa come trattamento in grado di arrestare definitivamente la malattia e farne scomparire del tutto i sintomi. Perché questi disturbi sono così difficili da curare? “La ragione principale”, ci spiega Paolo Maria Rossini, direttore dell’Area neuroscienze alla Fondazione Policlinico Universitario Agostino Gemelli di Roma, “è il fatto che si tratta di disturbi che aggrediscono il sistema nervoso in modo silenzioso, molto prima che si inizino a manifestare i primi sintomi visibili. In parte il fenomeno è dovuto all’estrema plasticità del cervello: nei primi stadi di malattie di questo tipo, i neuroni sono in grado di riorganizzarsi e ‘nascondere’ così il disturbo. Quando questa operazione non viene più eseguita in modo efficiente, la malattia diventa patente. Ed è ovviamente ancora più difficile curarla”. A questo si aggiunge la difficoltà di trattare con un apparato complesso come il sistema nervoso centrale: “Dal punto di vista dell’eziologia, dei fattori di rischio, della diagnostica, del decorso”, prosegue Gianluigi Mancardi, presidente della Società italiana di neurologia e direttore della Clinica neurologica dell’Università di Genova“le malattie neurodegenerative di solito sono multifattoriali ed estremamente complesse”.

 

Cosa abbiamo a disposizione

Ciò premesso, come trattiamo attualmente i pazienti che soffrono di queste malattie? È necessario fare un distinguo. “Il Parkinson”, spiega Mancardi, “è una patologia caratterizzata dalla mancanza di produzione di un neurotrasmettitore, la dopamina. Supplendo dall’esterno a questo deficit, si riesce a ridurre i sintomi e in qualche modo rallentare il progresso della malattia per un periodo relativamente lungo, dell’ordine di tempo di dieci anni”. Discorso diverso, invece, vale per l’Alzheimer, malattia che non è caratterizzata da un deficit biochimico integrabile dall’esterno, ma dalla formazione e dall’accumulo nel cervello di placche di una proteina, la beta amiloide. Il che rende la ricerca di un trattamento per la malattia ancora più complessa e delicata. Tanto che Joseph Belli, insigne neurologo e autore del libro In pursuit of memory – The fight against Alzheimer, ha recentemente ammesso che “gli attuali trattamenti per l’Alzheimer sono stati approvati, sostanzialmente, solo perché sono meglio di niente. Non c’è nient’altro in questo momento. Si tratta di farmaci scoperti negli anni settanta e ottanta, che cercano di mitigare i sintomi della malattia, ma non agiscono sui meccanismi biologici alla base del disturbo. Abbiamo scoperto che in circa sei pazienti su dieci questi trattamenti ritardano i sintomi di un tempo compreso tra sei mesi e un anno […] Il che, semplicemente, non è abbastanza”.

 

Cattive notizie, buone notizie

L’ultimo anno non è stato foriero di ottime notizie per quanto riguarda la ricerca di trattamenti per l’Alzheimer. In particolare, diversi trial clinici hanno dato esiti negativi: a febbraio, per esempio, i test di fase III condotti su una molecola, l’idalopirdina, sono falliti; stessa sorte è capitata ad altre molecole sperimentate da Merck e Accera. Il problema, insistono ancora gli esperti, sta nel fatto che la maggior parte degli studi e dei trial si concentrano su pazienti in cui la malattia è già in fase moderata o addirittura avanzata. Che, come abbiamo visto, sono molto difficili da trattare. Ma ci sono anche notizie più incoraggianti: “La ricerca, forse un po’ colpevolmente”, dice Mancardi, “si è focalizzata finora su pazienti già sintomatici. Ultimamente, per fortuna, il paradigma sta cambiando: ci si sta spostando su pazienti che non presentano i sintomi ma hanno esami di laboratorio alterati, e in cui quindi la malattia è probabilmente a uno stadio iniziale. Su questi pazienti, auspicabilmente, riusciremo ad avere dei buoni risultati: gli studi in corso sugli anticorpi monoclonali, per esempio, sembrano particolarmente promettenti”. E ancora: “Ci sono oltre 50 trial clinici in corso, prosegue Rossini, “relativi a molecole che agiscono a vari livelli, dal blocco della formazione delle placche all’azione sulla proteina tau a meccanismi antiinfiammatori e antiossidanti”. Molti dei risultati di questi trial sono attesi per il 2023.

 

La ricerca deve andare avanti

Tornando al caso Pfizer, è bene ricordare che le case farmaceutiche, naturalmente, sono aziende a tutti gli effetti. E come ogni azienda scelgono il modello di business che ottimizza e massimizza i propri profitti. Ma è altrettanto importante sottolineare, parafrasando Orwell, che se tutte le aziende sono uguali, qualcuna è più uguale delle altre. Chi si occupa di sanità e salute, pur non essendo un ente filantropico, ha inevitabilmente un carico di responsabilità maggiore degli altri, e di questa responsabilità deve rendere conto ai pazienti e all’opinione pubblica in generale. “Nessuno sostiene che le aziende farmaceutiche debbano dedicarsi alla ricerca per spirito di filantropia”, fa notare in proposito Michael Hitzik in una columnsul Los Angeles Times“ma Pfizer, per esempio, si è mostrata particolarmente avversa al rischio, almeno nel contesto statunitense. È la seconda più grande azienda farmaceutica degli Stati Uniti per volume di vendite (dopo Johnson & Johnson) e, negli ultimi anni, sembra essersi dedicata più a operazioni finanziarie [finalizzate in particolare a risparmi fiscali, ndr] che alla ricerca nel campo biomedico”. E Rossini rincara la dose: “Non è pensabile che alle aziende farmaceutiche sia permesso abbandonare un settore di ricerca così importante, lasciando orfani decine di milioni di pazienti in tutto il mondo”, conclude l’esperto. “Sarebbe auspicabile l’istituzione, per esempio, di un’authority globale che vieti alle case farmaceutiche di abbandonare specifici campi di ricerca, indipendentemente dal margine di profitto che generano”. Una soluzione drastica che andrebbe contro il mercato, ma necessaria per il benessere globale?

 
  

Licenza Creative Commons

 

 

Crediti :

Wired

Detective presso Computer Crime Research Center. Investigazioni Roma. Ingegneria Elettronica e delle Telecomunicazioni Seminario Analisi del Crimine Violento Università di Roma

Ricerca

Due scienziati tornano a ipotizzare che Oumuamua sia una navicella aliena (ma le probabilità sono scarse)

È davvero difficile a credersi, ma due fisici di una delle più prestigiose università del mondo, stanno per pubblicare uno studio secondo cui Oumuamua potrebbe essere una nave spaziale

Pubblicato

il

In un anno di dubbi e incertezze, lo abbiamo chiamato in tutti i modi possibili, da sigaro spaziale ad asteroide interstellare, fino a promuoverlo definitivamente a cometa. Ma sull’origine di Oumuamua, alcuni scienziati sembrano proprio non darsi pace: secondo due fisici Abraham Avi Loeb e Shmuel Bialy dell’Harvard Smithsonian Center for Astrophisics, ci sarebbe la possibilità che Oumuamua possa essere una navicella spaziale progettata per un viaggio interstellare. In altre parole (anche se sembra davvero difficile a credersi), i due studiosi hanno raccontato in uno studio pre-print appena diffuso, che potrebbe essere un oggetto creato per mano di una vita extraterrestre. E sebbene a dirlo siano due studiosi di una delle più prestigiose università al mondo, dobbiamo evidenziare il fatto che nel nuovo documento non è presente alcuna prova e dato che dimostri che sia davvero una astronave extraterrestre.

Da quando nel 2017 Oumuamua è comparso nei nostri telescopi non ha mai smesso di affascinare e far parlare di sé.

Estraneo al nostro sistema solare e solo di passaggio, gli astronomi di tutto il mondo si erano chiesti cosa fosse esattamente e da dove provenisse. E, già un anno fa, ricordiamo, tra le varie ipotesi c’erano state anche le fantasiose voci secondo cui l’asteroide interstellare potesse essere una navicella spaziale aliena arrivata da un altro Sistema solare. Voci, queste, che erano state messe a tacere già ai tempi dalle analisi del progetto Breakthrought Listen, che monitorando l’asteroide con una campagna di ascolto in cerca di eventuali segnali radio provenienti da Oumuamua, aveva infine dichiarato che queste ipotesi erano da ritenersi del tutto remote e improbabili.

Lungo 800 metri, largo 80 metri e con un cuore da roccia e ghiaccio avvolto in quella sua bizzarra forma. Ma ciò che incuriosiva maggiormente la comunità scientifica era che l’oggetto spaziale aveva piccoli cambiamenti di direzione e velocità che non potevano essere attribuiti alle sole forze gravitazionali. Una buona spiegazione, secondo la scienza, sarebbe nel processo di degassamento, dove getti di materiale gassoso espulsi dalla superficie, dovuti all’interazione tra il calore del Sole e le componenti ghiacciate di Oumuamua, ne avrebbero aumentato la sua velocità.

Ma se fosse stata davvero una cometa, secondo la nuova ipotesi dei due studiosi, il degassamento si sarebbe dovuto verificare a poca distanza dal Sole, e non mentre si Oumuamua si allontanava. Ed è proprio da questa anomalia che Loeb (che precisiamo è coinvolto non a caso nel Breakthrough Starshot Initiative, progetto volto alla ricerca di segnali provenienti dallo Spazio) e Bialy nel loro nuovo studio hanno suggerito che il movimento di ‘Oumuamua sia stato progettato artificialmente per essere spinto nello Spazio usando la forza della luce, attraverso una vela solare.

Ovviamente, lo scetticismo da parte di altri esperti non ha tardato ad arrivare. Per esempio, Michele Bannister, un astrofisico della Queen’s University di Belfast, ha commentato al giornale Popular Science che la nuova ipotesi sarebbe appropriata solo se non ci fossero altre solide spiegazioni per l’improvviso aumento dell’accelerazione di Oumuamua. In altre parole, spiega l’esperto, qualsiasi oggetto misterioso potrebbe teoricamente essere manodopera degli alieni, ma ciò non vuol dire che quando un fenomeno sfugge a una spiegazione convenzionale significa allora che sia automaticamente frutto di forme di vita extraterrestri. “Abbiamo buone spiegazioni che si adattano bene ai dati”, ha precisato Bannister, citando un articolo pubblicato su Nature all’inizio di quest’anno (a cui hanno collaborato anche studiosi italiani) che si è basato sui dati raccolti in otto mesi per supportare l’idea che l’oggetto spaziale possa essere considerato una vera e propria cometa.

Infine, dobbiamo precisare che c’è una grande differenza tra le fantasiose ipotesi che giravano un anno fa e ciò che Loeb e Bialy hanno deciso di fare. “Ora è passato più di un anno dal passaggio di ‘Oumuamua”, dice Bannister. “Non abbiamo fretta e abbiamo tutti i dati a disposizione per cercare semplicemente di aumentare la nostra comprensione su questo visitatore. Una nuova ipotesi come quella dei ricercatori di Harvard è più rumore che altro. Ci vorrà molto tempo per analizzare tutti i dati raccolti su ‘Oumuamua, ma la cosa sicura è che l’oggetto non è alieno”.

 
  

Licenza Creative Commons

 

 

 

 

Crediti :

Wired

Continua a leggere

Ricerca

SpaceX vola verso il record di lanci annuali

Nuovo successo per SpaceX: per la prima volta il razzo riutilizzabile Falcon9 è partito e atterrato dalla base aerea di Vandenberg in California

Pubblicato

il

Andata e ritorno, un viaggio spaziale del Falcon9. Il 62esimo volo del razzo targato SpaceX (partito alle 4.22 italiane dell’8 ottobre) è andato a buon fine, così come il suo successivo atterraggio sulla terrafermanemmeno 8 minuti dopo. E per la prima volta la cornice non era quella di Cape Canaveral in Florida, ma la base aerea di Vandenberg in California.

 

Andata

A 17 anni dal primo lancio spaziale, SpaceX continua a accumulare successi. E con quello del Falcon9 partito stanotte dalla costa californiana si avvicina al proprio record di lanci annuali (18). Il Falcon 9 utilizzato per questo volo era già stato impiegato il 25 luglio scorso per piazzare una decina di satelliti per la compagnia di telecomunicazioni Iridium, rientrando poi sulla Terra e atterrando su una piattaforma mobile in mezzo all’oceano Pacifico.

Ritorno

Stavolta però si può parlare di un vero e proprio rientro alla base. Partito da Vandenberg, per la prima volta nella storia del razzo e della compagnia, il Falcon9 è atterrato su una piattaforma vicina al punto di lancio, sempre all’interno della base aera californiana. Una novità per gli abitanti della zona, che erano stati in precedenza avvisati della possibilità di sentire i cosiddetti boom sonici, i forti tuoni che si avvertono quando un oggetto supera il muro del suono.

La missione

Il lancio del razzo della compagnia di Elon Musk ha consentito di portare in orbita il satellite Saocom 1a per conto dell’Agenzia spaziale argentina.

Si tratta della prima di due sonde che raccoglieranno dati relativi all’umidità del suolo per fini agricoli e, in collaborazione con la missione italianaCosmo-SkyMed, osserveranno la Terra per aiutare nella gestione delle emergenze in caso di disastri naturali. La sorella, Saocom 1b, partirà sempre con un volo SpaceX nel 2019.

Crediti :

Wired

Continua a leggere

Ricerca

Buone notizie sul bosone di Higgs: decade come dovrebbe

Identificato il principale decadimento del bosone di Higgs, la nota particella che fornisce la massa alle altre. Higgs decade in due quark bottom. Un risultato che apre le porte a nuovi studi sull’assetto della fisica attuale

Pubblicato

il

Funziona bene, decade regolarmente. Stiamo parlando del bosone di Higgs, la particella che attraverso un complesso meccanismo conferisce la massa a tutte le altre, scoperta al Large Hadron Collider al Cern nel 2012. Dopo la misura della sua massa, importante proprietà che lo caratterizza, oggi arriva una prova che anche il suo comportamento, ovvero il modo in cui decade, producendo altre particelle, è conforme a quanto aspettato. Questo risultato arriva da una ricerca svolta presso l’Lhc e coordinata dalla Princeton University, che ne dà notizia.

Come tante altre particelle instabili per natura, il bosone di Higgs decade – ovvero si trasforma – dando vita a nuove particelle più leggere: in questo caso si tratta di due quark bottom (in generale i quark sono particelle che costituiscono il protone), scoperti nel 1977 al Fermilab a Chicago da un gruppo guidato da Leon Lederman (lo stesso scienziato che battezzerà il bosone di Higgs come la particella di Dio, l’espressione tanto ripresa dai giornalisti e poco amata dai fisici).

I quark bottom rappresentano uno dei sei diversi tipi di quark, le particelle elementari che rappresentano (insieme ad altre, in tutto ora sono 17) i mattoni del Modello standard, la teoria fisica che descrive tutte le particelle e le interazioni fisiche – ad eccezione di una, quella gravitazionale.

Ciò che accade esattamente all’Lhc, il il potentissimo acceleratore di particelle al Cern di Ginevra, è uno scontro fra protoni accelerati, che dà luogo in certi casi al bosone di Higgs, le cui tracce vengono rilevate dagli strati concentrici dei rivelatori di Lhc: questi strati somigliano a cipolle e le particelle sono come inchiostri di colore diverso, che si diffondono lasciando le loro tracce.

Il bosone ha una vita molto breve, pari a frazioni infinitesimali di un nanosecondo (un milionesimo di millesimo di secondo). Dopo questo tempo infinitesimo, è decaduto in due quark bottom. Qui di seguito la ricostruzione del decadimento del bosone di Higgs.

bosone Higgs

(foto: Image courtesy of the CMS Collaboration. In blu i jet dei quark bottom, prodotti del bosone di Higgs, e in rosso i getti di un’altra particella, il bosone Z, generata insieme all’Higgs)

 

Tuttavia, individuare questo decadimento, anche se meno raro di altri, non è facile. La difficoltà sta nel fatto che non solo il bosone di Higgs, ma anche numerose altre particelle, producono i quark bottom. Per districarsi in questo mare di quark, i ricercatori hanno utilizzato i grandi rivelatori Compact Muon Solenoid (Cms) e A Toroidal Lhc ApparatuS (Atlas), due dei principali esperimenti dell’Lhc, che hanno operato indipendentemente l’uno dall’altro, raggiungendo lo stesso risultato. Inoltre i quark non vengono rilevati come particelle libere, cioè da soli, dato che sono legati ad altri o decadono rapidamente e la loro presenza viene individuata indirettamente tramite la ricostruzione dei valori delle masse delle altre particelle.

Una volta prodotti, i quark bottom generano altre particelle, per cui gli scienziati hanno avuto bisogno di molti dati per ricostruire la loro provenienza. “Si tratta di un caos perché bisogna raccogliere tutti i getti delle particelle [raggruppate fra loro, una particella dà luogo ad un getto ndr], misurare le loro proprietà per calcolare la massa dell’oggetto che decade in questi getti”, spiega Olsen. Ma gli autori ci sono riusciti, grazie appunto alla particolare struttura a cipolla dei rivelatori, che consente di studiare tutti i passaggi delle particelle, seguendole dalla nascita al decadimento. In questo modo, sono stati in grado di rilevare sia la collisione protone-protone che ha dato luogo al bosone di Higgs, sia il decadimento di quest’ultimo in due quark bottom.

Questo decadimento è uno dei più frequenti, dato che secondo le previsioni teoriche avviene nel 60% dei casi, spiegano gli scienziati. “Abbiamo trovato esattamente ciò che ci attendevamo”, commenta James Olsen, che ha guidato lo studio. “E ora possiamo utilizzare questa nuova strada per studiare le proprietà dell’Higgs”“Il decadimento Higgs in quark bottom è importante perché è il più frequente”, aggiunge Christopher Palmer, ricercatore a Princeton, “dato che una misura precisa del tasso di decadimento ci fornisce informazioni sulla natura della particella”.

Studiare il tasso di questo decadimento (cioè quanto spesso avviene) è importante per i fisici perché in base al risultato possono osservare se la percentuale rispetta la previsione teorica ed è in linea con il Modello standard. Insomma, studiare il bosone di Higgs e il suo comportamento è uno strumento utile che può informazioni preziose anche per capire se le attuali teorie fisiche, che descrivono la materia e dunque il mondo come lo conosciamo, sono valide.

Crediti :

Wired

Continua a leggere

Chi Siamo

Newsletter

NASA TV

SPACE X

Facebook

I più letti