Contattaci

Fisica

Incontri sulla medicina: come sfidare i big data

Pubblicato

il

L’intervista è stata realizzata durante il Festival della Scienza Medica che si è tenuto a Bologna dal 20 al 23 aprile 2017.

VAI ALLA VIDEOINTERVISTA

Professor Bucci, siamo ormai entrati decisamente nell’era dei big data anche nel campo della ricerca scientifica e in particolare della ricerca medica e biologica della quale lei si occupa più direttamente. Nella fisica, che sia la fisica delle particelle o l’astrofisica, è ormai acquisita l’idea che si lavori attraverso l’analisi dei big data. Nella biologia pure? A che punto siamo?

Per la biologia la situazione è piuttosto variegata e siamo ancora in transizione. Vi sono aree in cui l’uso e l’analisi dei big data sono ben sviluppati. Penso per esempio alla genomica e a tutte le aree “eomiche” in cui quotidianamente si utilizzano informazioni in quantità rilevanti.
Ci sono settori come le scienze ambientali che non hanno ancora compiuto completamente questa transizione. Gli scienziati che studiano il clima invece sì. Abbiamo una situazione a macchia di leopardo. Non è ancora alla portata di qualunque ricercatore di queste discipline utilizzare davvero i big data. Per due motivi. Il primo è che l’accesso ai dati, per esempio a migliaia di genomi non è garantito a tutti. E poi perché anche alcuni “tool”, alcuni strumenti che si utilizzano quando si hanno a disposizione i dati, non sono comuni a tutti. In certi casi sono familiari a chi fa analisi di dati, e quindi non ha la conoscenza dei problemi da analizzare, e non sono familiari invece a chi lavora in biologia e sa quali sono i problemi che vorrebbe affrontare e risolvere, ma non sa quali strumenti utilizzare. La gran parte dei ricercatori della comunità biomedica direi che non ha accesso né ai dati né ai tool.

Questo significa che andiamo verso delle nuove specializzazioni, nel senso che ci saranno due figure: l’analista dei big data e il ricercatore puro, ossia il biologo che poi quei dati li interpreta? Oppure sono i ricercatori che devono acquisire queste nuove competenze?

La tendenza è esattamente questa: stanno nascendo delle figure ibride. Ci sono dei biologi che si sono interessati di teoria dell’informazione e, viceversa, degli ingegnerei analisti che sono in grado di appasssionarsi anche ai problemi di biologia. Ne abbiamo esempi in Italia al Politecnico di Torino e abbastanza diffusi in Europa e negli Stati Uniti. Quello che sta avvenendo è che si stanno rompendo alcune barriere. Specialmente nelle generazioni più giovani si stanno creando figure in grado di saltare dall’analisi quantitativa alla comprensione del dato biomedico.

Sarà questa la strada?

Sembra proprio di sì. Naturalmente non tutti riescono a compiere il salto. E quindi si stanno generando professionisti molto ben pagati e scuole di questi professionisti, in grado di fare questo lavoro per tutta la comunità.

Ma c’è il rischio che una fetta dei ricercatori venga tagliata fuori in questo processo?

C’è il rischio, almeno in parte, che una fetta dei ricercatori si tenga fuori da questo processo. Per esempio che non condivida i dati perché non è in grado di comprendere le analisi fatte da altri e voglia proteggersi, proteggere la propria possibilità di pubblicare dei dati anche senza una loro analisi. C’è una sorta di reazione di rigetto verso queste figure più innovative da parte della comunità più tradizionale. Questa barriera va assolutaente superata, attraverso una migliore formazione nelle università.

Parliamo allora degli strumenti di analisi. Perché acquisire big data e saperli elaborare sono due cose molto diverse.

Facciamo un esempio. Quando io faccio una ricerca sul tumore della mammella su Google vengo immediatamente inondato da big data sullo schermo del mio computer. Però l’unico strumento che di solito ho per la loro analisi è la loro lettura. Di fatto io delego la prima parte dell’analisi a Google. In realtà esistono strumenti messi a disposizione persino da Google stesso che danno la possibilità di processare tutti i risultati forniti. E sono strumenti che potrebbero essere insegnati persino nelle scuole, perché sono piuttosto facili da usare. Infattisono utilizati in Paesi emergenti come l’India che stanno formando la prossima generazione di analisti di big data.

I ricercatori avrebbero strumenti efficienti di analisi anche gratutiti. Non hanno la formazione per poterli utilizzare. Soprattutto in Paesi come l’Italia non hanno neanche la formazione di base su che cosa significhi analisi del dato. Mancano una formazione e una attitudine alla trattazione quantitativa dei problemi. Gli strumenti esistono, sono lì, si possono scaricare con pochi clic. Richiedono un minimo di apprendimento per poter essere utilizzati. Ma i ricercatori in Italia non sanno che esistono, tranne in  alcuni posti, e non sanno neanche formulare i problemi che andrebbero analizzati con questi strumenti. C’è un problema culturale.

Enrico Bucci big data

Enrico Bucci

Lei come è arrivato occuparsi di big data?

Io sono un biologo molecolare. Mi sono trovato a trattare quantità di dati sempre più grandi. A un certo punto ho cominciato a lavorare sull’analisid ella letteratura scientifica e quindi avevo davanti amgari trenta milioni di articoli da analizzare tutti insieme. Ho dovuto sviluppare degli algoritmi. Alcuni mi sono serviti a scprire il problema della qualità dei dati o magari della frode scientifica. Altri mi sono serviti poi a fare le analisi. La cosa curiosa è che io all’università ho avuto dei corsi per esempio di teoria dell’errore o di statistica, ma questi corsi sono tenuti come un semino in una scatola buia. Durante la vita di laboratorio raramente un ricercatore viene sollecitato a usare quelle conoscenze e la mancanza di uso le fa atrofizzare, come succede a un organo. Con la conseguenza che il ricercatore, senza neanche rendersene conto, pensa che fossero conoscenze inutili. Ci si dimentica nei progetti di ricerca di impostare i problemi in modo che possano avere una risposta quantitativa e di far capire ai giovani che cosa significhi una risposta quantitativa. Ci si limita a una sorta di storytelling e non si va a fondo nel capire che fenomeno si sta studiando.

Il fatto che questi strumenti di elaborazione dei dati siano continuamente in evoluzione rappresenta un problema in più?

Gli strumenti, come software, sono in continua evoluzione. Gli algoritmi che usano risalgono magari all’Ottocento.

Non c’è il rischio che i risultati della ricerca vengano decisi da chi padroneggia questi algoritmi?

Se ci pensiamo in molti settori è già così. I risultati della ricerca clinica sono in mano agli analisti dei clinical trials, cioè degli statistici, di chi è in grado di isolare gli effetti di un farmaco all’interno di uno studio clinico. Non nelle mani del medico che fa le sperimentazioni ma di chi ha la cultura per estrarre il dato dalle sperimentazioni.

Ed è un sistema che funziona?

Nel campo dei clinical trials funziona piuttosto bene. Cè un pericolo di corruttibilità degli analisti che in qualche caso ha portato a conseguenze gravi. Penso al caso del Vioxx, tanto per non fare nomi. In generale, quello che è auspicabile e che dovrebbe succedere è che i ricercatori tornino a capire quello che diceva Galileo, cioè che il gran libro della natura è scritto in formule matematiche e non c’è possibilità di fare scienza senza questo.

 
  

Licenza Creative Commons

Help Chat 

 

Crediti :

le Scienze

Detective presso Computer Crime Research Center. Investigazioni Roma. Ingegneria Elettronica e delle Telecomunicazioni Seminario Analisi del Crimine Violento Università di Roma

Continua a leggere
Clicca per commentare

Lascia una recensione

Per commentare puoi anche connetterti tramite:




avatar
  Iscriviti  
Notificami

Fisica

La corsa all’economia dello spazio. L’Europa punta 16 miliardi

La Commissione europea propone di aumentare il budget per l’economia dello spazio. Obiettivo: salvaguardare l’industria locale e la competitività nel campo dei satelliti

Pubblicato

il

Sedici miliardi di euro per la corsa allo spazio. A tanto ammonta la spesa iscritta dalla Commissione europea nella proposta di budget 2021-2027. Circa 5 miliardi in più rispetto agli investimenti 2014-2020, tre volte tanto quelli del precedente settennato. D’altronde, come si legge nella propostache la Commissione ha spedito a Europarlamento e Consiglio europeo per avviare le negoziazioni (il cosiddetto trilogo), “tecnologia, dati e servizi spaziali sono diventati indispensabili nella vita quotidiana degli europei e giocano un ruolo essenziale per preservare vari interessi strategici. L’industria spaziale dell’Unione è già una delle più competitive al mondo”. Il primato, però, non è per sempre. “L’emergere di nuovi concorrenti e lo sviluppo di nuove tecnologie stanno rivoluzionando i modelli industriali tradizionali”, prosegue il documento.

Per questo Bruxelles intende aumentare gli investimenti. I programmi Galileo e Egnos, per la navigazione satellitare globale e regionale, riceveranno 9,7 miliardi. L’obiettivo è arrivare a fornire servizi gratuiti sempre più accurati, con un margine di errore nel posizionamento di 20 centimetri. Egnos è adoperato in 350 aeroporti per coordinare gli atterraggi quando c’è maltempo. Ed entro il 2035 la Commissione si aspetta un aumento del 4% dei voli sull’Europa. Galileo da quest’anno è integrato in ogni auto venduta in Europa per supportare il sistema automatico di chiamate di emergenza, Ecall, mentre dal 2019 integrerà tachigrafi digitali per controllare chi sfora i limiti di velocità.

E in futuro potrebbe tornare utile per applicazioni come droni, auto a guida autonoma e robot.

Altri 5,8 miliardi incasserà il programma Copernicus. Consiste nell’osservazione satellitare della terra e viene adoperato per monitorare emergenze ambientali, per la sicurezza in mare e per il cambiamento climatico. In futuro i dati saranno resi aperti per consentire a imprese e startup di costruire il proprio modello di business anche sulla base delle informazioni raccolte dai satelliti Ue. Per l’agricoltura, per esempio.

Infine 500 milioni foraggeranno i programmi di sicurezza. Da un lato la sorveglianza dello spazio, dall’attività solare agli asteroidi fino al rientro dei satelliti. Oggi un satellite su tre è prodotto in Europa. Un secondo piano, chiamato Govsatcom, svilupperà canali di comunicazione via satellite blindati e dallo spazio servirà a monitorare le frontiere e a fornire dati alle forze dell’ordine.

La staffetta globale Quella dello spazio è un’industria che già oggi in Europa dà lavoro a 231mila persone. Nel 2017 la Commissione stima che il settore abbia fatturato ricavi tra 53 miliardi di euro e 62 miliardi, a seconda dei servizi inclusi nel censimento. Un volume di affari secondo solo agli Stati Uniti.

La corsa alle stelle, però, si sta facendo sempre più agguerrita. Cina e Indiasono entrate a gamba tesa nella competizione. “Nel breve periodo, la riduzione dei costi di accesso allo spazio e la competizione da parte di altre nazioni che vogliono avventurarsi nell’esplorazione spaziale stanno portando a un’evidente conseguenza: l’Europa rischia di essere messa da parte nel settore dei lanciatori”, si legge nel pamphlet L’economia dello spazio, scritto a quattro mani di Andrea Sommariva, economista dell’università Bocconi di Milano, e da Giovanni Bignami, presidente dell’Agenzia spaziale italiana (Asi), deceduto nel maggio del 2017.

È un rischio che riconosce la stessa Commissione europea nel documento del trilogo: “In termini di competitività, l’industria spaziale europea sta affrontando una dura concorrenza da parte di tradizionali, emergenti e nuove potenze dello spazio e da attori industriali. In aggiunta l’ecosistema di business sta spostando il focus dall’infrastruttura ad applicazioni e servizi. Questo pone l’industria europea sotto pressione (dai lanciatori di satelliti fino ai fornitori di servizi nell’indotto)”. Nel 2014 il settore dei lanciatori valeva 2,4 miliardi di dollari e 36mila impiegati.

Per Sommariva e Bignami, “finora il continente è rimasto legato al vecchio modello, ovvero contratti statali all’interno di un mercato basato su un monopolio di fatto”. È Ariane, che costruisce lanciatori e missili medi e pesanti. Fa eccezione l’italiana Avio, che produce razzi medi e piccoli, i Vega. “Servirebbero nuove politiche europee che cerchino di aumentare la competizione, far nascere nuove “Avio” e così far avanzare l’Europa verso l’indipendenza del settore dei lanciatori”, si legge nel libro. Qualcosa si muove, anche in Italia. D-Orbit è una startup di Fino Mornasco, nel Comasco, specializzata in sistemi di trasporto di satelliti. Ha firmato accordi con Ariane, ma anche con privati, come l’olandese Hyperion. Persino la Cina è interessata ai suoi progetti.

 

satelliti

A Madrid, vista dalla cattedrale dell’Almudena (foto: Gerard Julien/AFP/Getty Images)

Dal pubblico al privato

Il neonato Space economy evolution lab (See lab), centro di ricerca presso la Scuola di direzione aziendale della Bocconi, diretto proprio da Sommariva, cita un fatturato globale del settore spazio di 350 miliardi di dollari. Spiega Sommariva: “Il 70% deriva dalla fornitura di servizi, mentre il 30% circa dal comparto manifatturiero”, ossia la costruzioni di razzi, satelliti e strutture a terra. Appannaggio dei governi, lo spazio sta diventando però sempre di più un’impresa privata.

Per il See lab il risultato di investimenti come la SpaceX dell’imprenditore Elon Musk, la Blue Origin del patron di Amazon, Jeff Bezos, o Spaceship One, fondata dal cofondatore di Microsoft Paul Allen, è che il costo medio di un chilo di materiale lanciato nello spazio costa circa le metà rispetto a vettori classici. Come l’europeo Ariane. In sostanza, il vecchio continente rischia di non avere più prezzi competitivi per andare in orbita.

“I governi sono i grandi clienti. Quello che cambia nell’economia dello spazio è come contrattano queste forniture”, spiega Ian Christensen, direttore programmi privati della Secure World Foundation, fondazione statunitense che promuove sostenibilità e cooperazione nella corsa allo spazio. Per lo stesso Sommariva occorre “cooperazione internazionale per i progetti più avanzati. Nessuno da solo ha i soldi”. È il caso del Lunar orbital platform gateway, uno stazione spaziale che orbita intorno alla Luna. Al progetto lavorano la Nasa, l’Agenzia spaziale europea, la russa Roscosmos, la giapponese Jaxa e la Csa dal Canada. “Si stima che i primi elementi saranno installati nel 2022. Sarà uno spazioporto che potrebbe favorire la ricerca di minerali sulla Luna”, osserva Sommariva.

Una delle frontiere dell’economia dello spazio è l’estrazione di minerali fondamentali per l’industria terrestre, come le terre rare. “Questa base potrebbe far nascere attività minerarie nello spazio, partendo dalla Luna”, suggerisce Sommariva.

Sull’esito di questa ricerca è scettico Ugo Bardi, docente di chimica all’università di Firenze e presidente dell’associazione per gli studi su peak oil e gas (Aspo). “Penso che trasportare minerali dallo spazio alla terra resterà molto costoso. Penso che funzionerà l’uso nello spazio di metalli leggeri per assemblare piccoli satelliti in orbita. Avrebbe un immediato risparmio”, evidenzia Bardi.

Gli obiettivi di Bruxelles

Se l’estrazione di minerali e metalli resta una frontiera più lontana, il primo campo per misurare le potenze spaziali è l’economia legata alle orbite intorno alla Terra in cui gravitano i satelliti. Da qui la spinta del budget europeo 2021-27. Come riconosce Bruxelles, il sistema dei 30 satelliti di Galileo, il cui lancio in orbita sarà concluso nel 2020, richiede investimenti in infrastrutture e lanciatori. L’agenzia europea per il sistema globale di navigazione satellitare (Gnss), calcola che entro il 2030 prodotti e servizi basati su questa tecnologia muoveranno un giro d’affari da 250 miliardi di euro. Perciò, avverte Bruxelles “il valore aggiunto del sistema europeo Gnss non risiede soltanto nell’assicurare l’indipendenza dell’Europa rispetto a una tecnologia critica, ma anche nell’assicurare importanti benefici macroeconomici”.

Oggi 100 milioni apparecchi si collegano a Egnos, ma entro il 2027 ci si aspetta che triplichino a 290 milioni. E i satelliti dovranno rafforzare la rete di comunicazioni 5G, per raggiungere “i nuovi traguardi della banda larga, 30 mbps (download) entro il 2020 ed entro il 2025 100 mbps per tutti, anche nelle aree più remote”.

Il budget aggiuntivo a Copernicus, per esempio, consentirà di concentrarsi sugli effetti del cambiamento climatico e sulla sorveglianza per stroncare traffici illegali. Nel precedente settennato il programma ha sottoscritto 1.100 contratti di fornitura per un valore di oltre 2,1 miliardi.

Bruxelles stima tra il 2017 e il 2035 un indotto che va dai 67 miliardi di euro ai 131 miliardi. Un raddoppio. Senza però specificare a quali condizioni si possa verificare il passaggio da un estremo all’altro della forbice. Questo vale anche per i posti di lavoro creati: 12mila diretti e tra 27mila e 37mila nell’indotto. Sempre con ampie oscillazioni e senza una spiegazione del come e perché.

Bruxelles intende rivedere anche la cinghia di trasmissione delle decisioni. Le strategie restano in capo alla Commissione, che si avvarrà di due superconsulenti. Una è l’Agenzia spaziale europea, Esa, alla quale sarà affiancata con un ruolo di primo piano l’Agenzia dell’Unione europea per il programma spaziale. È in realtà un nuovo nome per un ente già esistente, l’Agenzia nazionale del sistema globale di navigazione satellitare europeo. La Commissione punta a chiudere il trilogo con Europarlamento e Consiglio in tempi stretti. Entro il 2019 vorrebbe ottenere il via libera al nuovo piano di spesa.

 
  

Licenza Creative Commons

Help Chat 

 

Crediti :

Wired

Continua a leggere

Fisica

Acqua liquida sulla luna di Giove Europa

Un team internazionale di astronomi ha rielaborato i dati raccolti oltre 20 anni fa dalla missione Galileo e scoperto che sulla luna ghiacciata di Giove Europa, proprio come per la saturniana Encelado, sotto la superficie si nasconde un oceano caldo e gli ingredienti base per la vita

Pubblicato

il

C’era un mistero tra i dati della sonda Galileo che da ormai oltre 20 anni affliggeva gli astronomi. La sonda per anni ha raccolto dati su Giove e sui suoi satelliti, come Europa e Ganimede, e proprio sul primo ha rivelato una anomali magnetica che è diventato un vero e proprio mistero. Una curvatura del suo campo magnetico, piccola e localizzata, che per decenni è rimasta senza spiegazione, fino a oggi. Gli scienziati che stanno lavorando alla missione Europa Clipper della NASA, che è diretta a esplorare il satellite gioviano e verificarne l’abitabilità, ha spulciato tra i vecchi dati raccolti nel 1997 e con nuovi modelli informatici ha scoperto che dagli oceani ghiacciati e dai laghi sotterranei vengono espulsi dei getti di vapore acqueo, la prova che esiste acqua liquida e quindi gli ingredienti necessari a supportare la vita.

Alla guida del team di ricercatori che ha effettuato la scoperta pubblicata sulla rivista Nature Astronomy c’è Xianzhe Jia, fisico spaziale dell’Università del Michigan e collaboratore alla missione Europa Clipper, che ha spiegato: “I dati erano lì, ma avevamo bisogno di modelli più sofisticati per dare un senso alle osservazioni”.

A ispirare il salto nel passato, ha raccontato lo scienziato, è stata un altro membro del team scientifico della futura missione NASA, Melissa McGrath. La ricercatrice del SETI Institute ha mostrato durante una presentazione delle immagini scattate dal telescopio Hubble di una zona di Europa ed è allora che Jia ha avuto l’intuizione:

“Una delle località che ha menzionato ha fatto suonare nella mia testa un campanello. Galileo ha effettuato un passaggio ravvicinato proprio vicino a quella località, che è stata una delle più vicine osservazioni che abbiamo mai avuto a disposizione. È stato allora che abbiamo realizzato che avremmo dovuto ricontrollare i dati. Avevamo bisogno di vedere se c’era qualcosa tra i dati che poteva svelarci la presenza o meno di un getto”.

Vecchi dati alla mano e nuovi modelli nell’altra, Jia e colleghi si sono avventurati nell’analisi dei dati di Galileo, raccolti durante un flyby nel 1997 ad appena 200 chilometri dalla superficie di Europa, e nel confronto con le immagini ultraviolette scattate nel 2012 dal telescopio spaziale Hubble, in cui i getti sembravano venire emessi proprio dalla superficie ghiacciata del satellite.

Se già nelle immagini di Hubble sembrava chiara l’esistenza dei getti, i dati di Galileo rappresentano una prova ancora più forte e corroborante, un prova che però oltre 20 anni fa gli scienziati non furono in grado di svelare, perché gli strumenti a loro disposizione non erano adatti allo scopo e soprattutto il team non sospettava nemmeno della loro esistenza e che la sonda avesse potuto sfiorarli nel momento di eruzione dalla gelida luna.

Oggi infatti sappiamo che i getti esistono su Encelado, la luna ghiacciata di Saturno, e che si tratta di materiale che viene espulso in pennacchi che si ionizzano e lasciano un caratteristico segnale nel campo magnetico del pianeta. Applicando la moderna conoscenza di come questi getti influenzano il campo magnetico del satellite e rielaborando i dati del magnometro ad alta risoluzione raccolti durante il passaggio ravvicinato ad Europa, finalmente i ricercatori hanno identificato la causa di quella piccola e localizzata curva che è proprio la prova della presenza di un caratteristico pennacchio.

Oltre al magnometro, Galileo disponeva anche di uno spettrometro per le onde di plasma, che ha catturato le onde provocate dalle particelle cariche nei gas che compongono l’atmosfera di Europa. E anche nella rielaborazione di questi dati, la teoria della presenza dei getti sembrava trovare conferma. Mettendo a confronto queste due prove in un nuovo modello tridimensionale dell’interazione tra plasma e corpi celesti del sistema solare e aggiungendo alla “ricetta” le osservazioni di Hubble, Jia e colleghi sono riusciti anche a definire le dimensioni di questi getti di vapore. Robert Pappalardo, project scientist della missione Europa Clipper al Nasa Jet Propulsion Laboratory (JPL) di Pasadina, in California, ha spiegato:

“Ora sembrano esserci molte linee di prova per negare l’esistenza di pennacchi su Europa. Questo risultato li rende molto più reali e, per me, rappresenta un punto di svolta: non si trattano più di indizi incerti da una immagine lontana”.

Un risultato, quello ottenuto da Jia e colleghi, che cambia l’approccio degli scienziati nella progettazione della missione Europa Clipper, che sarà lanciata dalla NASA nel 2022 proprio per raggiungere il satellite di Giove, raccogliere campioni della sua atmosfera e superficie e permettere di studiarne l’abitabilità.

Conoscere l’esistenza dei getti di vapore infatti cambia anche i percorsi orbitali della futura sonda, che non avrà più bisogno di perforare il ghiaccio della superficie della luna per raccogliere campioni del suo interno, ma potrà semplicemente attingere dai getti espulsi per svelare la composizione interna del corpo celeste, come ha spiegato Pappalardo:

“Se i getti esistono e possiamo raccogliere campioni direttamente di quanto sta uscendo dall’interno di Europa, dopo saremo in grado più facilmente di capire se il satellite ha gli ingredienti per la vita. Questo è l’obiettivo della missione, il grande quadro d’insieme”.

Il salto nel passato dunque apre un nuovo futuro nell’esplorazione spaziale, gettando le basi sia per Europa Clipper che per la futura missione Juice (Jupiter Icy Moons Explorer) dell’Agenzia spaziale europea. Dopo 20 anni finalmente uno dei misteri di Europa è stato svelato e ora agli scienziati non resta che dare la caccia all’acqua e a quegli elementi che potrebbero fare del satellite un luogo potenzialmente abitabile.

 
  

Licenza Creative Commons

Help Chat 
Crediti :

Oggi Scienza

Continua a leggere

Fisica

Cosa accadrà al Sole quando morirà

Fra cinque miliardi di anni la nostra stella morirà e si trasformerà in una nebulosa planetaria. Dopo decenni di dubbi, oggi la conferma da un nuovo modello

Pubblicato

il

Ora gli scienziati sono sicuri sul destino del Sole. Fra cinque miliardi di anni, quando la nostra stella finirà l’energia disponibile per mantenersi in vita, si trasformerà in una nebulosa planetaria, ovvero un anello di grandi dimensioni e massa, pieno di gas e polveri interstellari (ovvero le particelle che sono presenti negli spazi fra le stelle all’interno delle galassie). Per anni, gli scienziati non erano certi di cosa sarebbe successo, dato che la massa del Sole era considerata troppo bassa per dar vita ad un anello così grande e ben visibile. Ma oggi, uno studio della University of Manchester riprende in mano la questione, confermando l’ipotesi della nebulosa planetaria tanto a lungo discussa. I risultati sono pubblicati su Nature Astronomy.

Una volta terminata la loro energia, circa 9 stelle su 10 si trasformano in nebulose planetarie, una fase intermedia nella transizione da gigante rossa– uno degli ultimi stadi della sua evoluzione – a nana bianca, lo stadio finale.

Per studiare il futuro del Sole, gli scienziati hanno sviluppato un nuovo modello basato sui dati che predice l’evoluzione delle stelle: in pratica questo modello fornisce dati sulla luminosità dell’involucro espulso dal corpo celeste, quando muore, ovvero la massa di gas e polvere, per stelle di differente massa ed età. “Questo involucro può avere una massa che è circa la metà di quella della stella originaria”, ha spiegato Albert Zijslra dell’ Università di Manchester: proprio a partire da questo momento, il nucleo della stella, che sta terminando l’energia, muore e si spegne definitivamente.

Quando si è in presenza di una stella morente, soltanto corpi celesti sufficientemente grandi con nuclei che bruciano rapidamente – tipicamente in un periodo di circa 10mila anni, che per i corpi celesti è molto breve – forniscono un calore che basta a ionizzare il gas, un fenomeno alla base dell’illuminazione che rende la nebulosa planetaria visibile. I modelli ritenuti validi finora stimavano che per avere questo esito era necessaria una massa circa doppia di quella del Sole, dato che solo grandi masse stellari potevano produrre un calore sufficiente a produrre questa luce. Ma il lavoro di oggi rimette in discussione e confuta questo assunto, inserendo nel modello anche le evidenze più recenti, che mostrano che il nucleo del #Sole brucia tre volte più velocemente di quanto si pensava finora, compensando così il dato della massa insufficiente.

Ma lo studio di Manchester risolve anche un’altra questione rimasta in sospeso. Le galassie ellittiche sono fra le più antiche dell’universo e le loro stelle più grandi sono già morte, mentre rimangono soltanto quelle più piccole, che secondo le attuali teorie hanno masse troppo ridotte per dare vita a nebulose planetarie, tuttavia gli scienziati le riescono ad osservare anche in queste galassie. Il nuovo modello fornisce una spiegazione per queste stelle che è simile a quella valida per il Sole: anche se le loro masse sono piccole, i loro nuclei bruciano più rapidamente di quanto si pensasse e questo produce il bagliore che serve ad illuminare gli ammassi di gas e polveri, rendendo possibile l’esistenza di nebulose planetarie.

 
  

Licenza Creative Commons

Help Chat 

 

Crediti :

Wired

Continua a leggere

Newsletter

Fisica

NASA TV

SPACE X

Commenti più votati

  • 9 February 2018 by Giovanni Darko

  • 1 March 2018 by Graziella Di Gasparro

2

Tesla nello Spazio, smontiamo le obiezioni dei terrapiattisti

c’è bisogno di dare retta ai dementibiblici?
  • 20 February 2018 by

2

Tesla nello Spazio, smontiamo le obiezioni dei terrapiattisti

Sul serio c’è gente che pensa che la terra sia ...
  • 17 February 2018 by Simona Masini

2

I nanorobot sono in grado di distruggere ogni tipo di tumore

Trovi qualcosa qua : https://www.bambinidisatana.com/arrivo-la-pillola-inverte-linvecchiamento/
  • 14 February 2018 by Bambini di Satana

I più letti

Loading...