Contattaci

Fisica

Incontri sulla medicina: come sfidare i big data

Pubblicato

il

L’intervista è stata realizzata durante il Festival della Scienza Medica che si è tenuto a Bologna dal 20 al 23 aprile 2017.

VAI ALLA VIDEOINTERVISTA

Professor Bucci, siamo ormai entrati decisamente nell’era dei big data anche nel campo della ricerca scientifica e in particolare della ricerca medica e biologica della quale lei si occupa più direttamente. Nella fisica, che sia la fisica delle particelle o l’astrofisica, è ormai acquisita l’idea che si lavori attraverso l’analisi dei big data. Nella biologia pure? A che punto siamo?

Per la biologia la situazione è piuttosto variegata e siamo ancora in transizione. Vi sono aree in cui l’uso e l’analisi dei big data sono ben sviluppati. Penso per esempio alla genomica e a tutte le aree “eomiche” in cui quotidianamente si utilizzano informazioni in quantità rilevanti.
Ci sono settori come le scienze ambientali che non hanno ancora compiuto completamente questa transizione. Gli scienziati che studiano il clima invece sì. Abbiamo una situazione a macchia di leopardo. Non è ancora alla portata di qualunque ricercatore di queste discipline utilizzare davvero i big data. Per due motivi. Il primo è che l’accesso ai dati, per esempio a migliaia di genomi non è garantito a tutti. E poi perché anche alcuni “tool”, alcuni strumenti che si utilizzano quando si hanno a disposizione i dati, non sono comuni a tutti. In certi casi sono familiari a chi fa analisi di dati, e quindi non ha la conoscenza dei problemi da analizzare, e non sono familiari invece a chi lavora in biologia e sa quali sono i problemi che vorrebbe affrontare e risolvere, ma non sa quali strumenti utilizzare. La gran parte dei ricercatori della comunità biomedica direi che non ha accesso né ai dati né ai tool.

Questo significa che andiamo verso delle nuove specializzazioni, nel senso che ci saranno due figure: l’analista dei big data e il ricercatore puro, ossia il biologo che poi quei dati li interpreta? Oppure sono i ricercatori che devono acquisire queste nuove competenze?

La tendenza è esattamente questa: stanno nascendo delle figure ibride. Ci sono dei biologi che si sono interessati di teoria dell’informazione e, viceversa, degli ingegnerei analisti che sono in grado di appasssionarsi anche ai problemi di biologia. Ne abbiamo esempi in Italia al Politecnico di Torino e abbastanza diffusi in Europa e negli Stati Uniti. Quello che sta avvenendo è che si stanno rompendo alcune barriere. Specialmente nelle generazioni più giovani si stanno creando figure in grado di saltare dall’analisi quantitativa alla comprensione del dato biomedico.

Sarà questa la strada?

Sembra proprio di sì. Naturalmente non tutti riescono a compiere il salto. E quindi si stanno generando professionisti molto ben pagati e scuole di questi professionisti, in grado di fare questo lavoro per tutta la comunità.

Ma c’è il rischio che una fetta dei ricercatori venga tagliata fuori in questo processo?

C’è il rischio, almeno in parte, che una fetta dei ricercatori si tenga fuori da questo processo. Per esempio che non condivida i dati perché non è in grado di comprendere le analisi fatte da altri e voglia proteggersi, proteggere la propria possibilità di pubblicare dei dati anche senza una loro analisi. C’è una sorta di reazione di rigetto verso queste figure più innovative da parte della comunità più tradizionale. Questa barriera va assolutaente superata, attraverso una migliore formazione nelle università.

Parliamo allora degli strumenti di analisi. Perché acquisire big data e saperli elaborare sono due cose molto diverse.

Facciamo un esempio. Quando io faccio una ricerca sul tumore della mammella su Google vengo immediatamente inondato da big data sullo schermo del mio computer. Però l’unico strumento che di solito ho per la loro analisi è la loro lettura. Di fatto io delego la prima parte dell’analisi a Google. In realtà esistono strumenti messi a disposizione persino da Google stesso che danno la possibilità di processare tutti i risultati forniti. E sono strumenti che potrebbero essere insegnati persino nelle scuole, perché sono piuttosto facili da usare. Infattisono utilizati in Paesi emergenti come l’India che stanno formando la prossima generazione di analisti di big data.

I ricercatori avrebbero strumenti efficienti di analisi anche gratutiti. Non hanno la formazione per poterli utilizzare. Soprattutto in Paesi come l’Italia non hanno neanche la formazione di base su che cosa significhi analisi del dato. Mancano una formazione e una attitudine alla trattazione quantitativa dei problemi. Gli strumenti esistono, sono lì, si possono scaricare con pochi clic. Richiedono un minimo di apprendimento per poter essere utilizzati. Ma i ricercatori in Italia non sanno che esistono, tranne in  alcuni posti, e non sanno neanche formulare i problemi che andrebbero analizzati con questi strumenti. C’è un problema culturale.

Enrico Bucci big data

Enrico Bucci

Lei come è arrivato occuparsi di big data?

Io sono un biologo molecolare. Mi sono trovato a trattare quantità di dati sempre più grandi. A un certo punto ho cominciato a lavorare sull’analisid ella letteratura scientifica e quindi avevo davanti amgari trenta milioni di articoli da analizzare tutti insieme. Ho dovuto sviluppare degli algoritmi. Alcuni mi sono serviti a scprire il problema della qualità dei dati o magari della frode scientifica. Altri mi sono serviti poi a fare le analisi. La cosa curiosa è che io all’università ho avuto dei corsi per esempio di teoria dell’errore o di statistica, ma questi corsi sono tenuti come un semino in una scatola buia. Durante la vita di laboratorio raramente un ricercatore viene sollecitato a usare quelle conoscenze e la mancanza di uso le fa atrofizzare, come succede a un organo. Con la conseguenza che il ricercatore, senza neanche rendersene conto, pensa che fossero conoscenze inutili. Ci si dimentica nei progetti di ricerca di impostare i problemi in modo che possano avere una risposta quantitativa e di far capire ai giovani che cosa significhi una risposta quantitativa. Ci si limita a una sorta di storytelling e non si va a fondo nel capire che fenomeno si sta studiando.

Il fatto che questi strumenti di elaborazione dei dati siano continuamente in evoluzione rappresenta un problema in più?

Gli strumenti, come software, sono in continua evoluzione. Gli algoritmi che usano risalgono magari all’Ottocento.

Non c’è il rischio che i risultati della ricerca vengano decisi da chi padroneggia questi algoritmi?

Se ci pensiamo in molti settori è già così. I risultati della ricerca clinica sono in mano agli analisti dei clinical trials, cioè degli statistici, di chi è in grado di isolare gli effetti di un farmaco all’interno di uno studio clinico. Non nelle mani del medico che fa le sperimentazioni ma di chi ha la cultura per estrarre il dato dalle sperimentazioni.

Ed è un sistema che funziona?

Nel campo dei clinical trials funziona piuttosto bene. Cè un pericolo di corruttibilità degli analisti che in qualche caso ha portato a conseguenze gravi. Penso al caso del Vioxx, tanto per non fare nomi. In generale, quello che è auspicabile e che dovrebbe succedere è che i ricercatori tornino a capire quello che diceva Galileo, cioè che il gran libro della natura è scritto in formule matematiche e non c’è possibilità di fare scienza senza questo.





Licenza Creative Commons



 

Crediti :

le Scienze

Detective presso Computer Crime Research Center. Investigazioni Roma. Ingegneria Elettronica e delle Telecomunicazioni Seminario Analisi del Crimine Violento Università di Roma

Fisica

La galassia del Triangolo, vista da vicino

Il telescopio Hubble ci porta all’interno di una delle galassie più vicine alla Via lattea

Pubblicato

il

È una delle attrazioni più interessanti del cielo di novembre, e se  vi trovate in un luogo sufficientemente al riparo dall’inquinamento luminoso, seguendo le nostre istruzioni non avrete nemmeno troppi problemi a scovarla con un semplice binocolo (o persino a occhio nudo). La galassia del Triangolo – una delle più vicine a noi con i suoi soli tre milioni di anni luce di distanza – comparirà come una macchia di forma ovale, bluastra, in direzione delle costellazioni dell’Ariete e dei Pesci, a sud nella volta celeste. Grazie al telescopio Hubble, eccone però una versione super ravvicinata: un vero e proprio tuffo in direzione della sua grossa spirale di stelle.

Vista così, vi darà l’opportunità di scovare anche le sue irregolarità: polveri e gas non sono infatti distribuiti in maniera omogenea lungo i suoi bracci, e danno origine a dei grumi o, in gergo spaziale, ai cosiddetti fiocchi. Inoltre, lo zoom ci conduce con lo sguardo all’interno di una delle zone a maggiore intensità di formazione stellare: la nebulosa Ngc 604, avvolta dal bagliore di gas incandescente.

[Credit video: Nasa, Esa, and G. Bacon (STScI)]





Licenza Creative Commons



Crediti :

Wired

Continua a leggere

Fisica

Il misterioso aereo spaziale della Us Air Force ha battuto un altro record: è stato 780 giorni in orbita

Lo spaceplane X-37B è atterrato domenica mattina dopo oltre due anni di missione. Un successo, dicono dalla Us Air Force, ma lo scopo del volo da record continua a essere misterioso

Pubblicato

il

(foto: U.S. Air Force)

Un altro volo da record per il misterioso spaceplane X-37B, che domenica è atterrato, dopo ben 780 giorni in orbita, al Kennedy Space Center della Nasa, alle 3:51 locali. Decollato per la sua quinta missione il 7 settembre 2017, l’aereo spaziale – un veicolo di test riutilizzabile delll’aeronautica statunitense, ovviamente senza pilota – ha così battuto il suo precedente primato di 718 giorni. Un successo che riafferma la supremazia spaziale degli Stati Uniti, dicono dalla Us Air Force. Ma gli obiettivi dichiarati delle missioni rimangono un po’ vaghi.

Nonostante le cinque missioni alle spalle non si sa molto di X-37B, se non che assomiglia a quello che fu lo Space Shuttle (la navetta spaziale americana andata ormai in pensione) ma in dimensioni ridotte – soli 8,8 metri che non consentono di ospitare un equipaggio.

Ufficialmente la Air Force ha sempre dichiarato si tratti di un veicolo di test per sperimentare le tecnologie per le lunghe permanenze in orbita, a bordo del quale si svolgono esperimenti con medesima finalità e che consente anche il posizionamento di nuovi satelliti. Le scarne informazioni fornite hanno però contribuito ad alimentare un certo alone di mistero intorno alle cinque missioni dello spaceplane automatico, tant’è che c’è stato chi ha sospettato si tratti di un’arma per sabotare satelliti nemici.

Rimanendo sulla versione ufficiale, il segretario dell’Aeronautica militare Barbara Barrett ha commentato“L’X-37B continua a dimostrare l’importanza di un aereo spaziale riutilizzabile. Ogni missione successiva fa avanzare le capacità spaziali della nostra nazione”.

Finora lo spaceplane X-37B ha accumulato un totale di 2.865 giorni di volo. L’aereo spaziale riutilizzabile della Us Air Force si conferma una componente chiave per la futura esplorazione americana dello Spazio.

“Con il successo di questo atterraggio, l’X-37B ha completato il suo volo più lungo fino a oggi e ha completato tutti gli obiettivi della missione”, ha aggiunto Randy Walden, direttore dell’Air Force Rapid Capabilities Office. “Questa missione ha ospitato con successo esperimenti dell’Air Force Research Laboratory, tra gli altri, oltre a fornire un passaggio per piccoli satelliti“.





Licenza Creative Commons



Crediti :

Wired

Continua a leggere

Fisica

Cos’è davvero un computer quantistico e perché potrebbe cambiare il mondo

Trapelato un articolo scientifico in cui Google afferma di essere riuscita a conseguire la “supremazia quantistica” con un processore superconduttivo. È l’inizio di una rivoluzione attesa da tempo

Pubblicato

il

(Immagine: Getty Images)

Notizia bomba nel campo dell’informatica quantistica. Trapelata, poi ritirata, ma mai smentita né confermata ufficialmente. La scorsa settimana è apparso su sito della Nasa un paper dal titolo Quantum supremacy using a programmable superconducting processor, ossia Supremazia quantistica usando un processore superconduttivo programmabile. L’articolo è rimasto online per poche ore (fortunatamente qualche anima pia ha provveduto a salvarlo) ma tanto è bastato a generare una valanga di commenti, controversie, polemiche, supposizioni e speranze tra la comunità degli addetti ai lavori. Questo il succo: Sycamore, il computer quantistico di Google, sarebbe riuscito a conseguire la cosiddetta supremazia quantistica, ossia a svolgere nel giro di pochi minuti, e per la prima volta al mondo, una serie di operazioni che i computer tradizionali impiegherebbero decine di migliaia di anni a svolgere. Abbiamo cercato di capire, con l’aiuto di un esperto, quanto c’è da fidarsi, perché si tratta di una notizia così importante e cosa potrebbe cambiare nel futuro qualora fosse confermata.

Recap: cos’è e come funziona un computer quantistico

Cominciamo dalle basi, anche per sgomberare il campo da ambiguità e incomprensioni. Un computer quantistico sfrutta alcune tra le proprietà più bizzarre e controintuitive della meccanica quantistica per ottenere una potenza di calcolo di gran lunga superiore rispetto a quella di un computer (e di un supercomputer) classico. Come tutti sanno, l’unità minima di informazione di un processore convenzionale è il bit, un’entità binaria che può assumere i valori zero e uno a seconda del passaggio o meno di corrente. Dal canto loro, i processori quantistici usano i qubit, in genere particelle subatomiche come fotoni elettroni, che invece possono immagazzinare molte più informazioni: “I processori tradizionali”, racconta Tommaso Calarco, direttore del Jara-Institute Quantum Information e presiedente dello European Quantum Flagship Network“ammettono solo due stati, lo zero e l’uno, legati al passaggio o al non-passaggio di corrente, cioè di un flusso di elettroni. Nei processori quantistici, invece, ogni singolo elettrone trasporta un’informazione, il che amplifica enormemente la potenza di calcolo”.

Le leggi della meccanica quantistica, infatti, postulano (tra le altre cose) che ogni particella sia soggetta al cosiddetto principio di sovrapposizione, ossia – per dirla rozzamente – si possa trovare contemporaneamente, con probabilità diverse, in più stati differenti. “Il principio di sovrapposizione consente di superare il dualismo acceso/spento e di veicolare molta più informazione: una particella quantistica può rappresentare contemporaneamente più stati”. Il qubit, insomma, permette di parallelizzare i calcoli, cioè di svolgere molte, moltissime operazioni contemporaneamente.

Non sostituirà i computer tradizionali, per ora

Attenzione: quanto detto finora, probabilmente, non vuol dire che nel prossimo futuro i processori classici andranno definitivamente in pensione. Per la maggior parte delle operazioni convenzionali saranno ancora l’opzione più efficiente ed economica: usare un computer quantistico per il rendering di un video o per abbattere i mostri di un videogioco sarebbe come sparare a una mosca con un cannone. Diverso è il caso di settori come la scienza dei materiali, o l’industria farmaceutica, o la fisica delle particelle: in questi scenari un processore quantistico potrebbe davvero cambiare completamente – e per sempre – le regole del gioco, rendendo possibili avanzamenti tecnologici di vastissima portata e difficili da prevedere a priori.

A che punto siamo?

Questi mesi rappresentano una fase cruciale nella storia dello sviluppo dei computer quantistici. Appena pochi giorni prima del leak di Google, Ibm ha annunciato che a ottobre prossimo consentirà a ingegneri, fisici e informatici di accedere da remoto a un computer quantistico a 53 qubit, il più potente mai costruito dall’azienda e il maggiore mai messo a disposizione per uso esterno. La notizia è arrivata a coronamento di sforzi che vanno avanti da anni: nel 2017, come vi avevamo raccontato, gli scienziati di Ibm erano riusciti a simulare con successo un computer quantistico a 56 qubit all’interno di un processore tradizionale con 4.5 terabyte di memoria.

Dal canto suo, invece, Google ha a disposizione Sycamore, un computer a 54 qubit (uno dei quali sembra non funzionare come dovrebbe, e pertanto ne vengono utilizzati 53), e un altro sistema a 72 qubit, che al momento si è rivelato però troppo difficile da controllare. Tutto perché i sistemi quantistici sono estremamente delicati, e particolarmente suscettibili anche a impercettibili interferenze esterne (termiche ed elettromagnetiche, per esempio): “Per dare un’idea della difficoltà enorme di gestire e controllare i computer quantistici”, ci spiega ancora Calarco, “si può pensare ai qubit come ai componenti di un’orchestra chiamata a suonare la nona sinfonia di Beethoven. Però ciascun musicista deve riuscire a farlo con guantoni da boxe alle mani e casco sulla testa. E in una stanza tenuta a novanta gradi di temperatura. È un compito veramente molto, molto difficile”.

Supremazia quantistica vs vantaggio quantistico

Veniamo a Google. Cosa vuol dire supremazia quantistica“Di per sé, si tratta di un concetto molto semplice”, dice ancora Calarco. “Vuol dire riuscire a risolvere, con un computer quantistico, un calcolo che un computer tradizionale non riuscirebbe a risolvere, quantomeno in un tempo ragionevole”. Nella fattispecie, Sycamore è riuscita a dimostrare che una sequenza di numeri casuali è realmente casuale (un problema matematicamente molto complesso) in circa tre minuti e venti secondi; Summit, il supercomputer (tradizionale) più potente al mondo, ci impiegherebbe circa 10mila anni.

“Il problema risolto da Sycamore, in sé, è del tutto inutile, o meglio ha interesse puramente accademico. La sua importanza è legata al fatto che riuscire a risolverlo dimostra una volta per tutte che abbiamo conseguito la supremazia quantistica. È il coronamento di quello che pensavamo fosse solo un sogno, e che ora sappiamo in realtà essere fattibile”. Il prossimo passo, spiega ancora Calarco, sarà passare dalla supremazia quantistica al vantaggio quantistico, cioè all’effettiva progettazione di algoritmi da far svolgere ai computer quantistici del futuro. È come se in questo momento abbiamo mostrato che è possibile costruire una macchina velocissima, ma ci mancano ancora strade, distributori di benzina, infrastrutture. E soprattutto partenze e destinazioni. “È ancora decisamente troppo presto per immaginare tutte le applicazioni. Potrebbero essere davvero sterminate, e strabilianti. I prossimi passi sono anzitutto migliorare ulteriormente l’hardware, arrivando a controllare con precisione sistemi a 100 o più qubit, e poi lavorare allo sviluppo di algoritmi che permettano di arrivare al vantaggio quantistico”. Il futuro ci attende.





Licenza Creative Commons



Crediti :

Wired

Continua a leggere

Chi Siamo

Newsletter

Dicono di noi

DAL MONDO DELLA RICERCA

  • Le Scienze
  • Nature (EN)
  • Immunologia

Comunicato stampa - Una pellicola sottilissima e biodegradabile in grado di rivestire volumi di acqu [...]

Comunicato stampa - Un nuovo strumento bioinformatico individua rapidamente le alterazioni del genom [...]

Comunicato stampa - Individuate le relazioni causa-effetto che hanno determinato lo sciame simico du [...]

Nature, Published online: 13 November 2019; doi:10.1038/d41586-019-03445-zGovernments worldwide must [...]

Nature, Published online: 13 November 2019; doi:10.1038/d41586-019-03464-wTo predict how much climat [...]

Nature, Published online: 13 November 2019; doi:10.1038/d41586-019-03489-1Anxiety and depression in [...]

Comunicato stampa - Lo rivela uno studio condotto dal Cnr-Ibcn in collaborazione con il laboratorio [...]

Una molecola che si trova nei vasi sanguigni e interagisce con il sistema immunitario contribuisce a [...]

Comunicato stampa - Uno studio internazionale pubblicato su The Lancet mette in discussione la sicur [...]

Sismografo Live

Sismi Italia tempo reale

Terremoti Importanti

Aggiornato Gio 14 Nov 00:31:02 (GMT+0200)

NASA TV

SPACE X

Seguici su Facebook

Facebook Pagelike Widget

I più letti