Contattaci

Fisica

Incontri sulla medicina: come sfidare i big data

Pubblicato

il

L’intervista è stata realizzata durante il Festival della Scienza Medica che si è tenuto a Bologna dal 20 al 23 aprile 2017.

VAI ALLA VIDEOINTERVISTA

Professor Bucci, siamo ormai entrati decisamente nell’era dei big data anche nel campo della ricerca scientifica e in particolare della ricerca medica e biologica della quale lei si occupa più direttamente. Nella fisica, che sia la fisica delle particelle o l’astrofisica, è ormai acquisita l’idea che si lavori attraverso l’analisi dei big data. Nella biologia pure? A che punto siamo?

Per la biologia la situazione è piuttosto variegata e siamo ancora in transizione. Vi sono aree in cui l’uso e l’analisi dei big data sono ben sviluppati. Penso per esempio alla genomica e a tutte le aree “eomiche” in cui quotidianamente si utilizzano informazioni in quantità rilevanti.
Ci sono settori come le scienze ambientali che non hanno ancora compiuto completamente questa transizione. Gli scienziati che studiano il clima invece sì. Abbiamo una situazione a macchia di leopardo. Non è ancora alla portata di qualunque ricercatore di queste discipline utilizzare davvero i big data. Per due motivi. Il primo è che l’accesso ai dati, per esempio a migliaia di genomi non è garantito a tutti. E poi perché anche alcuni “tool”, alcuni strumenti che si utilizzano quando si hanno a disposizione i dati, non sono comuni a tutti. In certi casi sono familiari a chi fa analisi di dati, e quindi non ha la conoscenza dei problemi da analizzare, e non sono familiari invece a chi lavora in biologia e sa quali sono i problemi che vorrebbe affrontare e risolvere, ma non sa quali strumenti utilizzare. La gran parte dei ricercatori della comunità biomedica direi che non ha accesso né ai dati né ai tool.

Questo significa che andiamo verso delle nuove specializzazioni, nel senso che ci saranno due figure: l’analista dei big data e il ricercatore puro, ossia il biologo che poi quei dati li interpreta? Oppure sono i ricercatori che devono acquisire queste nuove competenze?

La tendenza è esattamente questa: stanno nascendo delle figure ibride. Ci sono dei biologi che si sono interessati di teoria dell’informazione e, viceversa, degli ingegnerei analisti che sono in grado di appasssionarsi anche ai problemi di biologia. Ne abbiamo esempi in Italia al Politecnico di Torino e abbastanza diffusi in Europa e negli Stati Uniti. Quello che sta avvenendo è che si stanno rompendo alcune barriere. Specialmente nelle generazioni più giovani si stanno creando figure in grado di saltare dall’analisi quantitativa alla comprensione del dato biomedico.

Sarà questa la strada?

Sembra proprio di sì. Naturalmente non tutti riescono a compiere il salto. E quindi si stanno generando professionisti molto ben pagati e scuole di questi professionisti, in grado di fare questo lavoro per tutta la comunità.

Ma c’è il rischio che una fetta dei ricercatori venga tagliata fuori in questo processo?

C’è il rischio, almeno in parte, che una fetta dei ricercatori si tenga fuori da questo processo. Per esempio che non condivida i dati perché non è in grado di comprendere le analisi fatte da altri e voglia proteggersi, proteggere la propria possibilità di pubblicare dei dati anche senza una loro analisi. C’è una sorta di reazione di rigetto verso queste figure più innovative da parte della comunità più tradizionale. Questa barriera va assolutaente superata, attraverso una migliore formazione nelle università.

Parliamo allora degli strumenti di analisi. Perché acquisire big data e saperli elaborare sono due cose molto diverse.

Facciamo un esempio. Quando io faccio una ricerca sul tumore della mammella su Google vengo immediatamente inondato da big data sullo schermo del mio computer. Però l’unico strumento che di solito ho per la loro analisi è la loro lettura. Di fatto io delego la prima parte dell’analisi a Google. In realtà esistono strumenti messi a disposizione persino da Google stesso che danno la possibilità di processare tutti i risultati forniti. E sono strumenti che potrebbero essere insegnati persino nelle scuole, perché sono piuttosto facili da usare. Infattisono utilizati in Paesi emergenti come l’India che stanno formando la prossima generazione di analisti di big data.

I ricercatori avrebbero strumenti efficienti di analisi anche gratutiti. Non hanno la formazione per poterli utilizzare. Soprattutto in Paesi come l’Italia non hanno neanche la formazione di base su che cosa significhi analisi del dato. Mancano una formazione e una attitudine alla trattazione quantitativa dei problemi. Gli strumenti esistono, sono lì, si possono scaricare con pochi clic. Richiedono un minimo di apprendimento per poter essere utilizzati. Ma i ricercatori in Italia non sanno che esistono, tranne in  alcuni posti, e non sanno neanche formulare i problemi che andrebbero analizzati con questi strumenti. C’è un problema culturale.

Enrico Bucci big data

Enrico Bucci

Lei come è arrivato occuparsi di big data?

Io sono un biologo molecolare. Mi sono trovato a trattare quantità di dati sempre più grandi. A un certo punto ho cominciato a lavorare sull’analisid ella letteratura scientifica e quindi avevo davanti amgari trenta milioni di articoli da analizzare tutti insieme. Ho dovuto sviluppare degli algoritmi. Alcuni mi sono serviti a scprire il problema della qualità dei dati o magari della frode scientifica. Altri mi sono serviti poi a fare le analisi. La cosa curiosa è che io all’università ho avuto dei corsi per esempio di teoria dell’errore o di statistica, ma questi corsi sono tenuti come un semino in una scatola buia. Durante la vita di laboratorio raramente un ricercatore viene sollecitato a usare quelle conoscenze e la mancanza di uso le fa atrofizzare, come succede a un organo. Con la conseguenza che il ricercatore, senza neanche rendersene conto, pensa che fossero conoscenze inutili. Ci si dimentica nei progetti di ricerca di impostare i problemi in modo che possano avere una risposta quantitativa e di far capire ai giovani che cosa significhi una risposta quantitativa. Ci si limita a una sorta di storytelling e non si va a fondo nel capire che fenomeno si sta studiando.

Il fatto che questi strumenti di elaborazione dei dati siano continuamente in evoluzione rappresenta un problema in più?

Gli strumenti, come software, sono in continua evoluzione. Gli algoritmi che usano risalgono magari all’Ottocento.

Non c’è il rischio che i risultati della ricerca vengano decisi da chi padroneggia questi algoritmi?

Se ci pensiamo in molti settori è già così. I risultati della ricerca clinica sono in mano agli analisti dei clinical trials, cioè degli statistici, di chi è in grado di isolare gli effetti di un farmaco all’interno di uno studio clinico. Non nelle mani del medico che fa le sperimentazioni ma di chi ha la cultura per estrarre il dato dalle sperimentazioni.

Ed è un sistema che funziona?

Nel campo dei clinical trials funziona piuttosto bene. Cè un pericolo di corruttibilità degli analisti che in qualche caso ha portato a conseguenze gravi. Penso al caso del Vioxx, tanto per non fare nomi. In generale, quello che è auspicabile e che dovrebbe succedere è che i ricercatori tornino a capire quello che diceva Galileo, cioè che il gran libro della natura è scritto in formule matematiche e non c’è possibilità di fare scienza senza questo.





Licenza Creative Commons



 

Crediti :

le Scienze

Detective presso Computer Crime Research Center. Investigazioni Roma. Ingegneria Elettronica e delle Telecomunicazioni Seminario Analisi del Crimine Violento Università di Roma

Fisica

Teletrasportare i qubit è possibile grazie all’intelligenza artificiale

Uno studio coordinato dall’Istituto di fotonica e nanotecnologie del Cnr dimostra come sia possibile trasferire un bit quantistico (qubit) tra due posizioni, facendo in modo che scompaia da quella di partenza e ricompaia in quella di arrivo senza passare nel mezzo. Il risultato reso possibile grazie all’intelligenza artificiale ‘deep learning’. Lo studio pubblicato su “Nature Communications Physics”

Pubblicato

il

©Science Photo Library

“Abbiamo deciso di mettere alla prova l’intelligenza artificiale di tipo ‘deep learning’, che ha già molto fatto parlare di sé per aver battuto il campione del mondo al gioco di Go e per applicazioni più serie come il riconoscimento del cancro al seno, applicandola al campo dei computer quantistici”, racconta Enrico Prati dell’Istituto di fotonica e nanotecnologie del Consiglio nazionale delle ricerche (Cnr-Ifn) e coordinatore dello studio pubblicato su Nature Communications Physics.

Il deep learning si basa su reti neurali artificiali disposte in diversi strati, ciascuno dei quali calcola i valori per quello successivo affinché l’informazione venga elaborata in maniera sempre più completa. “Utilizzando questo metodo nella variante detta ‘per rinforzo’”, aggiunge Prati, “abbiamo assegnato all’intelligenza artificiale il compito di scoprire da sola come controllare l’unità fondamentale di informazione quantistica, conosciuta come bit quantistico o qubit, codificata mediante un singolo elettrone per trasferirlo tra due posizioni, facendo in modo che l’elettrone scompaia da quella di partenza e ricompaia in quella di arrivo senza passare nel mezzo”.

Il fenomeno è noto e si può ottenere se la posizione di partenza e di arrivo sono la prima e l’ultima di una catena dispari di siti identici in cui l’elettrone può trovarsi. Questo è un processo prettamente quantistico e una soluzione per far avvenire il trasferimento grazie al controllo opportuno di potenziali elettrici era stata inventata da Nikolay Vitanov dell’Helsinki Institute of Physics nel 1999. Data la sua natura piuttosto distante dal ciò che il senso comune suggerirebbe, tale soluzione è chiamata appunto sequenza ‘controintuitiva’.

“Senza quella felice (contro) intuizione avremmo ancora potuto non conoscere quella soluzione. E in ogni caso fino a oggi non sapevamo come modificarla quando l’elettrone sta subendo disturbi durante il processo, facendo fallire il teletrasporto. Abbiamo lasciato che l’intelligenza artificiale trovasse una soluzione propria, senza fornirle preconcetti o esempi: l’ha trovata ed è più veloce di quella nota, ma soprattutto si adatta quando sono presenti disturbi. L’intelligenza artificiale ha capito il fenomeno e generalizzato il risultato meglio di quanto sappiamo fare noi. È come se l’intelligenza artificiale fosse in grado di scoprire da sola come teletrasportare i Qubit a prescindere dal disturbo in atto, anche nei casi in cui noi non possediamo già una soluzione”, conclude Prati. “Con questo lavoro abbiamo dimostrato che la progettazione e il controllo dei computer quantistici possono trarre vantaggio dall’uso dell’intelligenza artificiale”.

La ricerca è stata svolta in collaborazione con il giovane studente Riccardo Porotti e Dario Tamascelli dell’Università di Milano e con Marcello Restelli del Politecnico di Milano.





Licenza Creative Commons



Continua a leggere

Fisica

Dal 2020 la Stazione spaziale internazionale sarà anche una meta turistica

Secondo i piani della Nasa, dal 2020 le aziende private potranno trasportare i turisti sulla Stazione spaziale internazionale. In questo modo l’agenzia spaziale spera di ridurre le enormi spese di gestione

Pubblicato

il

foto NASA

La prossima vacanza che farete? Pensateci bene, e soprattutto guardate bene il vostro portafogli, perché dal prossimo anno, nel ventaglio delle mete turistiche ci potrebbe essere anche una sorpresa spaziale. Nei giorni scorsi, infatti, la Nasa ha annunciato che dal 2020 aprirà le porte della Stazione spaziale internazionale (Iss) per attività commerciali e missioni private, ovvero ai turisti. Il costo del biglietto? Si aggirerà intorno ai 50 milioni di dollari, a cui se ne devono aggiungere altro 35mila a notte. Un prezzo astronomico, che non considera inoltre le spese per cibo, acqua e utilizzo di altre strutture della stazione spaziale, durante il soggiorno.

“La Nasa sta aprendo la Stazione Spaziale Internazionale a opportunità commerciali come mai prima”, ha riferito Jeff DeWi, il Chief Financial Officer della Nasa, in una dichiarazione fatta durante una conferenza a New York. Infatti, ci saranno, secondo i piani della Nasa, due brevi missioni private all’anno della durata di massimo 30 giorni, ha dichiarato Robyn Gatens, vice direttore della Iss, durante le quali un totale di 12 astronauti potranno visitare la parte della stazione spaziale che compete alla Nasa. Mentre le attività di ricerca scientifica dell’agenzia spaziale russa Roscosmos, europea Esa, giapponese Jaxa e canadese Csa-Asc continueranno indisturbate.

Ricordiamo che in passato l’agenzia spaziale russa aveva già dato inizio a qualche attività commerciale: per esempio, a salire sulla Iss come primo turista spaziale fu l’imprenditore statunitense Dennis Tito, che partì nel 2001 verso la stazione spaziale con un biglietto del costo di 20 milioni di dollari. Questa volta, i turisti saranno traghettati verso la stazione esclusivamente dalle due aziende statunitensi che attualmente stanno sviluppando dei “taxi spaziali”: SpaceX, con la sua capsula Crew Dragon e Boeing, con il veicolo Starliner (che dovrebbero essere pronti entro la fine di quest’anno). A entrambe le aziende, poi, sarà dato anche il compito di scegliere gli astronauti. Solamente il viaggio verso la Iss, precisiamo, costerà circa 58 milioni di dollari per un biglietto di andata e ritorno.

L’idea della Nasa è di sviluppare e incentivare il turismo spaziale nella speranza di vedere il settore privato conquistare la Iss. “Vogliamo essere presenti come inquilini, non come proprietari”, ha dichiarato l’amministratore della Nasa Jim Bridenstine ad aprile scorso. Come vi avevamo raccontato lo scorso anno, infatti, l’amministrazione di Trump sta cercando di privatizzare la parte statunitense della Iss, mettendo fine ai finanziamenti federali per la stazione dal 2024, anno in cui finirà teoricamente il piano di sovvenzione pubblica alla Iss. Da quell’anno, il governo statunitense potrebbe avviare un piano per vendere la stazione a privati. “La decisione di mettere fine al sostegno federale alla Iss nel 2024non significa che la piattaforma stessa sarà messa fuori orbita in quel momento, è possibile che l’industria possa continuare a gestire determinati elementi o funzionalità dell’Iss come parte di una futura piattaforma commerciale, aveva riferito la Nasa.





Licenza Creative Commons



Crediti :

Wired

Continua a leggere

Fisica

Una scoperta matematica grazie a The Big Bang Theory

Un’affermazione di Sheldon Cooper in un episodio della popolare serie televisiva ha dato da pensare ai teorici dei numeri… e li ha portati a scoprire una nuova proprietà dei numeri primi

Pubblicato

il

© Photomovie

Il 73° episodio della sitcom statunitense The Big Bang Theory è da tempo considerato speciale dai matematici. “Qual è il numero migliore?”, chiede a un certo punto Sheldon Cooper. “È il 73”, si risponde da solo il fisico, geniale ma inetto nella vita quotidiana.

Il ragionamento di Sheldon è un invito a nozze per gli appassionati di numeri: “Il 73 è il 21° dei numeri primi. Il suo speculare, il 37, è il 12°, e il suo speculare, il 21, è il prodotto – e qui vi consiglio di reggervi forte – di 7 per 3”. L’osservazione fa solo ridere gli altri personaggi della serie e molti spettatori, ma ha dato da pensare ai matematici professionisti: ci sono altri “numeri primi di Sheldon” che hanno le stesse proprietà?

Insieme al collega Christopher Spicer del Morningside College, in Iowa, il teorico dei numeri Carl Pomerance del Dartmouth College, nel New Hampshire, ora ha trovato una risposta: 73 è in realtà l’unico numero primo che soddisfi i criteri stabiliti da Sheldon, scrivono i ricercatori in un articolo uscito di recente su “American Mathematical Monthly”.

Nel 2015, qualche tempo dopo la trasmissione di quell’episodio di The Big Bang Theory, Spicer, insieme a due colleghi, ha dato una definizione formale: un numero pn è un numero primo di Sheldon se è l’n-esimo numero primo e se è il prodotto delle cifre di n e se il numero riflesso specularmente rev(pn) è il rev(n)-esimo numero primo prev(n). Per dirla in modo un po’ più comprensibile, vuol dire che per il xyz-esimo numero primo abcd deve valere che a · b · c · d = xyz e, inoltre, che dcba è lo zyx-esimo numero primo. Quando i tre ricercatori hanno esaminato se qualcuno dei primi dieci milioni di numeri primi soddisfacesse queste proprietà, hanno scoperto che l’unico era il 73. Hanno quindi formulato la congettura che ci fosse un unico primo di Sheldon.

La dimostrazione completa data da Pomerance e Spicer ha richiesto ancora qualche anno. In una prima fase i due matematici hanno dimostrato che non può esistere un primo di Sheldon maggiore di 1045. Sono giunti a questa conclusione grazie al noto teorema dei numeri primi risalente al 1896, che dà il minimo numero di numeri primi contenuti in un dato intervallo di numeri. La condizione che il prodotto di tutte le cifre di un primo di Sheldon pn dia il numero n non può valere per numeri che siano maggiori di 1045. In questo caso, infatti, per il il teorema dei numeri primi il numero n dei numeri primi contenuti nell’intervallo [2, pn], è sempre maggiore del prodotto delle cifre di pn.

Questo passaggio è il punto cruciale dell’articolo. Anche se 1045 è un numero di grandezza inimmaginabile grande, è comunque un numero finito e quindi in teoria è possibile passare in rassegna sistematicamente tutti i numeri primi tra 2 e 1045 con un computer per cercare altri numeri primi di Sheldon. Certo, anche qui serve qualche trucco: far girare un algoritmo su numeri con 45 cifre rappresenta una sfida anche per il miglior hardware. Quindi Pomerance e Spicer hanno limitato ancor più gli aspiranti primi di Sheldon facendo uso delle proprietà richieste e usando delle formule di approssimazione per trovare con un integrale un valore approssimato di numeri primi enormi; così facendo hanno progressivamente escluso i vari possibili primi di Sheldon, fino a far rimanere solo il 73.

David Saltzberg, consulente scientifico di The Big Bang Theory, venuto a sapere della dimostrazione trovata dai due matematici, ha deciso di render loro omaggio in un episodio andato in onda nell’aprile 2019: in una scena si vede sullo fondo una lavagna con dettagli dei calcoli dall’articolo di Pomerance e Spicer. Come riferisce un comunicato del Dartmouth College, Pomerance ha esclamato: “È come uno spettacolo nello spettacolo”. “Non ha nulla a che fare con la trama dell’episodio e si vede a malapena sullo sfondo. Ma se uno sa che cosa cercare, ecco il nostro articolo!”


L’originale di questo articolo è stato pubblicato su “Spektrum.de” il 17 maggio 2019





Licenza Creative Commons



Crediti :

le Scienze

Continua a leggere

Chi Siamo

Newsletter

Dicono di noi

DAL MONDO DELLA RICERCA

  • Le Scienze
  • Nature (EN)
  • Immunologia

Comunicato stampa - Una pellicola sottilissima e biodegradabile in grado di rivestire volumi di acqu [...]

Comunicato stampa - Un nuovo strumento bioinformatico individua rapidamente le alterazioni del genom [...]

Comunicato stampa - Individuate le relazioni causa-effetto che hanno determinato lo sciame simico du [...]

Nature, Published online: 25 June 2019; doi:10.1038/d41586-019-01971-4License heritable gene editing [...]

Nature, Published online: 25 June 2019; doi:10.1038/d41586-019-01948-3A report shows that children l [...]

Nature, Published online: 25 June 2019; doi:10.1038/d41586-019-01976-zExplain ill effects of airborn [...]

Comunicato stampa - Lo rivela uno studio condotto dal Cnr-Ibcn in collaborazione con il laboratorio [...]

Una molecola che si trova nei vasi sanguigni e interagisce con il sistema immunitario contribuisce a [...]

Comunicato stampa - Uno studio internazionale pubblicato su The Lancet mette in discussione la sicur [...]

Sismografo Live

Sismi Italia tempo reale

Terremoti Importanti

Aggiornato Mar 25 Giu 17:34:40 (GMT+0200)

NASA TV

SPACE X

Facebook

I più letti