Incontri sulla medicina: come sfidare i big data

Trascrizione integrale della videointervista di Paolo Magliocco a Enrico Bucci

L’intervista è stata realizzata durante il Festival della Scienza Medica che si è tenuto a Bologna dal 20 al 23 aprile 2017.

VAI ALLA VIDEOINTERVISTA

Professor Bucci, siamo ormai entrati decisamente nell’era dei big data anche nel campo della ricerca scientifica e in particolare della ricerca medica e biologica della quale lei si occupa più direttamente. Nella fisica, che sia la fisica delle particelle o l’astrofisica, è ormai acquisita l’idea che si lavori attraverso l’analisi dei big data. Nella biologia pure? A che punto siamo?

Per la biologia la situazione è piuttosto variegata e siamo ancora in transizione. Vi sono aree in cui l’uso e l’analisi dei big data sono ben sviluppati. Penso per esempio alla genomica e a tutte le aree “eomiche” in cui quotidianamente si utilizzano informazioni in quantità rilevanti.
Ci sono settori come le scienze ambientali che non hanno ancora compiuto completamente questa transizione. Gli scienziati che studiano il clima invece sì. Abbiamo una situazione a macchia di leopardo. Non è ancora alla portata di qualunque ricercatore di queste discipline utilizzare davvero i big data. Per due motivi. Il primo è che l’accesso ai dati, per esempio a migliaia di genomi non è garantito a tutti. E poi perché anche alcuni “tool”, alcuni strumenti che si utilizzano quando si hanno a disposizione i dati, non sono comuni a tutti. In certi casi sono familiari a chi fa analisi di dati, e quindi non ha la conoscenza dei problemi da analizzare, e non sono familiari invece a chi lavora in biologia e sa quali sono i problemi che vorrebbe affrontare e risolvere, ma non sa quali strumenti utilizzare. La gran parte dei ricercatori della comunità biomedica direi che non ha accesso né ai dati né ai tool.

Questo significa che andiamo verso delle nuove specializzazioni, nel senso che ci saranno due figure: l’analista dei big data e il ricercatore puro, ossia il biologo che poi quei dati li interpreta? Oppure sono i ricercatori che devono acquisire queste nuove competenze?

La tendenza è esattamente questa: stanno nascendo delle figure ibride. Ci sono dei biologi che si sono interessati di teoria dell’informazione e, viceversa, degli ingegnerei analisti che sono in grado di appasssionarsi anche ai problemi di biologia. Ne abbiamo esempi in Italia al Politecnico di Torino e abbastanza diffusi in Europa e negli Stati Uniti. Quello che sta avvenendo è che si stanno rompendo alcune barriere. Specialmente nelle generazioni più giovani si stanno creando figure in grado di saltare dall’analisi quantitativa alla comprensione del dato biomedico.

Sarà questa la strada?

Sembra proprio di sì. Naturalmente non tutti riescono a compiere il salto. E quindi si stanno generando professionisti molto ben pagati e scuole di questi professionisti, in grado di fare questo lavoro per tutta la comunità.

Ma c’è il rischio che una fetta dei ricercatori venga tagliata fuori in questo processo?

C’è il rischio, almeno in parte, che una fetta dei ricercatori si tenga fuori da questo processo. Per esempio che non condivida i dati perché non è in grado di comprendere le analisi fatte da altri e voglia proteggersi, proteggere la propria possibilità di pubblicare dei dati anche senza una loro analisi. C’è una sorta di reazione di rigetto verso queste figure più innovative da parte della comunità più tradizionale. Questa barriera va assolutaente superata, attraverso una migliore formazione nelle università.

Parliamo allora degli strumenti di analisi. Perché acquisire big data e saperli elaborare sono due cose molto diverse.

Facciamo un esempio. Quando io faccio una ricerca sul tumore della mammella su Google vengo immediatamente inondato da big data sullo schermo del mio computer. Però l’unico strumento che di solito ho per la loro analisi è la loro lettura. Di fatto io delego la prima parte dell’analisi a Google. In realtà esistono strumenti messi a disposizione persino da Google stesso che danno la possibilità di processare tutti i risultati forniti. E sono strumenti che potrebbero essere insegnati persino nelle scuole, perché sono piuttosto facili da usare. Infattisono utilizati in Paesi emergenti come l’India che stanno formando la prossima generazione di analisti di big data.

I ricercatori avrebbero strumenti efficienti di analisi anche gratutiti. Non hanno la formazione per poterli utilizzare. Soprattutto in Paesi come l’Italia non hanno neanche la formazione di base su che cosa significhi analisi del dato. Mancano una formazione e una attitudine alla trattazione quantitativa dei problemi. Gli strumenti esistono, sono lì, si possono scaricare con pochi clic. Richiedono un minimo di apprendimento per poter essere utilizzati. Ma i ricercatori in Italia non sanno che esistono, tranne in  alcuni posti, e non sanno neanche formulare i problemi che andrebbero analizzati con questi strumenti. C’è un problema culturale.

Enrico Bucci big data

Enrico Bucci

Lei come è arrivato occuparsi di big data?

Io sono un biologo molecolare. Mi sono trovato a trattare quantità di dati sempre più grandi. A un certo punto ho cominciato a lavorare sull’analisid ella letteratura scientifica e quindi avevo davanti amgari trenta milioni di articoli da analizzare tutti insieme. Ho dovuto sviluppare degli algoritmi. Alcuni mi sono serviti a scprire il problema della qualità dei dati o magari della frode scientifica. Altri mi sono serviti poi a fare le analisi. La cosa curiosa è che io all’università ho avuto dei corsi per esempio di teoria dell’errore o di statistica, ma questi corsi sono tenuti come un semino in una scatola buia. Durante la vita di laboratorio raramente un ricercatore viene sollecitato a usare quelle conoscenze e la mancanza di uso le fa atrofizzare, come succede a un organo. Con la conseguenza che il ricercatore, senza neanche rendersene conto, pensa che fossero conoscenze inutili. Ci si dimentica nei progetti di ricerca di impostare i problemi in modo che possano avere una risposta quantitativa e di far capire ai giovani che cosa significhi una risposta quantitativa. Ci si limita a una sorta di storytelling e non si va a fondo nel capire che fenomeno si sta studiando.

Il fatto che questi strumenti di elaborazione dei dati siano continuamente in evoluzione rappresenta un problema in più?

Gli strumenti, come software, sono in continua evoluzione. Gli algoritmi che usano risalgono magari all’Ottocento.

Non c’è il rischio che i risultati della ricerca vengano decisi da chi padroneggia questi algoritmi?

Se ci pensiamo in molti settori è già così. I risultati della ricerca clinica sono in mano agli analisti dei clinical trials, cioè degli statistici, di chi è in grado di isolare gli effetti di un farmaco all’interno di uno studio clinico. Non nelle mani del medico che fa le sperimentazioni ma di chi ha la cultura per estrarre il dato dalle sperimentazioni.

Ed è un sistema che funziona?

Nel campo dei clinical trials funziona piuttosto bene. Cè un pericolo di corruttibilità degli analisti che in qualche caso ha portato a conseguenze gravi. Penso al caso del Vioxx, tanto per non fare nomi. In generale, quello che è auspicabile e che dovrebbe succedere è che i ricercatori tornino a capire quello che diceva Galileo, cioè che il gran libro della natura è scritto in formule matematiche e non c’è possibilità di fare scienza senza questo.

     
 
 

DATABASE PRETI PEDOFILI | DATABASE SITI FAKE | CHI SIAMO | ISCRIZIONI

 

Licenza Creative Commons

 

 

Crediti :

le Scienze

Categorie
Fisica

Detective presso Computer Crime Research Center. Investigazioni Roma.
Ingegneria Elettronica e delle Telecomunicazioni
Seminario Analisi del Crimine Violento Università di Roma

Nessun Commento

Replica al Commento

Per commentare come utente registrato puoi connetterti tramite:




*

*

Lista Siti fake
Preti Pedofili
Libere Donazioni

TI POTREBBE INTERESSARE