Contattaci

Fisica

La corsa all’economia dello spazio. L’Europa punta 16 miliardi

La Commissione europea propone di aumentare il budget per l’economia dello spazio. Obiettivo: salvaguardare l’industria locale e la competitività nel campo dei satelliti

Pubblicato

il

Sedici miliardi di euro per la corsa allo spazio. A tanto ammonta la spesa iscritta dalla Commissione europea nella proposta di budget 2021-2027. Circa 5 miliardi in più rispetto agli investimenti 2014-2020, tre volte tanto quelli del precedente settennato. D’altronde, come si legge nella propostache la Commissione ha spedito a Europarlamento e Consiglio europeo per avviare le negoziazioni (il cosiddetto trilogo), “tecnologia, dati e servizi spaziali sono diventati indispensabili nella vita quotidiana degli europei e giocano un ruolo essenziale per preservare vari interessi strategici. L’industria spaziale dell’Unione è già una delle più competitive al mondo”. Il primato, però, non è per sempre. “L’emergere di nuovi concorrenti e lo sviluppo di nuove tecnologie stanno rivoluzionando i modelli industriali tradizionali”, prosegue il documento.

Per questo Bruxelles intende aumentare gli investimenti. I programmi Galileo e Egnos, per la navigazione satellitare globale e regionale, riceveranno 9,7 miliardi. L’obiettivo è arrivare a fornire servizi gratuiti sempre più accurati, con un margine di errore nel posizionamento di 20 centimetri. Egnos è adoperato in 350 aeroporti per coordinare gli atterraggi quando c’è maltempo. Ed entro il 2035 la Commissione si aspetta un aumento del 4% dei voli sull’Europa. Galileo da quest’anno è integrato in ogni auto venduta in Europa per supportare il sistema automatico di chiamate di emergenza, Ecall, mentre dal 2019 integrerà tachigrafi digitali per controllare chi sfora i limiti di velocità.

E in futuro potrebbe tornare utile per applicazioni come droni, auto a guida autonoma e robot.

Altri 5,8 miliardi incasserà il programma Copernicus. Consiste nell’osservazione satellitare della terra e viene adoperato per monitorare emergenze ambientali, per la sicurezza in mare e per il cambiamento climatico. In futuro i dati saranno resi aperti per consentire a imprese e startup di costruire il proprio modello di business anche sulla base delle informazioni raccolte dai satelliti Ue. Per l’agricoltura, per esempio.

Infine 500 milioni foraggeranno i programmi di sicurezza. Da un lato la sorveglianza dello spazio, dall’attività solare agli asteroidi fino al rientro dei satelliti. Oggi un satellite su tre è prodotto in Europa. Un secondo piano, chiamato Govsatcom, svilupperà canali di comunicazione via satellite blindati e dallo spazio servirà a monitorare le frontiere e a fornire dati alle forze dell’ordine.

La staffetta globale Quella dello spazio è un’industria che già oggi in Europa dà lavoro a 231mila persone. Nel 2017 la Commissione stima che il settore abbia fatturato ricavi tra 53 miliardi di euro e 62 miliardi, a seconda dei servizi inclusi nel censimento. Un volume di affari secondo solo agli Stati Uniti.

La corsa alle stelle, però, si sta facendo sempre più agguerrita. Cina e Indiasono entrate a gamba tesa nella competizione. “Nel breve periodo, la riduzione dei costi di accesso allo spazio e la competizione da parte di altre nazioni che vogliono avventurarsi nell’esplorazione spaziale stanno portando a un’evidente conseguenza: l’Europa rischia di essere messa da parte nel settore dei lanciatori”, si legge nel pamphlet L’economia dello spazio, scritto a quattro mani di Andrea Sommariva, economista dell’università Bocconi di Milano, e da Giovanni Bignami, presidente dell’Agenzia spaziale italiana (Asi), deceduto nel maggio del 2017.

È un rischio che riconosce la stessa Commissione europea nel documento del trilogo: “In termini di competitività, l’industria spaziale europea sta affrontando una dura concorrenza da parte di tradizionali, emergenti e nuove potenze dello spazio e da attori industriali. In aggiunta l’ecosistema di business sta spostando il focus dall’infrastruttura ad applicazioni e servizi. Questo pone l’industria europea sotto pressione (dai lanciatori di satelliti fino ai fornitori di servizi nell’indotto)”. Nel 2014 il settore dei lanciatori valeva 2,4 miliardi di dollari e 36mila impiegati.

Per Sommariva e Bignami, “finora il continente è rimasto legato al vecchio modello, ovvero contratti statali all’interno di un mercato basato su un monopolio di fatto”. È Ariane, che costruisce lanciatori e missili medi e pesanti. Fa eccezione l’italiana Avio, che produce razzi medi e piccoli, i Vega. “Servirebbero nuove politiche europee che cerchino di aumentare la competizione, far nascere nuove “Avio” e così far avanzare l’Europa verso l’indipendenza del settore dei lanciatori”, si legge nel libro. Qualcosa si muove, anche in Italia. D-Orbit è una startup di Fino Mornasco, nel Comasco, specializzata in sistemi di trasporto di satelliti. Ha firmato accordi con Ariane, ma anche con privati, come l’olandese Hyperion. Persino la Cina è interessata ai suoi progetti.

 

satelliti

A Madrid, vista dalla cattedrale dell’Almudena (foto: Gerard Julien/AFP/Getty Images)

Dal pubblico al privato

Il neonato Space economy evolution lab (See lab), centro di ricerca presso la Scuola di direzione aziendale della Bocconi, diretto proprio da Sommariva, cita un fatturato globale del settore spazio di 350 miliardi di dollari. Spiega Sommariva: “Il 70% deriva dalla fornitura di servizi, mentre il 30% circa dal comparto manifatturiero”, ossia la costruzioni di razzi, satelliti e strutture a terra. Appannaggio dei governi, lo spazio sta diventando però sempre di più un’impresa privata.

Per il See lab il risultato di investimenti come la SpaceX dell’imprenditore Elon Musk, la Blue Origin del patron di Amazon, Jeff Bezos, o Spaceship One, fondata dal cofondatore di Microsoft Paul Allen, è che il costo medio di un chilo di materiale lanciato nello spazio costa circa le metà rispetto a vettori classici. Come l’europeo Ariane. In sostanza, il vecchio continente rischia di non avere più prezzi competitivi per andare in orbita.

“I governi sono i grandi clienti. Quello che cambia nell’economia dello spazio è come contrattano queste forniture”, spiega Ian Christensen, direttore programmi privati della Secure World Foundation, fondazione statunitense che promuove sostenibilità e cooperazione nella corsa allo spazio. Per lo stesso Sommariva occorre “cooperazione internazionale per i progetti più avanzati. Nessuno da solo ha i soldi”. È il caso del Lunar orbital platform gateway, uno stazione spaziale che orbita intorno alla Luna. Al progetto lavorano la Nasa, l’Agenzia spaziale europea, la russa Roscosmos, la giapponese Jaxa e la Csa dal Canada. “Si stima che i primi elementi saranno installati nel 2022. Sarà uno spazioporto che potrebbe favorire la ricerca di minerali sulla Luna”, osserva Sommariva.

Una delle frontiere dell’economia dello spazio è l’estrazione di minerali fondamentali per l’industria terrestre, come le terre rare. “Questa base potrebbe far nascere attività minerarie nello spazio, partendo dalla Luna”, suggerisce Sommariva.

Sull’esito di questa ricerca è scettico Ugo Bardi, docente di chimica all’università di Firenze e presidente dell’associazione per gli studi su peak oil e gas (Aspo). “Penso che trasportare minerali dallo spazio alla terra resterà molto costoso. Penso che funzionerà l’uso nello spazio di metalli leggeri per assemblare piccoli satelliti in orbita. Avrebbe un immediato risparmio”, evidenzia Bardi.

Gli obiettivi di Bruxelles

Se l’estrazione di minerali e metalli resta una frontiera più lontana, il primo campo per misurare le potenze spaziali è l’economia legata alle orbite intorno alla Terra in cui gravitano i satelliti. Da qui la spinta del budget europeo 2021-27. Come riconosce Bruxelles, il sistema dei 30 satelliti di Galileo, il cui lancio in orbita sarà concluso nel 2020, richiede investimenti in infrastrutture e lanciatori. L’agenzia europea per il sistema globale di navigazione satellitare (Gnss), calcola che entro il 2030 prodotti e servizi basati su questa tecnologia muoveranno un giro d’affari da 250 miliardi di euro. Perciò, avverte Bruxelles “il valore aggiunto del sistema europeo Gnss non risiede soltanto nell’assicurare l’indipendenza dell’Europa rispetto a una tecnologia critica, ma anche nell’assicurare importanti benefici macroeconomici”.

Oggi 100 milioni apparecchi si collegano a Egnos, ma entro il 2027 ci si aspetta che triplichino a 290 milioni. E i satelliti dovranno rafforzare la rete di comunicazioni 5G, per raggiungere “i nuovi traguardi della banda larga, 30 mbps (download) entro il 2020 ed entro il 2025 100 mbps per tutti, anche nelle aree più remote”.

Il budget aggiuntivo a Copernicus, per esempio, consentirà di concentrarsi sugli effetti del cambiamento climatico e sulla sorveglianza per stroncare traffici illegali. Nel precedente settennato il programma ha sottoscritto 1.100 contratti di fornitura per un valore di oltre 2,1 miliardi.

Bruxelles stima tra il 2017 e il 2035 un indotto che va dai 67 miliardi di euro ai 131 miliardi. Un raddoppio. Senza però specificare a quali condizioni si possa verificare il passaggio da un estremo all’altro della forbice. Questo vale anche per i posti di lavoro creati: 12mila diretti e tra 27mila e 37mila nell’indotto. Sempre con ampie oscillazioni e senza una spiegazione del come e perché.

Bruxelles intende rivedere anche la cinghia di trasmissione delle decisioni. Le strategie restano in capo alla Commissione, che si avvarrà di due superconsulenti. Una è l’Agenzia spaziale europea, Esa, alla quale sarà affiancata con un ruolo di primo piano l’Agenzia dell’Unione europea per il programma spaziale. È in realtà un nuovo nome per un ente già esistente, l’Agenzia nazionale del sistema globale di navigazione satellitare europeo. La Commissione punta a chiudere il trilogo con Europarlamento e Consiglio in tempi stretti. Entro il 2019 vorrebbe ottenere il via libera al nuovo piano di spesa.





Licenza Creative Commons



 

Crediti :

Wired

Detective presso Computer Crime Research Center. Investigazioni Roma. Ingegneria Elettronica e delle Telecomunicazioni Seminario Analisi del Crimine Violento Università di Roma

Fisica

Cos’è davvero un computer quantistico e perché potrebbe cambiare il mondo

Trapelato un articolo scientifico in cui Google afferma di essere riuscita a conseguire la “supremazia quantistica” con un processore superconduttivo. È l’inizio di una rivoluzione attesa da tempo

Pubblicato

il

(Immagine: Getty Images)

Notizia bomba nel campo dell’informatica quantistica. Trapelata, poi ritirata, ma mai smentita né confermata ufficialmente. La scorsa settimana è apparso su sito della Nasa un paper dal titolo Quantum supremacy using a programmable superconducting processor, ossia Supremazia quantistica usando un processore superconduttivo programmabile. L’articolo è rimasto online per poche ore (fortunatamente qualche anima pia ha provveduto a salvarlo) ma tanto è bastato a generare una valanga di commenti, controversie, polemiche, supposizioni e speranze tra la comunità degli addetti ai lavori. Questo il succo: Sycamore, il computer quantistico di Google, sarebbe riuscito a conseguire la cosiddetta supremazia quantistica, ossia a svolgere nel giro di pochi minuti, e per la prima volta al mondo, una serie di operazioni che i computer tradizionali impiegherebbero decine di migliaia di anni a svolgere. Abbiamo cercato di capire, con l’aiuto di un esperto, quanto c’è da fidarsi, perché si tratta di una notizia così importante e cosa potrebbe cambiare nel futuro qualora fosse confermata.

Recap: cos’è e come funziona un computer quantistico

Cominciamo dalle basi, anche per sgomberare il campo da ambiguità e incomprensioni. Un computer quantistico sfrutta alcune tra le proprietà più bizzarre e controintuitive della meccanica quantistica per ottenere una potenza di calcolo di gran lunga superiore rispetto a quella di un computer (e di un supercomputer) classico. Come tutti sanno, l’unità minima di informazione di un processore convenzionale è il bit, un’entità binaria che può assumere i valori zero e uno a seconda del passaggio o meno di corrente. Dal canto loro, i processori quantistici usano i qubit, in genere particelle subatomiche come fotoni elettroni, che invece possono immagazzinare molte più informazioni: “I processori tradizionali”, racconta Tommaso Calarco, direttore del Jara-Institute Quantum Information e presiedente dello European Quantum Flagship Network“ammettono solo due stati, lo zero e l’uno, legati al passaggio o al non-passaggio di corrente, cioè di un flusso di elettroni. Nei processori quantistici, invece, ogni singolo elettrone trasporta un’informazione, il che amplifica enormemente la potenza di calcolo”.

Le leggi della meccanica quantistica, infatti, postulano (tra le altre cose) che ogni particella sia soggetta al cosiddetto principio di sovrapposizione, ossia – per dirla rozzamente – si possa trovare contemporaneamente, con probabilità diverse, in più stati differenti. “Il principio di sovrapposizione consente di superare il dualismo acceso/spento e di veicolare molta più informazione: una particella quantistica può rappresentare contemporaneamente più stati”. Il qubit, insomma, permette di parallelizzare i calcoli, cioè di svolgere molte, moltissime operazioni contemporaneamente.

Non sostituirà i computer tradizionali, per ora

Attenzione: quanto detto finora, probabilmente, non vuol dire che nel prossimo futuro i processori classici andranno definitivamente in pensione. Per la maggior parte delle operazioni convenzionali saranno ancora l’opzione più efficiente ed economica: usare un computer quantistico per il rendering di un video o per abbattere i mostri di un videogioco sarebbe come sparare a una mosca con un cannone. Diverso è il caso di settori come la scienza dei materiali, o l’industria farmaceutica, o la fisica delle particelle: in questi scenari un processore quantistico potrebbe davvero cambiare completamente – e per sempre – le regole del gioco, rendendo possibili avanzamenti tecnologici di vastissima portata e difficili da prevedere a priori.

A che punto siamo?

Questi mesi rappresentano una fase cruciale nella storia dello sviluppo dei computer quantistici. Appena pochi giorni prima del leak di Google, Ibm ha annunciato che a ottobre prossimo consentirà a ingegneri, fisici e informatici di accedere da remoto a un computer quantistico a 53 qubit, il più potente mai costruito dall’azienda e il maggiore mai messo a disposizione per uso esterno. La notizia è arrivata a coronamento di sforzi che vanno avanti da anni: nel 2017, come vi avevamo raccontato, gli scienziati di Ibm erano riusciti a simulare con successo un computer quantistico a 56 qubit all’interno di un processore tradizionale con 4.5 terabyte di memoria.

Dal canto suo, invece, Google ha a disposizione Sycamore, un computer a 54 qubit (uno dei quali sembra non funzionare come dovrebbe, e pertanto ne vengono utilizzati 53), e un altro sistema a 72 qubit, che al momento si è rivelato però troppo difficile da controllare. Tutto perché i sistemi quantistici sono estremamente delicati, e particolarmente suscettibili anche a impercettibili interferenze esterne (termiche ed elettromagnetiche, per esempio): “Per dare un’idea della difficoltà enorme di gestire e controllare i computer quantistici”, ci spiega ancora Calarco, “si può pensare ai qubit come ai componenti di un’orchestra chiamata a suonare la nona sinfonia di Beethoven. Però ciascun musicista deve riuscire a farlo con guantoni da boxe alle mani e casco sulla testa. E in una stanza tenuta a novanta gradi di temperatura. È un compito veramente molto, molto difficile”.

Supremazia quantistica vs vantaggio quantistico

Veniamo a Google. Cosa vuol dire supremazia quantistica“Di per sé, si tratta di un concetto molto semplice”, dice ancora Calarco. “Vuol dire riuscire a risolvere, con un computer quantistico, un calcolo che un computer tradizionale non riuscirebbe a risolvere, quantomeno in un tempo ragionevole”. Nella fattispecie, Sycamore è riuscita a dimostrare che una sequenza di numeri casuali è realmente casuale (un problema matematicamente molto complesso) in circa tre minuti e venti secondi; Summit, il supercomputer (tradizionale) più potente al mondo, ci impiegherebbe circa 10mila anni.

“Il problema risolto da Sycamore, in sé, è del tutto inutile, o meglio ha interesse puramente accademico. La sua importanza è legata al fatto che riuscire a risolverlo dimostra una volta per tutte che abbiamo conseguito la supremazia quantistica. È il coronamento di quello che pensavamo fosse solo un sogno, e che ora sappiamo in realtà essere fattibile”. Il prossimo passo, spiega ancora Calarco, sarà passare dalla supremazia quantistica al vantaggio quantistico, cioè all’effettiva progettazione di algoritmi da far svolgere ai computer quantistici del futuro. È come se in questo momento abbiamo mostrato che è possibile costruire una macchina velocissima, ma ci mancano ancora strade, distributori di benzina, infrastrutture. E soprattutto partenze e destinazioni. “È ancora decisamente troppo presto per immaginare tutte le applicazioni. Potrebbero essere davvero sterminate, e strabilianti. I prossimi passi sono anzitutto migliorare ulteriormente l’hardware, arrivando a controllare con precisione sistemi a 100 o più qubit, e poi lavorare allo sviluppo di algoritmi che permettano di arrivare al vantaggio quantistico”. Il futuro ci attende.





Licenza Creative Commons



Crediti :

Wired

Continua a leggere

Fisica

Le acque radioattive di Fukushima

Il rilascio delle acque di bonifica radioattive in alto mare è la soluzione più sicura. Non modificherebbe di fatto i livelli naturali di radioattività e non porterebbe a un accumulo di quantità significative di elementi radioattivi nei pesci. I pescatori giapponesi temono però la diffidenza dei consumatori

Pubblicato

il

Cisterne di stoccaggio delle acque radioattive a Fukushima (Gill Tudor/IAEA)

“Molto rumore per nulla.” Così il fisico Marco Casolino, ricercatore all’INFN all’Università di Roma Tor Vergata che da anni collabora con l’istituto RIKEN in Giappone, commenta il vespaio sollevato dal ministro per l’ambiente giapponese, Yoshiaki Harada, quando ha dichiarato che l’acqua radioattiva stoccata a Fukushima sarà dispersa in mare. Un clamore immotivato per due motivi.
Innanzitutto il ministro non annunciava una decisione presa, o un piano di smaltimento proposto, ma esprimeva solo una sua opinione. “Ha detto che sta finendo lo spazio per stoccare l’acqua e prima o poi bisognerà smaltirla in mare, cosa che si dice già dal 2013. In realtà però non è stata ancora presa alcuna decisione ufficiale, appunto per paura delle reazioni”, spiega a Le Scienze Casolino, che studia fra l’altro particelle ad alta energia e protezione dalla radiazione spaziale.

Casolino era in Giappone nel 2011 quando il terremoto e il conseguente tsunami hanno distrutto la centrale di Fukushima e ha partecipato alle indagini sulle fuoriuscite radioattive, realizzando anche uno strumento per misurare le radiazioni nel cibo grazie a fondi della Japan Science Foundation. “Inoltre, anche se quell’acqua finirà davvero in mare, la contaminazione sarà irrilevante”, aggiunge.

Ispezione sullo stato dei lavori di bonifica a Fukushima da parte di tecnici della IAEA e della TEPCO (NRA)


L’oggetto del contendere sono oltre un milione di tonnellate di acqua contaminata da trizio (un isotopo radioattivo dell’idrogeno), raccolta in serbatoi vicino alla centrale di Fukushima Daiichi. Per tenere raffreddati i resti dei reattori, in attesa dello smantellamento, bisogna farvi circolare un flusso continuo di acqua, che viene recuperata, purificata da gran parte dei radionuclidi, e riutilizzata. Ma all’acqua pompata si aggiunge quella che si infiltra dal sottosuolo. Una serie di interventi, con barriere sotterranee e sistemi di pompaggio e drenaggio, hanno molto ridotto queste infiltrazioni ma non le hanno eliminate. C’è quindi un surplus di acqua che ogni giorno va eliminato dal circolo e stoccato.

Quest’acqua conserva una certa radioattività perché i sistemi di purificazione eliminano gli isotopi più pericolosi come il cesio-137, ma non il trizio, un isotopo radioattivo dell’idrogeno che entra a far parte dell’acqua stessa e sarebbe molto oneroso da separare.

Stoccare o smaltire
Così, finora si sono accumulate oltre un milione di tonnellate di acqua radioattiva, stoccate in un migliaio di cisterne sul posto, e ogni giorno se ne aggiunge di nuova. Ma lo spazio sta finendo. L’esaurimento, già previsto per il 2020, è stato ritardato al 2022 grazie alla costruzione di nuove cisterne, ma non si può continuare così, se non altro perché in zona i siti stabili, elevati e pianeggianti, che offrono la maggiore sicurezza, stanno finendo.

“E in ogni caso lasciare l’acqua lì non è una buona idea, perché se arrivano nuovi terremoti, cicloni o alluvioni si può disperdere”, spiega Casolino. “È già successo col terreno radioattivo rimosso dalla superficie per decontaminare l’area. L’hanno accatastato in giganteschi sacchi di iuta, ma qualche anno fa è arrivato un tifone che ne ha trascinato via una parte, disperdendolo di nuovo nell’ambiente.”

Perciò, anni fa una task force del Ministero dell’economia giapponese ha esaminato a fondo cinque opzioni per liberarsi dell’acqua: farla evaporare, rilasciare l’idrogeno in atmosfera in forma gassosa, iniettarla negli strati profondi del sottosuolo, conservarla in depositi sotterranei, o diluirla e scaricarla nell’oceano. Nel 2016 quel gruppo di studio ha concluso che per sicurezza, costi e tempi, quest’ultima era la scelta migliore. Un’idea condivisa dall’Agenzia internazionale per l’energia atomica (IAEA), dalla Nuclear Regulation Agency del Ministero dell’ambiente giapponese, e dalla TEPCO (Tokyo Electric Power Company), l’operatore che gestiva l’impianto e ora ne cura lo smantellamento.

Campionamento delle acque di fronte alle coste di Fukushima (Petr Pavlicek/IAEA)


Già due anni fa, peraltro, il direttore della TEPCO, Takashi Kawamura, aveva presentato il riversamento in mare come una decisione già presa, suscitando in patria un allarme analogo a quello dei giorni scorsi e facendo poi una rapida marcia indietro.

Il trizio
I rischi concreti, come si diceva, sono in realtà irrisori. Anche se manca ancora un piano concreto su come procedere allo smaltimento, l’idea è diluire l’acqua per ridurre la radioattività entro standard di sicurezza accettabili – si parla dell’ordine dei 60.000 becquerel (Bq) per litro (un Bq è una disintegrazione di un nucleo al secondo) – e poi riversarla via via nell’oceano, al largo, in tempi che vanno da 5 a una quindicina d’anni.

Sia la quantità complessiva di trizio da smaltire sia le dosi giornaliere previste non superano quelle rilasciate da altri impianti nel loro normale funzionamento. Per esempio, in Francia l’impianto di lavorazione del combustibile esausto di La Hague rilascia ogni anno nella Manica 12.000 miliardi di Bq, circa dieci volte la radioattività di tutto il trizio stoccato a Fukushima. Le massime concentrazioni di trizio rilevate nella zona di La Hague sono state di 7 Bq al litro, e al largo di Fukushima i livelli previsti sono ancora inferiori, con stime intorno a 1 Bq al litro e picchi massimi di pochi Bq al litro.

Questi valori si scostano poco dalla radioattività da trizio già presente nel mare per effetto del fondo naturale e delle varie emissioni umane, e non superano quella di molti corsi d’acqua dolce. “Senza contare tutti gli altri radionuclidi”, aggiunge Casolino.

“Già nel 2013 avevamo calcolato che il cesio-137 e lo stronzio-90 dispersi dall’incidente di Fukushima, pur inquinando molto il mare negli immediati dintorni della centrale, avevano prodotto un aumento del tutto trascurabile della radioattività non appena ci si allontanava un po’. Nei primi 100 chilometri di mare davanti alla costa nord-orientale del Giappone le perdite hanno aggiunto meno di una parte su 100.000 alla radioattività già presente in natura con isotopi come il carbonio-14 e il potassio-40. Su tutto il Pacifico era meno di una parte su 100 milioni.”

La radioattività ora in gioco non solo è molto inferiore, ma riguarda il trizio, che è molto meno pericoloso: all’esterno del corpo è innocuo perché le particelle beta che emette non superano lo strato morto della pelle; quello che beviamo, a differenza di altri radionuclidi, non si concentra nei tessuti ma per lo più viene eliminato con l’acqua. Perciò, anche se la sua radioattività per dimezzarsi (emivita) impiega 12,3 anni, la sua emivita biologica nel corpo è di 10 giorni, come per tutta l’acqua. Infatti la sua tossicità resta incerta e i limiti ammessi nell’acqua potabile sono molto variabili: il più stringente è quello dell’Unione Europea, a 100 Bq al litro, mentre l’Organizzazione mondiale della Sanità consiglia una soglia 100 volte più alta, di 10.000 Bq al litro, e l’Australia ammette oltre 76.000 Bq al litro.

Quanto a livelli di trizio, quindi, l’acqua marina “contaminata” dallo svuotamento delle cisterne di Fukushima sarebbe addirittura potabile anche in Europa.

La vera preoccupazione dei pescatori
Il vero problema non è dunque sanitario o ambientale ma sociale: l’opposizione allo scarico dell’acqua viene soprattutto dalle cooperative di pescatori locali, che si stanno riprendendo con immensa fatica dai danni dello tsunami e dell’iniziale contaminazione del pesce, e sono terrorizzati dall’idea di vedere di nuovo svanire la fiducia riconquistata.

Preparazione di campioni di pesce per il controllo della presenza di elementi radioattivi (IAEA)


Per il trizio, viste le scarse prove di tossicità, non sono stabiliti limiti nel cibo. Dato che non si concentra nell’organismo, un livello di 1 Bq al litro nell’acqua corrisponderà a circa 1 Bq al chilogrammo nel pesce (a La Hague vicino agli scarichi si sono rilevati valori fino a 20 volte maggiori).

Una parte di questo trizio può essere un po’ più pericoloso di quello nell’acqua perché si fissa nelle molecole biologiche, e può essere incorporato nei tessuti e restarvi anche per anni. Quanto trizio sia metabolizzato così, e quanto più rischioso sia in questa forma, è dibattuto, ma i calcoli eseguiti sotto le ipotesi più varie mostrano che – per quanto pesce si possa mangiare – l’esposizione equivalente resta comunque largamente al di sotto anche degli standard di sicurezza dell’acqua europei. In linea di principio, quindi, non c’è ragione di temere per la commestibilità del pesce.

“Il problema però è un altro”, rimarca Casolino. Riassumendo liberamente quanto ha detto in un’intervista uno dei leader dei pescatori: se gli scienziati ci assicurano che il pesce non sarà contaminato, noi ci crediamo; ma non crediamo che riuscirete a convincerne i consumatori.

Dopo le dichiarazioni del ministro, il governo si è affrettato a precisare che nulla è ancora stabilito, e prima di qualsiasi decisione attende un ulteriore rapporto da un comitato di esperti. Ma come Harada ha lasciato trasparire, l’idea prevalente è che la scelta sarà lo smaltimento in mare.





Licenza Creative Commons



 

Crediti :

le Scienze

Continua a leggere

Fisica

I misteri dell’energia oscura, visti dalla Nasa

Cos’è l’energia che compone il 70% del totale del cosmo? Com’è possibile guardarci dentro? Ce lo spiega – o prova a farlo – l’Agenzia spaziale americana con un cartoon

Pubblicato

il

Costituisce quasi il 70 per cento dell’energia dell’intero cosmo, e ciononostante resta la più grande fonte di curiosità e mistero degli astronomi: dell’energia oscura, di fatto, sappiamo davvero pochissimo.

Eppure, ci fa sapere la Nasa, c’è una missione all’orizzonte per provare a capirci di più: si chiama Wfirst, da Wide Field Infrared Survey Telescope, un osservatorio spaziale tra i più grandi mai progettati finora, che – se tutto andrà come previsto – porterà parecchia luce nel buio in cui brancolano oggi le nostre conoscenze.

Con questo cartoon, l’Agenzia americana ci porta faccia a faccia con tutti gli interrogativi sull’energia oscura – e nel cuore del nuovo progetto, ovviamente.





Licenza Creative Commons



Crediti :

Wired

Continua a leggere

Chi Siamo

Newsletter

Dicono di noi

DAL MONDO DELLA RICERCA

  • Le Scienze
  • Nature (EN)
  • Immunologia

Comunicato stampa - Una pellicola sottilissima e biodegradabile in grado di rivestire volumi di acqu [...]

Comunicato stampa - Un nuovo strumento bioinformatico individua rapidamente le alterazioni del genom [...]

Comunicato stampa - Individuate le relazioni causa-effetto che hanno determinato lo sciame simico du [...]

Nature, Published online: 15 October 2019; doi:10.1038/d41586-019-03063-9How Nature reported an acco [...]

Nature, Published online: 15 October 2019; doi:10.1038/d41586-019-03118-xFunders and journals, not s [...]

Nature, Published online: 15 October 2019; doi:10.1038/d41586-019-03120-3Small island states exclude [...]

Comunicato stampa - Lo rivela uno studio condotto dal Cnr-Ibcn in collaborazione con il laboratorio [...]

Una molecola che si trova nei vasi sanguigni e interagisce con il sistema immunitario contribuisce a [...]

Comunicato stampa - Uno studio internazionale pubblicato su The Lancet mette in discussione la sicur [...]

Sismografo Live

Sismi Italia tempo reale

Terremoti Importanti

Aggiornato Mar 15 Ott 22:32:25 (GMT+0200)

NASA TV

SPACE X

Seguici su Facebook

Facebook Pagelike Widget

I più letti