Contattaci

Fisica

L’intelligenza artificiale ha problemi con il mondo reale

Gli ultimi sistemi d’intelligenza artificiale diventano campioni a un gioco nel giro di poche ore partendo da zero. Ma i ricercatori stanno cercando di applicare questi sistemi anche a problemi della vita reale, che tuttavia per ora le macchine non riescono ad affrontare in modo efficace a causa della loro complessità

Pubblicato

il

Fino a poco tempo fa, le macchine il grado di sconfiggere i campioni erano almeno abbastanza rispettose da iniziare imparando dall’esperienza umana.
Nel 1997, per battere Garry Kasparov a scacchi, gli ingegneri dell’IBM hanno usato secoli di saggezza degli scacchi nel loro computer Deep Blue. Nel 2016, AlphaGo di Google DeepMind ha battuto il campione Lee Sedol nell’antico gioco da tavolo Go dopo aver esaminato milioni di posizioni di decine di migliaia di partite umane.

Ma ora i ricercatori di intelligenza artificiale stanno ripensando il modo in cui i loro bot integrano la totalità della conoscenza umana. La tendenza attuale è: non disturbarti.

Nell’ottobre 2017, il gruppo di DeepMind ha pubblicato i dettagli di un nuovo sistema per giocare a Go, AlphaGo Zero, che non ha studiato affatto partite umane. Invece, ha iniziato con le regole del gioco e ha giocato contro se stesso. Le prime mosse sono state completamente casuali. Dopo ogni partita, ha acquisito nuove conoscenze su che cosa lo aveva portato a una vittoria e che cosa no. Alla fine di questi allenamenti, AlphaGo Zero si è scontrato con la versione superumana di AlphaGo che aveva sconfitto Lee Sedol. E ha vinto 100 partite a zero.

Il gruppo ora ha creato un altro giocatore esperto della famiglia di AlphaGo, chiamato semplicemente AlphaZero. In un articolo pubblicato su” Science”, i ricercatori di DeepMind hanno rivelato che, dopo aver ricominciato da zero, AlphaZero addestrato ha superato in prestazioni AlphaGo Zero, in altre parole, ha battuto il bot che ha battuto il bot che ha battuto i migliori giocatori di Go nel mondo. (L’articolo è stato pubblicato per la prima volta sul sito di preprint scientifico arxiv.org nel dicembre 2017.) E quando gli sono state fornite le regole per gli scacchi o lo shogi, variante giapponese degli scacchi, AlphaZero ha imparato rapidamente a sconfiggere

anche gli algoritmi di alto livello nati su misura per quei giochi. Gli esperti si sono meravigliati dello stile aggressivo e inconsueto del programma. “Mi sono sempre chiesto come sarebbe stato se una specie superiore fosse arrivatasulla Terra e ci avesse mostrato come gioca a scacchi”, ha detto il grande maestro danese Peter Heine Nielsen a un intervistatore della BBC. “Adesso lo so.”

L’anno scorso hanno visto la luce anche bot di autoapprendimento ultraterreno in ambientazioni molto diverse come il poker no-limit e Dota 2, un popolare videogioco on line multiplayer in cui eroi a tema fantasylottano per il controllo di un mondo alieno.

Ovviamente, le aziende che investono denaro in questi e altri sistemi simili hanno ambizioni più grandi che dominare i tornei di videogiochi. I gruppi di ricerca come DeepMind sperano di applicare metodi simili a problemi del mondo reale, come la costruzione di superconduttori a temperatura ambiente, o la comprensione degli origami necessari per ripiegare le proteine in potenti molecole farmacologiche. E, naturalmente, molti addetti ai lavori sperano di realizzare un’intelligenza artificiale generale, un obiettivo mal definito ma accattivante in cui una macchina potrebbe pensare come una persona, con la versatilità sufficiente per affrontare molti diversi tipi di problemi.

Tuttavia, nonostante gli investimenti su questi sistemi, non è ancora chiaro fino a che punto le tecniche attuali possano andare oltre il tavolo da gioco. “Non sono sicuro che le idee di AlphaZero si possano generalizzare facilmente”, ha detto Pedro Domingos, informatico dell’Università di Washington. “I giochi sono una cosa assai insolita.”

Obiettivi perfetti per un mondo imperfetto
Una caratteristica condivisa da molti giochi, scacchi e Go inclusi, è che i giocatori possono vedere tutti i pezzi su entrambi i versanti in ogni momento. Ogni giocatore ha sempre quella che viene definita “informazione perfetta” sullo stato del gioco. Per quanto diabolicamente complesso diventi il gioco, tutto ciò che occorre fare è pensare in avanti rispetto alla situazione corrente.

Tante situazioni reali non sono così. Immaginiamo di chiedere a un computer di diagnosticare una malattia o condurre una trattativa d’affari. “La maggior parte delle interazioni strategiche del mondo reale coinvolgono informazioni nascoste”, ha detto Noam Brown, studente di dottorato in informatica alla Carnegie Mellon University. “Ho la sensazione che ciò è stato trascurato dalla maggior parte della comunità dell’intelligenza artificiale”.

Il poker, in cui Brown è specializzato, pone una sfida diversa. Non si possono vedere le carte dell’avversario. Ma anche qui le macchine che imparano giocando contro se stesse stanno ora raggiungendo livelli sovrumani. Nel gennaio 2017, un programma chiamato Libratus creato da Brown e dal suo consulente, Tuomas Sandholm, ha battuto quattro giocatori professionisti di poker al Texas Hold ‘em testa a testa, no-limit, finendo 1,7 milioni di dollari davanti ai suoi avversari alla fine di una gara di 20 giorni.

Un gioco ancora più scoraggiante che coinvolge informazioni imperfette è StarCraft II, un altro videogioco on line multiplayer con un vasto seguito. I giocatori scelgono una squadra, costruiscono un esercito e combattono una guerra in un paesaggio di fantascienza. Ma quel paesaggio è avvolto da una nebbia di guerra che consente solo ai giocatori di vedere le aree in cui hanno soldati o edifici. Anche la decisione di andare in ricognizione tra le linee nemiche è piena di incertezze.

Questo è un gioco che l’intelligenza artificiale non può ancora affrontare. Gli ostacoli al successo includono il numero di mosse in una partita, che spesso arrivano a migliaia, e la velocità con cui devono essere fatte. Ogni giocatore – essere umano o macchina – deve preoccuparsi di una vasta serie di possibili futuri con ogni click.

Per ora, un testa a testa con i migliori esseri umani in questa arena è fuori dalla portata dell’intelligenza artificiale. Ma è un obiettivo. Nell’agosto 2017, DeepMind ha stretto una accordo con Blizzard Entertainment, l’azienda che ha realizzato StarCraft II, per fornire gli strumenti che, secondo loro, aiuteranno ad aprire il gioco ai ricercatori di intelligenza artificiale.

Nonostante le sfide, StarCraft II si riduce a un obiettivo che può essere enunciato in modo semplice: elimina il tuo nemico. È qualcosa che condivide con scacchi, Go, poker, Dota 2 e praticamente ogni altro gioco. Nelle partite, si può vincere.

Dal punto di vista dell’algoritmo, i problemi devono avere una “funzione obiettivo”, cioè un obiettivo da perseguire. Quando AlphaZero ha giocato a scacchi, non è stato così difficile. Una sconfitta contava come meno uno, un pareggio zero e una vittoria più uno. La funzione obiettivo di AlphaZero era di massimizzare il suo punteggio. La funzione obiettivo di un bot per il poker è altrettanto semplice: vincere un sacco di soldi.

intelligenza artificiale

(Credit: iSock/PhonlamaiPhoto)

 

Le situazioni della vita reale non sono così semplici. Per esempio, un’automobile che guida da sola ha bisogno di una funzione obiettivo più sfumata, qualcosa di simile al tipo di frase che useremmo per esprimere un desiderio al genio della lampada. Per esempio: portare tempestivamente il passeggero alla giusta destinazione, rispettare tutte le leggi e valutare adeguatamente il valore della vita umana in situazioni pericolose e incerte. Il modo in cui i ricercatori realizzano la funzione obiettivo, ha affermato Domingos, “è una delle cose che distingue un grande ricercatore di apprendimento automatico dalla media”.

Consideriamo Tay, un chatbot di Twitter rilasciato da Microsoft il 23 marzo 2016. L’obiettivo di Tay era coinvolgere le persone, e così è stato. “Quello che sfortunatamente Tay ha scoperto – ha detto Domingos, – era che il modo migliore per massimizzare il coinvolgimento era pubblicare insulti razzisti.” È stato messo off-line dopo nemmeno un giorno.

Il nostro peggior nemico
Alcune cose non cambiano. I metodi usati dai bot di gioco dominanti oggi usano strategie inventate decenni fa. “È quasi un tuffo nel passato, solo con più calcoli”, ha detto David Duvenaud, informatico dell’Università di Toronto.

Le strategie spesso si basano sull’apprendimento per rinforzo, una tecnica basata sul non intervento. Invece di eseguire un algoritmo con istruzioni dettagliate, gli ingegneri lasciano che la macchina esplori un ambiente, in modo che impari a raggiungere gli obiettivi per prove ed errori. Prima del rilascio di AlphaGo e dei suoi eredi, il gruppo di DeepMind ha ottenuto il suo primo grande risultato da prima pagina nel 2013, quando ha usato l’apprendimento per rinforzo per creare un bot che ha imparato a giocare sette giochi Atari 2600, tre dei quali a livello esperto.

Questi progressi sono continuati. Il 5 febbraio scorso, DeepMind ha presentato IMPALA, un sistema di intelligenza artificiale in grado di apprendere 57 giochi Atari 2600, più altri 30 livelli costruiti da DeepMind in tre dimensioni. In questi, il giocatore girovaga attraverso diversi ambienti, raggiungendo obiettivi come sbloccare porte o raccogliere funghi. IMPALA sembra trasferire conoscenza tra i compiti, il che significa che il tempo trascorso a giocare a un gioco aiuta anche a migliorare le prestazioni negli altri.

Ma nella più ampia categoria di apprendimento per rinforzo, giochi da tavolo e giochi multiplayer permettono un approccio ancora più specifico. Qui, l’esplorazione può assumere la forma di gioco solitario, o selfplay, in cui un algoritmo acquisisce la supremazia strategica combattendo ripetutamente con la copia di se stesso.

Questa idea risale a decenni fa. Negli anni cinquanta, l’ingegnere dell’IBM Arthur Samuel creò un programma per giocare a dama che imparava in parte facendo scontrare un lato alfa contro un lato beta. E negli anni novanta, Gerald Tesauro, anch’egli di IBM, costruì un programma di backgammon che metteva l’algoritmo contro se stesso. Il programma raggiunse livelli di esperti umani, escogitando via via strategie non ortodosse ma efficaci.

Partita dopo partita, l’algoritmo di un sistema self-play affronta un avversario dello stesso livello. Ciò significa che i cambiamenti nella strategia portano a risultati diversi, fornendo un feedback immediato all’algoritmo. “Ogni volta che impari qualcosa, ogni volta che scopri una piccola cosa, il tuo avversario la usa immediatamente contro di te”, ha detto Ilya Sutskever, direttore della ricerca di OpenAI, organizzazione no profit, che ha co-fondato con Elon Musk, dedicata allo sviluppo e alla condivisione della tecnologia dell’intelligenza artificiale con l’obiettivo di arrivare ad applicazioni sicure. Nell’agosto 2017, l’organizzazione ha rilasciato un bot Dota 2 che controlla il personaggio Shadow Fiend, una sorta di demone-negromante che ha battuto i migliori giocatori del mondo nelle battaglie uno contro uno. Un altro progetto OpenAI mette l’uno contro l’altro esseri umani simulati in un incontro di sumo, dove finiscono per auto-apprendere come attaccare e fare finte. Durante il self-play, “non puoi mai stare fermo, devi sempre migliorare”, ha detto Sutskever.

Ma la vecchia idea del self-play è solo un ingrediente dei bot dominanti di oggi, che hanno anche bisogno di un modo per tradurre le loro esperienze di gioco in una comprensione più profonda. Chess, Go e videogiochi come Dota 2 hanno molte più permutazioni di quanti siano gli atomi nell’universo. Anche nel corso di molte vite trascorse a combattere la propria ombra in arene virtuali, una macchina non può affrontare tutti gli scenari, prendere nota in una tabella e consultare quella tabella quando si trova di nuovo la stessa situazione.

intelligenza artificiale

Credit: iSock/PhonlamaiPhoto)

 

Per rimanere a galla in questo mare di possibilità, “è necessario generalizzare, catturare l’essenza”, ha detto Pieter Abbeel, informatico dell’Università della California a Berkeley. Deep Blue di IBM ha fatto questo con la sua formula di scacchi intrinseca. Dotato della capacità di valutare l’efficacia di posizioni sulla scacchiera che non aveva mai visto prima, poteva adottare mosse e strategie per incrementare le sue possibilità di vittoria. Negli ultimi anni, tuttavia, una nuova tecnica ha permesso di oltrepassare del tutto la formula. “Ora, all’improvviso, la ‘rete profonda’ cattura tutto questo”, ha detto Abbeel.

Le reti neurali profonde, o deep neural networks, che hanno accresciuto la loro popolarità negli ultimi anni, sono costruite con strati di “neuroni” artificiali che si sovrappongono come in un pancake. Quando i neuroni in un livello si attivano, inviano segnali allo strato successivo, che li invia allo strato successivo e così via.

Modificando il modo in cui gli strati si connettono, queste reti diventano molto abili nel trasformare gli input in output correlati, anche se la connessione sembra astratta. Date loro una frase in inglese, e potrebbero addestrarsi a tradurla in turco. Date loro foto di un rifugio per animali e potrebbero identificare quali contengono gatti. Oppure mostrate loro una scacchiera e potrebbero intuire le loro probabilità di vittoria. In genere, però, è necessario prima dare a queste reti una serie di esempi contrassegnati su cui esercitarsi.

Ecco perché self-play e reti neurali profonde si integrano così bene. Il self-play sforna continuamente raccolte di partite, dando alle reti neurali profonde la serie teoricamente illimitata dei dati di cui hanno bisogno per insegnare a se stesse. A loro volta, le reti neurali profonde offrono un modo per interiorizzare esperienze e schemi incontrati nel self-play.

Ma c’è un problema. Per produrre dati utili, i sistemi self-play hanno bisogno di un luogo realistico in cui giocare.

“Tutti questi giochi, tutti questi risultati, sono emersi in ambienti in cui è possibile simulare perfettamente il mondo”, ha dichiarato Chelsea Finn, studentessa di dottorato di Berkeley che usa l’intelligenza artificiale per controllare bracci robotizzati e interpretare i dati dai sensori. Altri domini non sono così facili da simulare.

Le automobili a guida autonoma, per esempio, hanno difficoltà a gestire il maltempo o i ciclisti. Oppure potrebbero non elaborare le bizzarre possibilità che si presentano nei dati reali, come un uccello che per caso vola direttamente verso la videocamera dell’auto. Per i bracci robotici, ha detto Finn, le simulazioni iniziali forniscono la fisica di base, permettendo al braccio almeno di imparare in che modo apprendere. Ma non riescono a catturare i dettagli che riguardano il contatto con le superfici, il che significa che compiti come avvitare un tappo di bottiglia o condurre una complessa procedura chirurgica richiedono anche un’esperienza del mondo reale.

Per problemi difficili da simulare, quindi, il self-play non è così utile. “C’è un’enorme differenza tra un vero modello perfetto dell’ambiente e uno valutato e appreso, soprattutto quando questa realtà è complessa”, ha scritto Yoshua Bengio, pioniere del deep learning all’Università di Montreal, in una email. Ma ciò lascia ancora ai ricercatori della intelligenza artificiale alcune strade per andare avanti.

La vita oltre i giochi
È difficile individuare l’alba della supremazia dell’intelligenza artificiale nei giochi. Si potrebbe scegliere la sconfitta di Kasparov negli scacchi, o la disfatta di Lee Sedol per mano virtuale di AlphaGo. Un’altra opzione popolare sarebbe il momento in cui il leggendario campione di Jeopardy!(quiz televisivo statunitense, in cui i concorrenti si sfidano sulla cultura generale sulla base di indizi) Ken Jennings è stato sconfitto da Watson dell’IBM nel 2011. Watson poteva analizzare gli indizi del gioco e gestire i giochi di parole. L’incontro, durato due giorni, non era equilibrato. “Io per primo do il benvenuto ai nostri nuovi padroni computerizzati”, ha scritto Jennings sotto la sua risposta finale.

Watson sembrava dotato del tipo di abilità che gli esseri umani usano in una serie di problemi del mondo reale. Poteva prendere un suggerimento in inglese, frugare tra i documenti pertinenti alla velocità della luce, trovare i frammenti di informazioni attinenti e fornire una singola migliore risposta. Ma sette anni dopo, il mondo reale continua a presentare sfide ostinatamente ardue per l’intelligenza artificiale. Un rapporto pubblicato a settembre dalla rivista sanitaria “Stat” ha rilevato che la ricerca e la progettazione di trattamenti personalizzati per il cancro, cercati da Watson for Oncology, erede di Watson, si stanno dimostrando difficili.

“Le domande in Jeopardy! sono più facili, nel senso che non hanno bisogno di molto senso comune”, ha scritto Bengio, che ha collaborato con il gruppo di Watson, quando gli è stato chiesto di confrontare i due casi dal punto di vista dell’intelligenza artificiale. “Capire un articolo di medicina è molto più difficile. Sono necessarie ancora molte ricerche di base”.

“Per quanto speciali siano i giochi, ci sono ancora problemi del mondo reale che sono simili. I ricercatori di DeepMind hanno rifiutato di essere intervistati per questo articolo, citando il fatto che il loro lavoro con AlphaZero è attualmente sottoposto a revisione tra pari. Ma il gruppo ha suggerito che le sue tecniche potrebbero presto aiutare i ricercatori in campo biomedico che vorrebbero comprendere il ripiegamento delle proteine.

Per fare questo, hanno bisogno di capire come i vari amminoacidi che formano una proteina si ripiegano in una piccola macchina tridimensionale con una funzione che dipende dalla sua forma. Ciò è complicato quanto lo sono gli scacchi: i chimici conoscono abbastanza bene le regole per calcolare scenari specifici, ma ci sono ancora così tante configurazioni possibili, che cercare tra di esse è un compito senza speranza. Ma che cosa succederebbe se il ripiegamento delle proteine potesse essere configurato come un gioco? In realtà, è già stato fatto. Dal 2008, centinaia di migliaia di giocatori umani si sono cimentati con Foldit, un gioco on line in cui gli utenti ricevono un punteggio in base alla stabilità e alla fattibilità delle strutture proteiche che ripiegano. Una macchina potrebbe allenarsi in modo simile, forse cercando di battere il suo precedente punteggio migliore con l’apprendimento generale per rinforzo.

Anche apprendimento per rinforzo e self-play potrebbero aiutare ad addestrare sistemi di dialogo, suggerisce Sutskever. Ciò darebbe ai bot che hanno intenzione di parlare agli esseri umani la possibilità di addestrarsi parlando a se stessi. E considerando che l’hardware specializzato per l’intelligenza artificiale sta diventando più veloce e più disponibile, gli ingegneri avranno un incentivo a mettere sempre più problemi in forma di giochi. “Penso che in futuro il self-play e altri modi di consumare una grande quantità di potenza di calcolo diventeranno sempre più importanti”, ha affermato Sutskever.

Ma se l’obiettivo finale è che le macchine possano fare ciò che fanno gli esseri umani, anche per un campione di gioco da tavolo generalista autodidatta come AlphaZero si apre una strada. “Secondo me, è necessario vedere che cosa è realmente un grande divario tra le attività reali del pensiero, l’esplorazione creativa delle idee e quello che attualmente vediamo nell’IA”, ha detto Josh Tenenbaum, scienziato cognitivo del Massachusetts Institute of Technology. “Quel tipo di intelligenza è lì, ma rimane per lo più nella mente dei grandi ricercatori di intelligenza artificiale”.

“Molti altri ricercatori, consapevoli del clamore che circonda il loro campo, mettono a disposizione le proprie competenze. “Farei attenzione a non sopravvalutare il significato di giocare a questi giochi, per l’intelligenza artificiale o per i lavori in generale. Gli esseri umani non sono molto bravi nei giochi”, ha detto François Chollet, che si occupa di ricerca nel campo del deep-learning per Google.

“Ma occorre tenere presente che strumenti molto semplici e specializzati possono effettivamente ottenere molto”, ha affermato.

(L’originale di questo articolo è stato pubblicato il 21 febbraio 2018 e aggiornato il 6 dicembre da QuantaMagazine.org





Licenza Creative Commons



Detective presso Computer Crime Research Center. Investigazioni Roma. Ingegneria Elettronica e delle Telecomunicazioni Seminario Analisi del Crimine Violento Università di Roma

Continua a leggere
Clicca per commentare

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Fisica

Cos’è davvero un computer quantistico e perché potrebbe cambiare il mondo

Trapelato un articolo scientifico in cui Google afferma di essere riuscita a conseguire la “supremazia quantistica” con un processore superconduttivo. È l’inizio di una rivoluzione attesa da tempo

Pubblicato

il

(Immagine: Getty Images)

Notizia bomba nel campo dell’informatica quantistica. Trapelata, poi ritirata, ma mai smentita né confermata ufficialmente. La scorsa settimana è apparso su sito della Nasa un paper dal titolo Quantum supremacy using a programmable superconducting processor, ossia Supremazia quantistica usando un processore superconduttivo programmabile. L’articolo è rimasto online per poche ore (fortunatamente qualche anima pia ha provveduto a salvarlo) ma tanto è bastato a generare una valanga di commenti, controversie, polemiche, supposizioni e speranze tra la comunità degli addetti ai lavori. Questo il succo: Sycamore, il computer quantistico di Google, sarebbe riuscito a conseguire la cosiddetta supremazia quantistica, ossia a svolgere nel giro di pochi minuti, e per la prima volta al mondo, una serie di operazioni che i computer tradizionali impiegherebbero decine di migliaia di anni a svolgere. Abbiamo cercato di capire, con l’aiuto di un esperto, quanto c’è da fidarsi, perché si tratta di una notizia così importante e cosa potrebbe cambiare nel futuro qualora fosse confermata.

Recap: cos’è e come funziona un computer quantistico

Cominciamo dalle basi, anche per sgomberare il campo da ambiguità e incomprensioni. Un computer quantistico sfrutta alcune tra le proprietà più bizzarre e controintuitive della meccanica quantistica per ottenere una potenza di calcolo di gran lunga superiore rispetto a quella di un computer (e di un supercomputer) classico. Come tutti sanno, l’unità minima di informazione di un processore convenzionale è il bit, un’entità binaria che può assumere i valori zero e uno a seconda del passaggio o meno di corrente. Dal canto loro, i processori quantistici usano i qubit, in genere particelle subatomiche come fotoni elettroni, che invece possono immagazzinare molte più informazioni: “I processori tradizionali”, racconta Tommaso Calarco, direttore del Jara-Institute Quantum Information e presiedente dello European Quantum Flagship Network“ammettono solo due stati, lo zero e l’uno, legati al passaggio o al non-passaggio di corrente, cioè di un flusso di elettroni. Nei processori quantistici, invece, ogni singolo elettrone trasporta un’informazione, il che amplifica enormemente la potenza di calcolo”.

Le leggi della meccanica quantistica, infatti, postulano (tra le altre cose) che ogni particella sia soggetta al cosiddetto principio di sovrapposizione, ossia – per dirla rozzamente – si possa trovare contemporaneamente, con probabilità diverse, in più stati differenti. “Il principio di sovrapposizione consente di superare il dualismo acceso/spento e di veicolare molta più informazione: una particella quantistica può rappresentare contemporaneamente più stati”. Il qubit, insomma, permette di parallelizzare i calcoli, cioè di svolgere molte, moltissime operazioni contemporaneamente.

Non sostituirà i computer tradizionali, per ora

Attenzione: quanto detto finora, probabilmente, non vuol dire che nel prossimo futuro i processori classici andranno definitivamente in pensione. Per la maggior parte delle operazioni convenzionali saranno ancora l’opzione più efficiente ed economica: usare un computer quantistico per il rendering di un video o per abbattere i mostri di un videogioco sarebbe come sparare a una mosca con un cannone. Diverso è il caso di settori come la scienza dei materiali, o l’industria farmaceutica, o la fisica delle particelle: in questi scenari un processore quantistico potrebbe davvero cambiare completamente – e per sempre – le regole del gioco, rendendo possibili avanzamenti tecnologici di vastissima portata e difficili da prevedere a priori.

A che punto siamo?

Questi mesi rappresentano una fase cruciale nella storia dello sviluppo dei computer quantistici. Appena pochi giorni prima del leak di Google, Ibm ha annunciato che a ottobre prossimo consentirà a ingegneri, fisici e informatici di accedere da remoto a un computer quantistico a 53 qubit, il più potente mai costruito dall’azienda e il maggiore mai messo a disposizione per uso esterno. La notizia è arrivata a coronamento di sforzi che vanno avanti da anni: nel 2017, come vi avevamo raccontato, gli scienziati di Ibm erano riusciti a simulare con successo un computer quantistico a 56 qubit all’interno di un processore tradizionale con 4.5 terabyte di memoria.

Dal canto suo, invece, Google ha a disposizione Sycamore, un computer a 54 qubit (uno dei quali sembra non funzionare come dovrebbe, e pertanto ne vengono utilizzati 53), e un altro sistema a 72 qubit, che al momento si è rivelato però troppo difficile da controllare. Tutto perché i sistemi quantistici sono estremamente delicati, e particolarmente suscettibili anche a impercettibili interferenze esterne (termiche ed elettromagnetiche, per esempio): “Per dare un’idea della difficoltà enorme di gestire e controllare i computer quantistici”, ci spiega ancora Calarco, “si può pensare ai qubit come ai componenti di un’orchestra chiamata a suonare la nona sinfonia di Beethoven. Però ciascun musicista deve riuscire a farlo con guantoni da boxe alle mani e casco sulla testa. E in una stanza tenuta a novanta gradi di temperatura. È un compito veramente molto, molto difficile”.

Supremazia quantistica vs vantaggio quantistico

Veniamo a Google. Cosa vuol dire supremazia quantistica“Di per sé, si tratta di un concetto molto semplice”, dice ancora Calarco. “Vuol dire riuscire a risolvere, con un computer quantistico, un calcolo che un computer tradizionale non riuscirebbe a risolvere, quantomeno in un tempo ragionevole”. Nella fattispecie, Sycamore è riuscita a dimostrare che una sequenza di numeri casuali è realmente casuale (un problema matematicamente molto complesso) in circa tre minuti e venti secondi; Summit, il supercomputer (tradizionale) più potente al mondo, ci impiegherebbe circa 10mila anni.

“Il problema risolto da Sycamore, in sé, è del tutto inutile, o meglio ha interesse puramente accademico. La sua importanza è legata al fatto che riuscire a risolverlo dimostra una volta per tutte che abbiamo conseguito la supremazia quantistica. È il coronamento di quello che pensavamo fosse solo un sogno, e che ora sappiamo in realtà essere fattibile”. Il prossimo passo, spiega ancora Calarco, sarà passare dalla supremazia quantistica al vantaggio quantistico, cioè all’effettiva progettazione di algoritmi da far svolgere ai computer quantistici del futuro. È come se in questo momento abbiamo mostrato che è possibile costruire una macchina velocissima, ma ci mancano ancora strade, distributori di benzina, infrastrutture. E soprattutto partenze e destinazioni. “È ancora decisamente troppo presto per immaginare tutte le applicazioni. Potrebbero essere davvero sterminate, e strabilianti. I prossimi passi sono anzitutto migliorare ulteriormente l’hardware, arrivando a controllare con precisione sistemi a 100 o più qubit, e poi lavorare allo sviluppo di algoritmi che permettano di arrivare al vantaggio quantistico”. Il futuro ci attende.





Licenza Creative Commons



Crediti :

Wired

Continua a leggere

Fisica

Le acque radioattive di Fukushima

Il rilascio delle acque di bonifica radioattive in alto mare è la soluzione più sicura. Non modificherebbe di fatto i livelli naturali di radioattività e non porterebbe a un accumulo di quantità significative di elementi radioattivi nei pesci. I pescatori giapponesi temono però la diffidenza dei consumatori

Pubblicato

il

Cisterne di stoccaggio delle acque radioattive a Fukushima (Gill Tudor/IAEA)

“Molto rumore per nulla.” Così il fisico Marco Casolino, ricercatore all’INFN all’Università di Roma Tor Vergata che da anni collabora con l’istituto RIKEN in Giappone, commenta il vespaio sollevato dal ministro per l’ambiente giapponese, Yoshiaki Harada, quando ha dichiarato che l’acqua radioattiva stoccata a Fukushima sarà dispersa in mare. Un clamore immotivato per due motivi.
Innanzitutto il ministro non annunciava una decisione presa, o un piano di smaltimento proposto, ma esprimeva solo una sua opinione. “Ha detto che sta finendo lo spazio per stoccare l’acqua e prima o poi bisognerà smaltirla in mare, cosa che si dice già dal 2013. In realtà però non è stata ancora presa alcuna decisione ufficiale, appunto per paura delle reazioni”, spiega a Le Scienze Casolino, che studia fra l’altro particelle ad alta energia e protezione dalla radiazione spaziale.

Casolino era in Giappone nel 2011 quando il terremoto e il conseguente tsunami hanno distrutto la centrale di Fukushima e ha partecipato alle indagini sulle fuoriuscite radioattive, realizzando anche uno strumento per misurare le radiazioni nel cibo grazie a fondi della Japan Science Foundation. “Inoltre, anche se quell’acqua finirà davvero in mare, la contaminazione sarà irrilevante”, aggiunge.

Ispezione sullo stato dei lavori di bonifica a Fukushima da parte di tecnici della IAEA e della TEPCO (NRA)


L’oggetto del contendere sono oltre un milione di tonnellate di acqua contaminata da trizio (un isotopo radioattivo dell’idrogeno), raccolta in serbatoi vicino alla centrale di Fukushima Daiichi. Per tenere raffreddati i resti dei reattori, in attesa dello smantellamento, bisogna farvi circolare un flusso continuo di acqua, che viene recuperata, purificata da gran parte dei radionuclidi, e riutilizzata. Ma all’acqua pompata si aggiunge quella che si infiltra dal sottosuolo. Una serie di interventi, con barriere sotterranee e sistemi di pompaggio e drenaggio, hanno molto ridotto queste infiltrazioni ma non le hanno eliminate. C’è quindi un surplus di acqua che ogni giorno va eliminato dal circolo e stoccato.

Quest’acqua conserva una certa radioattività perché i sistemi di purificazione eliminano gli isotopi più pericolosi come il cesio-137, ma non il trizio, un isotopo radioattivo dell’idrogeno che entra a far parte dell’acqua stessa e sarebbe molto oneroso da separare.

Stoccare o smaltire
Così, finora si sono accumulate oltre un milione di tonnellate di acqua radioattiva, stoccate in un migliaio di cisterne sul posto, e ogni giorno se ne aggiunge di nuova. Ma lo spazio sta finendo. L’esaurimento, già previsto per il 2020, è stato ritardato al 2022 grazie alla costruzione di nuove cisterne, ma non si può continuare così, se non altro perché in zona i siti stabili, elevati e pianeggianti, che offrono la maggiore sicurezza, stanno finendo.

“E in ogni caso lasciare l’acqua lì non è una buona idea, perché se arrivano nuovi terremoti, cicloni o alluvioni si può disperdere”, spiega Casolino. “È già successo col terreno radioattivo rimosso dalla superficie per decontaminare l’area. L’hanno accatastato in giganteschi sacchi di iuta, ma qualche anno fa è arrivato un tifone che ne ha trascinato via una parte, disperdendolo di nuovo nell’ambiente.”

Perciò, anni fa una task force del Ministero dell’economia giapponese ha esaminato a fondo cinque opzioni per liberarsi dell’acqua: farla evaporare, rilasciare l’idrogeno in atmosfera in forma gassosa, iniettarla negli strati profondi del sottosuolo, conservarla in depositi sotterranei, o diluirla e scaricarla nell’oceano. Nel 2016 quel gruppo di studio ha concluso che per sicurezza, costi e tempi, quest’ultima era la scelta migliore. Un’idea condivisa dall’Agenzia internazionale per l’energia atomica (IAEA), dalla Nuclear Regulation Agency del Ministero dell’ambiente giapponese, e dalla TEPCO (Tokyo Electric Power Company), l’operatore che gestiva l’impianto e ora ne cura lo smantellamento.

Campionamento delle acque di fronte alle coste di Fukushima (Petr Pavlicek/IAEA)


Già due anni fa, peraltro, il direttore della TEPCO, Takashi Kawamura, aveva presentato il riversamento in mare come una decisione già presa, suscitando in patria un allarme analogo a quello dei giorni scorsi e facendo poi una rapida marcia indietro.

Il trizio
I rischi concreti, come si diceva, sono in realtà irrisori. Anche se manca ancora un piano concreto su come procedere allo smaltimento, l’idea è diluire l’acqua per ridurre la radioattività entro standard di sicurezza accettabili – si parla dell’ordine dei 60.000 becquerel (Bq) per litro (un Bq è una disintegrazione di un nucleo al secondo) – e poi riversarla via via nell’oceano, al largo, in tempi che vanno da 5 a una quindicina d’anni.

Sia la quantità complessiva di trizio da smaltire sia le dosi giornaliere previste non superano quelle rilasciate da altri impianti nel loro normale funzionamento. Per esempio, in Francia l’impianto di lavorazione del combustibile esausto di La Hague rilascia ogni anno nella Manica 12.000 miliardi di Bq, circa dieci volte la radioattività di tutto il trizio stoccato a Fukushima. Le massime concentrazioni di trizio rilevate nella zona di La Hague sono state di 7 Bq al litro, e al largo di Fukushima i livelli previsti sono ancora inferiori, con stime intorno a 1 Bq al litro e picchi massimi di pochi Bq al litro.

Questi valori si scostano poco dalla radioattività da trizio già presente nel mare per effetto del fondo naturale e delle varie emissioni umane, e non superano quella di molti corsi d’acqua dolce. “Senza contare tutti gli altri radionuclidi”, aggiunge Casolino.

“Già nel 2013 avevamo calcolato che il cesio-137 e lo stronzio-90 dispersi dall’incidente di Fukushima, pur inquinando molto il mare negli immediati dintorni della centrale, avevano prodotto un aumento del tutto trascurabile della radioattività non appena ci si allontanava un po’. Nei primi 100 chilometri di mare davanti alla costa nord-orientale del Giappone le perdite hanno aggiunto meno di una parte su 100.000 alla radioattività già presente in natura con isotopi come il carbonio-14 e il potassio-40. Su tutto il Pacifico era meno di una parte su 100 milioni.”

La radioattività ora in gioco non solo è molto inferiore, ma riguarda il trizio, che è molto meno pericoloso: all’esterno del corpo è innocuo perché le particelle beta che emette non superano lo strato morto della pelle; quello che beviamo, a differenza di altri radionuclidi, non si concentra nei tessuti ma per lo più viene eliminato con l’acqua. Perciò, anche se la sua radioattività per dimezzarsi (emivita) impiega 12,3 anni, la sua emivita biologica nel corpo è di 10 giorni, come per tutta l’acqua. Infatti la sua tossicità resta incerta e i limiti ammessi nell’acqua potabile sono molto variabili: il più stringente è quello dell’Unione Europea, a 100 Bq al litro, mentre l’Organizzazione mondiale della Sanità consiglia una soglia 100 volte più alta, di 10.000 Bq al litro, e l’Australia ammette oltre 76.000 Bq al litro.

Quanto a livelli di trizio, quindi, l’acqua marina “contaminata” dallo svuotamento delle cisterne di Fukushima sarebbe addirittura potabile anche in Europa.

La vera preoccupazione dei pescatori
Il vero problema non è dunque sanitario o ambientale ma sociale: l’opposizione allo scarico dell’acqua viene soprattutto dalle cooperative di pescatori locali, che si stanno riprendendo con immensa fatica dai danni dello tsunami e dell’iniziale contaminazione del pesce, e sono terrorizzati dall’idea di vedere di nuovo svanire la fiducia riconquistata.

Preparazione di campioni di pesce per il controllo della presenza di elementi radioattivi (IAEA)


Per il trizio, viste le scarse prove di tossicità, non sono stabiliti limiti nel cibo. Dato che non si concentra nell’organismo, un livello di 1 Bq al litro nell’acqua corrisponderà a circa 1 Bq al chilogrammo nel pesce (a La Hague vicino agli scarichi si sono rilevati valori fino a 20 volte maggiori).

Una parte di questo trizio può essere un po’ più pericoloso di quello nell’acqua perché si fissa nelle molecole biologiche, e può essere incorporato nei tessuti e restarvi anche per anni. Quanto trizio sia metabolizzato così, e quanto più rischioso sia in questa forma, è dibattuto, ma i calcoli eseguiti sotto le ipotesi più varie mostrano che – per quanto pesce si possa mangiare – l’esposizione equivalente resta comunque largamente al di sotto anche degli standard di sicurezza dell’acqua europei. In linea di principio, quindi, non c’è ragione di temere per la commestibilità del pesce.

“Il problema però è un altro”, rimarca Casolino. Riassumendo liberamente quanto ha detto in un’intervista uno dei leader dei pescatori: se gli scienziati ci assicurano che il pesce non sarà contaminato, noi ci crediamo; ma non crediamo che riuscirete a convincerne i consumatori.

Dopo le dichiarazioni del ministro, il governo si è affrettato a precisare che nulla è ancora stabilito, e prima di qualsiasi decisione attende un ulteriore rapporto da un comitato di esperti. Ma come Harada ha lasciato trasparire, l’idea prevalente è che la scelta sarà lo smaltimento in mare.





Licenza Creative Commons



 

Crediti :

le Scienze

Continua a leggere

Fisica

I misteri dell’energia oscura, visti dalla Nasa

Cos’è l’energia che compone il 70% del totale del cosmo? Com’è possibile guardarci dentro? Ce lo spiega – o prova a farlo – l’Agenzia spaziale americana con un cartoon

Pubblicato

il

Costituisce quasi il 70 per cento dell’energia dell’intero cosmo, e ciononostante resta la più grande fonte di curiosità e mistero degli astronomi: dell’energia oscura, di fatto, sappiamo davvero pochissimo.

Eppure, ci fa sapere la Nasa, c’è una missione all’orizzonte per provare a capirci di più: si chiama Wfirst, da Wide Field Infrared Survey Telescope, un osservatorio spaziale tra i più grandi mai progettati finora, che – se tutto andrà come previsto – porterà parecchia luce nel buio in cui brancolano oggi le nostre conoscenze.

Con questo cartoon, l’Agenzia americana ci porta faccia a faccia con tutti gli interrogativi sull’energia oscura – e nel cuore del nuovo progetto, ovviamente.





Licenza Creative Commons



Crediti :

Wired

Continua a leggere

Chi Siamo

Newsletter

Dicono di noi

DAL MONDO DELLA RICERCA

  • Le Scienze
  • Nature (EN)
  • Immunologia

Comunicato stampa - Una pellicola sottilissima e biodegradabile in grado di rivestire volumi di acqu [...]

Comunicato stampa - Un nuovo strumento bioinformatico individua rapidamente le alterazioni del genom [...]

Comunicato stampa - Individuate le relazioni causa-effetto che hanno determinato lo sciame simico du [...]

Nature, Published online: 14 October 2019; doi:10.1038/d41586-019-02834-8The discovery that cell dif [...]

Nature, Published online: 14 October 2019; doi:10.1038/d41586-019-03047-9Diane Coyle compares three [...]

Nature, Published online: 14 October 2019; doi:10.1038/s41586-019-1649-6Real-space charge-density im [...]

Comunicato stampa - Lo rivela uno studio condotto dal Cnr-Ibcn in collaborazione con il laboratorio [...]

Una molecola che si trova nei vasi sanguigni e interagisce con il sistema immunitario contribuisce a [...]

Comunicato stampa - Uno studio internazionale pubblicato su The Lancet mette in discussione la sicur [...]

Sismografo Live

Sismi Italia tempo reale

Terremoti Importanti

Aggiornato Mar 15 Ott 06:39:24 (GMT+0200)

NASA TV

SPACE X

Seguici su Facebook

Facebook Pagelike Widget

I più letti