Contattaci

Fisica

Che cosa dice veramente sulla realtà la teoria quantistica?

A quasi un secolo dalla formulazione della teoria quantistica, fisici e filosofi non sanno ancora dare una risposta a questa domanda. Ma si continuano a condurre esperimenti per capire qualcosa di più sulle sue leggi spesso paradossali e sul confine tra il mondo microscopico e quello macroscopico

Pubblicato

il

Per essere una dimostrazione in grado di ribaltare le grandi idee di Isaac Newton sulla natura della luce, era incredibilmente semplice. “Può essere ripetuto con grande facilità, ovunque splenda il Sole”, disse il fisico inglese Thomas Young ai membri della Royal Society di Londra nel novembre del 1803, descrivendo l’esperimento oggi noto come esperimento della doppia fenditura.
Young non era melodrammatico. Aveva ideato un esperimento elegante e relativamente semplice per mostrare la natura ondulatoria della luce, e così facendo aveva confutato la teoria di Newton che la luce fosse fatta di corpuscoli, o particelle.

Ma la nascita della fisica quantistica nei primi anni del 1900 chiarì che la luce è composta da unità minuscole, indivisibili, o quanti, di energia, che noi chiamiamo fotoni.

L’esperimento di Young, quando viene effettuato con singoli fotoni o anche singole particelle di materia, come elettroni e neutroni, è un enigma su cui riflettere, poiché solleva domande fondamentali sulla natura stessa della realtà. Alcuni l’hanno perfino usato per sostenere che il mondo quantistico è influenzato dalla coscienza umana, dando alle nostre menti un ruolo e una collocazione nell’ontologia dell’universo. Ma quel semplice esperimento fa davvero una cosa del genere?

Nella moderna forma quantistica, l’esperimento di Young consiste nell’inviare singole particelle di luce o materia verso due fessure o aperture praticate in una barriera per il resto opaca. Dall’altro lato della barriera c’è uno schermo che registra l’arrivo delle particelle (per esempio, una lastra fotografica nel caso dei fotoni).

Il buon senso porta ad aspettarci che i fotoni passino attraverso una o l’altra delle fenditure, accumulandosi dietro ciascuna di esse.

Invece non lo fanno.

Al contrario, vanno verso alcune parti dello schermo e ne evitano altre, creando bande alternate di luce e di buio. Queste cosiddette frange di interferenza sono del tipo che si ottiene quando due insiemi di onde si sovrappongono. Quando le creste di un’onda si allineano con le creste di un’altra, si ottiene un’interferenza costruttiva (bande luminose), e quando si allineano con gli avvallamenti si ottiene un’interferenza distruttiva (buio).

Ma c’è solo un fotone che attraversa l’apparecchiatura in ogni dato momento. È come se il fotone stesse attraversando entrambe le fessure contemporaneamente, interferendo con se stesso. E questo non ha senso nella fisica classica.

Dal punto di vista matematico, tuttavia, ciò che attraversa entrambe le fessure non è una particella fisica o un’onda fisica, ma una cosa chiamata funzione d’onda, una funzione matematica astratta che rappresenta lo stato del fotone (in questo caso la sua posizione).

La funzione d’onda si comporta come un’onda che investe le due fenditure; nuove onde generate da ogni fenditura sul lato opposto si propagano e alla fine interferiscono l’una con l’altra. La funzione d’onda combinata può essere usata per calcolare le probabilità di dove potrebbe trovarsi il fotone.

Il fotone ha un’alta probabilità di trovarsi dove le due funzioni d’onda interferiscono costruttivamente e una bassa probabilità di trovarsi in regioni d’interferenza distruttiva. Si dice che la misurazione – questo caso l’interazione della funzione d’onda con la lastra fotografica – fa “collassare” la funzione d’onda, che passa dall’essere diffusa prima della misurazione all’essere concentrata in uno dei punti in cui il fotone si materializza dopo la misurazione.

Questo apparente collasso indotto dalla misurazione della funzione d’onda è la fonte di molte difficoltà concettuali nella meccanica quantistica. Prima del collasso, non c’è modo di dire con certezza dove inciderà il fotone: potrà apparire in uno qualsiasi dei punti di probabilità diversa da zero. Non c’è modo di seguire la traiettoria del fotone dalla sorgente al rivelatore. Il fotone non è reale nel senso in cui è reale un aereo che vola da San Francisco a New York.

Werner Heisenberg, tra gli altri, interpretò questa matematica sostenendo che la realtà non esiste fino a che non viene osservata. “L’idea di un mondo reale oggettivo le cui parti più piccole esistono oggettivamente nello stesso senso in cui esistono le pietre o gli alberi, indipendentemente dal fatto che le osserviamo o meno … è impossibile”, ha scritto.

Anche John Wheeler ha usato una variante dell’esperimento della doppia fenditura per sostenere che “nessun fenomeno quantistico elementare è un fenomeno fino a quando non si tratta di un fenomeno registrato (“osservato”, “registrato in modo indelebile”)”

Illustrazione dell'esperimento di Young

Illustrazione dell’esperimento di Young della doppia fenditura (Credit: Alexandre Gondran Wikimedia (CC BY-SA 4.0)

Ma la teoria quantistica non è del tutto chiara su che cosa costituisca una “misurazione”. Postula che il dispositivo di misurazione debba essere classico, senza definire dove sia il confine tra classico e quantistico, lasciando così la porta aperta a chi pensa che per il collasso debba essere invocata la coscienza umana.

Lo scorso maggio, Henry Stapp e colleghi hanno sostenuto  che l’esperimento della doppia fenditura e le sue varianti moderne forniscono la prova che “un osservatore consapevole potrebbe essere indispensabile” per dare un senso al regno quantistico e che una mente transpersonale è alla base del mondo materiale.

Ma quegli esperimenti non costituiscono una prova empirica di tali affermazioni. Nell’esperimento della doppia fenditura con singoli fotoni, tutto ciò che si può fare è verificare le previsioni probabilistiche della matematica. Se le probabilità sono confermate nel corso dell’invio di decine di migliaia di fotoni identici attraverso la doppia fenditura, la teoria afferma che la funzione d’onda di ciascun fotone è collassata, grazie a un processo mal definito chiamato misurazione. È tutto.

Ci sono anche altri modi d’interpretare l’esperimento della doppia fenditura.

Per esempio, la teoria di de Broglie-Bohm afferma che la realtà è sia ondulatoria sia particellare. Un fotone si dirige verso la doppia fenditura con una posizione definita in ogni momento e attraversa una fenditura o l’altra; quindi ogni fotone ha una traiettoria. Il fotone sta “cavalcando” un’onda pilota, che attraversa entrambe le fenditure e produce l’interferenza: viene quindi guidato in una posizione d’interferenza costruttiva.

Nel 1979, Chris Dewdney e colleghi del Birkbeck College di Londra simularono la previsione della teoria per le traiettorie di particelle che attraversavano la doppia fenditura.

Nell’ultimo decennio, i fisici sperimentali hanno verificato che tali traiettorie esistono, anche se hanno utilizzato una tecnica controversa chiamata misurazione debole. Nonostante le controversie, gli esperimenti mostrano che la teoria di de Broglie-Bohm è ancora in corsa come spiegazione del comportamento del mondo quantistico. Cruciale il fatto che la teoria non ha bisogno di osservatori né di misurazioni né di una coscienza non-materiale.

E nemmeno ne hanno bisogno le cosiddette teorie del collasso, che sostengono che le funzioni d’onda collassano in modo casuale: quanto più è elevato il numero di particelle nel sistema quantistico, tanto più è probabile il collasso. Gli osservatori si limitano a scoprire il risultato.

Il gruppo di Markus Arndt dell’Università di Vienna, in Austria, ha testato queste teorie inviando molecole sempre più grandi attraverso la doppia fenditura.

Le teorie del collasso prevedono che, quando hanno masse che superano una certa soglia, le particelle di materia non possano rimanere in una sovrapposizione quantistica e così attraversare entrambe le fenditure contemporaneamente: ciò distruggerà la figura d’interferenza. Il gruppo di Arndt ha inviato una molecola con oltre 800 atomi attraverso la doppia fenditura e ha continuato a vedere interferenze. La ricerca della soglia continua.

Werner Heisenberg (!901-1976) in un ritratto d’epoca (Wikimedia Commons)

Roger Penrose ha una sua versione di una teoria del collasso, nella quale quanto più è massiccio l’oggetto in sovrapposizione, tanto più velocemente collasserà in uno stato o nell’altro, a causa delle instabilità gravitazionali. Ancora una volta, si tratta di una teoria indipendente dall’osservatore. Non è necessaria alcuna consapevolezza. Dirk Bouwmeester dell’Università della California a Santa Barbara, sta testando l’idea di Penrose con una versione dell’esperimento a doppia fenditura.

Concettualmente, l’idea è non solo di mettere un fotone in una sovrapposizione di stati in modo che passi attraverso due fenditure contemporaneamente, ma anche di porre una delle fenditure in una sovrapposizione di due posizioni contemporanee.

Secondo Penrose, la fessura dislocata rimarrà in sovrapposizione o collasserà mentre il fotone è in volo, portando a diversi tipi di schemi di interferenza. Il collasso dipenderà dalla massa delle fenditure. Bouwmeester ha lavorato a questo esperimento per un decennio e potrebbe presto essere in grado di verificare o confutare le affermazioni di Penrose.

Se non altro, questi esperimenti stanno dimostrando che non possiamo ancora fare affermazioni sulla natura della realtà, anche se sono ben motivate matematicamente o filosoficamente. E dato che neuroscienziati e filosofi della mente non sono d’accordo sulla natura della coscienza, affermare che essa fa collassare le funzioni d’onda è prematuro, nella migliore delle ipotesi, e fuorviante e scorretto nel peggiore dei casi.

Crediti :

le Scienze

Detective presso Computer Crime Research Center. Investigazioni Roma. Ingegneria Elettronica e delle Telecomunicazioni Seminario Analisi del Crimine Violento Università di Roma

Continua a leggere
Clicca per commentare

Leave a Reply

Per commentare puoi anche connetterti tramite:




Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Fisica

2018, record del riscaldamento degli oceani

Gli oceani – che assorbono circa il 90 per cento del calore dovuto al riscaldamento globale – continuano a scaldarsi: fra il 2017 e il 2018 hanno assorbito l’equivalente del calore prodotto da 100 milioni di bombe di Hiroshima e la situazione tende a peggiorare. Se non verrà bloccata l’emissione di gas serra, entro la fine del secolo il livello del mare aumenterà di 30 centmetri per la sola espansione termica

Pubblicato

il

Gli oceani assorbono fino al 90 per cento del calore prodotto dal riscaldamento globale (Pubblico dominio)

Per gli oceani il 2018 è stato l’anno più caldo mai registrato, nel quale si è avuto un accumulo record di calore. Rispetto al 2017, l’aumento di calore (o anomalia termica) è stato circa 100 milioni di volte superiore a quello prodotto dalla bomba di Hiroshima e, espresso in joule, circa 388 volte superiore alla produzione totale di elettricità della Cina nel 2017.
Ma quel che è peggio è che la tendenza continuerà anche in futuro raggiungendo livelli dalle conseguenze estremamente allarmanti se non sarà posto un freno all’accumulo dei gas serra in atmosfera.

A stabilirlo è uno studio condotto da un gruppo internazionale di ricercatori diretti da Lijing Cheng dell’Accademia cinese delle scienze e Kevin E. Trenberth del National Center for Atmospheric Research a Boulder, in Colorado, che firmano un articolo su “Advances in Atmospheric Sciences”.

Subito dopo il 2018, gli anni con il massimo accumulo di calore oceanico sono stati, nell’ordine, 2017, 2015, 2016 e 2014, con una significativa progressione lineare, L’unica eccezione – quella del 2015 che ha superato il 2016, nonostante in quest’ultimo la temperatura superficiale media globale fosse superiore – è imputabile a un forte evento di El Niño e al rimescolamento delle acque profonde e superficiali che lo caratterizza.

I dati sono stati raccolti con il sistema di monitoraggio oceanico Argo (in funzione da 13 anni), formato da una flotta di circa 4000 robot galleggianti alla deriva negli oceani di tutto il mondo, che ogni pochi giorni si immergono fino a una profondità di 2000 metri per poi misurare lungo tutto il percorso di risalita la temperatura, il pH, la salinità e altri parametri delle acque.

La misurazione del calore oceanico è particolarmente importante per valutare il riscaldamento globale perché oltre il 90 per cento del calore del riscaldamento globale si deposita negli oceani ed è meno influenzato dalle fluttuazioni naturali, tanto da rappresentare uno dei più robusti indicatori dei cambiamenti climatici. L’aumento delle temperature oceaniche ha molte conseguenze, a partire dall’aumento del livello del mare per espansione termica, che a sua volta può contaminare con acqua salata le falde d’acqua dolce costiere, e compromettere infrastrutture portuali e strade litoranee.

Inoltre, la maggiore disponibilità di calore si traduce in tempeste più intense e fenomeni meteorologici estremi, come piogge torrenziali in alcune aree e ondate di calore e siccità in altre.

In un secondo articolo pubblicato su “Science”, Cheng, Trenberth e colleghi usano i dati raccolti e quelli di precedenti ricerche – che hanno permesso di ricostruire, sia pure con minore precisione, le temperature dei mari a partire dal 1960 – per valutare l’andamento e la velocità di cambiamento del calore oceanico.

In uno scenario business-as-usual, in cui non viene fatto alcuno sforzo reale per ridurre le emissioni di gas serra, fra il 2081 e il 2100 i 2000 metri più superficiali degli oceani subiranno un riscaldamento di 0,78 °C, con un innalzamento del mare per espansione termica di 30 centimetri, sei volte maggiore di quello che si è avuto negli ultimi 60 anni. Se invece l’obiettivo dell’accordo di Parigi fosse raggiunto, il riscaldamento totale degli oceani potrebbe essere dimezzato.





Licenza Creative Commons



Crediti :

le Scienze

Continua a leggere

Fisica

Sta per cominciare una nuova corsa allo Spazio?

La Cina è riuscita a portare un rover sulla faccia nascosta della Luna, e ha in serbo piani ancora più ambiziosi. La Nasa sta approntando lo Space Launch System. Le aziende private lavorano a regime. Sembra stia per cominciare una nuova, seconda, corsa allo Spazio

Pubblicato

il

Stati Uniti. Cina. Unione europea. Russia, India, Giappone e (ultimamente) Etiopia. E ancora: SpaceX, Virgin Galactic, Blue Origin, Stratolaunch. Segnatevi bene questi nomi, perché saranno i protagonisti di una competizione senza esclusione di colpi, che si giocherà tutta nei cieli. Molto in alto, per la verità: a cinquant’anni (complottisti permettendo) dallo sbarco statunitense sulla Luna, momento culmine della corsa allo Spazio che impegnò Stati Uniti e Unione sovietica nel periodo della guerra fredda, potrebbe presto cominciare, secondo alcuni tra i più autorevoli esperti di politiche spaziali, una nuova battaglia (pacifica, si spera) per l’esplorazione e la conquista dello Spazio. Con conseguenze al momento del tutto imprevedibili: è vero che la prima corsa allo Spazio ebbe ricadute scientifiche e tecnologiche di ampissima portata, ma bisogna considerare il rischio che la competizione passi oggi dal campo della scienza a quello militare. Uno scenario solo apparentemente distopico: le attuali posizioni dell’amministrazione Trump e il segreto impenetrabile sulle reali capacità tecnologiche della Cina in ambito spaziale lasciano aperte le porte a tutte le possibilità.

Ecco il nostro recap della situazione attuale.

Lo stolto guarda il dito, la Cina indica la Luna

 

Non possiamo che cominciare dalla Cina, se non altro per questioni di attualità. Pochi giorni fa, come vi abbiamo raccontato, la sonda cinese Chang’e-4 è atterrata sulla faccia nascosta del nostro satellite, stabilendo un primato storico: mentre la parte visibile della Luna, infatti, è stata esplorata in più occasioni, nessuno finora – né gli Stati Uniti, né l’Unione Europea, né la Russia, aveva tentato lo sbarco, ben più difficile, sul lato opposto.

La missione era stata lanciata il 7 dicembre scorso dalla base spaziale di Xichang, nella provincia del Sichuan, e dopo poco meno di un mese di viaggio il lander e il rover sono allunati nel cratere von Karman, un buco di dimensioni enormi – circa 2500 chilometri di diametro – ovviamente non visibile dalla Terra. Obiettivi della missione: lo studio della superficie lunare e di ciò che c’è immediatamente sotto e la rilevazione delle onde radio provenienti dallo Spazio.

L’impresa di Chang’-e 4, comunque, non è che la punta dell’iceberg. Il programma spaziale cinese iniziò ufficialmente negli anni cinquanta, quando, assistiti dall’Unione Sovietica, gli scienziati asiatici si concentrarono sullo sviluppo di missili balistici; successivamente, con il consolidamento del potere di Mao e il suo cosiddetto grande balzo in avanti (il piano di trasformazione dell’economia cinese da sistema agricolo a società industriale), il programma subì una battuta d’arresto. Bisognerà infatti aspettare al 1970 per il lancio in orbita del primo satellite cinese; otto anni più tardi, Deng Xiaoping dichiarò esplicitamente che la Cina non avrebbe preso parte alla corsa allo Spazio, almeno per quanto riguardava l’esplorazione in senso stretto, e si sarebbe piuttosto concentrata sullo sviluppo di veicoli e satelliti per le telecomunicazioni e la meteorologia.

Nel ’92, altro cambio di programma: i cinesi si resero conto, come ha ricostruito su The Conversation Wendy Whitman-Cobb, docente di scienze politiche della Cameron Unviersity, esperta in politiche spaziali, che possedere una stazione spaziale orbitante avrebbe significato guadagnare un significativo aumento di prestigio presso la comunità internazionale. Detto, fatto: fu inaugurato un nuovo programma spaziale, che portò allo sviluppo della navicella Shenzou. Successivamente iniziarono i voli con equipaggio, fu costruita la prima stazione spaziale, Tiangong-1, e poi, in tempi più recenti, fu avviata la missione Chang’e, con obiettivo la Luna. Il successo di Chang’e 4 è solo l’inizio: la Cina ha infatti in mente piani ancora più ambiziosi, tra cui la costruzione di una nuova stazione, il recupero di campioni dal suolo marziano e la fondazione di una base permanente sulla Luna. La Cina non va troppo per il sottile: stando alla road map messa a punto da China Aerospace Science and Technology Corp, la repubblica del dragone si è prepotentemente candidata a diventare leader mondiale nella tecnologia spaziale entro il 2045.

Stati Uniti: arriva lo Space Launch System, ma…https://www.youtube.com/watch?v=AOj3n0HfobU
Come rispondono (se rispondono) gli Stati Uniti. Così e così. Il Washington Post racconta che oltreoceano “non è stato ancora possibile mettere a punto una controproposta credibile ai piani di sviluppo a lungo termine della Cina. Né il popolo americano né il comando delle forze armate sembrano percepire l’importanza strategica delle operazioni della Cina nello spazio tra la Terra e la Luna. Vedono tutto attraverso le lenti dell’esperienza passata durante la guerra fredda, assumendo che le motivazioni che spingono la Cina siano le stesse di quelle che spingevano l’Unione sovietica – sostanzialmente prestigio e ‘spunta di caselle’ – ma non è così”.

Il programma su cui più di ogni altro si sta concentrando l’agenzia spaziale statunitense è lo sviluppo e la costruzione dello Space Launch System, “il razzo più grosso e potente mai realizzato nella storia”, che nelle intenzioni dovrebbe aprire una nuova era per l’esplorazione dello Spazio aperto, al di là della bassa orbita terrestre. Sostanzialmente, lo Sls è un vettore che la Nasa impiegherà per il lancio delle nuove particelle, con o senza equipaggio, come per esempio la capsula Orion, con destinazione Marte.

Poi ci sono, naturalmente, altre questioni sul tavolo: il mantenimento in vita della Stazione spaziale internazionale, il recupero di campioni dagli asteroidi, l’esplorazione di Venere. Ma la strada americana per lo Spazio rischia di essere più complicata del previsto. “Al momento”, ci ha raccontato Whitman-Cobb“non vedo alcuna risposta significativa degli Stati Uniti alle mosse cinesi, almeno in termini di esplorazione spaziale pacifica. Date le attuali restrizioni di budget, è molto improbabile che la Nasa riesca ad avere le risorse necessarie ad accelerare lo sviluppo dello Sls; per quanto riguarda la Stazione spaziale internazionale, è interessante notare che l’amministrazione Trump, inizialmente, aveva intenzione di terminare la partecipazione statunitense all’inizio del decennio 2020-2030, ma i partner internazionali del progetto, insieme ad alcuni membri influenti del Congresso americano, vorrebbero prolungarla almeno fino al 2030, per evitare che la Cina, che nel frattempo sta sviluppando la sua seconda stazione spaziale, rimanga l’unica nazione con presenza umana permanente nello Spazio”.

I privati, dal canto loro, non stanno certo a guardare. Dei piani di SpaceXabbiamo parlato in più occasioni; progetti simili, anche se meno ambiziosi, sono sulle scrivanie degli ingegneri di Blue OriginVirgin Galactic Stratolaunch. L’ascesa dei privati nel campo dell’esplorazione spaziale ha dato già i suoi primi significativi risultati: fino a non molto tempo fa, portare in orbita un chilo di materiale costava all’incirca 20mila euro; oggi SpaceX ha ridotto la spesa a un quarto della cifra, rendendo di fatto lo Spazio molto più accessibile a privati, scuole, nazioni in via di sviluppo e altre aziende.

Dove si colloca tutto ciò in una possibile nuova corsa allo Spazio? Secondo Whitman-Cobb, la conseguenza è lo spostamento degli obiettivi delle agenzie pubbliche: “La Nasa, per esempio, ha essenzialmente modificato la destinazione delle sue missioni, spostandola al di là della bassa orbita terrestre e lasciando quest’ultima alle aziende private”.

Guerra nello Spazio?
Torniamo alla questione iniziale. Ci sono davvero gli estremi per l’inizio di una corsa allo Spazio? E cosa potrebbe accadere se gli intenti di questa corsa non dovessero essere così pacifici? La risposta, come accennavamo, non è semplice. In linea di massima, ci dice Whitman-Cobb, “le corse allo Spazio non sono negative, di per sé. La rivalità tra Stati Uniti e Unione Sovietica durante la guerra fredda ha portato allo sviluppo di tecnologie e spin-off che hanno aiutato l’economia globale: satelliti meteorologici, Gps, comunicazioni più efficienti, computer più piccoli. Una nuova corsa allo Spazio potrebbe avere anche conseguenze positive in termini di esplorazione, spingendo più in là i limiti dell’attuale conoscenza”. Il rovescio della medaglia: “Se ci dovesse essere una corsa allo Spazio”, continua l’esperta, “temo però che si potrebbe gareggiare in campo militare. Il che sarebbe naturalmente più pericoloso. La maggior parte della tecnologia spaziale ha un doppio utilizzo: può essere usata per scopi sia pacifici che bellici. Quindi, nonostante le nazioni continuino ad affermare che i propri satelliti (o altri strumenti) siano stati sviluppati per scopi pacifici, la paura è che possano essere usati anche in altro modo. L’amministrazione Trump, per esempio, si sta servendo dello spettro di una minaccia russa o cinese per perorare la necessità di una American Space Force. La Cina ha condotto un test anti-satelliti per distruggere (secondo la versione ufficiale) un satellite meteorologico guasto, il che ha creato una nuvola di detriti orbitanti che mettono in pericolo altre navicelle sulla stessa orbita, come nel film Gravity. E il Dipartimento della difesa cinese, nel suo report del 2018, ha dichiarato che il programma militare spaziale ‘continua a crescere rapidamente’”. Incrociamo le dita.





Licenza Creative Commons



Crediti :

Wired

Continua a leggere

Fisica

I computer piccolissimi che ci cambieranno la vita

Computer di dimensioni quasi microscopiche sono ormai alla portata della tecnologia elettronica. L’ultimo ostacolo da superare riguarda lo sviluppo di metodi per ottimizzarne l’efficienza energetica in modo da produrre batterie di dimensioni anch’esse minuscole ma a lunghissima durata di Stuart Biles / Scientific American

Pubblicato

il

Ricordate Salto nel buio, la commedia fantascientifica degli anni ottanta su una microscopica capsula con equipaggio iniettata in un essere umano?
Anche se siamo lontani anni dal lancio di sottomarini all’interno dei nostri corpi, i progressi dell’ingegneria hanno reso possibile la costruzione di computer così piccoli che l’idea di inserirli nel tessuto vivente non è più solo il parto dell’immaginazione di uno scrittore di fantascienza.

Sono già passati vent’anni da quando lo scienziato britannico Kevin Warwick impiantò per la prima volta un trasmettitore RFID al silicio nel suo braccio per controllare a distanza i computer di porte, luci e altri dispositivi. In seguito ha fatto un ulteriore passo avanti interfacciando il dispositivo con il proprio sistema nervoso in modo da controllare un braccio robotico, e guadagnarsi il soprannome di “Captain Cyborg”.
Anche se non è una notizia da strillare ogni giorno in prima pagina, il ritmo della tecnologia dei microcomputer non ha rallentato, e a volte resto ancora stupito dall’ingegnosità di alcuni nuovi sviluppi.

Per esempio, all’inizio di quest’anno, un team dell’Università del Michigan diretto da David Blaauw, docente di ingegneria elettronica e informatica, ha usato un processore ad alta efficienza energetica costruito dall’azienda per cui lavoro, la Arm, per costruire il computer più piccolo del mondo.

Il dispositivo, che misura appena 0,3 millimetri di lato, ha solo un decimo delle dimensioni del precedente detentore del record, un computer a energia solare non più grande di un granello di sale. Dato che è possibile integrare nel nuovo dispositivo dei sensori di temperatura e pressione, il team di Blaauw prevede che, tra le altre applicazioni, potrebbe essere impiantato nei tumori per determinare se si riducono dopo i trattamenti chemioterapici. (Gli studi dimostrano che i tumori possono avere temperature leggermente superiori a quelle dei tessuti sani).

Anche se lo sviluppo di minuscoli computer è entusiasmante, ci sono ostacoli che ne impediscono un’ampia diffusione nel settore sanitario e in altri settori. Uno dei problemi maggiori è la creazione di batterie sufficientemente piccole per alimentare i dispositivi.

Via via che le dimensioni delle batterie si riducono, anche la quantità di energia che immagazzinano diminuisce drasticamente. Le batterie necessarie per i computer minuscoli sono notevolmente più piccole delle piccole batterie convenzionali usate per alimentare dispositivi come i pacemaker e gli impianti cocleari, e la loro capacità – dice Blaauw – può essere mille volte inferiore.

Una possibile soluzione è trovare il modo per ricaricare frequentemente i dispositivi. Per esempio, i raggi infrarossi possono ricaricare a distanza i sensori impiantati in topi di laboratorio.

Gli scienziati stanno anche studiando come produrre elettricità per piccoli computer sfruttando una tecnica nota come recupero di energia termoelettrica, anche se finora non ci sono stati successi a una scala così piccola. Per far sì che questa tecnica funzioni, ci deve essere una differenza di temperatura tra due superfici di un dispositivo, ma i nuovi mini computer sono così piccoli che è difficile rendere una loro parte qualsiasi molto più calda di un’altra.

Altri metodi ancora allo studio prevedono il ricorso a molecole di glucosio come fonte di energia.

Una soluzione efficace potrebbe essere quella di risparmiare la piccola quantità di energia che può essere immagazzinata in una batteria minuscola. Blaauw e il suo team hanno visto che possono ridurre drasticamente il consumo di energia “svegliando” solo periodicamente i computer per fare calcoli e poi rimettendoli a riposo.

Oltre a massimizzare la quantità di tempo in cui i piccoli computer non sono attivi, si può abbattere il loro consumo energetico riducendo la quantità di elettricità che consumano quando sono attivi.

Blaauw e il suo gruppo sono riusciti a ridurre il consumo di energia a riposo del loro computer fino alla soglia infinitesimale di 30 picowatt, 300 trilionesimi di watt, grazie a una modificazione dei transistor usati, alla riduzione delle dimensioni di alcuni circuiti e ad alcune ottimizzazioni dei circuiti.

Le piccole dimensioni e il ridotto consumo energetico dei mini computer però servirebbero a poco se i dati che raccolgono non potessero essere comunicati correttamente. Per consumare meno elettricità possibile, Blaauw e il suo team hanno dovuto modificare anche questo processo.

Attivando l’antenna radio per le trasmissioni solo per pochi miliardesimi di secondo, i computer possono farsi riconoscere senza sprecare troppa energia. “Perché una radio possa essere sentita, deve ‘urlare’ piuttosto forte”, ha detto Blaauw. “In sostanza, abbiamo fatto sì che invece di urlare tutto il tempo, emetta solo un segnale forte ma breve.”

Se i gruppi di ricerca come quello di Blaauw riescono a superare gli ostacoli tecnologici, è verosimile che un giorno i computer minuscoli potranno rivoluzionare ben più del rilevamento dei tumori.

La CubeWorks, un’azienda nata dall’iniziativa Michigan Micro Mote (M3) dell’Università del Michigan, ha sviluppato un sistema di microsensori in rete che possono essere incorporati in oggetti di uso quotidiano – dai sistemi domotici ai parchi eolici fino ai dispositivi per monitorare i livelli di glucosio – e collegati all’Internet degli oggetti.

Alimentati dalla luce solare, questi computer possono raccogliere informazioni sulla temperatura e la pressione dell’ambiente, oltre a scattare immagini digitali e tracciare il movimento all’interno di una determinata area. Un giorno, sistemi come questi potranno trasformare il modo in cui interagiamo con tutto, dagli edifici in cui viviamo agli abiti che indossiamo.

Anche se non saremo ancora in grado di lanciare sottomarini all’interno del nostro corpo, i computer di dimensioni millimetriche probabilmente arriveranno sul mercato nel prossimo decennio e cominceranno ad avere un impatto significativo sul mondo.

(L’originale di questo articolo è stato pubblicato su “Scientific American” il 28 dicembre 2018





Licenza Creative Commons



Crediti :

le Scienze

Continua a leggere

Chi Siamo

Dicono di noi

5 star review  Mitici

thumb Edoardo Maria Mollica
12/23/2013

Newsletter

NASA TV

SPACE X

Facebook

I più letti