Contattaci

Fisica

Genoma minimo e cellula artificiale

Pubblicato

il

Perché la cellula artificiale con genoma minimo è importante. Un’équipe di ricercatori guidata da Craig Venter ha sintetizzato il genoma minimo, che contiene solo i geni strettamente necessari alla vita. Ecco perché è un grande risultato

oilà, il genoma minimo è servita. È l’ennesimo traguardo scientifico tagliato dall’équipe di Craig Venter – lo scienziato primo al mondo a sequenziare il genoma umano e a realizzare la prima cellula artificiale con genoma minimo completamente controllata da un genoma sintetico. Come raccontano in un articolo appena pubblicato su Science, infatti, Venter e colleghi sono riusciti a sviluppare il cosiddetto genoma batterico minimo, ovvero contenente soltanto i 473 geni strettamente necessari alla sopravvivenza e alla replicazione della cellula che lo ospita.

Genoma minimoSi tratta di una scoperta fondamentale nel campo della biologia sintetica, che, auspicabilmente, ci consentirà di capire meglio il ruolo di ciascuno dei geni fondamentali: per comprenderne appeno l’importanza, ci siamo fatti spiegare il significato della scoperta da Pasquale Stano, esperto in biologia sintetica al dipartimento di scienze dell’università di Roma Tre.

Facciamo un passo indietro. Cosa si intende per biologia sintetica?

La biologia sintetica è un ramo della biologia nato negli Stati Uniti intorno agli anni 2000, come evoluzione dell’ingegneria genetica e della biologia dei sistemi (la cosiddetta systems biology). Sebbene sia tipicamente considerata una disciplina bio-ingegneristica, che modifica organismi preesistenti andando a operare sui circuiti molecolari interni per creare un organismo che fa quello che lo sperimentatore vuole, c’è stato fin da subito un innesto di natura più chimica e biologica.

Questa seconda anima (meno bio-ingegneristica) della biologia sintetica ha a che fare con la costruzione dal basso di cellule artificiali aventi minima complessità da utilizzarsi sia come modelli di cellule attuali, sia come modelli di cellule primitive, sia come strumenti per applicazioni biotech e di nano-medicina. Quindi lo stato dell’arte della biologia sintetica attuale va visto da questa doppia prospettiva”.

Ci descrive meglio le due anime della biologia sintetica? Come funziona il cosiddetto approccio bio-ingegneristico?

Sul versante bio-ingegneristico attualmente è possibile modificare microrganismi introducendo circuiti genetici anche presi da altri organismi, al fine di produrre qualcosa di concreto, come bio-fuel e composti di chimica fine per uso farmaceutico. O ancora modificare microorganismi per la bio-remediation (metabolizzare gli inquinanti), o da usare come bio-sensori.

Il lavoro di Venter invece mira a creare sperimentalmente un micro-organismo avente un genoma minimo e ciononostante essere vivente. E quindi risponde, da un certo punto di vista, a una domanda teorica (‘qual è il genoma minimo?‘), ma ha anche ricadute pratiche: se sono in grado di sintetizzare un genoma minimo, posso anche sintetizzare un genoma a piacere, che faccia quello che voglio. Da qui il forte interesse (e anche le paure) dell’opinione pubblica verso questa ricerca. Essere in grado di disegnare e costruire un genoma potrebbe dare all’uomo un grosso potere, cioè quello di introdurre istruzioni che la cellula fa ciecamente, e che quindi possono essere utili o dannose”.

Quali, invece, gli scopi e l’applicazioni dell’approccio costruttivista?

Nell’approccio costruttivista o bottom-up della biologia sintetica, che si mescola quindi con la chimica e la biochimica di base, invece lo stato attuale ha un taglio diverso, e più interessato a capire i principi di auto-organizzazione della materia inanimata verso i sistemi viventi, per comprendere quali sono stati i vincoli e i passaggi obbligati, e le opportunità, o le inattese e sorprendenti fenomenologie che hanno dato origine alla vita sulla Terra 3,5 miliardi di anni fa.

Genoma minimoIl fine è quello di comprendere sperimentalmente le leggi della fisica e della chimica che hanno consentito la nascita la vita e quali sono le leggi di selezione chimica che hanno preceduto la selezione biologica che conosciamo. L’aspetto più interessante di questa seconda anima della biologia sintetica è che le tecniche e strategie che si utilizzano per la costruzione in laboratorio di cellule artificiali minime, non necessariamente viventi e quindi prive di problematiche bioetiche, non hanno la necessità di utilizzare microorganismi preesistenti. Un classico esempio è la costruzione (ancora non realizzata, ma in via di sperimentazione) di cellule artificiali intelligenti per la veicolazione di farmaci“.

Operativamente, come si prepara e sintetizza un genoma minimo in una cellula funzionante e in grado di autoreplicarsi?

Sia nell’uno che nell’altro approccio, il genoma minimo si disegna in base alla nostra conoscenza della biologia cellulare, vale a dire includendo tutti quei geni che sono fondamentali per le operazioni di auto-produzione di tutti i componenti della cellula. Tale genoma minimo teorico però, come ha dimostrato Venter, non funziona.

Ci sono altri geni, alcuni di cui ancora non si conosce la funzione, che vanno inclusi. In passato sono stati messi a confronto i genomi degli organismi più piccoli e facendo un paragone tra diversi genomi (la cosiddetta comparative genomics) si è giunti all’individuazione di quei geni che sono presenti in tutti i genomi analizzati. Si tratta di circa 250 geni, assolutamente necessari a ogni cellula, che si occupano di produrre le proteine, di duplicare il dna, di effettuare un metabolismo minimo e di costruire la membrana“.

Perché il genoma minimo sintetizzato da Venter e colleghi contiene più geni di quello teorico?

Nel suo lavoro, Venter ha mostrato che partendo dal genoma di un piccolo microrganismo (Mycoplasma mycoides) che avevano già sintetizzato in passato (901 geni) è possibile ridurre ulteriormente il genoma al valore di 473. Molto piccolo, ma ancora maggiore rispetto al genoma minimo teorico di circa 250 geni. Tutto dipende dal fatto che il numero minimo di geni è legato anche al tipo di ambiente che la cellula minima ha a disposizione: se la cellula può delegare all’ambiente alcune sue funzioni, i relativi geni possono essere eliminati (un po’ come se si dovesse costruire una casa a partire da materie prime grezze o da oggetti complessi prefabbricati): il numero minimo di operazioni che la cellula deve compiere dipende moltissimo dai materiali di partenza di cui dispone.

Queste cellule minime naturali sono tali perché vivono dentro altre cellule e ne usano i composti già elaborati: in tal modo nel loro genoma non c’è bisogno dei geni che sarebbero necessari a sintetizzare quei composti partendo da zero. In laboratorio una cellula minima può vivere solo in un ambiente protetto e molto ricco di nutrienti”.

Perché si tratta di una scoperta così importante?

Perché si è dimostrato sperimentalmente che una cellula è vivente a partire da un genoma di 473 geni. Un numero minore sia del più piccolo genoma naturale (Mycoplasma genitalium, 525 geni) che di quello dei batteri comuni (4000-5000 geni). Cosa ancora più importante, tale genoma è stato prodotto sinteticamente, cioè chimicamente, e introdotto in una cellula già formata, privata del suo dna naturale.

Dopo l’introduzione, il dna sintetico ha preso il controllo della cellula nella quale è stato introdotto, e l’ha fatta crescere e riprodursi. Lo studio di Venter dimostra – almeno in linea di principio – che è possibile costruire un dna genomico che faccia quello che lo sperimentatore vuole. E ancora: stando al lavoro di Venter, ci sono 79 geni di cui ancora non si conosce la funzione, il che fa capire chiaramente l’enorme difficoltà di disegnare un genoma a tavolino”.

Come si inserisce lo studio nell’ambito della ricerca sulla cosiddetta vita artificiale?

Bisogna intendersi su cosa voglia dire vita artificiale. I batteri minimi di Venter hanno di artificiale solo il fatto che il dna minimo introdotto è stato sintetizzato chimicamente, assemblato via lievito, e poi introdotto in una cellula naturale privata del proprio genoma naturale. Nell’accezione più pura, la vita artificiale è quella dell’approccio bottom-up, cioè la creazione della vita minima a partire da molecole non viventi.

Per altri ancora anche tale approccio non è totalmente artificiale, perché si usano comunque molecole prese in prestito dai sistemi viventi già esistenti. La vera vita artificiale, strictu sensu, sarebbe quella ricavata con approccio bottom-up da molecole non esistenti in natura, senza dna né proteine. Ciò su cui tutti concordano è che la vita è auto-poietica, cioè prevede, in ogni sua forma, l’auto-produzione dei propri componenti“.

Quali sono le possibili applicazioni e gli sviluppi futuri?

L’ultimo paper di Venter fu pubblicato nel 2010, quando il genoma di 901 geni fu sintetizzato in vitro e assemblato in lievito. Sei anni dopo siamo arrivati a 473 geni. La biologia sintetica bioingegneristica va abbastanza veloce: sono nate riviste specializzate che ne raccolgono i risultati sia come scienza di base (in particolare progettazione e sintesi di circuiti genetici) che come scienza applicativa (bicarburanti, farmaci, biosensori). La biologia sintetica bottom-up, invece, necessariamente produce sistemi più semplici, più basici e fondamentali, ma risponde probabilmente a domande diverse, forse più profonde (l’origine dei sistemi viventi contrapposti ai materiali non viventi)”.

Cosa si fa in Italia?

L’Italia, purtroppo, è tremendamente indietro: ci sono pochissimi gruppi di ricerca che si occupano dell’argomento. Nella nostra équipe a Roma Tre, al momento, ci stiamo occupando di costruire cellule sintetiche bottom-up capaci di scambiare segnali chimici con cellule naturali. Cioè realizzare sistemi minimi capaci di comunicare usando lo stesso linguaggio delle cellule naturali”.

 

 

Crediti :

Wired

Detective presso Computer Crime Research Center. Investigazioni Roma. Ingegneria Elettronica e delle Telecomunicazioni Seminario Analisi del Crimine Violento Università di Roma

Continua a leggere
Clicca per commentare

Lascia una recensione

Per commentare puoi anche connetterti tramite:




avatar
  Iscriviti  
Notificami

Fisica

Vega C si prepara al lancio. Un video ci porta dietro le quinte della missione

Pubblicato

il

Partirà da Kourou, in Guyana francese, nella seconda metà del 2019, spinto da un motore straordinario che gli conferirà una potenza senza concorrenti tra i vettori spaziali della sua categoria. Vega-C, così si chiama, è l’ultimo arrivato tra i sistemi di lancio europei, e rappresenta un motivo di orgoglio anche per la scienza e tecnologia italiane: il cuore del suo sistema è stato infatti elaborato da un’azienda italiana con sede a Colleferro.

In questo video l’Agenzia spaziale europea ci porta dietro le quinte della missione.

 

 
  

Licenza Creative Commons

Help Chat 

 

Crediti :

Wired

Continua a leggere

Fisica

Il gatto di Schrödinger? Ha temperature diverse contemporaneamente

Dopo decenni, un team di fisici dell’Università di Exeter ha enunciato un nuovo principio di incertezza nel mondo dei quanti, che stavolta riguarda la relazione tra temperatura e energia di un oggetto

Pubblicato

il

Se il gatto di Schrödinger può essere vivo e morto allo stesso tempo, potrà (giustamente) avere due temperature diverse contemporaneamente? La risposta dei fisici dell’Università di Exeter è sì, nel mondo dei quanti è così. E nel loro articolo pubblicato su Nature Communications enunciano una nuova relazione di incertezza quantistica che condanna gli oggetti nanoscopici in un limbo di temperature. Un principio che, a detta degli autori, cambierà il modo in cui gli scienziati misurano la temperatura di gatti di punti quantici, piccoli semiconduttori o singole cellule.

La nuova relazione di incertezza quantistica stabilisce che “più si conosce con precisione la temperatura degli oggetti in un sistema quantistico meno si può stabilire la loro energia, e viceversa”. Chiaro? Probabilmente no. Per cercare di intuire il principio possiamo partire dal principio di indeterminazione nella relazione tra temperature e energia formulato da Heisenberg e Bohr negli anni ’30 del secolo scorso.

Uno dei metodi per misurare con precisione la temperatura di un corpo è quello di immergerlo in un serbatoio (per esempio una vasca di acqua) a temperatura nota e misurare il tempo necessario al raggiungimento dell’equilibrio termico, lo scenario in cui l’oggetto immerso raggiunge la stessa temperatura del fluido del serbatoio. Dal punto di vista microscopico, l’equilibrio termico si raggiunge perché corpo e serbatoio si scambiano continuamente pacchetti di energia infinitesimali: è questo il motivo per cui temperatura ed energia sono intrinsecamente legate. Ed è anche il motivo per cui la misura della temperatura del corpo fa oscillare la misura della sua energia, che quindi resta quantificabile solo all’interno di un certo margine d’errore.

Il ragionamento vale anche nel verso opposto: volendo definire l’energia, si può poi risalire alla sua temperatura? No, perché per misurare l’energia all’interno di un sistema non quantistico dovrei isolare l’oggetto, impedendogli di scambiare energia con qualsiasi cosa. Ma così facendo si preclude la possibilità di misurare la sua temperatura usando il metodo del serbatoio. E dunque, in questo caso, l’incertezza risiederebbe proprio nella temperatura.

I fisici di Exeter hanno portato l’incertezza su scala quantistica e grazie al paradosso del gatto di Schrödinger – l’esperimento ideale pensato dall’omonimo fisico austriaco per spiegare il principio di sovrapposizione e il collasso degli stati, due leggi fondamentali della meccanica quantistica – hanno dimostrato matematicamente che le cose si fanno ancora più strane. Gli scienziati, in particolare, hanno mostrato che il principio di sovrapposizione vale anche per la temperatura, ossia che un sistema quantistico può trovarsi in due (o più) stati di temperatura diversi nello stesso momento. A ciascuno di tali stati corrispondono altrettanti stati di energia, dal momento che – come abbiamo visto – energia e temperatura sono grandezze intrinsecamente legate; e la misurazione della temperatura (proprio come l’apertura della scatola che contiene il gatto) fa sì che il sistema collassi su uno dei tanti stati che componevano la sovrapposizione.

 
  

Licenza Creative Commons

Help Chat 

 

Crediti :

Wired

Continua a leggere

Fisica

Che cosa dice veramente sulla realtà la teoria quantistica?

A quasi un secolo dalla formulazione della teoria quantistica, fisici e filosofi non sanno ancora dare una risposta a questa domanda. Ma si continuano a condurre esperimenti per capire qualcosa di più sulle sue leggi spesso paradossali e sul confine tra il mondo microscopico e quello macroscopico

Pubblicato

il

Per essere una dimostrazione in grado di ribaltare le grandi idee di Isaac Newton sulla natura della luce, era incredibilmente semplice. “Può essere ripetuto con grande facilità, ovunque splenda il Sole”, disse il fisico inglese Thomas Young ai membri della Royal Society di Londra nel novembre del 1803, descrivendo l’esperimento oggi noto come esperimento della doppia fenditura.
Young non era melodrammatico. Aveva ideato un esperimento elegante e relativamente semplice per mostrare la natura ondulatoria della luce, e così facendo aveva confutato la teoria di Newton che la luce fosse fatta di corpuscoli, o particelle.

Ma la nascita della fisica quantistica nei primi anni del 1900 chiarì che la luce è composta da unità minuscole, indivisibili, o quanti, di energia, che noi chiamiamo fotoni.

L’esperimento di Young, quando viene effettuato con singoli fotoni o anche singole particelle di materia, come elettroni e neutroni, è un enigma su cui riflettere, poiché solleva domande fondamentali sulla natura stessa della realtà. Alcuni l’hanno perfino usato per sostenere che il mondo quantistico è influenzato dalla coscienza umana, dando alle nostre menti un ruolo e una collocazione nell’ontologia dell’universo. Ma quel semplice esperimento fa davvero una cosa del genere?

Nella moderna forma quantistica, l’esperimento di Young consiste nell’inviare singole particelle di luce o materia verso due fessure o aperture praticate in una barriera per il resto opaca. Dall’altro lato della barriera c’è uno schermo che registra l’arrivo delle particelle (per esempio, una lastra fotografica nel caso dei fotoni).

Il buon senso porta ad aspettarci che i fotoni passino attraverso una o l’altra delle fenditure, accumulandosi dietro ciascuna di esse.

Invece non lo fanno.

Al contrario, vanno verso alcune parti dello schermo e ne evitano altre, creando bande alternate di luce e di buio. Queste cosiddette frange di interferenza sono del tipo che si ottiene quando due insiemi di onde si sovrappongono. Quando le creste di un’onda si allineano con le creste di un’altra, si ottiene un’interferenza costruttiva (bande luminose), e quando si allineano con gli avvallamenti si ottiene un’interferenza distruttiva (buio).

Ma c’è solo un fotone che attraversa l’apparecchiatura in ogni dato momento. È come se il fotone stesse attraversando entrambe le fessure contemporaneamente, interferendo con se stesso. E questo non ha senso nella fisica classica.

Dal punto di vista matematico, tuttavia, ciò che attraversa entrambe le fessure non è una particella fisica o un’onda fisica, ma una cosa chiamata funzione d’onda, una funzione matematica astratta che rappresenta lo stato del fotone (in questo caso la sua posizione).

La funzione d’onda si comporta come un’onda che investe le due fenditure; nuove onde generate da ogni fenditura sul lato opposto si propagano e alla fine interferiscono l’una con l’altra. La funzione d’onda combinata può essere usata per calcolare le probabilità di dove potrebbe trovarsi il fotone.

Il fotone ha un’alta probabilità di trovarsi dove le due funzioni d’onda interferiscono costruttivamente e una bassa probabilità di trovarsi in regioni d’interferenza distruttiva. Si dice che la misurazione – questo caso l’interazione della funzione d’onda con la lastra fotografica – fa “collassare” la funzione d’onda, che passa dall’essere diffusa prima della misurazione all’essere concentrata in uno dei punti in cui il fotone si materializza dopo la misurazione.

Questo apparente collasso indotto dalla misurazione della funzione d’onda è la fonte di molte difficoltà concettuali nella meccanica quantistica. Prima del collasso, non c’è modo di dire con certezza dove inciderà il fotone: potrà apparire in uno qualsiasi dei punti di probabilità diversa da zero. Non c’è modo di seguire la traiettoria del fotone dalla sorgente al rivelatore. Il fotone non è reale nel senso in cui è reale un aereo che vola da San Francisco a New York.

Werner Heisenberg, tra gli altri, interpretò questa matematica sostenendo che la realtà non esiste fino a che non viene osservata. “L’idea di un mondo reale oggettivo le cui parti più piccole esistono oggettivamente nello stesso senso in cui esistono le pietre o gli alberi, indipendentemente dal fatto che le osserviamo o meno … è impossibile”, ha scritto.

Anche John Wheeler ha usato una variante dell’esperimento della doppia fenditura per sostenere che “nessun fenomeno quantistico elementare è un fenomeno fino a quando non si tratta di un fenomeno registrato (“osservato”, “registrato in modo indelebile”)”

Illustrazione dell'esperimento di Young

Illustrazione dell’esperimento di Young della doppia fenditura (Credit: Alexandre Gondran Wikimedia (CC BY-SA 4.0)

Ma la teoria quantistica non è del tutto chiara su che cosa costituisca una “misurazione”. Postula che il dispositivo di misurazione debba essere classico, senza definire dove sia il confine tra classico e quantistico, lasciando così la porta aperta a chi pensa che per il collasso debba essere invocata la coscienza umana.

Lo scorso maggio, Henry Stapp e colleghi hanno sostenuto  che l’esperimento della doppia fenditura e le sue varianti moderne forniscono la prova che “un osservatore consapevole potrebbe essere indispensabile” per dare un senso al regno quantistico e che una mente transpersonale è alla base del mondo materiale.

Ma quegli esperimenti non costituiscono una prova empirica di tali affermazioni. Nell’esperimento della doppia fenditura con singoli fotoni, tutto ciò che si può fare è verificare le previsioni probabilistiche della matematica. Se le probabilità sono confermate nel corso dell’invio di decine di migliaia di fotoni identici attraverso la doppia fenditura, la teoria afferma che la funzione d’onda di ciascun fotone è collassata, grazie a un processo mal definito chiamato misurazione. È tutto.

Ci sono anche altri modi d’interpretare l’esperimento della doppia fenditura.

Per esempio, la teoria di de Broglie-Bohm afferma che la realtà è sia ondulatoria sia particellare. Un fotone si dirige verso la doppia fenditura con una posizione definita in ogni momento e attraversa una fenditura o l’altra; quindi ogni fotone ha una traiettoria. Il fotone sta “cavalcando” un’onda pilota, che attraversa entrambe le fenditure e produce l’interferenza: viene quindi guidato in una posizione d’interferenza costruttiva.

Nel 1979, Chris Dewdney e colleghi del Birkbeck College di Londra simularono la previsione della teoria per le traiettorie di particelle che attraversavano la doppia fenditura.

Nell’ultimo decennio, i fisici sperimentali hanno verificato che tali traiettorie esistono, anche se hanno utilizzato una tecnica controversa chiamata misurazione debole. Nonostante le controversie, gli esperimenti mostrano che la teoria di de Broglie-Bohm è ancora in corsa come spiegazione del comportamento del mondo quantistico. Cruciale il fatto che la teoria non ha bisogno di osservatori né di misurazioni né di una coscienza non-materiale.

E nemmeno ne hanno bisogno le cosiddette teorie del collasso, che sostengono che le funzioni d’onda collassano in modo casuale: quanto più è elevato il numero di particelle nel sistema quantistico, tanto più è probabile il collasso. Gli osservatori si limitano a scoprire il risultato.

Il gruppo di Markus Arndt dell’Università di Vienna, in Austria, ha testato queste teorie inviando molecole sempre più grandi attraverso la doppia fenditura.

Le teorie del collasso prevedono che, quando hanno masse che superano una certa soglia, le particelle di materia non possano rimanere in una sovrapposizione quantistica e così attraversare entrambe le fenditure contemporaneamente: ciò distruggerà la figura d’interferenza. Il gruppo di Arndt ha inviato una molecola con oltre 800 atomi attraverso la doppia fenditura e ha continuato a vedere interferenze. La ricerca della soglia continua.

Werner Heisenberg (!901-1976) in un ritratto d’epoca (Wikimedia Commons)

Roger Penrose ha una sua versione di una teoria del collasso, nella quale quanto più è massiccio l’oggetto in sovrapposizione, tanto più velocemente collasserà in uno stato o nell’altro, a causa delle instabilità gravitazionali. Ancora una volta, si tratta di una teoria indipendente dall’osservatore. Non è necessaria alcuna consapevolezza. Dirk Bouwmeester dell’Università della California a Santa Barbara, sta testando l’idea di Penrose con una versione dell’esperimento a doppia fenditura.

Concettualmente, l’idea è non solo di mettere un fotone in una sovrapposizione di stati in modo che passi attraverso due fenditure contemporaneamente, ma anche di porre una delle fenditure in una sovrapposizione di due posizioni contemporanee.

Secondo Penrose, la fessura dislocata rimarrà in sovrapposizione o collasserà mentre il fotone è in volo, portando a diversi tipi di schemi di interferenza. Il collasso dipenderà dalla massa delle fenditure. Bouwmeester ha lavorato a questo esperimento per un decennio e potrebbe presto essere in grado di verificare o confutare le affermazioni di Penrose.

Se non altro, questi esperimenti stanno dimostrando che non possiamo ancora fare affermazioni sulla natura della realtà, anche se sono ben motivate matematicamente o filosoficamente. E dato che neuroscienziati e filosofi della mente non sono d’accordo sulla natura della coscienza, affermare che essa fa collassare le funzioni d’onda è prematuro, nella migliore delle ipotesi, e fuorviante e scorretto nel peggiore dei casi.

Crediti :

le Scienze

Continua a leggere

Newsletter

Fisica

NASA TV

SPACE X

Commenti più votati

  • 9 February 2018 by Giovanni Darko

  • 1 March 2018 by Graziella Di Gasparro

2

Tesla nello Spazio, smontiamo le obiezioni dei terrapiattisti

c’è bisogno di dare retta ai dementibiblici?
  • 20 February 2018 by

2

Tesla nello Spazio, smontiamo le obiezioni dei terrapiattisti

Sul serio c’è gente che pensa che la terra sia ...
  • 17 February 2018 by Simona Masini

2

I nanorobot sono in grado di distruggere ogni tipo di tumore

Trovi qualcosa qua : https://www.bambinidisatana.com/arrivo-la-pillola-inverte-linvecchiamento/
  • 14 February 2018 by Bambini di Satana

I più letti

Loading...