Sunday, May 23, 2010

Receta para 'células sintéticas' y la cura contra el vitalismo...

ResearchBlogging.orgGibson, D., Glass, J., Lartigue, C., Noskov, V., Chuang, R., Algire, M., Benders, G., Montague, M., Ma, L., Moodie, M., Merryman, C., Vashee, S., Krishnakumar, R., Assad-Garcia, N., Andrews-Pfannkoch, C., Denisova, E., Young, L., Qi, Z., Segall-Shapiro, T., Calvey, C., Parmar, P., Hutchison, C., Smith, H., & Venter, J. (2010). Creation of a Bacterial Cell Controlled by a Chemically Synthesized Genome Science DOI: 10.1126/science.1190719

La noticia está en todos lados, ganándole espacio mediático a la falta de sustancia en la visita de Calderón a USA (en contraste con la sustanciosa cena que ofreció la pareja Obama), los candados aprobados a Wall Street por el senado gringo, y el robo de La Pastoral de Matisse en Paris...:

"Científicos de EE UU anuncian la creación de la primera vida artificial" -- El País
"Científicos crean 'célula artificial'" -- BBC Ciencia
"Un genetista americano crea la primera célula sintética viva" -- Le Monde
bueno, hasta La Jornada de México, que repetidamente ha desaprobado las acciones de Venter (aquí, aquí y aquí, por poner unos cuantos), cayó en la fiebre de la bacteria del Dr. Frankenstein y ahora hasta reconoce que "representa un gran avance" ("Crean estadunidenses la primera célula viva sintética" -- La Jornada)

Lo que sí sorprende (aunque no debería) es que todos y cada uno de los medios de información poseen en sus titulares la gran mentira que todos sus textos desmienten (con la notable excepción de BBC News): no es la célula lo que es 'sintético' ni 'artificial', mucho menos la vida. Lo que fue químicamente sintetizado, como lo dice claramente el título del artículo publicado en Science, es el genoma. Shame on you, medios de comunicación (una vez más).
Ésta noticia es mucho más un logro tecnológico y metodológico que una ruptura en los paradigmas de las ciencias de la vida. Lo que Gibson y sus colaboradores del JCVI están logrando en realidad es una hazaña tecnológica que consiste en sintetizar base por base un genoma bacteriano entero (en el matraz, sin ayuda de un organismo vivo), luego ensamblarlo en una sóla doble-cadena circular para finalmente transplantarlo en una célula receptora desprovista de DNA. Y 'ver si jala'. Y 'sí jaló'.

Ésto es el producto de más de diez años de trabajo: primero, en 2003 en JCVI logró sintetizar el primer genoma sintético (es decir, que las secuencias pequeñas fueron hechas en el matraz y no por un organismo), perteneciente a un virus muy pequeño (φX174). [1]

En 2007, desarrollaron la tecnología para 'transplantar genomas', en donde aislaron el genoma de una especie bacteriana para introducirlo en la célula de otra especie a la que previamente habían eliminado su propio genoma... y la célula receptora terminó por convertirse en la determinada por el genoma recibido. [2]

En 2008, llevaron más allá la síntesis química de genomas, y lograron crear un genoma bacteriano completo (el genoma de Mycoplasma genitalium, una especie conocida y cuyo genoma ya había sido secuenciado), a partir sólo de compuestos químicos. Ésto demostró entonces que tampoco hay un 'soplo divino' involucrado en la síntesis de los genomas de DNA. [3]

Pero hasta ahí. Porque para ensamblar los miles de fragmentos de DNA sintetizados químicamente, necesitaron introducirlos en una célula de la levadura Saccharomyces cerevisiae, para luego inducir recombinación y poder ensamblar los larguísimos fragmentos que componen un genoma de ~580,000 bases.


En el trabajo recientemente publicado, escogieron el genoma de la bacteria Mycoplasma mycoides subespecie capri cepa GM12, y lo modificaron in silico (es decir lo diseñaron en la computadora, no en el laboratorio) introduciendo mutaciones puntuales (19 polimorfismos), quitando o poniendo ciertos genes e introduciendo cuatro secuencias largas que no codifican para proteínas ni interfieren con la codificiación de otros genes (marcas de agua, que al parecer apasionan a Venter como lo dejó ver en sus trabajos previos). Venter denominó éste nuevo diseño como Mycoplasma mycoides JCVI-syn1.0, y lo sintetizó (por fragmentos) base por base mediante reacciones químicas en un matraz. Después utilizó la bacteria Escherichia coli y la levadura S. cerevisiae para ensamblar todos sus fragmentos en un sólo cromosoma circular.

Paralelamente, eliminó todo rastro de DNA de células de otra especie: Mycoplasma capricolum, para usarla como célula receptora. Es decir, éstas células no estaban muertas totalmente, sino deprovistas de DNA, como 'fantasmas' o mejor aún, 'zombies'. Finalmente, tomó el genoma sintético de M. mycoides JCVI-syn1.0 y lo transplantó a las células 'zombie' de M. capricolum. Las nuevas células crecieron y se reprodujeron, demostrando pues que una célula puede seguir cualquier plan codificado en un genoma sin necesidad de 'fuerza vital' a la cual pedirle permiso. Pero no sólo eso, sino que la nueva célula cambió por completo, transformándose en la célula codificada en el genoma. Es decir, un M. capricolum se transformó en un M. mycoides, pero no cualquier M. mycoides común y corriente sino el específico que fue diseñado en la computadora.

Este es pues, una hazaña tecnológica porque diseñar, sintetizar y ensamblar genomas en un laboratorio es (en verdad os digo) mucho trabajo. Y apoya ligeramente los argumentos en contra del vitalismo, demostrando que es posible diseñar genomas en una computadora, sintetizarlos en un matraz y 'materializarlos' al meterlos en una célula. Todo esto sin ayuda de 'fuerzas vitales'.

Hagamos un poco de memoria para ponerlo en contexto... durante mucho tiempo se creyó que sólo los organismos vivos podían sintetizar componentes orgánicos (es decir los compuestos de carbono, que conforman a todos los seres vivos), hasta que a principios del siglo XVII Frederick Wöhler logró sintetizar urea y ácido oxálico (moléculas orgánicas) a partir de componentes inorgánicos. Fue éste descubrimiento uno de los principales en contra de la doctrina del vitalismo, que considera que la vida contiene un principio especial más allá de la bioquímica y la física (generalmente el 'soplo divino').

Más tarde, en 1952-53 (el annus mirabilis de la biología moderna), Stanley Miller y Harold Urey realizaron su famoso experimento en el cual lograron sintetizar ribosa (via la reacción de Butlerov) y aminoácidos (via la síntesis de Strecker), componentes básicos de biomoléculas como bases nitrogenadas y proteinas, a partir de compuestos inorgánicos que pudieron estar presentes en grandes cantidades en la atmósfera de la Tierra Primitiva. Éste experimento demostró que es posible sintetizar los componentes esenciales de la vida (proteínas, azúcares y bases nitrogenadas) a partir de compuestos inorgánicos que fueron abundantes en la Tierra Primitiva, atestando un segundo golpe mortal al vitalismo.

El vitalismo no está completamente muerto porque se mantenía con dos argumentos: 1) que los sistemas de información sólo podían ser diseñados por dios (o lo que sea) y 2) que el sintetizar moléculas orgánicas dista mucho de sintetizar vida. El primer argumento ha sido destruido por el trabajo de Gibson, que disenó un genoma (aunque no de cero, sino modificando uno preexistente), lo sintetizó químicamente (eso sí de cero), lo ensambló (con células vivas) y lo transplantó (a una célula 'medio-viva'). Y resulta que ese monstruito de Frankenstein es viable, crece y se reproduce (y en una de esas hasta lo disfruta).

El segundo argumento aún se mantiene, pues efectivamente aún nos encontramos muy, muy lejos de sintetizar vida de novo. Pero ya sabemos que podemos sintetizar biomoléculas gracias a Miller, y que podemos sintetizar genomas funcionales gracias a Gibson, y hasta que podemos sintetizar membranas celulares o protocélulas capaces de almacenar nucleótidos y conducir replicación de DNA gracias al premio Nobel Jack Szostak.[4]. O sea, ya casi.

Queda pendiente muchas cosas sobre las aplicaciones biotecnológicas y las implicaciones sociales y económicas de éste descubrimiento, pero eso lo dejo para luego porque con eso siempre acaba uno haciendo corajes y hoy... hoy es domingo.

Oh, y no puse imágenes porque Science es una revista que no es OpenAccess, y entonces me arriesgo a una demanda multimillonaria por poner imágenes. Pero les dejo la página del JCVI donde hay unas imágenes que vienen en el artículo y el video de la conferencia de prensa.
UPDATE: Resulta que el artículo sí lo pueden descargar de ScienceExpress... raro para Science.

[1]Smith, H. (2003). Generating a synthetic genome by whole genome assembly: X174 bacteriophage from synthetic oligonucleotides Proceedings of the National Academy of Sciences, 100 (26), 15440-15445 DOI: 10.1073/pnas.2237126100

[2]Lartigue C, Glass JI, Alperovich N, Pieper R, Parmar PP, Hutchison CA 3rd, Smith HO, & Venter JC (2007). Genome transplantation in bacteria: changing one species to another. Science (New York, N.Y.), 317 (5838), 632-8 PMID: 17600181

[3]Gibson DG, Benders GA, Andrews-Pfannkoch C, Denisova EA, Baden-Tillson H, Zaveri J, Stockwell TB, Brownley A, Thomas DW, Algire MA, Merryman C, Young L, Noskov VN, Glass JI, Venter JC, Hutchison CA 3rd, & Smith HO (2008). Complete chemical synthesis, assembly, and cloning of a Mycoplasma genitalium genome. Science (New York, N.Y.), 319 (5867), 1215-20 PMID: 18218864

[4]Mansy SS, Schrum JP, Krishnamurthy M, Tobé S, Treco DA, & Szostak JW (2008). Template-directed synthesis of a genetic polymer in a model protocell. Nature, 454 (7200), 122-5 PMID: 18528332

Thursday, May 06, 2010

Better the metagenome you know than the metagenome you don't...

ResearchBlogging.org
Morgan, J., Darling, A., & Eisen, J. (2010). Metagenomic Sequencing of an In Vitro-Simulated Microbial Community PLoS ONE, 5 (4) DOI: 10.1371/journal.pone.0010209

A new era for the design of metagenomic controls starts! Morgan et al. present the benchmarking of metagenomic tools using artificial "microbial communities" mixed up in the lab.

The Hook...
Metagenomics is a fancy name for what's actually a large and obscure toolbox of molecular biology procedures and computational algorithms that promises to help us in the understanding of whole, natural microbial communities. It is so exciting because it allows us to study organisms (bacteria and archaea specifically) that would otherwise remain unacknowledged because we cannot grow them in the lab. It also provides for the first time the opportunity to analyse whole natural communities, and not only sectors of it (like "granivorous community" or "photosynthetic guild"). The comparison of natural functional communities would help us understand a lot about how communities are assembled, how they evolve and change in time and how are they affected by external disturbances.

Having said that, we still lack the tools to analyse such large databases and the quality standards to produce and compare metagenomes. This happens each time a new technology appears, because there has been not enough time to try and experiment with it as to accurately know its flaws. This is even worse with metagenomics since no whole community has ever been studied and so we don't really know or even suppose how our data should look like. Here's where Morgan et al. come to rescue with a very neat approach.
The Setting...
Their logic is simple and clear: since we do not have any community whose composition is completely known, let's make one. So they retrieved ten different microorganisms from the culture collections whose genomes have already been sequenced, and prepared aliquots so that they would have the same number of cells from each organism. Then they mixed them up, extracted the whole community DNA with three different DNA-extraction protocols and then sequenced four metagenome databases (one was replicated with an alternative sequencing method).

The Bad...
Surprisingly, none of the sequenced metagenomes reflected the original composition of the community mix. This can be caused for a number of reasons: the size of a genome and the number of genome copies per cell affect the probability of sequencing; differences in cell wall and matrix thickness and composition could prevent efficient DNA extraction; specific DNA segments might be harder to clone and/or sequence... When they compared between metagenomes, they found that most differences were due to the type of DNA extraction utilized. That is, the same community will result in different metagenomes when different DNA extraction methods are used. This also means that metagenomes obtained with different DNA extraction protocols should not be compared. Ever.

It still puzzles me one thing: the love for BLAST. Even when they assigned each sequence to a specific organisms by "blasting" each read from the metagenomes to the ten complete genomes of the organisms in the mix, there's a large number of sequences that could not be mapped back to the source organism. Sure, there seems to be a phage infecting some cultures that was not in the sequenced genome. But it is surprising that there was a large number of reads that actually hit a Bacillus, when there were five Lactobacillus strains in the mix. My point is that BLAST is a very poor algorithm to recover precise hits, and the short lenght of the sequences reduce the taxonomic resolution attainable by it, misleading the results. If we add a really biased and incomplete reference database, it ends up being almost impossible to accurately define the genomic composition of a natural community. This also calls for better and more precise methods of assigning or binning of metagenomic sequences.

The Good...
Since "all different" is not a very hopeful result, they prepared three replicas of each DNA extraction method so to say which of them showed a lower variability and hence would be more reliable. It turned out that the DNA kit extraction protocol has a larger repeatability, most likely because there's a lower variation in reagent concentrations.
And then again, although there's large variability inter- and intra- protocol, there are no radical changes in the relative abundance of each organism. That is, there is no change from the dominance of one organism to another. Although they're still not reflecting the "true" abundances.

The Ugly...
One of the samples was sequenced twice, one time with classic Sanger capillary sequencing and the other with pyrosequencing. This helped them to show that differences between extraction methods are far greater than differences between sequencing platforms. Still I sensed a bit of anti-pyrosequencing in it. Sure, pyrosequencing gives shorter reads and so a larger amount of reads will be unassignable to reference organisms (at least by BLAST standards). But I'm not sure that these results actually demonstrate that cloning-bias is not so important. It would be necessary to repeat each sample with pyrosequencing to demonstrate this. And it would be also great to replicate the same example as they did with Sanger. This would actually show how much of this variability is really attributable to DNA extraction and how much of it is attributable to cloning bias.

The Finale...
We desperately need more research like this, that would help us not only to standarize the technology behind metagenomics but also allows to build the robust theoretical framework that metagenomics (and community ecology in general) is so in need. This kind of work should be complemented with in-silico modelations of metagenomes (like that in Mavrommatis et al. 2007), and also with the development of better algorithms to cluster and assign taxonomy to sequenced reads.
After all the metagenomic hype, we still do not know the true structure and composition of sequenced microbial communites. But we do know a lot more than before.