Inicio > Biología evolutiva, Ciencia > Un gen, muchas proteínas (segunda parte)

Un gen, muchas proteínas (segunda parte)

5 febrero, 2013

FOXO1Hasta hace pocos años, la idea central de la genética consistía en la equivalencia entre un gen y un único tipo de proteína para la que codificaba. Esto llevó a formular lo que fue conocido como «Dogma Central de la Biología Molecular», que describía el proceso unidireccional por el que un gen se transcribía en un ARN mensajero que era traducido en la proteína final.

Las consecuencias para la biología evolutiva son evidentes: una mutación génica produce una proteína alterada. Si la mutación es inocua, la función proteica se mantiene sin cambios apreciables; si la mutación es perjudicial significa que la alteración origina una proteína no funcional o con la funcionalidad mermada; por el contrario, una mutación beneficiosa sería aquella que otorga una mayor eficacia, o incluso una nueva función, al producto proteico.

Sin embargo, tan elegante modelo no tardó en presentar serios inconvenientes.

Algunos problemas

El primero de ellos fue la uniformidad del proceso evolutivo que se desprendía del proceso: todas las adaptaciones debían ser fruto de un gran número de mutaciones acumuladas que obligaban a formular un gradualismo que no siempre coincidía con las pruebas empíricas. Por otro lado, resulta complicado explicar como eran fijadas en la población todas las mutaciones intermedias necesarias para formar la adaptación final tras cientos, miles o incluso millones de años. Algunos casos, como un cambio de función metabólica por la alteración de una enzima, resultaban meridianamente claros, mientras otros no lo eran tanto. Resultaba muy difícil comprender, por ejemplo, para qué demonios podría servirle a un insecto primitivo un esbozo alar, un cuarto de ala o media ala, hasta alcanzar el desarrollo suficiente como para poder ser empleadas en el vuelo. Lógicamente, no cabía entonces pensar en que una única mutación produjera un ala funciona de novo.

1185_mutacionPor el contrario, parecía quedar claro que muchos episodios evolutivos exigían un cambio radical en el patrón de organización del individuo. El descubrimiento de la existencia de períodos en los que se producen profundos y rápidos cambios (a escala geológica) en los organismos vivientes, vinieron a reforzar la necesidad de encontrar un mecanismo que permitiera explicar como podían producirse modificaciones importantes sin necesidad de pasar por interminables -y no adaptativos- estados intermedios. Algunas teorías vinieron a intentar rellenar ese vacío, como los famosos y criticados «monstruos prometedores» de Goldschmidt, que argumentaba cómo el paso de una especie a otra no podía explicarse mediante acumulación de mutaciones simples, sino que implicaba una modificación repentina del patrón principal, que posteriormente volvería a verse modelado por micromutaciones.

A medida que la biología molecular avanzaba en la segunda mitad del siglo XX, no solo los biólogos evolutivos chocaban con este problema; los genetistas comenzaban a dudar de los dos pilares fundamentales del «dogma central».

imagesCada vez estaba más claro que las diferencias en la complejidad entre organismos no se correlacionaba con el número de genes, como cabría esperar. Este aspecto se vio totalmente confirmado con la secuenciación del genoma humano en el año 2000, que vino a arrojar una cifra de genes codificantes del orden de los 30.000, suponiendo una drástica reducción de los 100.000 a 150.000 que habían sido estimados años antes. Posteriormente, esta cantidad se ha reducido hasta cerca de 20.000 genes en la totalidad del genoma humano. Sin embargo, nuestro organismo presenta entre 50.000 y 100.000 proteínas diferentes, sin contar con las modificaciones postraduccionales que pueden elevar este número hasta los cinco millones. Obviamente, las cuentas no salen.

Algunas explicaciones

¿Que es lo que ocurre entonces? ¿Cómo podemos explicar que con 20.000 genes obtengamos hasta 100.000 proteínas diferentes? Obviamente, algo debe estar mal en el modelo y, en ciencia, cuando algo no cuadra con las observaciones y los experimentos debe ser revisado; es indiferente que haya sido considerado dogma o que haya servido para guiar la investigación durante décadas.

En 1993,  Phillip Allen Sharp y Richard J. Roberts recibieron el Premio Nobel por sus descubrimientos acerca de los “genes interrumpidos”. Lo que Sharp y Roberts descubrieron fueron unas regiones no codificantes en el interior de la secuencia génica denominadas “intrones” (intragenic region), y que se alternan con otros fragmentos codificantes, los “exones” (expressed region). Los intrones deben ser eliminados del ARN tras la transcripción mediante un proceso denominado splicing, que ensambla los exones para formar la secuencia final, o ARN maduro, que será traducido en una proteína. Esto ya se conocía desde veinte años antes, aunque se pensaba que los intrones eran regiones no codificantes sin función alguna.

Sin embargo, la importancia de los descubrimientos de Sharp y Roberts consiste en que este proceso no se realiza siempre de la misma forma. Durante el proceso de splicing pueden producirse diferentes recombinaciones de los exones, lo que se denomina splicing alternativo. De esta forma, de un único ARN primario (y, por lo tanto, de un único gen) podemos obtener varios ARNm y consecuentemente, varias proteínas. Este mecanismo es muy común en Eucariotas, habiéndose encontrado también en algunos virus.

Splicing_overview

Estos mecanismos de splicing alternativo permiten aumentar considerablemente el número de proteínas resultante, lo que explica la falta de equivalencia entre el genoma y el proteoma de un organismo. Algunos genes llegan a codificar un número muy elevado de proteínas diferentes, siendo el más numeroso conocido el del gen Dscam de Drosophila, que presenta 38.000 variantes de splicing, un número mayor que el del total de sus genes.

El tipo de splicing viene determinado por complejos factores reguladores cuyo mecanismo no conocemos bien, como la familia de proteinas ASF (Factores de Splicing Alternativo) o proteínas SR, que reconocen y seleccionan los lugares para los diferentes cortes y empalmes. Estos reguladores pueden variar según el tejido en el que nos encontremos o el estado de maduración de la célula, por ejemplo.

ribosomaVolviendo a nuestra reflexión original, podemos comprender la falta de equivalencia no solo entre número de genes y proteínas, sino entre mutaciones y consecuencias. La alteración de un exón puede modificar todas las proteínas en las que participa, produciendo unas consecuencias mayores que las que se desprendían de la vieja hipótesis. Sumado a ésto, la mutación de un factor regulador de splicing puede acarrear unas consecuencias mucho más complejas que la modificación de una única proteína.

Y eso no es todo, amigos…

Si bien el splicing alternativo nos permite explicar una gran variabilidad proteica a partir de un número reducido de genes, no constituye el único mecanismo que permite la producción de varias proteínas a partir de un único gen.

La edición del ARN es un proceso que la célula utiliza para obtener una proteína diferente a partir del transcrito original. Por ejemplo, en el ser humano existen un par de proteínas ApoB100 y ApoB48. La primera se sintetiza en el hígado y es la principal responsable del transporte de colesterol endógeno; la ApoB48 se sintetiza en los enterocitos del intestino y está implicada en el transporte hacia el torrente sanguíneo de los lípidos ingeridos en la dieta. Ambas proteínas  son codificadas por el mismo gen, y su ARN primario contiene los mismos intrones y exones. Cuando el gen se expresa en un hepatocito, el ARN primario no sufre ninguna alteración, produciendo un ARNm que se traduce en ApoB100. Por el contrario, si el gen se expresa en un enterocito, tiene lugar una mutación puntual que cambia una C por una U en el ARNm, el cual será traducido en ApoB48.

Otros procesos, como la existencia de sitios alternativos de inicio de la transcripción o la presencia de determinadas secuencias de ADN que pueden detener la actividad de ARN polimerasa finalizando prematuramente la transcripción, contribuyen  a complicar el cuadro que pintaba tan sencillo hace tan solo dos o tres décadas.

Haciendo leña del árbol caído

Como mencionábamos al principio, si la pulverización de la equivalencia gen-proteína no fuera suficiente, el segundo de los pilares del «dogma central» también se ha visto derribado. La retrotranscriptasa o transcriptasa inversa, una enzima descubierta en 1970 por  Howard Temin y  David Baltimore (que obtuvieron el Premio Nobel en 1975 compartido con Renato Dulbecco), fue la dinamita responsable del derribo.

_56934758_m0500911-aids_virus_particl

El HIV, o Virus de la Inmunodeficiencia Humana es un retrovirus con ARN como material genético.

Los virus de la familia de los retrovirus, no poseen ADN como material genético. Por el contrario, su genoma está compuesto por ARN, a partir del cual se sintetiza ADN bicatenario por mediación de la retrotranscriptasa. Este ADN se integra en el ADN nuclear de la célula infectada, siendo transcrito por los mecanismos celulares como un gen más. Esta curiosa y parásita forma de replicación sigue el camino contrario al que fue considerado como irreversible durante muchos años.

Y aún queda por cambiar…

A pesar de todo lo expuesto, aún estamos lejos de alcanzar la meta del entendimiento completo sobre el funcionamiento de los métodos de transcripción y traducción genética. Los primeros resultados del que se considera heredero del proyecto genoma humano, el proyecto ENCODE (ENCyclopedia Of Dna Elements), han provocado que algunos especialistas propongan una nueva definición de gen: la unión de secuencias genómicas que codifican un conjunto coherente de productos funcionales, potencialmente solapantes.

Esto se debe a que ENCODE ha encontrado que las regiones flanqueantes no traducidas(UTRs) de los genes, es decir, el ADN no codificante anterior y posterior al gen propiamente dicho, pueden abarcar secuencias muy largas, y presentar puntos de inicio de transcripción alternativos. De esta forma, la delimitación del gen sería mucho más dificultosa. Por otro lado, ENCODE también a confirmado la gran utilización del splicing alternativo, que algunos autores llegan a cifrar en un 90% de los productos transcritos en el ser humano.

Esta nueva definición, al contrario de la actualmente empleada, contiene un nuevo concepto: los “nuevos genes” así descritos podrían solaparse unos con otros, siendo el producto funcional el criterio principal para la definición de un gen como tal. Esto, aunque con un revolucionario enfoque, vendría a recuperar la identificación de gen y producto (o, al menos, un conjunto coherente de productos), aumentando considerablemente el número de genes de nuestro genoma.

Sin-título-1

  1. 5 febrero, 2013 en 12:52

    Muy buena entrada J.M. :)

  2. Albireo
    5 febrero, 2013 en 12:56

    Impresionante, J.M. ¡Hasta yo me estoy enterando de como funcionan los genes!

    Gracias

  3. Pathfinder
    5 febrero, 2013 en 15:11

    Cuando me entero de cosas como esta, me pongo a pensar: ¿hasta dónde habríamos impulsado el conocimiento, cuánto habríamos develado del “misterio” de la vida, si la ciencia no fuera constantemente estorbada por la intromisión de la religión, la política estúpida y la ignorancia en general?

  4. Enrique
    5 febrero, 2013 en 19:05

    Creo que se deja llevar demasiado por ENCODE y algunos otros malos entendidos.

    En primer lugar, el “Dogma central”, nunca fue enunciado por Crick como DNA->RNA->proteína. Eso es una mala interpretación posterior que el mismo negó en 1970. El Dogma se refiere a la nunca observada transmisión de información genética de proteínas a ácidos nucleicos.

    Y eso NO tiene nada que ver con suspuestos problemas por la ” uniformidad del proceso evolutivo” pro acumulación de mutaciones. Existen muy buenos ejemplos de evolución molecular a través de formas intermedias, incluso a través de mutaciones supuestamente “perjudiciales” (en qué sentido??? y esta es la clave). La falta de imaginación de los humanos no es obstáculo para la evolución de

    Receptores de esteroides:
    http://www.nature.com/news/prehistoric-proteins-raising-the-dead-1.10261

    Enzimas:
    http://sandwalk.blogspot.com.es/2012/07/the-evolution-of-enzymes-from.html
    http://sfmatheson.blogspot.com.es/2011/07/evolution-cheats-or-how-to-get-old.html

    Por lo demás, yo pondría bajo sospecha todas las afirmaciones que vinieran del entorno de ENCODE y propusiera una hipeproliferación de genes. Eso NO está en los datos de ENCODE en absoluto. De hecho los propios investigadores de ENCODE reconocen que la inmensa mayoría de los transcritos diferentes que se generan a partir de un gen son aberrantes y su destino e sser degradados: nunca se convertirán en una proteína. Y tampoco tiene papel regulador. Don errores del funcionamiento de una maquinaria nada optimizada.

    El hecho de que un gen tenga 2 promotores alternativos y tres señales de corte y poliadenilación NO lo convierte en 1 0genes: sigue siendo un único gen. Que las señales reguladoras (“enhancers”) podían afectar a varios genes (“compartidas” por varios genes) ya se sabía hace decenas de años. Por eso también se identificaron “aisladores”.

    Definir un gen por cada posible producto funcional es una completa aberración y sólo contribuiría a enfangar más las cosas. Según eso tendremos varios miles de ejemplos en los que una mutación en un único sitio afecta a varios genes: eso hace la comprensión de la genética todavía más difícil: separa aún más las definiciones molecular y genética de “gen”. El concepto de gen es difuso, como cualquiera que haya jugado a ¿qué es una silla? conoce (http://www.museumeducation.bedford.gov.uk/bedfordbytes/chairs/what_is_a_chair.htm). Pero mejor dejarlo difuso que empeorarlo con una definición absurda.

    En el fondo, todos los intentos de aumentar el “genoma” o el “proteoma” me parecen simplemente “envidia de genes”: patéticos intentos de volver a poner a los “humanos” en un pedestal de complejidad del que supuestamente habrían sido derribados por su bajo número de genes. En el fondo es la no aceptación de que una ameba o un haba tengan muchos más genes que uno de nosotros. Es no comprender que la ausencia de correlación entre nº de genes y complejidad implica que hay que buscar lo que nos hace diferentes por otros mecanismos (la biología es el festival de la variación). Es propio de mentes que siguen tratando de entender la complejidad como el “tener más de algo”: por eso necesitan más genes, o redefinir el concepto de gen para multiplicarlos artificialmente.

  5. Juan de terzas
    7 febrero, 2013 en 0:07

    No sé nada de genética (bueno, sé millones de veces mas que un homeópata o un cura, pero aun así no sé nada de nada)

    Pero, a pesar de mi asciencia genética, el caso es que logro entender tus explicaciones J.M., lo que significa que sabes escribir y divulgar.

    No me pasa lo mismo con “enrique”: Honestamente, no he entendido nada de lo que dice. Pero quiero hacer notar esta dos frases:

    – ” En el fondo es la no aceptación de que una ameba o un haba tengan muchos más genes que uno de nosotros. “: Esta frase no parece muy “científica”, mas bien parece un argumento a utilizar en un debate de carácter ético o filosófico.

    – ” Es no comprender que la ausencia de correlación entre nº de genes y complejidad implica que hay que buscar lo que nos hace diferentes por otros mecanismos “: Si no he entendido muy mal el artículo, J.M. está contando lo que se está comprendiendo a día de hoy del mecanismo por el que se producen tantas variaciones a partir de tan pocos genes… ¿o me equivoco?

  6. 7 febrero, 2013 en 5:30

    Hace lustros que se sabe que la idea “un gen, una proteína” es errónea.

    Hay genes que dan origen a una proteína en todos los organismos. En los procariotas eubacterianos es así y en los eucariotes es menos común. De hecho en los mamíferos el empalme alternativo es muy frecuente de manera que un gen da origen a muchas proteínas diferentes de manera tejido-específica.

    Recientemente se publicaron resultados que el patrones de expresión de dichas iso-proteínas (las codificadas por un mismo gen) difiere entre especies. http://www.the-scientist.com/?articles.view/articleNo/33782/title/Evolution-by-Splicing/

    No tiene sentido práctico una nueva definición de gen que aumente su número y equipararlo a sus productos proteicos finales. Un esquema como el que sigue refleja brillantemente la realidad.

    Un gen —-> RNA (trnascrito primario) ——> varios RNA funcionales —–> diversas proteínas

  7. J.M.
    7 febrero, 2013 en 8:46

    Enrique, el asunto del solapamiento de genes no significa que “un gen [que] tenga 2 promotores alternativos y tres señales de corte y poliadenilación [lo] lo conviert[an] en 10genes”. Los resultados de ENCORE hablan de regiones génicas solapadas, es decir, que dependiendo del lugar de corte, una secuencia se incluye en el transcrito de un gen o de otro. No son simples combinaciones (o sí, pero de regiones del genoma que difícilmente pueden considerarse el mismo gen.

    Como bien apunta Juan de Terzas, el asunto es precisamente explicar cómo puede haber mayor complejidad proteómica con el mismo o menor número de genes. Y no estoy de acuerdo contigo: una mayor complejidas siempre implica un mayor número de algo. No necesariamente de genes, pero sí de procesos, de mecanismos de variabilidad, de proteínas. Un organismo con un único gen y dos sitios de splicing es más complejo que otro con un gen y una única variante de splicing. Tienen los mismos genes, pero el primero posee mayor cantidad de alternativas (o combinaciones, o puntos de corte, o como lo quieras llamar).

    Da igual que definamos 10 genes que uno con 10 variantes. No dejará de ser una definición humana útil para trabajar, pero nada más. Mientras tengamos claro qué significa, da lo mismo.

    El problema de muchos genetistas es que deben asumir algo que los zoólogos interiorizamos hace décadas: a la naturaleza no le gustan ni las definiciones ni las fronteras. Por muy bien que definamos la especie, sus fronteras no son tan claras como queríamos creer. Y es que hasta la especie es un concepto artificial, útil para trabajar, pero artificial. Es muy posible que lo mismo ocurra a escala molecular, y la frontera del gen no sea algo tan claro y limpio como el amarillo de Mendel.

    Govearraf, de acuerdo, pero te faltaría una flecha que sale y vuelve al ARN para explicar el ARN autorreplicante y otra de vuelta del ARN al ADN para la retrotranscripción ;-)

    Saludos.

  8. 7 febrero, 2013 en 17:50

    Bueno JM al menos soy una genetista que lo tiene claro y coincido contigo en que son variantes. Hoy se habla de una gen cuando es una región que puede se transcripta. De hecho los genes ARNr o ARNt son genes y nunca se traducen a una proteina verdad? solo se transcriben. Excelente articulo!!!

  9. J.M.
    7 febrero, 2013 en 18:19

    Por eso he puesto “algunos genetistas” ;-)

  10. 8 febrero, 2013 en 3:55

    Ja!!! ;)

  11. Herbert West
    8 febrero, 2013 en 18:33

    Jo que follón por una definición.

    Si al final las definiciones lo que tienen que hacer es ajustarse lo más posible a la realidad al tiempo que maximizan la funcionalidad.

    Si para ello hay que cambiar la definición de gen, que se cambie, y si no merece la pena que no se haga. ¿Qué problema hay?

    En cuanto a la “envidia de genes” me parece que no. En realidad es más fascinante que tengamos menos genes. Abre un montón de caminos para investigar.

  12. Enrique
    8 febrero, 2013 en 22:15

    Hola JM, en el texto de arriba se atribuye a “algunos especialistas una definición de “gen” que incluye “potencialmente solapantes”.

    Desde hace años conocemos ejemplos realmente existentes de segmentos de DNA en los que dos genes están solapados en la misma secuencia de DNA. Por ejemplo p19ARF/INK4: en marcos de lectura alternativos de producen dos transcritos para dos proteínas no relacionadas en secuencia. La cuestión es la prevalencia: ¿cuantos ejemplos así hay en un genoma? La biología es el reino de las excepciones. Siempre se encontrará un gen o un organismo el que por azar de la evolución se ha producido un fenómeno rarísimo e incluso tomado por “antinatural” antes de conocerse.

    Mi objeción es al último párrafo del artículo:
    Esta nueva definición, al contrario de la actualmente empleada, contiene un nuevo concepto: los “nuevos genes” así descritos podrían solaparse unos con otros, siendo el producto funcional el criterio principal para la definición de un gen como tal.

    El hecho de que de un mismo segmento de DNA se puedan generar varios transcritos por splicing alternativo y de ahí diferentes proteínas que comparten algunas secuencias se describe muy bien por “splicing alternativo del gen”, no invocando que esa zona contiene varios genes.

    Si yo no interpreto mal lo de ” siendo el producto funcional el criterio principal para la definición de un gen como tal”, se trata de que en el locus de calcitonina/CGRP tenemos DOS genes diferentes, no un gen sujeto a splicing alternativo. Se trataría de que no hay un gen de alfa-actinina, sino tantos genes como isoformas de alfa-actinina hay en cada tejido. Es decir, es un “truco” para poder decir que en lugar de 20.000 genes, los humanos tenemos tropecientos mil más.

    Sin embargo, es mucho más fácil de entender, tanto en abstracto como operativamente, que un gen es una zona de DNA que resulta transcrita desde un promotor a una zona de corte y poliadenilación. Se puede refinar esto, como se lleva entendiendo 20 años al menos, que puede haber varios promotores alternativos próximos (no a 100 kpb ) y varios puntos de corte y poliadenilación. Y por lo tanto los trascritos no tendrán exactamente los mismos exones, pero si compartirán una parte sustancial de ellos. Eso es un ÚNICO gen con muchos productos funcionales, no muchos genes

    Pongo alguna analogía. Si consideramos desde el nacimiento a la desembocadura ¿El Nilo es un rio o son varios? Porque hay varias fuentes potenciales y varias ramas en el delta: un bote puede seguir múltiples caminos por ellos. Pero todos ellos pasan pro Luxor y Memphis.

    Esa definición por el producto final tiene el problema de que “gen” no es sólo una entidad bioquímica sino, originalmente, una entidad genética. Se identificaban genes por mutaciones individuales que afectaban a rasgos individuales. Esa definición propuesta de “gen” casa mal con la definición genética: una mutación en un único sitio afectará por definición a múltiples genes: no se pueden construir mapas genéticos lineales (y sabemos que esa ha sido y es una herramienta conceptual muy útil y que representa muy bien la realidad de los genomas).

    Abandonar la correlación entre definición bioquímica y genética del gen me parece un precio muy alto simplemente por tener un recuento de genes artificialmente, en mi opinión, elevado.

  13. Enrique
    8 febrero, 2013 en 23:22

    Hola otra vez, que el anterior se me quedaba muy largo.

    también he saltado porque la última figura me parece bastante tendenciosa. Yo casi niego la mayor. El splicing alternativo existe, y tenemos muy buenos ejemplos de ello. Pero para nada tenemos probada su prevalencia.

    Pasa como con el contaje de genes. El número de 100.000 genes estimados para los humanos nunca fue una estimación realmente difundida en los círculos científicos, sólo un número mágico en malos divulgadores. Análogo a lo de que usamos el N% de nuestro cerebro. de las existencia de unos bien demostrados ejemplos algunos indicaron que “podría” ser una explicación de la complejidad y de ahí se pasa casi sin sentirlo a dar por hecho la generalidad de los genes tiene múltiples trascritos alternativos. Eso está lejos de probarse. Igual que hay genes sujetos a splicing alternativo conocemos muchos otros que positivamente NO están sujetos a splicing alternativo (por ejemplo, las hemoglobinas normales).

    Es más, los estudios del proteoma (humano y de otros organismos) NO dan sustento a esa hipótesis de múltiples transcritos y múltiples formas de proteínas. No está para nada claro que a partir de 20.000 genes multiplicados por 5 transcritos tengamos un transcriptoma de 100.000 isoformas de proteínas. Me gustaría ver datos, publicaciones, sustentando ese cálculo. Porque está lejos de ser el consenso aceptado generalmente. La idea general entre los expertos (según las reviews disponibles en los últimos años) es que si bien algunas decenas de genes pueden tener docenas de isoformas, y unos centenares de genes un puñado de isofomas, la inmensa mayoría son mucho más aburridos: la idea tradicional de “un gen – una proteína” (obviamente, a parte se cuentan los genes RNA que nadie niega).

    Y lo que ya me parece no se si una tergiversación o una manipulación descarada es lo de contar como 5.000.000 de proteínas diferentes contando las modificaciones post-traduccionales. Eso es una tomadura de pelo. Si una proteína está acetilada, palmitoilada, fosforilada, metilada, ADP-ribosilada etc. sus funciones pueden cambiar pero nadie le llamaría una proteína diferente. Uno se puede comprar un Volkswagen Beetle, negro, verde o azul, con motor de esta cilindrada o aquella, con aire acondicionado o sin aire acondicionado, elevalunas eléctrico o no, con anclaje de remolque o no, con techo practicable o incluso descapotable. Y cada uno de ellos tiene una función diferente, pero nadie diría que son coches esencialmente diferentes: uno diría que se ha comprado un Beetle así o asá, pero un Beetle. Cuando yo me cambio de camisa o pantalón sigo siendo yo, no una persona diferente. Y siendo mismo yo, con zapatillas pantalones cortos no me dejan entrar en el Senado, y con chaqué y corbata blanca no pinto nada en una piscina: el rol puede depender de pequeños aditamentos no esenciales.

    La cosa en similar con modificaciones por proteolisis. Muchas de ellas son personalizaciones menores (ajustes del extremo N- o C-terminal y similares). Se conocen ejemplos como el de la pro-opiomelanocortina (POMC), que da lugar a muchos péptidos diferentes, pero de nuevo es un puñado de ejemplos particulares, no la generalidad de los 20000 genes de proteínas.

  14. Enrique
    8 febrero, 2013 en 23:46

    Y para terminar. En todo este asunto de ENCODE, la extensión de la transcripción del genoma y el splicing alternativo, hay que tener en cuenta que, lejos de las ideas más difundidas, la naturaleza no está nada bien diseñada ni optimizada.

    Si uno cuenta transcritos simplemente por los existentes, observará probablemente TODAS las posibles combinaciones. La ley de Murphy se aplica. Aunque un gen multiexónico tenga una único o dos productos funcionales reales, la ser la maquinaria de splicing imperfecta, se producirán errores, y observaremos todas las posibles combinaciones de exones posibles. Transcritos cuyo destino es simplemente el cubo dela basura que es el exosoma y nada más.

    Por ello, estimaciones basadas en EST o en la muy poco significativas definiciones de ENCODE son esencialmente NO significativas. El hecho de que un segmento se transcriba NO significa automáticamente que tenga una función. Y eso muchos de los investigadores de ENCODE lo conocen y lo reconocen. No así bastantes comentaristas que han salido a su alrededor (en Nature y Science también). Al revés, de bastantes transcritos conocemos fehacientemente que NO tienen función alguna. Y conocemos diferentes organismos han inventado y re-inventado sistemas de degradación de RNA para eliminar toda esa morralla: si la naturaleza lo reconoce como morralla, no insistamos en que es oro.

    La mayoría de los investigadores de ENCODE reconocen que probar la función necesita otras herramientas. Ellos lo que hacen es una primera anotación de la base de datos: indican qué sitios son potencialmente interesantes, no que todos esos sitios son realmente funcionales.

  15. Juan de terzas
    9 febrero, 2013 en 0:39

    ” de bastantes transcritos conocemos fehacientemente que NO tienen función alguna….”

    Me extraña: esta frase se ha oído aplicada a todo tipo de circunstancias durante toda la historia humana. y el resultado siempre ha sido el mismo: unos años o unos siglos después se ha comprobado que SI había una función.

    De acuerdo: yo no tengo ni pajolera idea de genética, vale. Pero si en verdad existe algo que NO tiene función alguna sería la primera vez en la historia del conocimiento que se da este hecho.

  16. Enrique
    9 febrero, 2013 en 3:04

    Juan, la biología está llena de ejemplos de accidentes sin propósito ni función. La pérdida de función de elementos existentes que se vuelven inútiles y superfluos. Los órganos vestigiales son conocidos desde hace mucho. Y conocemos de linajes fósiles en los que un rasgo desaparece completamente (no sólo queda vestigial). También al revés, de la co-optación de elementos para nuevas y diferente funciones. ¿Te suenan las pechinas de San Marcos?

    Una cosa es que algo no tenga función o propósito definido, otra distinta es que su presencia /ausencia no produzca efectos (indefinidos, aleatorios, secundarios).

    Sobre genes
    Un ejemplo:
    ¿Tienen los intrones eucarióticos alguna función definida y general para todos ellos? A parte de separar exones (que Si tienen una función secuencia-dependiente). El hecho de tener 10 pb o 10.000 pb separando dos exones cambia algo? Y no me refiero a un ejemplo concreto (co-optaciones siempre ocurren) sino a “leyes” generales. La organización del genoma en intrones/exones SI tiene una importancia radical pero la secuencia de bases específica de este o aquel intrón es esencialmente irrelevante actualmente. Y diferentes organismos los eliminan o no según su historia evolutiva (contingente).

    Otro ejemplo:
    Remanentes de retrotransposones y retrovirus defectivos, que ya no pueden transponer. Son como el 20% del DNA humano, algo no despreciable. Literalmente juguetes rotos almacenados en un armario hasta que te acuerdes de eliminarlos. Puede que un día reutilices la cadena de aquella bicicleta para otra cosa, pero no era para lo que eso estaba allí.

    Otro ejemplo:
    Pseudogenes procesados: copias de mRNAs retro-transcritos al DNA y degenerados por mutación, sin promotor ni señales de corte y poliadenilación. Sabemos los mecanismos que los producen: meros errores al azar.

    Ninguno de los eventos que produce esos efectos tiene esa función específica, son errores o efectos colaterales, subproductos. Millones de años después un segmento de DNA sin función puede ganarla, por casualidad. Pero eso NO es “propósito y función” del primer evento.

    Repara en mi otro argumento, los seres vivos han inventado varias veces mecanismos para eliminar RNAs endógenos (no de virus externos). Esos mecanismos (exosoma y similares) existen en la generalidad de los organismos vivos, no especies concretas. Eso indica que existe la necesidad de esa eliminación, ergo esos RNAs no tienen una función propia para el organismo (al contrario si puede suceder, algo puede no tener una función propia pero su mera acumulación puede entorpecer o impedir otros procesos de forma indefinida, aleatoria).

    En particular procesos como la degradación de RNA sin sentido (NMD, nonsense-mediated decay) tiene como función propia degradar determinados tipos de RNAs transcritos aberrantes: el destino de esos transcritos es ser degradados, no tienen ninguna función. Seguramente encontraremos un ejemplo en el que algún RNA aberrante resulta que ha adquirido una función esencial. Y habrán co-evolucionado mecanismos para proteger ese RNA concreto de la degradación. Pero eso no dejará de ser una casualidad.

    Y en el terreno filosófico, ¿cuál es la “función” de un canto rodado en el lecho de un río? Hay muchísimas cosas que simplemente “son”, sin propósito ni función. Sólo cabe hablar de “función” si hay una proceso complejo en el que varias partes interaccionan para un propósito. En biología hay un propósito, supervivencia y reproducción, en el seno de un océano de azar y contingencia. Otras cosas ni eso. En general, el mundo físico no tiene propósito ni función, simplemente es como es.

    ¿Cuál es la función de los asteroides o cometas? Coloquialmente, sabemos que uno causó la extinción de los dinosaurios, ¿La función de los asteroides en general es extinguir phylums y especies? En biología las casualidades si existen. Si me apuras, son la norma.

  17. Gabriel
    14 febrero, 2013 en 17:39

    y eso que no entraron a tratar el tema de “priones” otro fiel ejemplo de como romper el “dogma central”, saludos

  18. 27 febrero, 2013 en 4:57

    Reblogged this on Desde Mendel hasta las moléculas and commented:

    Excelente articulo de JM sobre la vieja frase, un gen una proteìna

  19. 27 febrero, 2013 en 19:30

    Esto es un un “sin vivir”, “sin dormir”… Con blogs inexcusables. GRACIAS por la síntesis (no peptídica) de tanta información. Ardua tarea.
    Ahora mismo enlazo estos dos artículos, en los que Enrique ha puesto más que ganas para dinamizarlos. También es de agradecer ;-)

  1. No trackbacks yet.
Los comentarios están cerrados.
Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 2.310 seguidores

%d personas les gusta esto: