Las aguas de inundación Pose otra amenaza para los pescadores de Louisiana

Jon Bowermaster | jueves, 07 de abril 2010 |

El desborde del río Cumberland, justo al norte de Nashville, desde un satélite. Foto: DigitalGlobe / Reuters

The Big Easy y la Costa del Golfo están recibiendo mucha de la atención de los medios debido a millones de galones de crudo derramados, pero justo al norte, Ciudad de la Música está sufriendo demasiado.

lluvias horribles pasado fin de semana-13 pulgadas en dos días-obligó al río Cumberland aumentando lejos de sus orillas, las inundaciones Nashville y pueblos cercanos. precipitaciones récord empujó al río fangoso a 30 metros de altura en la ciudad como el río de 12 pies con cresta inundaciones por encima de la etapa.

En algunos barrios sólo los tejados de las casas de tres pisos se podía ver por encima del agua, y los rescatistas en botes agachó la cabeza para evitar golpear a ellos en las farolas. Una estatua de tamaño natural de Elvis yacía sobre su espalda en un estacionamiento, Opryland fue cerrado, y las estrellas de música country empezaron a organizar los beneficios de recaudación de fondos.

Treinta y uno han muerto en tres estados de las inundaciones y las tormentas, un millón de hogares se inundan, y el alcalde Karl Dean predice que tendrá un costo 1 mil millones dólares para reconstruir en Nashville solo.

Pero la conexión entre Nashville y Nueva Orleans ha pasado casi no se denuncian. La abundancia de agua de las inundaciones tiene que ir a alguna parte y finalmente, al igual que los ríos de otros 30 estados, el Cumberland se alimenta en el Mississippi, que desemboca luego de llegar al Golfo de México a unos 100 kilómetros al sur de Nueva Orleans.

Inicialmente, el pensamiento entre los residentes de Louisiana de cerca el derrame de agua de la inundación fue que podría ser beneficiosa. El agua en rápido movimiento de lavado en el Golfo de México podría ofrecer una especie de alivio natural contra las mareas y las corrientes amenaza con llevar el aceite más cerca de la tierra.

El estado ya había abierto los proyectos de desviación de agua dulce para limpiar el agua del río Mississippi en algunos pantanos del interior en la orilla oeste del río, ¿por qué no dejar curso de la naturaleza hacer lo mismo en la desembocadura de la ría que conduce al Golfo de México?

“Esa es una razón de pesca de todo el mundo tan difícil ahora”, dice Tracy Kuhns, la esposa de un pescador que vive en Barataria, Louisiana. “Antes de que el agua más baja desde el norte … y antes de que el aceite entra por el Golfo.”

Pero cuando me encontré con que el pensamiento de Tracy Kuhns, la esposa de un pescador de Barataria que trabaja en estrecha colaboración con la asociación local de pescadores de la Familia, que vio la llegada de aguas de las inundaciones del norte como otro peor de los casos. La asociación está formada por pescadores de camarones en su mayoría, que el pescado fuera del Bayou Lafourche y en el Golfo.

Su preocupación es que, en lugar de empujar contra el aceite, el agua en rápido movimiento llevará a todos los camarones jóvenes y otra vida marina a cabo en el lío.

“Esa es una razón de pesca de todo el mundo tan difícil ahora”, dice ella, “antes de que el agua más baja desde el norte … y antes de que el aceite entra por el Golfo.”

Kuhns los vecinos a lo largo de Bayou Lafourche han estado faenando durante todo el día desde el derrame. Y puesto que la Administración Nacional Oceánica y Atmosférica (NOAA) declaró el estado de emergencia el 02 de mayo, El cierre de toda la pesca en el este del Golfo de la boca del Mississippi durante 10 días, que han estado pescando aún más difícil-en la medida en que puede salir de Jefferson y Parroquias Plaquemine en la bahía de Barataria, a los límites del Golfo y su sección cerrada.

Por lo menos una semana de pesca comercial y recreativa todas al este de la desembocadura del Mississippi se ha cerrado (aunque 75 a 85 por ciento de la pesca de Louisiana se encuentran al oeste de la boca).

Los motivos de pesca de camarón al este del río se cerraron dos semanas antes de la apertura oficial de la temporada, que estaba previsto que cerca de 15 de mayo y volver a abrir en junio. criaderos se encuentran en observación, y hasta ahora no ha habido daños sufridos.

Mientras que algunos compradores están abasteciendo de productos del mar nacional, triplicando sus órdenes, algunas grandes cadenas de supermercados en los EE.UU., incluidos los alimentos enteros, ya han dejado de comprar pescado en la zona.

Miles en la industria pesquera a lo largo de la cuota de la costa del Golfo Kuhns preocupaciones. El cuarenta por ciento del pescado consumido en los 48 vienen del Golfo, que es el principal proveedor de camarón, ostras y cangrejos en los EE.UU. En Louisiana solos, que equivale a un negocio de 2,4 mil millones dólares anualmente.

NOAA está consultando con los gobernadores de cuatro estados de si-o cuando-de declarar las pesquerías del Golfo un oficial “desastre”, con el fin de liberar millones de dólares de ayuda. Y los abogados de los pescadores ya están preparando acciones legales contra BP por “pérdida de sustento.”

.

Cobertura total: Costa del Golfo de derrames de petróleo

Estudio rápido: La contaminación marina

Historias relacionadas: La Costa del Golfo de derrames de petróleo: ¿Cómo ayudarRostros del Derrame: Locales Costa del Golfo En cuanto a los DesastresRecortes de prensa Will pelo ayudar a limpiar el derrame del Golfo?

¿Cómo una interferencia de Internet no fijadas podría usted Strand Desconectado

PETER SVENSSON | 05 / 8 / 10 10:33 AM

NUEVA YORK – En 1998, un hacker le dijo al Congreso que podría provocar la caída de Internet en 30 minutos al aprovechar un error de que a veces causaba cortes de línea por desviando de datos. En 2003, la administración Bush llegó a la conclusión de que la fijación de este error fue en el “interés vital de la nación.”

Un avance rápido hasta 2010, y muy poco se ha hecho para mejorar la situación. La falla sigue causando cortes de cada año. Aunque la mayoría de los cortes son inocentes y resuelvan rápidamente, el problema todavía puede ser aprovechado por un hacker para espiar el tráfico de datos o tomar los sitios web. Mientras tanto, nuestra confianza en Internet ha hecho sino aumentar. La próxima parada, accidental o maliciosa, podría interrumpir las empresas, el gobierno o cualquier persona que necesite de Internet con normalidad.

Los cortes se deben a la manera un tanto casual que el tráfico se pasa entre las empresas que transportan datos de Internet. Los cortes son llamados “secuestros”, aunque la mayoría de ellos no son causados por los delincuentes tienden a la destrucción. En cambio, los cortes son un problema nacido de la naturaleza abierta de Internet, una cualidad que también ha impulsado el crecimiento deslumbrante de la red.

“Es feo cuando se mira debajo de la cubierta”, dice Earl Zmijewski, un gerente general de Renesys Corp., que muestra la rentabilidad de las rutas de datos de Internet. “Me sorprende cada día cuando me meto en el trabajo y encontrar de que funciona.”

Cuando se envía un correo electrónico, ver una página Web o hacer cualquier otra cosa en línea, la información que usted lee y transmitir se entrega de un soporte de datos de Internet a otra, a veces en una larga cadena. Al iniciar sesión en Facebook, sus datos pueden ser entregados a su proveedor de servicios de Internet para una empresa como Nivel 3 Communications Inc., que opera una red global de líneas de fibra óptica que llevan datos de Internet a través de largas distancias. Es, a su vez, podría pasar los datos a una compañía que está conectado directamente a los servidores de Facebook.

El quid del problema es que cada compañía en el camino se da cuenta de cómo encaminar los datos en función sólo de lo que las compañías alrededor de la cadena de decir, en lugar de mirar a toda la ruta. Es como si un conductor tuvo que llegar desde Filadelfia a Pittsburgh sin un mapa, navegar únicamente por las señales de tráfico que encontró en el camino – pero las señales no fueron llevados por una autoridad central. Si una señal apuntando en la dirección equivocada, que el conductor se perderían.

Eso es básicamente lo que sucede cuando una vía de Internet se secuestraron. Debido a que las compañías pasar información entre ellos acerca de que los datos deberán ir – y este sistema no tiene ningún medio seguro y automatizado de verificación de que la información es correcta – los datos pueden ser enviados a alguna compañía que no está a la espera de la información. El transportista no sabe qué hacer con él, y por lo general sólo se cae. Se cae en un agujero negro “.

El 25 de abril de 1997, millones de personas en América del Norte perdieron el acceso a todos los de Internet por alrededor de una hora. El secuestro fue causado por un empleado misprogramming un router, un equipo que dirige el tráfico de datos, en un pequeño proveedor de servicios Internet.

Un incidente similar ocurrió en otros lugares el próximo año, y el que después de eso. errores de enrutamiento también bloqueó el acceso a Internet en diferentes partes del mundo, a menudo por millones de personas, en 2001, 2004, 2005, 2006, 2008 y 2009. El mes pasado, un proveedor de servicios de Internet de China detuvo el acceso de todo el mundo a un gran número de sitios, incluso Dell.com y CNN.com, durante unos 20 minutos.

En 2008, Pakistán Telecom trató de cumplir con una orden del gobierno para impedir el acceso a YouTube desde el país e intencionalmente “negro-atrincherados” las solicitudes de los vídeos de YouTube de los usuarios de Internet de Pakistán. Pero también accidentalmente, dijo la compañía internacional de aguas arriba de ella que “yo soy la mejor ruta a YouTube, así que manda todo el tráfico de YouTube para mí.” La compañía aceptó el mensaje de aguas arriba de enrutamiento, y se lo pasó a lo largo de otras compañías aéreas en todo el mundo, que comenzó a enviar todas las solicitudes de los vídeos de YouTube a Pakistán Telecom. Pronto, incluso los usuarios de Internet en los EE.UU. se vieron privados de videos de gatos cantando y monopatín perros durante unas horas.

En 2004, la falla fue objeto de un uso malintencionado cuando alguien tiene un equipo en Malasia para decirles a los proveedores de servicios de Internet que es parte de Yahoo Inc. Una avalancha de spam fue enviado, lo que parece provenir de Yahoo.

“Secuestro es muy parecido a un robo de identidad. Alguien en el mundo afirma que ser”, dijo Todd Underwood, quien trabajó para Renesys durante el secuestro Pakistán Telecom. En la actualidad trabaja para Google Inc., tratando de evitar el secuestro de sus sitios web, que incluyen YouTube.

En 2003, el gobierno de Bush de protección de infraestructuras críticas Junta reunió a un “Estrategia Nacional para Proteger el Ciberespacio”, que llegó a la conclusión de que era fundamental para fijar el sistema de enrutamiento y asegurarse de que “las señales de tráfico” siempre apuntan en la dirección correcta.

Pero a diferencia de los errores de Internet que recibe descubierto y fija con relativa rapidez, el sistema de enrutamiento ha sido sin reformar desde hace más de una década. Y si bien hay algunos avances, hay poco de impulso en toda la industria detrás de los esfuerzos para introducir una solución permanente. soportes de datos lo que se refiere a la falibilidad del sistema de enrutamiento como el precio a pagar por abrir el Internet, la estructura flexible. La simplicidad del sistema de enrutamiento facilita a los proveedores de servicios para conectar, una cualidad que probablemente ha contribuido al crecimiento explosivo de Internet.

Este crecimiento también ha aumentado los riesgos de manera exponencial. Hace quince años, tal vez 8.000 personas en el mundo tenían acceso a las computadoras que utilizan el Border Gateway Protocol, o BGP, que define cómo las compañías pasan la información de enrutamiento entre sí. Ahora, Danny McPherson, jefe de seguridad de Arbor Networks, cree que con el crecimiento del acceso a Internet en todo el mundo y el consiguiente aumento en el número de portadores, la cifra es probablemente más cercano a 1 millón de personas.

Peiter Zatko, un miembro del “think tank hacker” llamado L0pht, dijo al Congreso en 1998 que él podría utilizar la vulnerabilidad de BGP para bajar de Internet en media hora. En los últimos años, Zatko – que ahora trabaja para la Defensa del Pentágono Advanced Research Projects Agency – ha dicho que el explotar aún funcionaría. Sin embargo, es probable que tome un par de horas en lugar de 30 minutos, en parte debido a un mayor número de compañías de Internet tendría que ser golpeado.

Muchas de las soluciones han sido propuestas en la comunidad de ingeniería de Internet, que se remontan hasta el año 1995. El gobierno de EE.UU. ha apoyado estos esfuerzos, impulsado en parte por la declaración del gobierno de Bush de la estrategia de 2003. Eso ha dado lugar en algunos ensayos de las nuevas tecnologías, pero la adopción por las compañías de datos aún parece lejano. Y el gobierno federal no tiene autoridad directa para forzar cambios.

Una de las razones es que las debilidades en el sistema están en la ruta entre las compañías. No sirve de nada si una compañía introduce un nuevo sistema – cada uno se conecta con el tiene que hacer el cambio también.

“Es una especie de problema de todos, porque afecta a la estabilidad de Internet, pero al mismo tiempo es problema de nadie, porque nadie de su propiedad”, dice Doug Maughan, que se ocupa de la cuestión en el Departamento de Seguridad Nacional.

Las compañías de Internet grandes parecen estar dispuestos a aceptar el status quo. Los portavoces de AT & T Inc. y Verizon Communications Inc., dos de los más grandes, las compañías de alcance mundial del tráfico de Internet, dijeron que no podían encontrar a nadie en sus empresas que podrían discutir el tema de la reforma de enrutamiento.

Pieter Poll, el director de tecnología de Qwest Communications International Inc., dice que apoyará algunos mecanismos sencillos para validar las rutas de datos, pero él sostiene que la reforma fundamental no es necesaria. Los secuestros suelen ser corregida con la suficiente rapidez que no plantean una amenaza importante, sostiene.

Una solución está probando que no llegan a hacer que el sistema de enrutamiento completamente segura, pero que al menos verificar parte de ella. Sin embargo, este sistema también se preocupa porque las compañías tendrían que trabajar a través de una base de datos central.

“Mi temor es que la innovación en Internet frenaría si hay una necesidad de pasar por una autoridad central”, dice encuesta. “Veo poco interés que en la industria.”

Jeffrey Hunker, ex director senior de infraestructuras críticas en la administración Clinton, dice que no le sorprende lo poco que ha sucedido en este tema desde 2003. Él no espera mucho para pasar en los próximos siete años, tampoco.

“Lo único que va a impulsar la adopción es un incidente grave, que no hemos tenido todavía”, dice. “Pero hay un montón de pruebas por ahí que un incidente importante sería posible.”

Mientras tanto, los administradores de red a ocuparse el secuestro de un manera pasada de moda: llamar a sus homólogos cerca de donde el secuestro se les ocurre llegar a cambiar manualmente las rutas de datos. Debido a que los correos electrónicos no puede llegar si hay una ruta que ha sido secuestrado, el teléfono es una opción más confiable, dice Tom Daly, director técnico de Dynamic Services Inc. Network, que ofrece alojamiento web y otros servicios de Internet.

“Usted hace algunas llamadas de teléfono y esperar y rezar”, dice Daly. “Eso es todo.”

.

Leer más: Computadoras, La Internet, Interferencia de Internet no fijadas, Problema de Internet no fijadas, Noticias de Tecnología

Lado oculto de nacimiento estelar Revelado

ScienceDaily (06 de mayo 2010)

Esta imagen fue tomada mirando hacia una región de la galaxia en la constelación de Águila, más cerca del centro galáctico que nuestro sol. Aquí, vemos a los saldos vivos de fin de productos de la línea de montaje estelar. En el centro y la izquierda de la imagen, los dos G29.9 masiva regiones de formación estelar W43 y son claramente visibles. Estos mini-destellos se están formando, en estos momentos, cientos y cientos de estrellas de todos los tamaños: desde aquellos similares a nuestro Sol, con los monstruos de varias decenas de veces más pesado que nuestro sol. Estas grandes estrellas recién nacidas son catastróficamente interrumpir sus embriones gas original por patada a su entorno y la excavación cavidades gigante en la galaxia. Esto es claramente visible en la “chimenea agosto” por debajo de W43. (Crédito: ESA / Consorcio Hi-GAL)

Los primeros resultados científicos de Herschel infrarrojos observatorio espacial de la ESA están revelando detalles ocultos antes de la formación estelar. Nuevas imágenes muestran miles de galaxias lejanas con furia y hermoso edificio de estrellas que forman las nubes estrellas cubierto a través de la Vía Láctea. Una imagen aún capturas un “imposible” de estrellas en el acto de formación.

Presentado durante el 06 de mayo un simposio científico celebrado en la Agencia Espacial Europea (ESA), los resultados desafío viejas ideas de nacimiento de estrellas, y abrir nuevos caminos para futuras investigaciones.

la observación de Herschel de la nube de formación de estrellas RCW 120 ha puesto de manifiesto una estrella embrionaria que promete convertirse en uno de los mayores y más brillantes estrellas de nuestra galaxia dentro de los próximos cien mil años. Es ya contiene ocho a diez veces la masa del Sol y sigue rodeada de un adicional 2000 masas solares de gas y polvo del que se puede alimentar aún más.

“Esta estrella sólo puede crecer más grande”, dice Annie Zavagno, Laboratorio de Astrofísica de Marsella. Las estrellas masivas son escasas y de corta duración. Para coger una durante la formación presenta una oportunidad de oro para resolver una paradoja de larga data en la astronomía. “Según nuestros conocimientos actuales, no debería ser capaz de formar estrellas más grandes de ocho masas solares,” dice el Dr. Zavagno.

Esto se debe a la rabiosa luz emitida por estrellas tan grandes deben explosión fuera de sus nubes a luz antes de cualquier masa más se puede acumular. Pero de alguna manera se forman. Muchos de estos “imposibles” las estrellas son ya conocidas, algunas con hasta 150 masas solares, pero ahora que ha visto una Herschel cerca del comienzo de su vida, los astrónomos pueden usar los datos para investigar la forma en que está desafiando a sus teorías.

Herschel es el mayor telescopio astronómico en ser colocado en el espacio. El diámetro de su espejo principal es cuatro veces más grande que cualquier otro telescopio espacial infrarrojo y anteriores una vez y media más grande que el Hubble. Como las estrellas empiezan a formarse, el polvo de los alrededores y el gas es calentado a unas pocas decenas de grados sobre el cero absoluto y comienza a emitir en longitudes de onda de infrarrojo lejano. La atmósfera de la Tierra bloquea completamente la mayoría de estas longitudes de onda y por lo tanto las observaciones desde el espacio son necesarios.

A través de su resolución sin precedentes y la sensibilidad, Herschel está llevando a cabo un censo de las regiones de formación estelar en nuestra galaxia. “Antes de Herschel, que no estaba claro cómo el material en la Vía Láctea se reunieron en altas densidades y suficiente a temperaturas suficientemente bajas para formar estrellas”, dice Sergio Molinari, Istituto di Fisica dello Spazio Interplanetario, Roma.

Una nueva imagen de Herschel y sobre un número de guarderías estelares en la Vía Láctea muestra cómo sucede. Primeros embriones estelares aparecen dentro de los filamentos de polvo brillante y gas cubierto a través de la galaxia. Estas cadenas forma de guarderías estelares, decenas de años luz de longitud, enrollado de la galaxia en una red de nacimiento de estrellas.

Herschel también ha estado examinando el espacio profundo más allá de nuestra galaxia, y ha medido la luz infrarroja de miles de otras galaxias, distribuidos en miles de millones de años-luz del Universo. Cada galaxia aparece como un simple pinchazo, pero su brillo permite a los astrónomos determinar la tasa de nacimiento de estrellas dentro de ella. En términos generales, el más brillante de la galaxia las estrellas más se está formando.

Aquí, también, Herschel ha desafiado nuestra comprensión anterior al mostrar que las galaxias han ido evolucionando con el tiempo cósmico mucho más rápido que se pensaba. Los astrónomos creen que las galaxias han estado formando estrellas a una tasa igual para los tres últimos millones de años. Herschel muestra que esto no es cierto.

En el pasado, había muchos más estelar denominado “galaxias formando estrellas a 10-15 veces la tasa que vemos en la Vía Láctea en la actualidad. Pero lo que desencadenó esta actividad frenética no se conoce completamente. “Herschel ahora vamos a investigar las razones de este comportamiento”, dice Steve Eales, la Universidad de Cardiff, Reino Unido.

Herschel es también un instrumento de primer orden para la detección de las formas más pequeñas de la materia: las moléculas. Se ha realizado el primer descubrimiento en el espacio de una “nueva fase” de agua. Es con carga eléctrica y, a diferencia de las fases más familiares, como el hielo sólido, líquido y vapor de agua gaseosa, que no ocurre naturalmente en la Tierra. En el nacimiento las nubes que rodean las estrellas jóvenes, sin embargo, donde la luz ultravioleta es el bombeo a través del gas, esta irradiación puede golpear un electrón de la molécula de agua, dejándola con un cambio de corriente.

“Esta detección de vapor de agua ionizado fue una sorpresa”, dice Arnold Benz, ETH Zurich, Suiza. “Nos dice que hay procesos violentos que tienen lugar durante las etapas de nacimiento prematuro que conducen a la radiación energética generalizada a lo largo de la nube.” Desde la más grande las galaxias a las moléculas más pequeñas, éstas y los resultados de muchas otras Herschel se han presentado a la comunidad científica en los resultados Herschel Primer Simposio, ESLAB 2010, que tendrá lugar esta semana en la investigación de la ESA de espacio ESTEC y el centro de la tecnología, en Noordwijk, Países Bajos .

“Estos son aún es pronto para Herschel y esto es sólo el comienzo de toda la ciencia que vamos a obtener de esta misión en los próximos años”, dice Göran Pilbratt, la ESA Herschel científico del proyecto.

Historia de Fuente: Adaptado de materiales proporcionados por la Agencia Espacial Europea.

.

Ver también: Espacio y Tiempo, ,

Permalink: http://www.sciencedaily.com/releases/2010/05/100506112607.htm

Nuevas pistas sobre el Misterio de la inmunidad natural del VIH: resultados pueden tener implicaciones para el diseño de vacuna eficaz contra el SIDA

ScienceDaily (06 de mayo 2010)

Micrografía electrónica del VIH-1 en ciernes de los linfocitos en cultivo. Múltiples pápulas redonda sobre la superficie celular representan sitios de reunión y en ciernes de los viriones. (Crédito: CDC / C. Goldsmith, P. Feorino, Palmer EL, McManus WR)

Cuando las personas se infectan por el VIH, por lo general es sólo una cuestión de tiempo, salvo la intervención del medicamento, hasta que se desarrolle plenamente el SIDA. Sin embargo, un pequeño número de personas expuestas al progreso de un virus muy lentamente a causa del SIDA – y algunos nunca desarrollan la enfermedad a todos.

A finales de 1990, los investigadores mostraron que un porcentaje muy elevado de las personas VIH-inmune natural, que representan aproximadamente una de cada 200 personas infectadas, portadores de un gen llamado HLA B57. Ahora, un equipo de investigadores del Instituto Ragon del Hospital General de Massachusetts, MIT y Harvard ha revelado un nuevo efecto que contribuye a la capacidad de este gen para conferir inmunidad.

El equipo de investigación, dirigido por el profesor del MIT y Harvard Arup Chakraborty profesor Bruce Walker en el MGH, encontraron que el gen HLA B57 hace que el cuerpo produzca más potentes células T asesinas – glóbulos blancos que ayudan a defender al organismo de invasores infecciosas. Los pacientes con el gen tienen un mayor número de células T que se unen fuertemente a más piezas de la proteína del VIH que las personas que no tienen el gen. Esto hace que las células T más probabilidades de reconocer las células que expresan proteínas del VIH, incluidas las versiones mutadas que se presentan durante la infección. Este efecto contribuye a un control superior de la infección por el VIH (y de cualquier otro virus que evoluciona rápidamente), pero también hace que esas personas sean más susceptibles a las enfermedades autoinmunes, en las cuales las células T atacan a las células del propio cuerpo.

Este nuevo conocimiento, publicado en línea en la Naturalezael 5 de mayo, podría ayudar a los investigadores a desarrollar vacunas que provocan la misma respuesta al VIH que los individuos con HLA B57 reunir por su cuenta, dice Walker, quien es director del Instituto Ragon y profesor de Medicina de Harvard Escuela.

“El VIH es que se revela lentamente”, dice Walker. “Este es otro punto a nuestro favor en la lucha contra el virus, pero tenemos un largo camino por recorrer”.

La mayoría de las células T asesinas son genéticamente únicas y reconocer las diferentes piezas de proteínas extrañas, conocidas como epítopos, que se adjunta a la superficie de las células que han sido infectadas por virus o bacterias. Después de una toma de células T asesinas bodega de una proteína, que se activa y empieza a barrer el cuerpo durante más células que expresan la misma proteína, por lo que puede provocar la muerte. También se clones para producir un ejército de células T dirigidas al invasor.

El nuevo Instituto Ragon estudio muestra que los individuos con el alelo HLA B57 gen producen un mayor número de células T asesinas que son una reacción cruzada, lo que significa que puede atacar a más de un epítopo asociado con el VIH, incluidos los mutantes que surgen de escapar activar las células T asesinas.

Las ofertas para encontrar la esperanza de que los investigadores podrían diseñar una vacuna para ayudar a extraer las células T de reactividad cruzada en personas que no poseen el alelo HLA B57 gen. “No es que no tienen células T de reactividad cruzada”, dice Chakraborty. “Ellos los tienen, pero son mucho más raras, y pensamos que podrían ser inducidos a la acción con la vacuna adecuada.”

La obra es una valiosa contribución a la comprensión de los científicos del VIH, dice David Baltimore, profesor de biología y ex presidente de Caltech.

“Este es un documento notable porque se parte de una observación clínica, se integra con las observaciones experimentales, genera un modelo de valor y se deriva del modelo de un profundo conocimiento del comportamiento del sistema inmune humano. Pocas veces se lee un documento que se extiende la mente de manera tan sorprendente el momento “, dice Baltimore, premio Nobel de fisiología o medicina que estudia ahora el VIH y las interacciones de células T humanas.

Chakraborty y sus colegas habían desarrollado previamente los modelos computacionales del desarrollo de células T en el timo, un órgano situado detrás del esternón a través del cual las células T deben pasar para convertirse en asesinos maduro. Hay que someterse a un proceso de selección destinado a eliminar a las células que podrían atacar a las células del propio cuerpo (que se muestran piezas de proteínas humanas en su superficie). Las células T también deben demostrar que pueden unirse débilmente a algunos fragmentos de la proteína humana. Sólo un pequeño porcentaje de células T pasar estas pruebas y se les permite abandonar el timo y circulan en el cuerpo para defenderse contra virus, otras enfermedades, y las células cancerosas.

En el interior del timo, las células T están expuestos a la “auto-péptidos” – pequeños fragmentos de proteínas humanas – a las proteínas HLA. Chakraborty y compañeros de trabajo habían demostrado previamente que la diversidad de los fragmentos de sí mismo péptido presentado en el timo influye en el tipo de células T que una persona puede producir. El tipo y número de auto-péptidos expresados son determinados por los genes HLA, que tienen cientos de formas diferentes, incluyendo HLA B57. Cada persona puede transportar hasta a seis de ellos (tres heredada de cada progenitor).

Utilizando datos de estudios previos, el equipo encontró que Ragon HLA B57 proteína presenta menos tipos de auto-péptidos de las proteínas HLA mayoría de los demás. (HLA B27 es otra proteína que presenta algunos tipos de auto-péptidos y también parece proteger contra el VIH y promover desórdenes autoinmunes.) En este estudio, Chakraborty y el becario postdoctoral Elizabeth Lee y el estudiante graduado Andrej Kosmrlj, los autores del plomo del papel, utilizado su modelo de computadora para estudiar lo que ocurre al madurar las células T sólo están expuestos a una diversidad de pequeñas auto-péptidos en el timo.

las células T con receptores que se unen fuertemente a cualquiera de los auto-péptidos en el timo se ven obligados a someterse a suicidio celular, debido a su potencial para atacar las células del propio cuerpo. Chakraborty y colaboradores mostraron que esto significa que, para la mayoría de las personas, la mayoría de las células del cuerpo T tienen receptores que se unen a proteínas virales específicas a través de una serie de interacciones débiles, con cada interacción haciendo una contribución significativa a la unión. Por lo tanto, una sola mutación de un péptido del VIH potencialmente pueden evadir la respuesta inmune.

Un escenario diferente se desarrolla en personas que poseen el alelo HLA B57 gen. Utilizando su modelo informático, Chakraborty y colaboradores demostraron que, ya que las células de esas personas están expuestas a T menos auto-péptidos en el timo, las células T con receptores que median la fuerte unión a las proteínas virales a través de un solo pocos contactos importantes tienen más probabilidades de escapar el timo. Esto hace que estas células T más una reacción cruzada con péptidos mutantes dirigidos por VIH, ya que mientras los puntos en las proteínas virales no mutan, las células T siguen siendo eficaces. El modelo también mostró que una vez que las células T se liberan en el torrente sanguíneo, se puede atacar con eficacia las proteínas del VIH, aun cuando el virus muta.

Este modelo también explica por qué las personas con el alelo HLA B57 gen tienen problemas autoinmunes: Sus células T es más probable que se adhieren firmemente a los péptidos humanos no se encuentran en el timo.

Los estudios computacionales explicó muchos puzzles, pero también hizo una predicción: Los individuos con genes HLA que se traducen en una pantalla de menos auto-péptidos debe controlar el VIH (y otros virus como el virus de la hepatitis C) mejor. Para probar esta predicción, los investigadores estudiaron cerca de 2.000 pacientes – 1.100 “Los responsables del VIH” y 800 que evolucionaron normalmente a causa del SIDA, y confirmó que esto parece ser cierto.

Historia de Fuente: Adaptado de materiales proporcionados por el Instituto de Tecnología de Massachusetts . Artículo original escrito por Anne Trafton, oficina de las noticias del MIT.

.

Ver también: , , , , ,

Permalink: http://www.sciencedaily.com/releases/2010/05/100505133250.htm

Cambio Climático y la formación de montañas llevado a modelos de la diversidad de mamíferos

ScienceDaily (08 de mayo 2010)

De manto dorado ardilla de tierra en las montañas de Utah y el documento de la mandíbula fósil ardilla diversidad de roedores de alta en el oeste de América del Norte topográficamente complejas de hoy y hace 16 millones de años. (Crédito: foto de Catherine Badgley ardilla; foto mandíbula fósil de roedores de la Universidad de California Museo de Paleontología (foto usado con autorización); patrón topográfico de MyTopo (usado con autorización))

Viaje desde los trópicos hasta los polos, y te darás cuenta de que la diversidad de mamíferos declina con la distancia del ecuador. Pasar de las tierras bajas a las montañas, y verá aumentar la diversidad en el paisaje se vuelve más variada. Los ecologistas han propuesto varias explicaciones para las que se descubran “la biodiversidad gradientes-bien”, invocando, evolutiva e histórica los procesos ecológicos.

Los nuevos hallazgos de los investigadores de la Universidad de Michigan John A. Finarelli y Catherine Badgley sugieren que los patrones altitudinales de la diversidad que vemos hoy han aparecido, desapareció y reapareció en la historia de la Tierra y que estos patrones surgen de las interacciones entre el cambio climático y la formación de montañas.

Los resultados, publicados en línea en la revista Proceedings de la Sociedad Real B , también tienen implicaciones para los esfuerzos de conservación en la cara del día el calentamiento global moderno, dijo Finarelli, un profesor asistente visitante en el Departamento de Ciencias Geológicas.

En su estudio, centrado en el Mioceno, que comenzó alrededor de 23 millones de años y terminó hace 5 millones de años, y Badgley Finarelli evaluó la diversidad de más de 400 especies de roedores de las regiones adyacentes que diferían en la historia geológica y la topografía. El geológicamente “región activa”, que se extiende desde el Front Range de las Montañas Rocallosas hasta la costa del Pacífico, ha experimentado varios episodios de formación de montañas y la actividad volcánica, y como resultado tiene un paisaje topográficamente compleja. En cambio, la relativamente plana Great Plains, ha sido más estable geológicamente.

La noción prevaleciente ha sido que la diversidad es mayor en las regiones montañosas que en las tierras bajas, simplemente porque la topografía es más compleja. En las montañas se levantan, se crean nuevos hábitats y áreas que una vez que se continua fragmentado. Estos cambios ofrecen oportunidades para nuevas especies a surgir, el aumento de la diversidad.

Pero el clima también entra en el nuevo estudio. Durante el Mioceno, a largo plazo, un enfriamiento global se vio interrumpida por intervalos caliente. En la región activa, la diversidad aumentó durante un intervalo de calentamiento 17 a 14 millones de años, que coincidió con la formación de montañas se intensificó y la actividad volcánica, el análisis reveló. Durante el enfriamiento posterior, se negó la diversidad en las montañas y el aumento en las llanuras.

“Este patrón sugiere que el gradiente altitudinal la diversidad surge durante los episodios históricos asociados con el calentamiento global y la formación de montañas”, dijo Badgley, un profesor asistente en el Departamento de Ecología y Biología Evolutiva y de un científico investigador en el Museo de Paleontología y el Departamento de Geología Ciencias. “Este gradiente no es una característica a largo plazo de la biodiversidad de América del Norte.”

Aunque la investigación se centró en los ecosistemas antiguos, los resultados tienen implicaciones para los tiempos modernos, Finarelli dijo. “Basándonos en nuestro hallazgo de que las regiones más complejas son más sensibles al cambio climático, las áreas amenazadas en las regiones montañosas debe ser una preocupación particular para la conservación, con respecto al cambio climático humana mediada.”

El trabajo también pone de relieve la importancia de los estudios que se funden las disciplinas de la paleontología y la biogeografía, Finarelli dijo. “Al casarse con los dos temas, podemos obtener una mejor comprensión de los procesos ecológicos y evolutivos que configuran el mundo que nos rodea.”

Historia de Fuente: Adaptado de materiales proporcionados por la Universidad de Michigan.

.

Ver también:

Plantas y Animales, , , Tierra y clima, , , Fósiles y ruinas, ,

Permalink: http://www.sciencedaily.com/releases/2010/05/100505163236.htm

A %d blogueros les gusta esto: