El asteroide 2005 YU55 podrá ser avistado con prismáticos desde la Península Ibérica

Asteroide Asteroide aproximándose a la Tierra.

20MINUTOS.ES / EFE. 08.11.2011 – 04.33h
Los astrónomos esperan poder estudiar de cerca el asteroide ‘2005 YU55‘, que pasará mañana entre la Tierra y la Luna, a la distancia más corta registrada en los últimos 200 años.

El Laboratorio de Propulsión a Chorro de la NASA ya ha advertido de que el asteroide, que tiene el tamaño de un portaaviones, no supone un peligro para la Tierra, y será una buena oportunidad para estudiarlo de cerca.

Se espera que 2005 YU55 pase a 324.000 kilómetros de la Tierra, una distancia algo menor que la que separa al planeta de su satélite natural. Debido a esta proximidad, si las condiciones atmosféricas lo permiten, el asteroide podrá ser visto desde la Península Ibérica entre el atardecer y las 23 horas aproximadamente usando unos simples prismáticos o pequeños telescopios, según algunos expertos. Otros aseguran, sin embargo, que su composición impedirá que brille en el cielo cuando se acerque a la Tierra y, por tanto, sólo podrá observarse con telescopios.

Las antenas del Centro de vigilancia del espacio profundo de la NASA situado enGoldstone (California) y el radar del observatorio de Arecibo, situado en Puerto Rico, han seguido el recorrido del asteroide durante la última semana.

Los científicos de la NASA esperan obtener imágenes del radar de Goldstone de unos 2 metros por pixel, lo que podría ayudar a conocer con un detalle inusitado cómo es la superficie del asteroide, su forma, sus dimensiones y otras propiedades físicas.

La NASA explica que cada día la Tierra es “bombardeada” con más de 100 toneladas de polvo y partículas cósmicas. Aproximadamente, una vez al año un asteroide del tamaño de un vehículo entra en la atmósfera creando una bola de fuego que se deshace antes de llegar a la superficie.

Esta no es la primera vez que 2005 YU55 se ha cruzado en el camino de la NASA. El asteroide fue detectado y seguido por el observatorio de Arecibo en abril de 2010, cuando se encontraba a unos 2,3 millones de kilómetros.

El radar logró captar una imagen con una resolución de 7,5 metros por pixel que reveló que tiene una forma casi esférica y un diámetro de unos 400 metros, además gira lentamente y tiene un periodo de rotación de 18 horas.

Los astrónomos aseguran que la trayectoria del asteroide está bien definida, por lo que no hay peligro de que se desvíe de su recorrido en torno al Sol, y señalan que su influencia gravitatoria no tendrá ningún efecto detectable en la Tierra.

Relacionadas en 20minutos.es

Científicos revelan los nombres del 1% de empresas que dominan la economía global

  /20 de octubre, 2011, 14:32

Decir hoy en día que una serie de empresas y bancos llevan el control de la economía mundial no es ni mucho menos descubrir el maná del sistema. Quizá por esta razón el estudio en el que se embarcaron varios investigadores de Zurich se centró en la red y las empresas que llevan el poder. El sorprendente resultado, a través de las matemáticas y el mapeado de datos sobre las propiedades corporativas, demuestra y pone nombre a uno de los slogan más escuchados en las protestas #occupy. Tan sólo un selecto grupo, menos de un 1% de las empresas en el mundo, dominan las redes mundiales y el poder financiero en el planeta, la mayoría entidades financieras.

El estudio ha sido publicado en New Scientist y viene a confirmar las teorías de las manifestaciones que vemos estos días. El resultado del trabajo llevado a cabo por los investigadores del Instituto Federal Suizo de Tecnología halló que de las 43.000 empresas transnacionales que se les supone importantes, tan sólo 147, en su mayoría bancos, llevan a cabo un poder desproporcionado en la red, trasladando el mismo sobre la economía global.

El propósito del estudio de los investigadores es el primero en conseguir ir más allá de la ideología de identificar empíricamente la red o redes de poder. En el mismo combinaron las matemáticas para modelar sistemas naturales que ayuden a entender un mapeado de los datos corporativos entre las empresas transnacionales.

El análisis se obtuvo de Orbis 2007, una base de datos que contiene 37 millones de empresas e inversores en todo el mundo. De ellos, se sacaron las 43.060 empresas que tenían el mayor número de acciones repartidas en el mundo. A partir de ahí, construyeron un modelo de aquellas empresas que controlaban al resto con sus participaciones incluyendo los ingresos de explotación de cada una para cartografiar la estructura del poder económico.

El trabajo reveló que el núcleo de las empresas con participación e interconectadas bajaba hasta las 1.318, que cada una de estas 1.318 empresas eran a su vez propietarias de dos o más de este grupo de empresas. No sólo eso, a pesar de que representaban el 20% de los ingresos totales de explotación global, las 1.318 empresas aparecían en conjunto a través de sus acciones repartidas en la mayoría de compañías de fabricación, base y sustento de la economía “real”, hecho que las situaba en el 60% de los ingresos totales de la economía en la red y por tanto en el mundo.

Siguiendo el estudio y juntando la conexión entre estas 1.318 (la mayoría propiedad en acciones de muchas de ellas), se acabó conformando una selecta lista de “super-entidades” estrechamente relacionadas. Son 147 las empresas que controlan el 40% de la riqueza total en el mundo, menos del 1%, un centenar de compañías y la mayoría eran entidades financieras.

Los investigadores lo explicaban así:

La realidad es demasiado compleja, debemos alejarnos del dogma si tratamos de averiguar si existen teorías de conspiración o de libre mercado. Nuestro análisis está basado en la realidad.

En efecto, menos del 1% de un centenar de empresas son capaces de controlar el 40% de la red global. La concentración de poder no es ni buena ni mala en sí misma. Simplemente, cuando las redes son inestables, las empresas sufren y se angustian lo que produce un efecto que se propaga.

Lo realmente desconcertante es ver como están todas conectadas. Por otro lado, estas “super-entidades” es poco probable que tengan una intención de conspirar para dominar el mundo, simplemente son estructuras comunes en la naturaleza. Su conexión se debe a que compran acciones porque forma parte de su propia naturaleza, se auto organizan.

Sea como fuere, el resultado de la investigación según los investigadores parece que no deja lugar a conspiraciones, aunque según dicen, si puede ser más probable que exista un esfuerzo en clave de poder político. Les dejo con el resultado del grupo que mueve los hilos en el planeta, las primeras 50 “super-entidades” (de las 147) superconectadas:

  • Barclays plc
  • Capital Group Companies Inc
  • FMR Corporation
  • AXA
  • State Street Corporation
  • JP Morgan Chase & Co
  • Legal & General Group plc
  • Vanguard Group Inc
  • UBS AG
  • Merrill Lynch & Co Inc
  • Wellington Management Co LLP
  • Deutsche Bank AG
  • Franklin Resources Inc
  • Credit Suisse Group
  • Walton Enterprises LLC
  • Bank of New York Mellon Corp
  • Natixis
  • Goldman Sachs Group Inc
  • T Rowe Price Group Inc
  • Legg Mason Inc
  • Morgan Stanley
  • Mitsubishi UFJ Financial Group Inc
  • Northern Trust Corporation
  • Société Générale
  • Bank of America Corporation
  • Lloyds TSB Group plc
  • Invesco plc
  • Allianz SE 29. TIAA
  • Old Mutual Public Limited Company
  • Aviva plc
  • Schroders plc
  • Dodge & Cox
  • Lehman Brothers Holdings Inc*
  • Sun Life Financial Inc
  • Standard Life plc
  • CNCE
  • Nomura Holdings Inc
  • The Depository Trust Company
  • Massachusetts Mutual Life Insurance
  • ING Groep NV
  • Brandes Investment Partners LP
  • Unicredito Italiano SPA
  • Deposit Insurance Corporation of Japan
  • Vereniging Aegon
  • BNP Paribas
  • Affiliated Managers Group Inc
  • Resona Holdings Inc
  • Capital Group International Inc
  • China Petrochemical Group Company

(Lehman se encuentra en el puesto 34 porque en el 2007 todavía existía en la base de Orbis)

Fuente: alt1040.com

Científicos logran con Google Earth localizar los brotes de la fiebre tifoidea

  / 18 de octubre, 2011, 10:08

Increíble el anuncio conseguido a través de una investigación llevada a cabo por varios científicos de la Universidad de Oxford. Los investigadores lograron combinar la tecnología de secuenciación de genes con la herramienta de Google Earth logrando rastrear con exactitud la propagación de la fiebre tifoidea en Katmandú, el lugar en el planeta donde se encuentra más extendida la enfermedad. El avance supone por primera vez en la historia marcar una ruta exacta de una de las grandes lacras en Nepal.

La fiebre tifoidea o fiebre entérica es una enfermedad infecciosa producida por Salmonella typhi o Salmonella paratyphi. Es una enfermedad que se produce en los humanos cuyo mecanismo de contagio es fecal-oral, a través de agua y de alimentos contaminados con deyecciones. La bacteria ingresa por vía digestiva y llega al intestino, pasando finalmente a la sangre, causando una fase de bacteremia hacia la primera semana de la enfermedad; posteriormente se localiza en diversos órganos y produce fenómenos inflamatorios y necróticos debidos a la liberación de endotoxinas.

Los estudios de la enfermedad que se han realizado hasta ahora afirman que Katmandú, la capital de Nepal, es la “capital de la fiebre tifoidea en el mundo”, produciendo miles de casos anuales. Se da la circunstancia de que los brotes hasta ahora eran prácticamente imposibles de trazar debido a las características de una ciudad donde las calles no tienen nombres.

Lo que los investigadores consiguieron fue utilizar un sistema de señalización de GPS y las últimas técnicas de secuenciación de ADN para poder determinar la evolución de la enfermedad. El resultado, sorprendente, ha sido un rastreo exacto de las fuentes de brotes, en la mayoría de los casos a través de ciertos conductos de agua de la ciudad.

La investigación ha sido publicada en la revista Biology como parte del trabajo que llevaban realizando varios científicos de Oxford en las clínicas de Katmandú y en la ciudad de Ho Chi Minh. Stephen Baker, científico de la unidad de Oxford, explicaba el hallazgo:

Hasta ahora había sido extremadamente difícil de estudiar cómo los organismos como las bacterias causaban la fiebre tifoidea y se propagaba a nivel local. Sin esta información nuestra capacidad para comprender la transmisión de estas enfermedades se veía obstaculizada.

Ahora los avances tecnológicos nos han permitido por primera vez en la historia crear mapas precisos geográficos y genéticos de la propagación de la fiebre tifoidea y su seguimiento hacia nuevas fuentes de brotes

Para ello los investigadores visitaron los hogares de los pacientes con la fibre y utilizaron la tecnología GPS para la captura de la ubicación exacta, que se representó a continuación enGoogle Earth a través de mapas de la Tierra mediante la superposición de imágenes de satélite y fotografías aéreas.

Luego se tomaron muestras de sangre de los pacientes hospitalizados para aislar el organismo, el cual muta y se propaga, permitiendo un análisis de su composición genética para identificar donde había comenzado. Los investigadores encontraron que las personas que viven cerca de los surtidores de agua común de la ciudad en ciertas zonas eran los que estaban expuestos a contraer la enfermedad.

Alucinante. Tecnología que usamos a diario al servicio de la ciencia. En este caso para descifrar los brotes de una enfermedad que se ha cobrado la vidad de más de medio millón de personas en el mundo, en la mayoría de casos en jóvenes con edades comprendidas entre los 5 y los 19 años de edad.

Foto: Kaisernchen

Fuente: alt1040.com

Google: 10 áreas de mayor aportación a la ciencia

 | 24 de septiembre de 2011 a las 00:24

Google asaltó nuestras vidas hace tan poco tiempo que, creo, aún no tenemos suficiente perspectiva histórica para evaluar las consecuencias. Eso sí, tenemos números duros que dan cuenta de la pisada gigantesca de la empresa, como sus miles de servidores web basados en Linux, sus petabytes de información indexada, sus gastos energéticos, etc. Sin embargo, poco se habla de su aportación a la ciencia. Pero, ¿cómo medirla? En la práctica tenemos varias métricas. En lo que respecta a este post usaré un parámetro cuantitativo: el número de artículos científicos, o papers, publicados por área. Y aquí los tienen:

  1. Algoritmos y teoría: 221 artículos
  2. Aprendizaje de máquina: 180 artículos
  3. Procesamiento de lenguaje natural: 140 artículos
  4. Sistemas distribuidos y cómputación paralela: 141 artículos
  5. Percepción de máquina: 116 artículos
  6. Seguridad, Criptografía y Privacidad: 112 artículos
  7. Inteligencia artificial y minería de datos: 97 artículos
  8. Interacción Hombre-Máquina y Visualización: 96 artículos
  9. Obtención de información: 75 artículos
  10. Ingeniería de software: 61 artículos

Para quienes no lo sepan, cuando un artículo científico es aceptado y publicado (en revistas científicas, journals, conferencias, entre otros medios), es porque ha pasado por el escrutinio riguroso de varios árbitros expertos en el tema. Y antes siquiera de ser enviado, el artículo involucra meses de investigación de uno o más personas de uno o más grupos de investigación, según la dificultad. En particular, esos números corresponden a la investigación de los googlers a la fecha.

Más allá de los números, ¿qué tipo de conocimiento genera Google? Uno pensaría que está dirigido a sistemas distribuidos y web. Y es cierto a decir por sus productos. Pero el conocimiento de base es, por mucho, algorítmico. Algoritmos para hacer de todo encima de Internet y la Web. Entre ellos algunos vinculados directamente con la publicidad en línea, con todo y sesudos modelos matemáticos, que pongo aquí sólo para ejemplificar:

  • Adapting Online Advertising Techniques to Television
  • Incremental Clicks Impact Of Search Advertising
  • Advertising and Traffic: Learning from online video data

Aunque con un punto de vista más general, son cuatro las grandes áreas de conocimiento que sostienen Google: Inteligencia artificial, ingeniería de software, seguridad y sistemas distribuidos. Desde mi punto de vista, Google vive de la inteligencia artificial, área a la que pertenece su algoritmo fundacional, el PageRank. Así que es natural encontrar esa cantidad de papers sobre aprendizaje y percepción de maquina, seguramente aplicados a sus bots, y los de procesamiento de lenguaje natural que sugieren que Google tiene como prioridad expandir hacia allá su interfaz de búsqueda con voz, nuestra voz.

Google, como cualquier gran empresa de tecnología que se precie de serlo, genera conocimiento a lo largo del tiempo. Lo llevan haciendo así los gigantes IBM y Bell Labsdesde el siglo pasado. Este es el total de artículos de aquellas y otras áreas repartidos por año:

  • 2011, 183
  • 2010, 257
  • 2009, 303
  • 2008, 251
  • 2007, 209
  • 2006, 130
  • 2005, 56
  • 2004, 17
  • 2003, 13
  • 2002, 5
  • 2001, 5
  • 2000, 3
  • 1999, 2
  • 1998, 3

Ciertamente, su producción científica aumentó con escala exponencial, aunque, por alguna razón, bajo un poco los últimos dos años (a tomar en cuenta que faltan datos de 2011). Como sea, no hay visos de que la maquinaría de la gran G se detenga, por el contrario, se nota bien afinada por docenas de doctores en ciencias en cada piso de su Googleplex.

Google contrata genios de vez en cuando para dirigir su grupos de investigación. Y es un ejemplo de que el capital más importante está en el conocimiento generado y el potencial, que está por venir. Quién sabe, tal vez en menos de 10 años Google tendrá su primer Nobel. Habrá que verlo. En tanto, espero que lo datos referidos aquí nos ayuden a dimensionar mejor sus aportaciones a la ciencia.

Artículos relacionados

Google+ sale de beta privada / 20 de septiembre de 2011

Google Wallet disponible de manera oficial / 20 de septiembre de 2011

Propeller: la aplicación con la que Google a… / 16 de septiembre de 2011

Los robots más recordados del cine y la tele… / 19 de septiembre de 2011

alt1040

Científicos consiguen reconstruir las imágenes de nuestro cerebro al ver una película

 | 23 de septiembre de 2011 a las 13:16 

El vídeo con el que abrimos muestra en imágenes como representa o construye nuestro cerebro lo que vemos en el cine o la televisión. Se trata de un experimento histórico si tenemos en cuenta que hasta ahora no se tenían procesos visuales en la materia. A la izquierda, diferentes clips de YouTube, a la derecha, la actividad cerebral y el registro visual que realiza el cerebro humano. El avance ha sido posible a través del sistema de resonancia magnética funcional y supone un paso grandioso hacia la reconstrucción de imágenes internas en la mente del ser humano.

Pensemos por un momento que lo que hoy mostramos es un paso más hacia el entendimiento de nuestra mente, de como registra los datos que vemos y cómo los representa. No sólo eso, el avance permitiría que en un futuro se puedan llevar reconstrucciones visuales de los propios sueños del ser humano vistos desde una pantalla de ordenador.

El experimento ha sido llevado a cabo por Shinji Nishimoto, de la Universidad de California (Berkeley). Para ello se expusieron dos tipos de trailers de películas de Hollywwod a través del sistema de resonancia funcional sobre tres sujetos que debían estar inmóviles.

Este tipo de método conocido también por sus siglas RMNF, es un sistema de examen médico no invasivo generalmente utilizado para tratar diagnósticos y enfermedades. El sistema emplea un campo magnético potente a través de radiofrecuencias con las que un ordenador puede crear imágenes detalladas.

En el experimento que se llevó a cabo, el sistema registró el flujo de sangre que llegaba al cerebro a través de la corteza visual. Todo lo que se iba registrando pasaba a un ordenador que dividía en tres dimensiones unidades de píxeles llamadas voxels. Este proceso es capaz de decodificar las señales del cerebro que generan imágenes en movimiento y la conexión existente entre la información del movimiento de las películas y las acciones específicas de nuestro cerebro.

Una vez registrada la información de este primer grupo de trailers, se pasó a un segundo grupo para probar el algoritmo de reconstrucción de la película. Para ello introdujeron 18 millones de segundos de vídeos de YouTube al azar en el programa. De esta manera podría predecir la actividad cerebral que evocaba cada clip de trailer.

Por último, el programa seleccionó 100 clips que creyó más parecidos a lo que realmente habían visto en los vídeos, fusionándolos para reproducir las imágenes que hoy mostramos del cerebro.

Increíble pero cierto. Hoy el hombre está más cerca de la posibilidad de reconstruir en imágenes la actividad de nuestro cerebro. Quizá en unos años los recuerdos o los propios sueños puedan ser mostrados a través de una pantalla. Les dejo con las palabras de Nishimoto sobre el éxito del experimento:

Nuestra experiencia visual natural es como ver una película. Para que esta tecnología tenga una amplia aplicación, tenemos que entender cómo procesa el cerebro las experiencias visuales dinámicas. Hemos construido un modelo para cada voxel que describe cómo se forma la información del movimiento en la película asignada a la actividad del cerebro.

Los científicos necesitamos comprender cómo procesa el cerebro la dinámica de los acontecimientos visuales que experimentamos en la vida cotidiana, pero para ello tenemos que entender primero cómo funciona el cerebro mientras estamos viendo películas

alt1040.com

Científicos consiguen crear electricidad con agua y grafeno

Investigadores del Rensselaer Polytechnic Institute en Estados Unidos desarrollaron un nuevo método para conseguir electricidad del agua en movimiento, que esperan poder utilizar para crear microsensores que se auto-alimenten de energía de un forma muy económica y eficiente.

22 Jul 2011 | SERGIO DIAZ, LAFLECHA

Los científicos investigaron cómo el flujo de agua sobre superficies cubiertas con grafenopodría generar pequeñas cantidades de energía. Hasta ahora, pudieron conseguir 85 nanowatts de una hoja de grafeno de 0,03 milímetros por 0,015 milímetros.

El grupo está trabajando en un tipo de sensores para detectar la presencia de petróleo y gas natural, que serían bombeados usando agua. Mientras el agua fluya sobre el grafeno, que cubriría estos sensores, los equipos podrían conseguir automáticamente energía.

“Es imposible energizar estos microsensores con baterías convencionales, ya que son demasiado pequeños. Así que creamos una cobertura de grafeno que nos permite capturar energía del movimiento del agua sobre los sensores”, señaló el profesor Nikhil Koratkar, a cargo del estudio.

“Aunque se ha observado un efecto similar en nanotubos de carbono, este es el primer estudio que se hace con grafeno. La capacidad de recolectar energía del grafeno es al menos un orden de magnitud superior a los nanotubos. Más aún, la ventaja de las hojas flexibles de grafeno es que se pueden poner sobre casi cualquier geometría o forma”, agregó.

Esto crea la posibilidad de crear y utilizar energía en otros artefactos, además de los sensores de petróleo en los que estos investigadores están trabajando actualmente. Koratkar cree, que además de crear micro-robots o microsubmarinos cubiertos en grafeno, también se podría, por ejemplo, cubrir la parte de abajo de un barco para aprovechar la energía del movimiento del agua.

Fuente: laflecha.net

Encuentran cura para el cáncer, pero no es negocio

Investigadores de la Universidad de Alberta han logrado curar el cáncer utilizando un medicamento llamado dicloroacetato, sin embargo, como esta sustancia no requiere patente y es barata en comparación con los medicamentos usados para combatir el cáncer por las grandes farmacéuticas, está investigación no ha recibido mucho apoyo ni está haciendo eco en los medios, quizás bloqueda por las mismas farmacéuticas..

Los científicos canadienses probaron el dicloroacetato en células humanas y notaron que mata las células de cáncer en los pulmones, en el cerebro y en el pecho, dejando solamente las células sanas. En ratas con severos tumores sus células se encogieron al ser alimentadas con agua con esta sustancia.

El dicloroacetato detona una acción en la mitocondria para que esta acabe de forma natural con el cáncer en las células (tradicionalmente se enfoca en la glucólisis para combatirlo).

El Dr Michelakis de la Universidad de Alberta manifestó su preocupación de no encontrar fondos para hacer pruebas clínicas con dicloroacetato ya que no representaría fuertes ganancias para inversionistas privados al no estar patentado.
.
Esto encaja exactamente con lo que dijo el Premio Nobel de Medicina Richard J. Roberts en esta entrevista sobre como los fármacos que curan no son rentables y por eso no son desarrollados por las farmacéuticas que en cambio sí desarrollan medicamentos cronificadores que sean consumidos de forma serializada.

Habrá que estar muy atentos si esto es una noticia veraz o un rumor infundado… stm.sciencemag.org

ENTREVISTA CON EL PREMIO NOBEL DE MEDICINA RICHARD J. ROBERTS

Descubren criaturas multicelulares en capas profundas de la Tierra

Vida en la profundidad terrestre El Halicephalobus mephisto vive en capas profundas de la biosfera. (NATURE)

  • Hasta ahora se pensaba que este tipo de organismos no podían vivir a tanta profundidad por las altas temperaturas, la falta de oxígeno y de espacio.
  • Miden medio milímetro, se reproducen de manera asexuada y se alimentan de bacterias.
EFE. 04.06.2011 – 13.06h
Un equipo de científicos ha detectado por primera vez, en una mina de Sudáfrica, organismos multicelulares en las capas más profundas de la biosfera terrestre. El estudio, publicado en el último número de la revista Nature, aporta una nueva perspectiva sobre la riqueza y diversidad de la vida bajo la superficie del planeta.

La biosfera bajo la corteza terrestre alcanza profundidades de hasta tres kilómetros, y alberga una amplia variedad de organismos unicelulares.

Hasta ahora, sin embargo, los científicos pensaban que las criaturas multicelulares no podían vivir en ese ambiente debido a las altas temperaturas, la falta de oxígeno y de espacio que se dan en las grandes profundidades. El equipo del geólogo de la universidad de Princeton (Estados Unidos) Tullis Onstott ha detectado diversos gusanos nemátodos, incluida una especie desconocida hasta ahora (llamada “Halicephalobus mephisto”), entre 0,9 y 3,6 kilómetros por debajo de la superficie, en una grieta formada por el agua en el interior de una mina.

Esas criaturas, que miden alrededor de medio milímetro, soportan altas temperaturas, se reproducen de manera asexuada y se alimentan preferentemente de bacterias.

Las pruebas del Carbono-14 indican que la grieta en la que se encontraron los nemátodos se formó hace entre 3.000 y 12.000 años. Los resultados de la investigación indican que los ecosistemas bajo la superficie terrestre son más complejos de lo que se aceptaba hasta ahora, y pueden entrañar importantes implicaciones en la búsqueda de vida en otros planetas.

20minutos.es

Terra Nova, la nueva producción de Spielberg (Trailer)

Martes 17/05/2011 por Tomás García.

Aunque muchas series intentan tener un impacto similar a Lost, es un lujo reservado para muy pocos. La nueva serie producida por Fox y Steven SpielbergTerra Nova, nos muestra un mundo donde la humanidad se enfrenta a la posibilidad de extinguirse y científicos encuentran la manera de viajar 85 millones de años en el pasado, para comenzar de nuevo. Sí, como es de esperarse, hay dinosaurios.

En un mundo post-Lost, todavía estamos buscando una serie que nos vuele el peluquín como aquella, pero aunque muchos lo han intentado, con series como The Event, ninguna lo ha logrado. El nuevo contendiente parecería ser Terra Nova,producida por Fox y Steven Spielberg, cuyo trailer se estrenó ayer y todo indicaría que es una especie de mezcla entre Avatar, Lost y Jurassik Park. Es decir, hay un mundo nuevo y desconocido, en una isla donde pasan cosas raras… ¡y hay dinosaurios!

Según explica la sinopsis oficial, el año es 2149 y la vida en el Planeta Tierra está al borde de la extinción, científicos han estado trabajando durante años y finalmentehan logrado crear un portal de tiempo que viaja 85 millones de años al pasado, a una Tierra Prehistórica, donde la humanidad tendrá la posibilidad de empezar de nuevo. La serie sigue los pasos de la familia Shannon, que se une al décimo viaje por el portal hacia Terra Nova, pero lo que no saben, es que la sociedad vive rodeada de un grupo de dinosaurios carnívoros. Uno creería que se fijarían en esos detalles, pero no.

La serie fue creada por Kelly Marcel, editora del guión de la película Bronson y, Craig Silverstein, mejor conocido por haber producido series como Bones y la última remake de Nikita. La primera temporada de esta serie, tendrá a actores como Jason O’Mara, Stephen Lang, Shelley Conn, Landon Liboiron, Naomi Scott y Christine Addams. Aunque tan solo hemos podido ver el trailer, la prensa no ha dejado de hablar de Terra Nova como la nueva serie de “alto presupuesto” de Steven Spielberg, lo que ya le da suficiente presión.

Más allá de las diferencias, parece haber muchas similitudes con Lost, más allá de algunos personajes que parecerían tomados directamente de la otra serie, la temática de la serie parece una buena mezcla de ciencia ficción con drama. Pero más allá de estas similitudes, parecería que tiene suficiente originalidad como para pararse con sus propios dos pies. El estreno será en Estados Unidos agosto de este año. ¿Qué te parece por lo que muestra el trailer?

Fuente: neoteo.com

Cómo construir un rastreador DIY Solar

por Grover Sami, Carrboro, Carolina del Norte, EE.UU. en 04.28.11

Crédito de la imagen: TheJabbaPoint

Los seguidores solares pueden ser bastante grandes , pero no son sólo para grandes instalaciones escala más. Cuando escribí acerca de la creciente popularidad de seguidores solares , muchos comentaristas señalaron que los modelos comerciales a menudo eran prohibitivamente caros, y que era relativamente fácil de construir el suyo propio. Acabo de llegar a través de un paso a paso gran video sobre la forma de hacer precisamente eso.

Solar Tracker bricolaje optimiza la producción de energía
Creado por Jabba el punto Permakultur , esto es al parecer una versión más grande de un sistema construido con anterioridad. Funcionamiento simple con dos pequeñas celdas solares conectadas a un motor que se ajusta la posición en función de la cantidad de energía que las dos células más pequeñas están produciendo, el sistema está diseñado para optimizar la cantidad de energía solar que cae sobre los paneles principales en cualquier momento. El punto de Jabba web incluye un esquema simple de los seguidores solares de DIY para ilustrar el punto.

Instrucciones simples para Hecho en casa solar
Para aquellos que no hablan alemán, los subtítulos están disponibles para que usted camina a través de todo el proceso. Pero esto es sobre lo que se evaluará, claras y detalladas sobre la forma en línea-a los vídeos de conseguir. Es cierto, es probable que tenga un toque más valor práctico que el Inglés jardinero lazivore promedio , pero yo sueño puede.

El siguiente, los planes para construir un módulo aún más grande capaz de albergar a seis células solares. Pero, dice Jabba punto, puede tardar un poco.

Más de Seguidores Solares
Mega-Solar Tracker ya está preparada
Seguidores Solares gana terreno: podría aumentar la eficiencia del 40%
Solar Vocab de energía: Seguidores Solares único y doble eje-

.

Fuente: treehugger.com

Chile ahora tiene su propio Dinosaurio

18 mar 2011 / 19:54 MSK

El Atacamatitán chilensis, un dinosaurio herbívoro que vivía en el norte de Chile hace 100 millones de años, es la primera especie prehistórica exclusivamente chilena, según el estudio de sus restos publicado este jueves en la revista Anais de Academia Brasileira de Ciencias.

Es un dinosaurio gigante o titanosaurio, de cinco toneladas de peso y ocho metros de longitud. “No es ni el más grande ni el más pequeño, su principal característica distintiva está en el fémur”, dice David Rubilar, paleontólogo del Museo de Historia Natural de Chile y miembro del equipo que ha realizado el descubrimiento. “Su particularidad fue diagnosticada a partir de vértebras del dorso y cola y por la forma del fémur, más esbelto que cualquier titanosaurio ya descubierto”.

Los restos del animal fueron hallados en el año 2000 en el desierto de Atacama, uno de los lugares más áridos del mundo con períodos sin lluvias de hasta 300 años. Pero los científicos creen que en el período cuando fue habitada por los dinosaurios, la zona ofrecía en abundancia varias especies vegetales, entre ellas la araucaria, especie de cuyo fruto llamado “piñón” se alimentaba este gigante.

Al encontrar sus restos fósiles los científicos durante una década los analizaron para asegurarse de que se trataba de una especie exclusiva y de que no había un ejemplo similar en otro parte del mundo.

Los restos encontrados en el territorio de Chile hasta ahora habían sido identificados como especies ya halladas en otros países de la región, o han estado en tal mal condición que era imposible identificarlos.

Esta es la primera vez en que científicos descubren un antiguo saurio que vivía precisamente en el territorio del Chile actual y han perpetuado este hecho 2 veces en el nombre de la especie: con la denominación del país y del lugar donde fue encontrado..

actualidad.rt.com

El observatorio Kepler localiza más de 1.200 posibles exoplanetas, algunos de tamaño similar a la Tierra

2 de febrero de 2011

Lanzado en marzo de 2009, Kepler es un satélite de la NASA diseñado para detectar exoplanetas. Para ello «mira» fijamente una zona de la Vía Láctea situada entre las constelaciones del Cisne y Lyra, utilizando el método de los tránsitos para detectarlos.

Where Kepler Sees: La porción del cielo que ve el Kepler, en la que mantiene unas 150.000 estrellas bajo su atenta mirada – Software Bisque

El método de las tránsitos consiste en medir con precisión la luz que llega de una estrella, algo que Kepler hace cada treinta minutos, pues cuando un planeta pasa por delante de ella se produce una pequeña disminución que indica su presencia.

Para ello Kepler cuenta con 42 CCDs, que le dan una resolución de 95 megapíxeles, aunque desde octubre de 2010 dos de ellos ya no funcionan. En total, y tras someterlos a un primer filtrado a bordo, envían unos 90-100 gigabits de datos una vez al mes.

Kepler Focal Plane Array: Los 42 CCDs del Kepler, cada uno de 1.024×2.200 pixeles y de 2,8×3 centímetros – NASA / Ball Aerospace

Tras 23 meses de observaciones, la NASA acaba de hacer pública una lista de 1.235 candidatos que contiene los primeros de tamaño similar a la Tierra que encuentra la misión: NASA Finds Earth-Size Planet Candidates In Habitable Zone, Six Planet System.

De estos candidatos, cuya existencia habrá que confirmar mediante mediciones complementarias que se hacen desde observatorios terrestres y desde el telescopio espacial Spitzer, 68 tienen aproximadamente el tamaño de la Tierra, 288 son mayores que esta pero menores que Neptuno, al que hay 622 que tienen un tamaño similar, 165 tienen un tamaño similar al de Júpiter, y 19 son más grandes que este.

De todos ellos 54 están en la zona habitable de sus estrellas, y de estos 5 tienen un tamaño similar al de la Tierra. Los demás van del doble del tamaño de nuestro planeta a planetas más grandes que Júpiter.

Si tenemos en cuenta que la porción de la Vía Láctea que observa Kepler contiene aproximadamente la millonésima parte de las estrellas que se estima que hay en esta, no parece descabellado extrapolar que, descontados los candidatos que no se confirmen, puede haber algo más de 1.000 millones de planetas en nuestra galaxia, de los que algo más de 60.000 tendrían un tamaño similar al de la Tierra.

Y ojo, que el método utilizado por Kepler para detectar exoplanetas no es el único, con lo que no sería de extrañar que la cifra pudiera ser mayor. De hecho, el método de los tránsitos funciona mejor para planetas cuya órbita está de lado vista desde la Tierra, con lo que puede no estar viendo un cierto número de ellos.

No está nada mal teniendo en cuenta que hace apenas 15 años no teníamos pruebas de la existencia de los exoplanetas.

Por cierto que los datos que recoge Kepler son de acceso libre, y por ejemplo en Planet Hunters se puede echar una mano para analizarlos. Quién sabe, puede que  descubras un nuevo exoplaneta.

.

microsiervos.com

Experto enumera las precauciones que se deben tener antes de salir de viaje con tu notebook

Jueves 4 Noviembre 2010 | 19:42

Para un viajero de negocios el estrés no sólo proviene de sus obligaciones o de los rigores propios de un viaje, sino también de saber que podrá mantener su información a resguardo. Pero tener paz mental en este sentido no es tan difícil si se toman ciertas precauciones que nos permitirán mantener tanto el acceso como la confidencialidad a nuestros datos.

Edgar González, Director General para América Latina de la fabricante de computadoras Toshiba, revisa los principales puntos que todo viajero -no sólo de negocios- debe considerar antes de subir a un bus o avión con su computadora portátil. Esos que conviene saber de antemano, antes de lamentar un dolor de cabeza.

Antes de irse

Cuando se viaja, la labor de velar por la seguridad de los datos comienza incluso antes de que usted salga de la oficina. Llevar sólo los datos de negocios realmente necesarios para trabajar durante los trayectos es una buena idea, además de evitar llevar información confidencial o información de clientes.

En su reemplazo, un software basado en web puede ser una buena manera de acceder a la información de su negocio sin tener que llevarla en el equipo.

Otra buena práctica es hacer una copia de seguridad de sus datos (o respaldo) antes de salir, sobre todo, si su portátil es su computadora principal de negocio. En este punto, los servicios en línea de copias de seguridad pueden ser especialmente útiles, ya que tienen la ventaja adicional de permitir realizar copias cada vez que usted se conecte a Internet durante el camino.

Una unidad flash USB con cifrado puede ser otra manera inteligente de hacer copias de seguridad sobre la marcha o llevar información sensible mientras viaja.

Bloquear su portátil

Usted, por supuesto, ya está acostumbrado a mantener un ojo en su equipaje cuando está esperando en el aeropuerto. Aplique el mismo nivel de vigilancia al pasar su laptop a través de la máquina de rayos-X y no la deje en la habitación del hotel o en el asiento trasero de un automóvil de arriendo. Las computadoras y otros dispositivos portátiles son sumamente atractivos para los ladrones. Si su portátil es robada, los ladrones tendrían acceso a sus datos, por lo que no está de más el uso de cifrado para los documentos sensibles.

Y si va a asistir a alguna cena de negocios, piense en los cables de sujeción o cadenas de seguridad, que puede conseguir por entre 10 a 15 mil pesos, y que mantendrán su equipo asegurado a un objeto fijo.

Un bloqueo alterno se puede lograr con un enfoque múltiple: una contraseña que proteja su computadora portátil es un buen primer paso, incluso, muchas de ellas cuentan ya con lectores biométricos de huellas digitales o reconocimiento facial.

Sea consciente de su entorno y recuerde que alguien podría estar mirando sobre su hombro mientras usted trabaja en un lugar público o en un avión ¿Cómo protegerse de esto? Existen filtros de privacidad de pantalla que se colocan en la parte superior de la misma y hacen que sea difícil para cualquier persona que no está sentada justo delante de la pantalla ver lo que está en ella.

Puntos de acceso a WiFi seguros

Los puntos de acceso inalámbricos son muy comunes y útiles, pero requieren una mayor vigilancia por parte de los viajeros de negocios. Aquí, una lista de verificación para mantener sus datos seguros cuando usted está utilizando una WiFi pública.

* Utilice un cortafuegos (firewall) en su portátil y asegúrese de que su antivirus está actualizado.

* Al conectarse de nuevo en su red de oficina, utilice una red privada virtual (VPN) y pida que sus empleados hagan lo mismo. Esto crea una conexión privada a su sistema que mantendrá a raya a los “fisgones”. Su encargado de TI o consultor puede ayudarle a configurarla.

* El hecho de que diga “WiFi” no significa que tiene que conectarse. No permita que su equipo se conecte automáticamente a cualquier red disponible. Ya sea que esté en un aeropuerto o en una cafetería, asegúrese de que está con una fuente de WiFi confiable.

* Muchos teléfonos inteligentes están ahora listos para conectarse a WiFi. Aplique los mismos estándares de seguridad cuando se conecte a un punto de acceso a través de su teléfono móvil (smartphone).

Noticias Relacionadas

A %d blogueros les gusta esto: