El asteroide 2005 YU55 podrá ser avistado con prismáticos desde la Península Ibérica

Asteroide Asteroide aproximándose a la Tierra.

20MINUTOS.ES / EFE. 08.11.2011 – 04.33h
Los astrónomos esperan poder estudiar de cerca el asteroide ‘2005 YU55‘, que pasará mañana entre la Tierra y la Luna, a la distancia más corta registrada en los últimos 200 años.

El Laboratorio de Propulsión a Chorro de la NASA ya ha advertido de que el asteroide, que tiene el tamaño de un portaaviones, no supone un peligro para la Tierra, y será una buena oportunidad para estudiarlo de cerca.

Se espera que 2005 YU55 pase a 324.000 kilómetros de la Tierra, una distancia algo menor que la que separa al planeta de su satélite natural. Debido a esta proximidad, si las condiciones atmosféricas lo permiten, el asteroide podrá ser visto desde la Península Ibérica entre el atardecer y las 23 horas aproximadamente usando unos simples prismáticos o pequeños telescopios, según algunos expertos. Otros aseguran, sin embargo, que su composición impedirá que brille en el cielo cuando se acerque a la Tierra y, por tanto, sólo podrá observarse con telescopios.

Las antenas del Centro de vigilancia del espacio profundo de la NASA situado enGoldstone (California) y el radar del observatorio de Arecibo, situado en Puerto Rico, han seguido el recorrido del asteroide durante la última semana.

Los científicos de la NASA esperan obtener imágenes del radar de Goldstone de unos 2 metros por pixel, lo que podría ayudar a conocer con un detalle inusitado cómo es la superficie del asteroide, su forma, sus dimensiones y otras propiedades físicas.

La NASA explica que cada día la Tierra es “bombardeada” con más de 100 toneladas de polvo y partículas cósmicas. Aproximadamente, una vez al año un asteroide del tamaño de un vehículo entra en la atmósfera creando una bola de fuego que se deshace antes de llegar a la superficie.

Esta no es la primera vez que 2005 YU55 se ha cruzado en el camino de la NASA. El asteroide fue detectado y seguido por el observatorio de Arecibo en abril de 2010, cuando se encontraba a unos 2,3 millones de kilómetros.

El radar logró captar una imagen con una resolución de 7,5 metros por pixel que reveló que tiene una forma casi esférica y un diámetro de unos 400 metros, además gira lentamente y tiene un periodo de rotación de 18 horas.

Los astrónomos aseguran que la trayectoria del asteroide está bien definida, por lo que no hay peligro de que se desvíe de su recorrido en torno al Sol, y señalan que su influencia gravitatoria no tendrá ningún efecto detectable en la Tierra.

Relacionadas en 20minutos.es

Científicos revelan los nombres del 1% de empresas que dominan la economía global

  /20 de octubre, 2011, 14:32

Decir hoy en día que una serie de empresas y bancos llevan el control de la economía mundial no es ni mucho menos descubrir el maná del sistema. Quizá por esta razón el estudio en el que se embarcaron varios investigadores de Zurich se centró en la red y las empresas que llevan el poder. El sorprendente resultado, a través de las matemáticas y el mapeado de datos sobre las propiedades corporativas, demuestra y pone nombre a uno de los slogan más escuchados en las protestas #occupy. Tan sólo un selecto grupo, menos de un 1% de las empresas en el mundo, dominan las redes mundiales y el poder financiero en el planeta, la mayoría entidades financieras.

El estudio ha sido publicado en New Scientist y viene a confirmar las teorías de las manifestaciones que vemos estos días. El resultado del trabajo llevado a cabo por los investigadores del Instituto Federal Suizo de Tecnología halló que de las 43.000 empresas transnacionales que se les supone importantes, tan sólo 147, en su mayoría bancos, llevan a cabo un poder desproporcionado en la red, trasladando el mismo sobre la economía global.

El propósito del estudio de los investigadores es el primero en conseguir ir más allá de la ideología de identificar empíricamente la red o redes de poder. En el mismo combinaron las matemáticas para modelar sistemas naturales que ayuden a entender un mapeado de los datos corporativos entre las empresas transnacionales.

El análisis se obtuvo de Orbis 2007, una base de datos que contiene 37 millones de empresas e inversores en todo el mundo. De ellos, se sacaron las 43.060 empresas que tenían el mayor número de acciones repartidas en el mundo. A partir de ahí, construyeron un modelo de aquellas empresas que controlaban al resto con sus participaciones incluyendo los ingresos de explotación de cada una para cartografiar la estructura del poder económico.

El trabajo reveló que el núcleo de las empresas con participación e interconectadas bajaba hasta las 1.318, que cada una de estas 1.318 empresas eran a su vez propietarias de dos o más de este grupo de empresas. No sólo eso, a pesar de que representaban el 20% de los ingresos totales de explotación global, las 1.318 empresas aparecían en conjunto a través de sus acciones repartidas en la mayoría de compañías de fabricación, base y sustento de la economía “real”, hecho que las situaba en el 60% de los ingresos totales de la economía en la red y por tanto en el mundo.

Siguiendo el estudio y juntando la conexión entre estas 1.318 (la mayoría propiedad en acciones de muchas de ellas), se acabó conformando una selecta lista de “super-entidades” estrechamente relacionadas. Son 147 las empresas que controlan el 40% de la riqueza total en el mundo, menos del 1%, un centenar de compañías y la mayoría eran entidades financieras.

Los investigadores lo explicaban así:

La realidad es demasiado compleja, debemos alejarnos del dogma si tratamos de averiguar si existen teorías de conspiración o de libre mercado. Nuestro análisis está basado en la realidad.

En efecto, menos del 1% de un centenar de empresas son capaces de controlar el 40% de la red global. La concentración de poder no es ni buena ni mala en sí misma. Simplemente, cuando las redes son inestables, las empresas sufren y se angustian lo que produce un efecto que se propaga.

Lo realmente desconcertante es ver como están todas conectadas. Por otro lado, estas “super-entidades” es poco probable que tengan una intención de conspirar para dominar el mundo, simplemente son estructuras comunes en la naturaleza. Su conexión se debe a que compran acciones porque forma parte de su propia naturaleza, se auto organizan.

Sea como fuere, el resultado de la investigación según los investigadores parece que no deja lugar a conspiraciones, aunque según dicen, si puede ser más probable que exista un esfuerzo en clave de poder político. Les dejo con el resultado del grupo que mueve los hilos en el planeta, las primeras 50 “super-entidades” (de las 147) superconectadas:

  • Barclays plc
  • Capital Group Companies Inc
  • FMR Corporation
  • AXA
  • State Street Corporation
  • JP Morgan Chase & Co
  • Legal & General Group plc
  • Vanguard Group Inc
  • UBS AG
  • Merrill Lynch & Co Inc
  • Wellington Management Co LLP
  • Deutsche Bank AG
  • Franklin Resources Inc
  • Credit Suisse Group
  • Walton Enterprises LLC
  • Bank of New York Mellon Corp
  • Natixis
  • Goldman Sachs Group Inc
  • T Rowe Price Group Inc
  • Legg Mason Inc
  • Morgan Stanley
  • Mitsubishi UFJ Financial Group Inc
  • Northern Trust Corporation
  • Société Générale
  • Bank of America Corporation
  • Lloyds TSB Group plc
  • Invesco plc
  • Allianz SE 29. TIAA
  • Old Mutual Public Limited Company
  • Aviva plc
  • Schroders plc
  • Dodge & Cox
  • Lehman Brothers Holdings Inc*
  • Sun Life Financial Inc
  • Standard Life plc
  • CNCE
  • Nomura Holdings Inc
  • The Depository Trust Company
  • Massachusetts Mutual Life Insurance
  • ING Groep NV
  • Brandes Investment Partners LP
  • Unicredito Italiano SPA
  • Deposit Insurance Corporation of Japan
  • Vereniging Aegon
  • BNP Paribas
  • Affiliated Managers Group Inc
  • Resona Holdings Inc
  • Capital Group International Inc
  • China Petrochemical Group Company

(Lehman se encuentra en el puesto 34 porque en el 2007 todavía existía en la base de Orbis)

Fuente: alt1040.com

Científicos logran con Google Earth localizar los brotes de la fiebre tifoidea

  / 18 de octubre, 2011, 10:08

Increíble el anuncio conseguido a través de una investigación llevada a cabo por varios científicos de la Universidad de Oxford. Los investigadores lograron combinar la tecnología de secuenciación de genes con la herramienta de Google Earth logrando rastrear con exactitud la propagación de la fiebre tifoidea en Katmandú, el lugar en el planeta donde se encuentra más extendida la enfermedad. El avance supone por primera vez en la historia marcar una ruta exacta de una de las grandes lacras en Nepal.

La fiebre tifoidea o fiebre entérica es una enfermedad infecciosa producida por Salmonella typhi o Salmonella paratyphi. Es una enfermedad que se produce en los humanos cuyo mecanismo de contagio es fecal-oral, a través de agua y de alimentos contaminados con deyecciones. La bacteria ingresa por vía digestiva y llega al intestino, pasando finalmente a la sangre, causando una fase de bacteremia hacia la primera semana de la enfermedad; posteriormente se localiza en diversos órganos y produce fenómenos inflamatorios y necróticos debidos a la liberación de endotoxinas.

Los estudios de la enfermedad que se han realizado hasta ahora afirman que Katmandú, la capital de Nepal, es la “capital de la fiebre tifoidea en el mundo”, produciendo miles de casos anuales. Se da la circunstancia de que los brotes hasta ahora eran prácticamente imposibles de trazar debido a las características de una ciudad donde las calles no tienen nombres.

Lo que los investigadores consiguieron fue utilizar un sistema de señalización de GPS y las últimas técnicas de secuenciación de ADN para poder determinar la evolución de la enfermedad. El resultado, sorprendente, ha sido un rastreo exacto de las fuentes de brotes, en la mayoría de los casos a través de ciertos conductos de agua de la ciudad.

La investigación ha sido publicada en la revista Biology como parte del trabajo que llevaban realizando varios científicos de Oxford en las clínicas de Katmandú y en la ciudad de Ho Chi Minh. Stephen Baker, científico de la unidad de Oxford, explicaba el hallazgo:

Hasta ahora había sido extremadamente difícil de estudiar cómo los organismos como las bacterias causaban la fiebre tifoidea y se propagaba a nivel local. Sin esta información nuestra capacidad para comprender la transmisión de estas enfermedades se veía obstaculizada.

Ahora los avances tecnológicos nos han permitido por primera vez en la historia crear mapas precisos geográficos y genéticos de la propagación de la fiebre tifoidea y su seguimiento hacia nuevas fuentes de brotes

Para ello los investigadores visitaron los hogares de los pacientes con la fibre y utilizaron la tecnología GPS para la captura de la ubicación exacta, que se representó a continuación enGoogle Earth a través de mapas de la Tierra mediante la superposición de imágenes de satélite y fotografías aéreas.

Luego se tomaron muestras de sangre de los pacientes hospitalizados para aislar el organismo, el cual muta y se propaga, permitiendo un análisis de su composición genética para identificar donde había comenzado. Los investigadores encontraron que las personas que viven cerca de los surtidores de agua común de la ciudad en ciertas zonas eran los que estaban expuestos a contraer la enfermedad.

Alucinante. Tecnología que usamos a diario al servicio de la ciencia. En este caso para descifrar los brotes de una enfermedad que se ha cobrado la vidad de más de medio millón de personas en el mundo, en la mayoría de casos en jóvenes con edades comprendidas entre los 5 y los 19 años de edad.

Foto: Kaisernchen

Fuente: alt1040.com

Google: 10 áreas de mayor aportación a la ciencia

 | 24 de septiembre de 2011 a las 00:24

Google asaltó nuestras vidas hace tan poco tiempo que, creo, aún no tenemos suficiente perspectiva histórica para evaluar las consecuencias. Eso sí, tenemos números duros que dan cuenta de la pisada gigantesca de la empresa, como sus miles de servidores web basados en Linux, sus petabytes de información indexada, sus gastos energéticos, etc. Sin embargo, poco se habla de su aportación a la ciencia. Pero, ¿cómo medirla? En la práctica tenemos varias métricas. En lo que respecta a este post usaré un parámetro cuantitativo: el número de artículos científicos, o papers, publicados por área. Y aquí los tienen:

  1. Algoritmos y teoría: 221 artículos
  2. Aprendizaje de máquina: 180 artículos
  3. Procesamiento de lenguaje natural: 140 artículos
  4. Sistemas distribuidos y cómputación paralela: 141 artículos
  5. Percepción de máquina: 116 artículos
  6. Seguridad, Criptografía y Privacidad: 112 artículos
  7. Inteligencia artificial y minería de datos: 97 artículos
  8. Interacción Hombre-Máquina y Visualización: 96 artículos
  9. Obtención de información: 75 artículos
  10. Ingeniería de software: 61 artículos

Para quienes no lo sepan, cuando un artículo científico es aceptado y publicado (en revistas científicas, journals, conferencias, entre otros medios), es porque ha pasado por el escrutinio riguroso de varios árbitros expertos en el tema. Y antes siquiera de ser enviado, el artículo involucra meses de investigación de uno o más personas de uno o más grupos de investigación, según la dificultad. En particular, esos números corresponden a la investigación de los googlers a la fecha.

Más allá de los números, ¿qué tipo de conocimiento genera Google? Uno pensaría que está dirigido a sistemas distribuidos y web. Y es cierto a decir por sus productos. Pero el conocimiento de base es, por mucho, algorítmico. Algoritmos para hacer de todo encima de Internet y la Web. Entre ellos algunos vinculados directamente con la publicidad en línea, con todo y sesudos modelos matemáticos, que pongo aquí sólo para ejemplificar:

  • Adapting Online Advertising Techniques to Television
  • Incremental Clicks Impact Of Search Advertising
  • Advertising and Traffic: Learning from online video data

Aunque con un punto de vista más general, son cuatro las grandes áreas de conocimiento que sostienen Google: Inteligencia artificial, ingeniería de software, seguridad y sistemas distribuidos. Desde mi punto de vista, Google vive de la inteligencia artificial, área a la que pertenece su algoritmo fundacional, el PageRank. Así que es natural encontrar esa cantidad de papers sobre aprendizaje y percepción de maquina, seguramente aplicados a sus bots, y los de procesamiento de lenguaje natural que sugieren que Google tiene como prioridad expandir hacia allá su interfaz de búsqueda con voz, nuestra voz.

Google, como cualquier gran empresa de tecnología que se precie de serlo, genera conocimiento a lo largo del tiempo. Lo llevan haciendo así los gigantes IBM y Bell Labsdesde el siglo pasado. Este es el total de artículos de aquellas y otras áreas repartidos por año:

  • 2011, 183
  • 2010, 257
  • 2009, 303
  • 2008, 251
  • 2007, 209
  • 2006, 130
  • 2005, 56
  • 2004, 17
  • 2003, 13
  • 2002, 5
  • 2001, 5
  • 2000, 3
  • 1999, 2
  • 1998, 3

Ciertamente, su producción científica aumentó con escala exponencial, aunque, por alguna razón, bajo un poco los últimos dos años (a tomar en cuenta que faltan datos de 2011). Como sea, no hay visos de que la maquinaría de la gran G se detenga, por el contrario, se nota bien afinada por docenas de doctores en ciencias en cada piso de su Googleplex.

Google contrata genios de vez en cuando para dirigir su grupos de investigación. Y es un ejemplo de que el capital más importante está en el conocimiento generado y el potencial, que está por venir. Quién sabe, tal vez en menos de 10 años Google tendrá su primer Nobel. Habrá que verlo. En tanto, espero que lo datos referidos aquí nos ayuden a dimensionar mejor sus aportaciones a la ciencia.

Artículos relacionados

Google+ sale de beta privada / 20 de septiembre de 2011

Google Wallet disponible de manera oficial / 20 de septiembre de 2011

Propeller: la aplicación con la que Google a… / 16 de septiembre de 2011

Los robots más recordados del cine y la tele… / 19 de septiembre de 2011

alt1040

Científicos consiguen reconstruir las imágenes de nuestro cerebro al ver una película

 | 23 de septiembre de 2011 a las 13:16 

El vídeo con el que abrimos muestra en imágenes como representa o construye nuestro cerebro lo que vemos en el cine o la televisión. Se trata de un experimento histórico si tenemos en cuenta que hasta ahora no se tenían procesos visuales en la materia. A la izquierda, diferentes clips de YouTube, a la derecha, la actividad cerebral y el registro visual que realiza el cerebro humano. El avance ha sido posible a través del sistema de resonancia magnética funcional y supone un paso grandioso hacia la reconstrucción de imágenes internas en la mente del ser humano.

Pensemos por un momento que lo que hoy mostramos es un paso más hacia el entendimiento de nuestra mente, de como registra los datos que vemos y cómo los representa. No sólo eso, el avance permitiría que en un futuro se puedan llevar reconstrucciones visuales de los propios sueños del ser humano vistos desde una pantalla de ordenador.

El experimento ha sido llevado a cabo por Shinji Nishimoto, de la Universidad de California (Berkeley). Para ello se expusieron dos tipos de trailers de películas de Hollywwod a través del sistema de resonancia funcional sobre tres sujetos que debían estar inmóviles.

Este tipo de método conocido también por sus siglas RMNF, es un sistema de examen médico no invasivo generalmente utilizado para tratar diagnósticos y enfermedades. El sistema emplea un campo magnético potente a través de radiofrecuencias con las que un ordenador puede crear imágenes detalladas.

En el experimento que se llevó a cabo, el sistema registró el flujo de sangre que llegaba al cerebro a través de la corteza visual. Todo lo que se iba registrando pasaba a un ordenador que dividía en tres dimensiones unidades de píxeles llamadas voxels. Este proceso es capaz de decodificar las señales del cerebro que generan imágenes en movimiento y la conexión existente entre la información del movimiento de las películas y las acciones específicas de nuestro cerebro.

Una vez registrada la información de este primer grupo de trailers, se pasó a un segundo grupo para probar el algoritmo de reconstrucción de la película. Para ello introdujeron 18 millones de segundos de vídeos de YouTube al azar en el programa. De esta manera podría predecir la actividad cerebral que evocaba cada clip de trailer.

Por último, el programa seleccionó 100 clips que creyó más parecidos a lo que realmente habían visto en los vídeos, fusionándolos para reproducir las imágenes que hoy mostramos del cerebro.

Increíble pero cierto. Hoy el hombre está más cerca de la posibilidad de reconstruir en imágenes la actividad de nuestro cerebro. Quizá en unos años los recuerdos o los propios sueños puedan ser mostrados a través de una pantalla. Les dejo con las palabras de Nishimoto sobre el éxito del experimento:

Nuestra experiencia visual natural es como ver una película. Para que esta tecnología tenga una amplia aplicación, tenemos que entender cómo procesa el cerebro las experiencias visuales dinámicas. Hemos construido un modelo para cada voxel que describe cómo se forma la información del movimiento en la película asignada a la actividad del cerebro.

Los científicos necesitamos comprender cómo procesa el cerebro la dinámica de los acontecimientos visuales que experimentamos en la vida cotidiana, pero para ello tenemos que entender primero cómo funciona el cerebro mientras estamos viendo películas

alt1040.com

Científicos consiguen crear electricidad con agua y grafeno

Investigadores del Rensselaer Polytechnic Institute en Estados Unidos desarrollaron un nuevo método para conseguir electricidad del agua en movimiento, que esperan poder utilizar para crear microsensores que se auto-alimenten de energía de un forma muy económica y eficiente.

22 Jul 2011 | SERGIO DIAZ, LAFLECHA

Los científicos investigaron cómo el flujo de agua sobre superficies cubiertas con grafenopodría generar pequeñas cantidades de energía. Hasta ahora, pudieron conseguir 85 nanowatts de una hoja de grafeno de 0,03 milímetros por 0,015 milímetros.

El grupo está trabajando en un tipo de sensores para detectar la presencia de petróleo y gas natural, que serían bombeados usando agua. Mientras el agua fluya sobre el grafeno, que cubriría estos sensores, los equipos podrían conseguir automáticamente energía.

“Es imposible energizar estos microsensores con baterías convencionales, ya que son demasiado pequeños. Así que creamos una cobertura de grafeno que nos permite capturar energía del movimiento del agua sobre los sensores”, señaló el profesor Nikhil Koratkar, a cargo del estudio.

“Aunque se ha observado un efecto similar en nanotubos de carbono, este es el primer estudio que se hace con grafeno. La capacidad de recolectar energía del grafeno es al menos un orden de magnitud superior a los nanotubos. Más aún, la ventaja de las hojas flexibles de grafeno es que se pueden poner sobre casi cualquier geometría o forma”, agregó.

Esto crea la posibilidad de crear y utilizar energía en otros artefactos, además de los sensores de petróleo en los que estos investigadores están trabajando actualmente. Koratkar cree, que además de crear micro-robots o microsubmarinos cubiertos en grafeno, también se podría, por ejemplo, cubrir la parte de abajo de un barco para aprovechar la energía del movimiento del agua.

Fuente: laflecha.net

Encuentran cura para el cáncer, pero no es negocio

Investigadores de la Universidad de Alberta han logrado curar el cáncer utilizando un medicamento llamado dicloroacetato, sin embargo, como esta sustancia no requiere patente y es barata en comparación con los medicamentos usados para combatir el cáncer por las grandes farmacéuticas, está investigación no ha recibido mucho apoyo ni está haciendo eco en los medios, quizás bloqueda por las mismas farmacéuticas..

Los científicos canadienses probaron el dicloroacetato en células humanas y notaron que mata las células de cáncer en los pulmones, en el cerebro y en el pecho, dejando solamente las células sanas. En ratas con severos tumores sus células se encogieron al ser alimentadas con agua con esta sustancia.

El dicloroacetato detona una acción en la mitocondria para que esta acabe de forma natural con el cáncer en las células (tradicionalmente se enfoca en la glucólisis para combatirlo).

El Dr Michelakis de la Universidad de Alberta manifestó su preocupación de no encontrar fondos para hacer pruebas clínicas con dicloroacetato ya que no representaría fuertes ganancias para inversionistas privados al no estar patentado.
.
Esto encaja exactamente con lo que dijo el Premio Nobel de Medicina Richard J. Roberts en esta entrevista sobre como los fármacos que curan no son rentables y por eso no son desarrollados por las farmacéuticas que en cambio sí desarrollan medicamentos cronificadores que sean consumidos de forma serializada.

Habrá que estar muy atentos si esto es una noticia veraz o un rumor infundado… stm.sciencemag.org

ENTREVISTA CON EL PREMIO NOBEL DE MEDICINA RICHARD J. ROBERTS

A %d blogueros les gusta esto: