Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas

lunes, 15 de julio de 2013

La supermáquina que fabrica la energía de fusión nuclear

Por Ana Mellado - abc_es / culham (Inglaterra)
ABC entra en el JET, el mayor reactor del mundo, que lleva 30 años trabajando en una energía inagotable, segura y limpia
La supermáquina que fabrica la energía de fusión nuclear
abc - El horno, construido con pequeños espejos de berilio y tungsteno, es el auténtico motor del reactor
 
En plena campiña inglesa, al sur de Oxford, una antigua base área militar de 800.000 metros cuadrados alberga uno de los proyectos científicos más ambiciosos y de mayor colaboración internacional de la historia. Flanqueado por imponentes muros y estrictas medidas de seguridad, el centro británico para la fusión de Culham encierra la gran promesa de futuro para la humanidad de desarrollar una fuente de energía inagotable, segura y limpia a partir de hidrógeno.

El planteamiento suena demasiado idílico, pero su desarrollo no está exento de un complejo, extenuante y costoso proceso de investigación. El objetivo de este centro, en el que trabajan más de 350 europeos, radica en demostrar la viabilidad de la fusión nuclear, un tipo de energía similar al que se produce en las estrellas, como el sol, que a partir de un gramo de materia es capaz de producir lo que ahora suponen ocho toneladas de petróleo. 

La esperanza de «crear un sol en la Tierra» reside en el JET (Joint European Torus), el reactor más grande del mundo para la fusión por confinamiento magnético, un proyecto de 40 millones de libras anuales, financiado por la Comisión Europea.

«Hace levitar la materia»

«Este horno circular, de 18 metros de altura, construido a base de pequeños azulejos de berilio y tungsteno, es el auténtico motor de las investigaciones del centro de Culham. En su interior, la temperatura alcanza los 200 millones de grados centígrados, una cifra inmanejable que los físicos tratan de contener con campos magnéticos que hacen levitar la materia que está muy caliente y aislarla del exterior», explica el director de JET, Francesco Romanelli, con un acento italiano inconfundible, durante una visita guiada con motivo del 30 aniversario de su puesta en funcionamiento. 

La energía se genera a través de la colisión de potentísimos átomos, el proceso inverso a la fisión donde las partículas se separan. Pero quizá lo más significativo es que esos átomos se extraen del agua ordinaria y el litio, un metal común que se encuentra fácilmente. Por lo tanto, sería capaz de proveer energía al mundo no sólo durante miles, sino millones de años. 

A pesar de que su viabilidad científica ha quedado avalada, desde que se inauguró JET en 1983, el proyecto ha atravesado numerosos altibajos debido a la escalada de su coste y la falta de compromiso de algunos gobiernos. «El desarrollo de las investigaciones ha estado desde siempre supeditado al precio del petróleo y la demanda de energía en cada momento. Además de conocimiento, hace falta dinero. Si no inviertes dinero no puedes progresar», expone Romanelli.

Esta máquina, que estuvo parada recientemente durante 22 meses para ejecutar labores de mejora y mantenimiento, es además la única capaz de manejar la mezcla de combustible de deuterio y tritio que emplearán las centrales de energía de fusión comerciales y que previamente se pondrán a prueba en ITER (International Thermonuclear Experimental Reactor). «Actualmente se está construyendo en Cadarache (Francia) un reactor nuclear experimental que multiplicará por diez la energía que se le suministra y que previsiblemente estará listo para 2020», explica Ana Manzanares, doctora en Física e investigadora española del centro de Culham. 

El ITER no permitirá encender ni una bombilla y no será rentable como negocio, pero arrojará la información necesaria para construir el primer reactor comercial, DEMO, que está previsto para 2035. Los científicos esperan que quince años más tarde, en 2050, las personas aprieten el interruptor en casa y la luz
provenga de las primeras centrales eléctricas de fusión nuclear que alimenten la red nacional.
 
La «energía perfecta»

La energía de fusión, además de presentarse como una fuente prácticamente inagotable en el tiempo, no genera residuos y es segura. En palabras del entusiasta científico Steve Cowley, director del programa de fusión británico, se trata de «una energía perfecta». «A diferencia de los combustibles fósiles, no contamina, no provoca problemas medioambientales y, al contrario que la fisión, tampoco es radiactiva, ni genera residuos de larga duración», comenta a ABC. Al no utilizar uranio, un accidente de las dimensiones de Fukushima sería impensable. «Si todo falla, esa altísima temperatura de 200 millones de grados, se enfría y la reacción se apaga. Es imposible que salga de control. Solo trabajamos con un gramo de materia», continúa.
Si los experimentos en Francia demuestran que es posible la construcción de reactores de fusión comercialmente viables, entonces podría convertirse en el experimento que inyectó energía al mundo, en un momento en el que la demanda energética se ha triplicado y se espera que aumente un 60% más antes de 2030.

martes, 2 de julio de 2013

Gaia: El telescopio que hará un mapa 3D de la galaxia

Por Lisandro Pardo - Neoteo
La humanidad ha colocado varios telescopios en el espacio, los cuales nos han permitido observar el Universo de una manera espectacular.. pero una cosa es ver, y otra es tener certezas. Expertos en astronomía indican que sólo tenemos datos precisos sobre poco más de 700 estrellas, un número insignificante frente a las cien mil millones que hay en la galaxia.

Sin embargo, el proyecto que buscará cambiar eso es el del telescopio espacial Gaia, que será lanzado en octubre próximo. Con la ayuda de dos telescopios integrados y una matriz de sensores CCD que roza el gigapíxel de resolución, Gaia creará el mapa 3D más grande y más preciso que se haya hecho de la Vía Láctea hasta ahora.
Su misión durará poco más de cinco años - Telescopio Gaia 
Si tomamos las palabras del profesor Gerald Gilmore, uno de los investigadores asociados a la misión Gaia, en los últimos mil quinientos años de astronomía la suma de estrellas sobre las que se ha establecido una distancia precisa asciende a 719. La comunidad de astrónomos tiende a colocar el promedio de estrellas en la Vía Láctea cerca de los cien mil millones, por lo tanto, es duro y a la vez razonable decir que sabemos poco y nada sobre nuestras estrellas vecinas. Con el telescopio Gaia dentro de la ecuación, los números se hacen mucho más atractivos, ya que buscará establecer la posición y la distancia de mil millones de estrellas. 
 Sigue siendo el 1 por ciento de la galaxia, pero no hay que dejarse engañar: Los planes para el telescopio, son impresionantes.

De acuerdo a la información oficial, Gaia posee una masa de 2.030 kilogramos, incluyendo 710 kilogramos de carga útil, 920 del módulo de servicio, y 400 kilogramos de propelente. Su diámetro es de diez metros, y en cuanto a su posición definitiva, estará ubicado en el punto Lagrange L2, adoptando una órbita Lissajous. Sus instrumentos principales son tres: Los Fotómetros Rojo y Azul, para determinar propiedades de las estrellas como masa, composición y edad, el Espectrómetro de Velocidad Radial (RVS) que establecerá la velocidad de los objetos, y el sistema de astrometría ASTRO, encargado de establecer la posición angular de las estrellas. La combinación de estos instrumentos llevará a la formación del mapa en tres dimensiones más grande y detallado que jamás se haya hecho de la Vía Láctea. Los “ojos” de Gaia son dos telescopios con capacidad estereoscópica, enfocando la luz sobre una matriz de 106 sensores CCD, cada uno de ellos con una resolución de 4500 por 1966 píxeles. La combinación de los sensores eleva la resolución a más de 932 megapíxeles.

Otro aspecto que podría cambiar radicalmente una vez que Gaia se encuentre en posición, es la cacería de exoplanetas. Durante el tiempo de su misión, estimado en cinco años, Gaia podría ayudar en la detección de unos cinco mil planetas como mínimo, un número que arrojaría por los aires a toda base de datos sobre exoplanetas hecha hasta la fecha. Gaia es un proyecto financiado por la Agencia Espacial Europea, y la construcción estuvo a cargo de la empresa francesa Astrium. El costo total del proyecto supera los 700 millones de euros, un número ciertamente impresionante, pero inferior en comparación con su predecesor, el Observatorio Espacial Herschel (1.100 millones de euros), que fue desactivado definitivamente a mediados de junio.

El telescopio Gaia será lanzado en octubre próximo desde la Guayana Francesa, y sus primeros datos deberían llegar a las estaciones de recepción en 2014.

El Pentágono crea sangre artificial sin límites para sus soldados heridos

(NEOTEO - abc.es) - Indistinguible de la auténtica, se obtiene a partir de los cordones umbilicales humanos desechados tras los partos
El Pentágono, a través de su Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA), ha desarrollado un sistema que le permite disponer de toda la sangre que puedan necesitar sus soldados heridos en el campo de batalla. Se trata de un compuesto artificial -indistinguible de la sangre normal- que se obtiene a partir de las células madre que poseen los cordones umbilicales humanos desechados durante los partos. Esta sangre artificial podría terminar para siempre con el problema de la escasez de donantes de sangre en zonas de guerra y las dificultades que existen para transportarla a sitios remotos e inaccesibles.


La mejor forma de evitar los problemas relacionados con el suministro de sangre destinada a las transfusiones que son necesarias para atender a los numerosos heridos de los campos de batalla sería -obviamente- no embarcarse en una guerra. Pero semejante razonamiento parece estar más allá de las planes del Pentágono, así que para solucionar este inconveniente ha desarrollado un compuesto barato y fácil de obtener destinado a reemplazarla. Esta sangre artificial se obtiene a partir del cultivo de las células madre contenidas en los cordones umbilicales humanos, material abundante y fácilmente conseguible.
Según los científicos responsables del proyecto, que dependen directamente de la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA), las células sanguíneas obtenidas mediante este proceso son funcionalmente indistinguibles de las células sanguíneas normales. Afirman que podrían terminar para siempre con la escasez de donantes de sangre y los problemas relacionados con el transporte de este fluido vital a las zonas de guerra remotas o inaccesibles.
En realidad, y a pesar de que durante una batalla lo que sobra es sangre derramada, lo cierto es que proveer a los hospitales de campaña con la suficiente cantidad de unidades de sangre fresca lista para ser transfundida a los soldados heridos es un verdadero problema. Se necesitan grandes cantidades de fluido, conservado convenientemente, y debe estar a disposición de los médicos en sitios que normalmente se encuentran en el otro lado del planeta. Históricamente, estos miles de litros de sangre provienen de donantes humanos, pero como es lógico, no se trata de una fuente inagotable ni mucho menos. El desarrollo de esta sangre artificial tiene como objetivo poner fin a semejante problema.

Un cordón, 20 unidades de sangre. El mecanismo utilizado para su producción se llama “pharming” y es el mismo que utilizan las compañías farmacéuticas o empresas del sector para crear sustancias médicamente útiles en enormes cantidades. Básicamente, se toman las células madre existentes en el cordón y se las convierte en grandes cantidades de glóbulos rojos. Según informan los responsables del proyecto, el proceso permite que las células de un solo cordón umbilical produzcan unas 20 unidades de sangre, cantidad que podría salvar la vida de tres o cuatro soldados heridos en el campo de batalla.
Actualmente se han comenzado a producir los primeros cientos de litros de sangre artificial. DARPA ha subcontratado a una empresa llamada Ohio Arteriocyte para esta tarea, la misma a la que le proporcionó en 2008 un presupuesto de unos 2 millones dólares para que pusiese a punto el proceso necesario para producir grandes cantidades de sangre artificial. Las primeras muestras de sangre O negativo ya han sido enviadas a la Food and Drug Administration (FDA) para su aprobación, y el responsable de la empresa, Don Brown, ha dicho que “el sistema funciona perfectamente, pero que deben construirse las instalaciones necesarias para que la producción pueda alcanzar el volumen que requiere el Pentágono para cubrir sus necesidades.” Si todo sale como se espera, en 2013 o 2014 podrían comenzar a abastecer al Pentágono de tan importante suministro.

El parte de prensa del Pentágono nada dice sobre el uso de esta sangre artificial en los hospitales civiles, pero sería razonable esperar que semejante invento esté disponible también para aquellos pacientes que necesiten transfusiones de sangre.

El «traje» capaz de aumentar la fuerza humana

Por neoteo (abc.es)

Científicos de Harvard diseñan un exoesqueleto que permite a quien lo lleva puesto levantar cargas pesadas sin esfuerzo adicional

Harvard Biodesign Lab

Un grupo de científicos de la Universidad de Harvard trabaja en un exoesqueleto llamado Soft Exosuit que permite aumentar la fuerza humana y realizar movimientos más ligeros. El dispositivo permite a quien lo lleve puesto levantar cargas más pesadas sin esfuerzo adicional. El traje podría llegar a ser un increíble alidado para ayudar en labores que requieran fuerza física o a personas en rehabilitación. 

El Soft Exosuit, o “traje de exoesqueleto”, es el nuevo proyecto a cargo de un grupo de científicos del Instituto Wyss de la Universidad de Harvard. Con tan solo siete kilogramos de peso (sin incluir el compresor de aire que impulsa los "músculos” artificiales), el traje está financiado por el Departamento de Defensa de los Estados Unidos, con el propósito de ayudar a los soldados a levantar cargas más pesadas y recorrer mayores distancias sin inconvenientes. 

El Soft Exosuit se compone principalmente de un diseño de telas especiales que pueden ser más ligeras que un exoesqueleto tradicional, ya que no contiene una estructura rígida. En el vídeo se pueden observar los hiperelásticos neumáticos ubicados en puntos estratégicos de los tobillos, las rodillas y las caderas de la persona usuaria, para así darle un rendimiento adicional.

Conor Walsh, líder del equipo que diseñó y construyó este traje, quiere integrar el sistema en la ropa para crear vestimentas de Soft Exosuit. De esta manera, este dispositivo podría llegar a ser útil no solo a los soldados, sino también a los trabajadores de la construcción o a los atletas en sus ejercicios de rutina. También puede ser de ayuda para las personas que sufran lesiones musculares o que se encuentre en situacioens de rehabilitación.

Un nuevo material expuesto un minuto al Sol emite dos semanas de luz nocturna

Un nuevo material expuesto un minuto al Sol emite dos semanas de luz nocturna
U. Georgia - El logo de la Universidad de Georgia, creado con el nuevo material

Un equipo de investigadores de la Universidad de Georgia ha creado un nuevo un material que, tras haber sido expuesto al Sol durante un minuto, es capaz de irradiar luz infrarroja que puede ser percibida en la oscuridad durante más de dos semanas. Según sus descubridores, el hallazgo podría revolucionar el campo de los diagnósticos médicos, por ejemplo, en nanopartículas que, adheridas a las células cancerígenas, permitirían la visualización de una pequeña metástasis que, de otra forma, pasaría inadvertida. Además, puede ofrecer a las fuerzas militares una fuente de iluminación «secreta», ya que solo puede verse por medio de dispositivos especializados de visión nocturna. El trabajo aparece publicado en la revista especializada Nature Materials.
 
«Cuando pones el material en cualquier lugar fuera de un edificio, un minuto de exposión a la luz puede crear 360 horas de luz cercana al infrarrojo», explica Zhengwei Pan, responsable de la investigación. El material, unos discos cerámicos, contiene iones de cromo trivalentes, que emiten luz en el campo cercano al infrarrojo, pero su emisión luminosa solo dura unos pocos milisegundos. Lo novedoso del material de Pan es que combina zinc y germanato, un complejo compuesto óxido, lo que crea un «laberinto de trampas» que almacena la energía durante mucho más tiempo y permite que se libere, es decir, que emita luz, durante más de dos semanas.

Incluso en un día nublado

Los científicos probaron el material en distintas condiciones y comprobaron que podía ser «cargado» incluso si el día era nublado o estaba lluvioso. La sustancia fosforescente no necesita ser expuesta directamente a la luz, sino que se puede cargar en medio de sombras, debajo del agua o incluso en una solución corrosiva de cloro.
 
Zhengwei Pan cree que el material podría ser utilizado por los ejércitos y las fuerzas de seguridad con fines de identificación, ya que permite localizar a personas o equipos por la noche. Solo harían falta unas gafas nocturnas especiales para verlos. Además nanopartículas con este material podrían iluminar una pequeña metástasis en el cuerpo humano y podrían ayudar al desarrollo de una próxima generación de células de energía solar más eficientes.

Crean una «superarena» que purifica el agua

Los investigadores creen que este nuevo material puede ser una «bendición» en los países donde la población bebe agua contaminada cada día

La arena se ha utilizado para purificar el agua desde hace más de 6.000 años, un método que en sociedades donde el agua embotellada se paga a precio de oro puede parecer algo rudimentario, pero que ha sido respaldado por la Organización Mundial de la Salud (OMS). 

Ahora, investigadores de la Universidad de Rice en Houston (EE.UU.) han logrado crear una especie de «superarena» que puede hacer esta misma función de una forma mucho más eficaz. Según el estudio, publicado en la revista Applied Materials & Interfaces de la Sociedad Americana de Química, este nuevo material podría ser «una bendición económica» para los países en desarrollo, donde más de mil millones de personas carecen de agua potable y se ven obligadas a beber agua contaminada cada día.

Mainak Majumder y sus colegas de la Universidad de Rice utilizaron un nanomaterial llamado óxido de grafito para mejorar la filtración de la arena de una manera barata y eficaz. Con esta idea, cubrieron los granos de arena con el óxido de grafito, creando una «superarena» que elimina con éxito el mercurio y las moléculas colorantes del agua. En un test para analizar el nivel de mercurio, la arena corriente se saturaba tras diez minutos de filtración, mientras que la «superarena» era capaz de absorber el metal pesado durante más de 50 minutos. Esta filtración, según los científicos, «es comparable a la de algunos dispositivos de carbón activado que están a la venta».

Los investigadores continúan investigando para mejorar la eficacia de su ingenio, de forma que pueda eliminar aún más contaminantes.

Convierten agua salada en potable con un filtro de grafeno (III)

Convierten agua salada en potable con un filtro de grafeno
Grafeno para filtrar el agua salada
A pesar de que los océanos y mares contienen alrededor del 97% del agua existente sobre la Tierra, en la actualidad apenas un 1% del suministro mundial de agua potable proviene del agua desalada. Realmente muy poco. Los científicos creen que este recurso podría ser más y mejor explotado, con técnicas de desalinización más eficientes y menos costosas.  

Dos investigadores del Instituto de Tecnología de Massachusetts (MIT) han dado un interesante paso en ese camino. En simulaciones, dicen haber demostrado que los nanoporos de grafeno pueden filtrar la sal del agua a una velocidad de 2 a 3 veces mayor que la mejor tecnología de desalinización comercial que existe en la actualidad (la ósmosis inversa). 

Los investigadores creen que la superior permeabilidad al agua del grafeno podría conducir a técnicas de desalinización que requieren menos energía y equipos, según explican en Physorg. «Este trabajo muestra que algunos de los inconvenientes de las técnicas de desalinización actuales se podrían evitar con la invención de materiales membrana más eficientes y precisos», dice Jeffrey C. Grossman, del MIT. Los investigadores creen que este material permite el flujo real de agua, evita por completo que se filtre la sal y tiene una permeabilidad mucho mayor en comparación a la ósmosis inversa. Y todo ello mucho más rápido que con las técnicas actuales. 

Una sola capa de grafeno, que tiene un átomo de carbono de espesor, resulta muy delgada, por lo que es ventajoso para la desalinización del agua. En la eficacia de la deslinización participan el tamaño de los poros del material y la presión aplicada. Claro que esto tiene un pequeño inconveniente: hace falta que la humanidad consiga fabricar grafeno de forma sencilla y barata.

Los científicos esperan probar la capacidad de desalación con grafeno en los próximos meses. Si realmente es una técnica exitosa, podría ayudar a conseguir agua potable en aquellos lugares del mundo azotados por la desertización y la sequía. La investigación aparece publicada en NanoLetters.

Crean un material fino como el papel y diez veces más fuerte que el acero (II)

Por J. DE Jorge / ABC.es
Desarrollado a partir del grafeno, puede revolucionar las industrias automovilística y de aviación
Crean un material fino como el papel y diez veces más fuerte que el acero Lisa Aloisio 
 
Papel de grafeno, diez veces más fuerte que el acero
Si hace tan solo unos días un equipo internacional de investigadores presentaba en la prestigiosa revista «Nature» un nuevo material capaz de repararse a sí mismo en menos de un minuto mediante la exposición a la luz ultravioleta, ahora un segundo grupo científico, éste australiano, presenta increíbles resultados en el desarrollo de otro nuevo material. 

En este caso, se trata de un compuesto de grafeno, fino como el papel, pero que es asombrosamente diez veces más fuerte que el acero. El trabajo, que aparece publicado en la revista Journal of Applied Physics, podría revolucionar la aviación, la automoción, la óptica y la industria eléctrica.
El papel de grafeno es un material que puede ser procesado, remodelado y reformado desde su estado original, el grafito. Los Investigadores de la Universidad Tecnológica de Sídney utilizaron productos químicos para manipular la nanoestructura de esa materia prima y procesarlas en hojas tan finas como el papel. De esta forma, el material consigue «excelentes propiedades térmicas, eléctricas y mecánicas», según explican en su web.

Como resultado, el material es extraordinariamente flexible, pero al mismo tiempo es muy resistente. En comparación con el acero, el nuevo material es seis veces más ligero, tiene de cinco a seis veces menos densidad, es dos veces más duro y tiene diez veces mayor resistencia a la tracción y 13 veces más rigidez de flexión.

«No sólo es más ligero, más fuerte y más flexible que el acero sino que también es un producto reciclable y sostenible respetuoso con el medio ambiente y rentable en su uso», explica Ali Reza Ranjbartorech, responsable de la investigación. 

El científico cree que este papel de grafeno puede ser muy eficiente en la industria del automóvil y la aviación, lo que permite el desarrollo de automóviles más ligeros y más resistentes y aviones que utilicen menos combustible y generan menos contaminación.

La fómula mágica que convierte el cemento en metal

Por j. lópez garcía / ABC.es
Sus novedosas propiedades eléctricas hacen el nuevo material muy atractivo para hacer más robustos y duraderos los dispositivos electrónicos
La fómula mágica que convierte el cemento en metal AP Photo/Marcio Jose Sanchez
Pantallas más robustas y duraderas a base del nuevo material 
 
El sueño de los alquimistas de convertir compuestos vulgares en oro y plata está más cerca. La ansiada transmutación, hoy se consigue con ayuda del fuego de un potente láser, un crisol capaz de mantener el líquido fundido levitando a dos mil grados —sin tocar sus paredes—, y un control del oxígeno de la atmósfera, para que los cristales que se formen al enfriar posean propiedades electrónicas «a la carta», según se desee que sea más o menos conductor de la corriente eléctrica. De este modo, se ha conseguido convertir el cemento en un vidrio capaz de ser utilizado en los dispositivos electrónicos.

Este procedimiento abre la puerta a la creación de nuevos materiales vítreos, que con el procedimiento habitual son aislantes debidido a su rápido enfriamiento (no permitiendo el paso de la corriente eléctrica). Con este nuevo proceso de síntesis, los electrones libres son atrapados en pequeñas estructuras en forma de jaula para que conduzcan la corriente, dotando al vidrio de propiedades metálicas como puedan ser las del cobre utilizado en los cables del tendido eléctrico.

Esta facilidad de comportarse como un metal, unido a las útiles características de este cemento vítreo como son: una mejor resistencia a la corrosión que la de los metales —que sufren oxidación si son expuestos a la intemperie—; menor fragilidad que el vidrio convencional a base de sílice; mayor fluidez para ser moldeado y su novedosa conductividad eléctrica; hacen del nuevo compuesto un material muy atractivo para hacer más robustos y duraderos los dispositivos electrónicos.

En palabras de Chris Benmore, físico del Departamento de Energía de los Estados Unidos, lo importante de este trabajo, realizado en colaboración entre científicos estadounidenses, japoneses, finladeses y alemanes, es la comprensión del mecanismo mediante el cual el vidrio atrapa los electrones, «convirtiendo el cemento fundido en un líquido con propiedades metálicas». Este proceso, que no había sido explicado en detalle hasta la fecha, será susceptible de reproducirse con otros materiales aislantes para convertirlos en semiconductores a temperatura ambiente.

De este modo, a las óptimas propiedades mecánicas de los materiales cerámicos, mediante esta técnica de síntesis en el futuro se les podrá usar en los dispositivos electrónicos. Su ventaja sobre los metales, consiste en una menor pérdida de energía en forma de disipación térmica, y por tanto, menor contaminación electromagnética y menos interferencias con otros dispositivos. Los resultados han aparecido el lunes 27 de mayo en la revista Proceeding of the National Academy of Sciences, concentrándose el trabajo en vidrios a base de alúmina, y utilizando como fundente el óxido de calcio.

«Este nuevo material posee multitud de aplicaciones», según Benmore, entre las que se encuentra «la fina película utilizada en las pantallas de cristal líquido o LCD», básicamente el panel plano que contiene la pantalla del ordenador desde el cual, con mucha probabilidad, usted esté leyendo esta noticia. A día de hoy, el viejo sueño de convertir los metales en oro pasa por fabricar dispositivos móviles o tabletas con una pantalla atractiva que enamore a los usuarios.

Confirman que el grafeno es el material más fuerte del mundo

(Diario ABC.es) - Haría falta poner encima a un elefante balanceándose sobre un lápiz para romper una sola hoja de este material puesta sobre una taza de cafe.

El grafeno es uno de los materiales más finos, flexibles y con mayor conductividad que existen. Está llamado a revolucionar el futuro por sus enormes aplicaciones potenciales en diferentes campos, que van desde las telecomunicaciones o la fabricación de chips para ordenadores ultrarápidos hasta una nueva forma de elaborar fármacos contra el cáncer o un increíble ascensor espacial. Ahora, además, científicos de la Universidad de Columbia han confirmado algo que ya sospechaban, que se trata del material más fuerte que existe, incluso aunque contenga defectos.  

Lo cuentan en la revista Science. El grafeno es una capa atómica de carbono de un átomo de espesor dispuesta en celosía de nido de abeja. Es perfecta en áreas pequeñas, pero su uso práctico requiere superficies de mayores dimensiones, por ejemplo para crear hojas del tamaño de una pantalla de televisión. Esto requiere uniones que contienen muchos pequeños granos cristalinos, lo que podría debilitar el material y hacer que se rompa con más facilidad. Sin embargo, los experimentos de los investigadores demostraron que, incluso con esas imperfecciones, el grafeno es fortísimo. Aproximadamente el 90% de lo que es el grafeno perfecto. «Estamos muy contentos de decir que el grafeno ha vuelto y más fuerte que nunca», afirma James Hone, profesor de ingeniería mecánica y responsable del estudio.

El equipo de ingeniería de Columbia ya publicó en la revista Science en 2008 que el grafeno perfecto era el material más fuerte jamás medido. «Se necesitaría un elefante en equilibrio sobre un lápiz para romper una hoja de grafeno del espesor del papel film», decía Hone. Ahora han comprobado que el grafeno imperfecto también puede con todo.

«Este es un resultado interesante para el futuro del grafeno, ya que proporciona la evidencia experimental de que la fuerza excepcional que posee en la escala atómica puede persistir en muestras más grandes», afirma el investigador. «Esta fuerza será de gran valor para que los científicos continúen desarrollando nuevos productos electrónicos flexibles y materiales compuestos ultrafuertes».

El grafeno podrá utilizar en una amplia variedad de aplicaciones como pantallas de televisión que se enrollan como un póster o materiales compuestos ultra fuertes que podrían reemplazar a la fibra de carbono. Los investigadores incluso especulan con la idea de un ascensor espacial que podría conectar un satélite en órbita a la Tierra por un cable largo construido con grafeno. Dicen que ningún otro material podría ser capaz de hacer realidad algo así.

Crean un nuevo material capaz de albergar una gran cantidad de energía

(Diario ABC.es) - Puede tener importantes aplicaciones prácticas en las renovables, los coches eléctricos y tecnologías espaciales y de defensa
Crean un nuevo material capaz de albergar una gran cantidad de energíaA.N.U.
Ray Withers y Yun Liu, con el modelo químico del nuevo material. 
 
Un nuevo material que puede almacenar grandes cantidades de energía con muy poca pérdida de energía ha sido desarrollado por investigadores de la Universidad Nacional de Australia. Los científicos ceen que este nuevo material dieléctrico tiene aplicaciones prácticas en el almacenamiento de energía renovable, los coches eléctricos y las tecnologías espaciales y de defensa.
 
«Los materiales dieléctricos se utilizan para fabricar componentes fundamentales llamados condensadores, que almacenan la energía», explica Liu Yun, coautor del artículo. Según explica, el nuevo material dieléctrico de óxido de metal supera a los condensadores actuales en muchos aspectos, como el almacenamiento de grandes cantidades de energía trabajando de forma fiable a partir de -190°C a 180°C, y es más barato de fabricar que los componentes actuales. 

«Nuestro material se comporta significativamente mejor que los materiales dieléctricos existentes, por lo que tiene un enorme potencial. Con un mayor desarrollo, el material podría ser utilizado en 'supercondensadores' que almacenan enormes cantidades de energía, eliminando las limitaciones de almacenamiento de energía actuales y abriendo la puerta a la innovación en las áreas de la energía renovable, los coches eléctricos, incluso las tecnologías de defensa y el espacio», afirma Liu. 

El material podría ser especialmente transformador para la energía eólica y solar. «La energía que va por la red tiene que estar equilibrada con la demanda en un momento dado», dice el coautor y profesor Ray Withers. «Esto significa que es muy importante ser capaz de almacenar la energía hasta el momento en que realmente se necesita».

Los investigadores han estado tratando de diseñar nuevos materiales dieléctricos para hacer dispositivos de almacenamiento de energía más eficientes durante años. El proceso de diseño ha sido difícil debido a que los materiales deben cumplir con tres requisitos: una alta constante dieléctrica, lo que significa que pueden almacenar una gran cantidad de energía; una pérdida dieléctrica muy baja, es decir, que la energía no se escape y ni se desperdicie, y la capacidad para trabajar a través de una amplia gama de temperaturas.
«Si usted tiene una constante dieléctrica más alta pero también una gran pérdida, el material es básicamente inútil, ya que no se conserva bien la energía, es como un cubo agujereado. 

El material también sería inútil si solo funciona bien a una cierta temperatura, ya que no podría hacer frente a las fluctuaciones diarias de temperatura normales. Es muy difícil conseguir estas tres características», señala Withers.

Después de cinco años de duro trabajo, el equipo de investigación ha desarrollado un material que cumple con todos estos requisitos. «Nuestro éxito es una mezcla de suerte, experimentación y la determinación», asegura Liu. «La primera vez que encontramos este material sabíamos que tenía un gran potencial. Es amable con el medio ambiente, no tóxico y abundante».

jueves, 27 de junio de 2013

La Plata tiene el planetario más moderno de la región


(Diario La Nación) -  Ubicado en el bosque, posee una tecnología HD que permite una proyección inmersiva; esperan que incentive el turismo

El moderno planetario, dependiente de la UNLP, otra atracción de la ciudad. Foto: LA NACION

En una función inaugural que reunió a docentes, investigadores y autoridades de la Universidad Nacional de La Plata (UNLP), se presentó ayer el nuevo planetario de esta ciudad: ubicado en el bosque platense, se trata de un complejo de alta tecnología que combina la ciencia con la recreación.

Con el objetivo de abrir sus puertas al público general durante las próximas vacaciones de invierno, el edificio, ubicado en el predio de la Facultad de Ciencias Astronómicas y Geofísicas donde antes funcionaban talleres del Observatorio, posee una superficie de 1200 metros cuadrados y capacidad para 200 visitantes.

Desde la UNLP se informó que se trata del planetario más moderno de América latina. Dotado con equipamiento de punta para la reproducción de imágenes de altísima definición, cuenta con dos proyectores tipo "4K Ultra HD" ubicados de manera que "en un punto determinado los haces de luz se superponen, provocando lo que se llama proyección inmersiva. Eso hace que el espectador tenga la sensación de estar adentro del escenario virtual que está viendo", explicó el director del flamante planetario, Carlos Feinstein. En su papel de maestro de ceremonias, Feinstein no pudo ocultar su orgullo al mencionar que se trata del primer planetario del país dependiente de una universidad. La inversión, que en buena parte fue solventada por el gobierno bonaerense, fue de unos 10 millones de pesos.

La función de ayer sirvió como ensayo y puesta a punto del sistema de proyección. El próximo miércoles el sitio tendrá una prueba de fuego: se hará una nueva presentación destinada a los directores de los 40 planetarios que existen en América latina.

Recostados sobre mullidos asientos de cara hacia la enorme pantalla en forma de cúpula -el domo posee 187 metros de diámetro-, los asistentes no sólo vieron pasar planetas, estrellas y asteroides, sino que también se metieron en el interior de un templo egipcio.

Feinstein explicó que se busca convocar al resto de las 17 facultades de la UNLP para pensar en utilizar las flamantes instalaciones siguiendo un concepto de "integración cultural", con el fin de convertir al lugar en un verdadero polo de atracción para el denominado turismo científico.

En el planetario tiene prevista la proyección de películas como Maravillas del universo , un recorrido por las profundidades del espacio a través de los ojos del telescopio espacial Hubble; Dos pequeñas piezas de vidrio , permite interiorizarse de la historia de los telescopios; y Universo , que aborda las visiones del universo a través de la historia. Asimismo se exhibirá Estrellas de los faraones , un viaje al antiguo Egipto para que el espectador conozca de cerca cómo la ciencia era utilizada con el objetivo de investigar acerca del tiempo, realizar calendarios y alinear grandes construcciones.

En tal sentido, el decano de la Facultad de Ciencias Astronómicas y Geofísicas de la UNLP, Adrián Brunini, explicó que "los planetarios actuales no sólo muestran las proyecciones de estrellas y constelaciones, sino que tienen capacidad para la generación de espectáculos 3D", agregó.

A la función de ayer asistieron, entre otros, el presidente de la UNLP Fernando Tauber, el ministro de Infraestructura de la provincia de Buenos Aires, Alejandro Arlia y el intendente local, Pablo Bruera.

Integrado al Museo de Ciencias Naturales, al Jardín Botánico, al Zoológico, al lago, al teatro Martín Fierro en el paseo del Bosque, el nuevo planetario se suma a un mega complejo de atracción científica, cultural y turística. A metros funciona el Observatorio para ver lo mismo, pero en el cielo verdadero, a través del telescopio Gran Ecuatorial de 43 centímetros de diámetro y 9 metros de distancia focal (donde ahora se realizan las visitas públicas); la sala museo ubicada en la planta baja del Gran Ecuatorial; el telescopio buscador de cometas, el telescopio cenital de latitudes; el telescopio reflector de 80 centímetros y el edificio principal de la Facultad de Ciencias Astronómicas con la sala de relojes y el sismógrafo histórico.

Según lo informado, de martes a viernes, y solicitando turno previamente, se recibirán exclusivamente las visitas de las escuelas e instituciones educativas -desde jardín de infantes hasta secundaria-. En tanto, los fines de semana y días feriados estará abierto, en diferentes horarios, para todo público..

miércoles, 19 de junio de 2013

Acuerdo chino-argentino


(La Nación) - La compañía argentina Bioceres desarrollará junto con la firma Dabeinong Technology Group, de China, semillas de soja y maíz que combinen tecnologías de aumento de rendimiento por tolerancia a sequía y salinidad, con resistencias a insectos y herbicidas.
Éste es el primer acuerdo agrobiotecnológico firmado entre compañías de ambos países, que, según Federico Trucco, CEO de Bioceres, "permitirá desarrollar en conjunto semillas de soja y maíz que conjuguen las dos tecnologías y permitan aumentar los rendimientos". A su vez, Yuping Lu, director general de Dabeinong, afirmó que el convenio permitirá construir un puente entre los dos países porque "la combinación de las tecnologías puede acelerar el desarrollo de esta nueva variedad y aumentar su impacto".

jueves, 6 de junio de 2013

La NASA y un mapa asombroso: La Antártida sin hielo glaciar

CIUDAD DE BUENOS AIRES (Urgente24) - La NASA presentó un nuevo mapa de la Antártida que muestra una faceta desconocida del continente blanco: sin su casquete de hielo. El mapa, bautizado Bedmap2, fue elaborado por los científicos del British Antarctic Survey y permite ver de manera detallada qué hay debajo de la capa de hielo del glaciar más grande del mundo. La NASA ha presentado un nuevo y detallado mapa de la superficie de la Antártida como nunca la ha visto el ojo humano: despojada de la capa de hielo de sus glaciares.
El mapa, bautizado Bedmap2, fue elaborado por los científicos del British Antarctic Survey y permite ver de manera detallada qué hay debajo de la capa de hielo del glaciar más grande del mundo.   
La contribución de la NASA en el diseño de Bedmap2 consiste en las mediciones de la superficie actual realizadas por el satélite Ice, Cloud, and Land Elevation (ICESat), así como en los resultados obtenidos durante varios años de sobrevuelos de aeronaves especializadas que midieron los cambios en el espesor del hielo marino y del de los glaciares. 
Durante el proyecto los investigadores descubrieron que el volumen de hielo situado bajo el nivel del mar es un 23% mayor de lo que se creía, y que el punto más hondo del glaciar Byrd se encuentra a 400 metros de profundidad. 
El hielo de la Antártida no es estático, sino que fluye constantemente hacia el mar. Conocer la forma de la superficie del continente antártico y el espesor de su capa de hielo permite a los científicos estudiar estos movimientos de agua y predecir cómo podría cambiar en el futuro el continente. 
El estudio detallado de las tierras subglaciales de la Antártida también podría revelar la relación existente entre el cambio climático y la forma del Polo Sur de nuestro planeta.

viernes, 3 de mayo de 2013

Islas Georgias del Sur: avanza la campaña de investigación pesquera en aguas circundantes


Por Redacción Notitrans
La campaña se inició días atrás con la partida desde el puerto de Mar del Plata del Buque de Investigación Pesquera (BIP) “ Eduardo L.Holmberg", perteneciente al Instituto Nacional de Investigación y Desarrollo Pesquero (INIDEP), que navega el área que se extiende sobre las plataformas de la Islas San Pedro y Rocas Cormorán.

Foto: Buque de Investigación Pesquera “ Eduardo L.Holmberg".

El avance de la campaña de investigación, denominada "Estudio de la situación de los recursos biológicos marinos en la subárea estadística 48.3 y su vinculación con la Confluencia Weddell-Scotia", fue informada por la cartera de Agricultura,Ganadería y Pesca de la Nación y se realiza en aguas circundantes a las Islas Georgias del Sur.

Características

El buque incursionará en profundidades no mayores a los 500 metros de profundidad en el archipiélago de las Islas Georgias del Sur. "Cabe destacar que esta campaña, que durará aproximadamente 28 días, retoma las investigaciones conjuntas que el INIDEP y el Instituto Antártico Argentino (IAA) iniciaron en 1994 y quedaron interrumpidas en 1998" y lo hace "gracias a las gestiones que llevó adelante la Subsecretaría de Pesca y Acuicultura de la Nación, a cargo de Miguel Bustamante", se informó en un comunicado.

El personal científico-técnico asignado a la misión pertenece a ambos institutos pero, además, se embarcaron a dos profesionales designados del Canal Encuentro, que filmarán todas las actividades que se realicen a bordo, para elaborar undocumental sobre el crucero. "Hay que señalar en este aspecto la intensa tarea que el INIDEP realizó para recuperar la flota de buques de investigación", se dijo.

Objetivo

La busqueda principal del estudio es aportar información sobre la distribución espacial de los cardúmenes de peces dermersales, sobre todo del Pez Hielo (Champsocephalus Gunnari). Esta especie tuvo una abrupta reducción de su población desde 1992 y todavía no se recuperó a pesar de las restricciones a su captura, que impuso la Convención para la Conservación de los Recursos Vivos Marinos Antárticos (CCRVMA).

Asimismo, se observará la disponibilidad de krill y se harán estudios para analizar la comunidad planctónica y de invertebrados bentónicos, para así poder describir las asociaciones de especies y caracterizar el área de estudio apartir de la riqueza específica.

En otro orden, se realizarán muestreos de peces y crustáceos decápodos para identificar la composición faunística del área y se recolectará material para estudios taxonómicos, tróficos, histológicos y de biología reproductiva de las especies de valor comercial.   Fuente: http://www.notitrans.com/nota/118300/-islas-georgias-del-sur-avanza-la-campana-de-investigacion-pesquera-en-aguas-circundantes-

martes, 9 de abril de 2013

Argentina e Italia acuerdan la construcción de un telescopio en suelo argentino

Ambos países son socios en el proyecto Cherenkov Telescope Array (CTA), por el cual Argentina podría albergar una red de 80 telescopios para estudiar los rayos gamma que provienen del Universo. Un paso en este sentido es la firma del convenio por el cual se construirá un prototipo de estos instrumentos en nuestro país. Representantes de la Comisión Nacional de Energía Atómica (CNEA) y del Instituto Nacional de Astrofísica de Italia (INAF) acordaron que la institución argentina destine 3 millones de pesos para construir íntegramente en el país un telescopio de 4 metros de diámetro. 

La agencia italiana ya aporta 8 millones de euros para montar otros seis telescopios, cinco de los cuales podrían instalarse en nuestro país en caso de que Argentina sea elegida para albergar el megaproyecto CTA que está destinado a revolucionar el estudio de las fuentes de energía que existen en el Universo.  Los telescopios más grandes del proyecto CTA tendrán hasta 25 metros de diámetro y los más chicos de 4 a 6 metros. Estarán dispuestos en una planicie de 10 kilómetros cuadrados y la construcción total implicará un costo cercano a los 250 millones de dólares, los cuales serán financiados por los 25 países que forman parte de la colaboración. La comunidad científica argentina, como así también el ministerio de Ciencia y el CONICET están expectantes con motivo de que este observatorio se aloje en el país.

El representante argentino del proyecto CTA, Alberto Etchegoyen, explicó que a fin de año se decidirá la ubicación de esta red de telescopios. “Además de nuestro país, también son candidatos Namibia y Chile”. Por lo pronto, la CNEA hará un prototipo de cuatro metros de estos telescopios que estudian los rayos gamma que provienen del espacio. Etchegoyen, quien también se desempeña como director del observatorio Pierre Auger, destacó que “el telescopio será construido en Argentina y por investigadores argentinos”. El mismo podría ser instalado en Salta, a 3700 metros de altura, o en San Juan, dependiendo ello de que algunos de estos sitios fuera elegido para instalar la red de CTA.

Previamente a la firma de este convenio entre Argentina e Italia en la embajada del país europeo, se desarrolló una jornada de seminarios sin precedentes en el Planetario. En la conferencia estuvo presente el propio Alberto Etchegoyen, disertando sobre el Observatorio Pierre Auger, que es el máximo detector de astropartículas del mundo, con una superficie 3.000 kilómetros cuadrados y que está ubicado en Malargüe, Mendoza. “Es la primera vez que se realiza un evento así en el Planetario, porque del mismo también participaron investigadores italianos y esto sirve para unir todavía más el trabajo que estamos realizando conjuntamente entre ambos países en el área de la astrofísica”, subrayó Etchegoyen.

Consecutivamente, realizo su exposición el investigador superior del CONICET y coordinador internacional de la infraestructura del proyecto CTA, el Doctor Félix Mirabel, quien ha realizado grandes hallazgos científicos en la astrofísica, destacándose especialmente en el descubrimiento de los microcuásares, las galaxias ultraluminosas y las galaxias enanas de marea.

También, conferenció el Doctor Osvaldo Civitarese, corresponsable del proyecto ANDES, el cual consiste en el establecimiento de un laboratorio subterráneo bajo la Cordillera, a la altura de la provincia de San Juan, con el objeto de estudiar la materia oscura, los neutrinos, hacer investigaciones sobre biofísica, geología e impacto ambiental entre otros fenómenos. (Luis Piñeiro, corresponsal en Argentina - Defensa.com)

martes, 1 de enero de 2013

Juegos gravitatorios: cómo volar a otros mundos

Viajes de mínima energía a otros planetas considerando el tiempo requerido y el consumo de energía implicado por cada kilogramo de masa de la sonda espacial.

JUEGOS GRAVITATORIOS

El sueño de explorar el espacio no puede terminar en la Luna. Todos los precursores del vuelo espacial, de Tsiolkovski a Goddard, formularon sus propuestas y realizaron sus experimentos con la mirada puesta en los planetas hermanos de la Tierra. Los intentos por alcanzar Marte y Venus con sondas espaciales empezaron en 1960 y 1961, tan solo tres o cuatro años después del lanzamiento del primer satélite artificial de la Tierra.

En la cultura popular no hay una diferencia clara entre lanzar un cohete al espacio circunterrestre, enviar una sonda a la Luna o hacer llegar un artefacto a otro planeta. Pero en realidad las discrepancias entre los tres problemas son enormes, desde muchos puntos de vista. Quizá la más sencilla de entender sea la referida a las telecomunicaciones. Un satélite en órbita terrestre baja puede hallarse a tan sólo unos cuantos miles de kilómetros. La Luna se coloca a varios cientos de veces esa distancia. Pero incluso el más cercano de los planetas, Venus, se encuentra siempre cien veces más lejos que la Luna, unas mil veces más distante que un satélite artificial cualquiera. Si se tiene en cuenta que la intensidad de las ondas de radio disminuye con el cuadrado de la lejanía, podremos hacernos una idea del desafío de ingeniería que representa transmitir información a y desde una sonda interplanetaria.

La distancia complica no solo las transmisiones de radio, sino también muchos otros aspectos de estas misiones espaciales. La cuestión más importante es la del propio viaje. Enviar un trozo de metal y plástico de la Tierra a otro planeta implica una inversión de energía formidable y obliga, a la vez, a mantener "vivos" los instrumentos durante periodos de tiempo muy prolongados en el ambiente hostil del espacio. Si comparamos el viaje a la Estación Espacial Internacional con salir a comprar a la panadería de la esquina, entonces el vuelo a la Luna correspondería a un viaje en tren a otra ciudad, y la exploración de otro planeta se convertiría en un viaje intercontinental en avión. Por supuesto, en los tres casos hablamos de desplazamientos, pero está claro que se trata de problemas radicalmente distintos por duración, logística y costes.

Sin embargo, desde el punto de vista teórico se pueden encontrar analogías entre el viaje a la Luna y las trayectorias que siguen las sondas espaciales dirigidas a otros planetas. Al igual que en el caso de nuestro satélite natural, y como ya hemos insinuado, una de las primeras consideraciones que hay que tener en cuenta hace referencia a la energía necesaria para colocar un artefacto en la trayectoria interplanetaria adecuada. En el artículo dedicado al viaje a la Luna comentamos las trayectorias de mínima energía u órbitas de Hohmann. Este concepto resulta muy útil también para analizar la ruta óptima a los planetas.

Consideremos de entrada, para fijar ideas, el viaje de la Tierra a Marte. El concepto de órbita de Hohmann adaptado al vuelo hacia un planeta como Marte implica impulsar el aparato cósmico hasta una órbita elíptica alrededor del Sol cuyo punto más cercano a nuestra estrella (perihelio) toque de manera tangencial la órbita de partida, que es la de la Tierra, y que tenga el punto más alejado del Sol (afelio) rozando la órbita de destino. La órbita que implica un consumo mínimo de energía en el viaje hacia Marte debe tener el perihelio a unos 150 millones de km del Sol y el afelio a aproximadamente 230 millones de km.

Para el estudio del viaje interplanetario resulta muy útil emplear como unidad de medida no el kilómetro, sino la unidad astronómica de distancia. Esta unidad de medida, cuyo símbolo internacional es au (las letras a y u minúsculas, juntas y escritas en tipo redondo), equivale muy aproximadamente a la distancia media entre la Tierra y el Sol. De este modo, la órbita terrestre tiene un radio de 1 au, mientras que la de Marte mide 1,52 au (si se considera circular). La órbita de mínima energía para el viaje de la Tierra a Marte queda descrita por tanto de este modo: perihelio de 1 au y afelio de 1,52 au.

Sigamos pensando en Marte. Para lanzar una sonda hacia ese planeta, por tanto, hay que colocarla sobre un cohete potente, capaz de aplicarle al ingenio espacial una aceleración considerable en el mismo sentido en el que se mueve la Tierra alrededor del Sol. Ese aumento de velocidad asciende, en el caso de Marte, a nada menos que 3.000 metros por segundo, unos 10.000 kilómetros por hora adicionales que, por supuesto, se suman a la velocidad orbital que ya lleva la Tierra por sí misma y que equivale a unos 100.000 km/h. Impulsar un artilugio hasta que alcance una velocidad de 10.000 km/h respecto de la Tierra no es trivial.

Una vez situada la sonda en órbita trans-marciana, solo queda esperar a que la trayectoria la lleve hasta la distancia a la que se encuentra la órbita de Marte. Este viaje se verifica en un tiempo determinado con todo rigor por las leyes de la mecánica celeste y asciende a 259 días. Como es natural, el lanzamiento no se puede efectuar en cualquier momento, sino que tiene que haberse producido en el instante exacto en que al planeta Marte le falten 259 días para llegar al punto previsto para el encuentro. De aquí el concepto de ventana de lanzamiento. Si se va a usar una trayectoria de mínima energía, entonces las fechas útiles para lanzar el cohete quedan acotadas de manera bastante estricta. Aunque los aparatos se construyen de manera que haya un margen de varias semanas en torno al instante óptimo, si se pierde la ocasión hay que esperar a la siguiente, y para el planeta Marte las oportunidades suceden tan solo cada dos años y cincuenta días.

Al llegar a Marte la sonda debe encender los motores de nuevo para igualar su velocidad con la del planeta de destino. Esta maniobra implica consumir energía otra vez, en un nuevo empujón en el mismo sentido de giro de los planetas alrededor del Sol.

Hasta ahora hemos considerado las órbitas de partida y destino como circulares y coplanarias. En realidad la órbita de Marte es algo excéntrica, de modo que las distancias Marte-Sol pueden variar entre 1,67 au y 1,38 au. Esta circunstancia hace que las órbitas de mínima energía para el viaje a Marte resulten distintas de una vez a otra. En el mejor de los casos el tiempo de viaje se reduce a 237 días, mientras que en el peor asciende a 281. Esta diferencia tiene una correspondencia también en términos de energía y los cálculos indican que viajar a Marte cuando su distancia es mayor implica un gasto de energía que asciende a una vez y media la necesaria cuando la lejanía de este planeta es la menor. El contraste es muy considerable y explica las diferencias de masa de las sondas enviadas a este planeta en años distintos, a pesar de que muchas veces se emplean cohetes semejantes.


Si se analizan las fechas de lanzamiento y llegada de las misiones espaciales dirigidas a Marte se observa que no todas han seguido trayectorias de Hohmann estrictas, sino que han tendido a abreviar un poco el viaje, con un predominio de los trayectos de unos siete meses de duración, en vez de los ocho u ocho y medio que habría implicado un recorrido de mínima energía. Las misiones más pesadas, o las lanzadas en condiciones menos propicias, tienden a seguir órbitas más parecidas a las de Hohmann.



Pero pensemos ahora en el viaje hacia un planeta inferior, es decir, cuya órbita se encuentre no por encima, sino por debajo de la terrestre, como por ejemplo Venus. En este caso la trayectoria de Hohmann tendrá el afelio en la órbita terrestre, a 1 au del Sol, y el perihelio en la órbita de Venus, a 0,72 au. Ahora el cohete, al salir al espacio, tiene que restarle velocidad a la sonda para que caiga hacia el Sol. Para ir a Venus, la velocidad que se debe sustraer a la nave equivale a 9.000 km/h. Para ello el cohete se orienta en sentido contrario al del movimiento de la Tierra alrededor del Sol y actúa durante un cierto tiempo. Aunque se le resten 9.000 km/h a la sonda, el aparato ya tenía de partida la velocidad heliocéntrica correspondiente a la Tierra, así que, a pesar de la desaceleración, sigue desplazándose alrededor del Sol en el sentido original, aunque más despacio. La sonda se aproximará a la órbita de Venus y, si despegó en la ventana de lanzamiento correcta, se encontrará con el planeta de destino al cabo de 146 días. En ese momento la nave se estará desplazando, respecto del Sol, bastante más rápido que Venus, lo cual la obligará a un segundo encendido de motores que le aplique otra dosis de frenado. Vemos por tanto que para viajar "hacia el Sol" hay que hacer frenar las naves dos veces, mientras que para moverse por el Sistema Solar "en contra del Sol" lo que corresponde es acelerar en dos oportunidades distintas.

Las órbitas de Venus y la Tierra son bastante circulares y por eso no hay diferencias significativas entre las órbitas de mínima energía de una ventana de lanzamiento o de otra. Por cierto que en el caso de Venus esas ventanas se repiten cada año y 220 días.

Podríamos plantearnos viajes de mínima energía a otros planetas. Nos interesará considerar, en cada caso, el tiempo requerido para el viaje y, también, el consumo de energía implicado por cada kilogramo de masa de la sonda espacial. Para valorar la energía podemos emplear como unidad aquella requerida para enviar un kilogramo al planeta más cercano, Venus, que corresponde a 170 millones de julios (40 millones de calorías). En este cómputo de energía se incluyen tanto la aceleración (o desaceleración) necesaria al partir de la Tierra como la que hay que aplicar a la llegada a destino para igualar la velocidad de la sonda con la del planeta. Los datos obtenidos se especifican en la tabla 1 del multimedia.

Se observan varios resultados sorprendentes. En primer lugar, que el viaje a Mercurio resulta más breve que a Venus, a pesar de estar más lejos. Pero, aunque se llegue antes a Mercurio, el coste a lo largo de una trayectoria de Hohman es muy considerable, el cuádruple, en términos energéticos. El viaje promedio a Marte viene a salir igual de caro que a Venus en cuanto a energía (puede costar lo mismo en los años menos favorables). Pero las cifras más significativas las encontramos a partir de Júpiter. Cada kilogramo enviado al planeta gigante cuesta el doble que si se mandara a Venus y, además, requiere un tiempo de tránsito superior a los dos años y medio. Este tiempo puede ser tolerable con la tecnología actual, pero para mundos cada vez más lejanos nos encontramos con que el coste energético se estabiliza en unas dos veces y media el precio del viaje a Venus, pero los tiempos de tránsito se tornan prohibitivos, por largos.

Las conclusiones que se deducen de estas cifras explican las técnicas que se emplean para el viaje interplanetario. Para ir a Venus, Marte y Júpiter suelen seguirse trayectorias parecidas a las de mínima energía de Hohmann, o incluso más rápidas aun a costa de consumir más combustible por unidad de masa. Pero para el resto de planetas hay que recurrir a otras técnicas. En el caso de Mercurio por cuestiones energéticas y en el de los planetas exteriores por motivos de tiempo, la mecánica celeste dentro del Sistema Solar exige soluciones creativas. Y, en efecto, para visitar todos estos mundos se ha recurrido a un método inesperado que permite a la vez abaratar costes (ahorrar energía) y acortar los tiempos: la asistencia gravitatoria. Pero tenemos que dejar este ingenioso recurso de la astronáutica moderna para el último artículo de esta serie.

Fuente: Cortesía de David Galadí-Enríquez para Caos y ciencia - Via National Geografhic

Datos increíbles acerca de la Luna

 Diez curiosidades sobre la LunaDiez datos curiosos acerca de la Luna:

1- Una persona que pese 45 kilos, en la Luna pesaría 8,05 kilos.

2- Sin traje espacial en la Luna, la sangre hierve instantáneamente.

3- En la Luna es imposible silbar.

4- Ha llegando más gente a la Luna que a las profundidades de los océanos.

5- James. B. Irwin, astronauta del Apollo 15, fue la octava persona en caminar sobre la Luna el 30 de julio de 1971.

6- La última persona que pisó la Luna lo hizo en 1972.

7- En la Luna no hay viento ni sonido.

8- La superficie de la Luna es más pequeña que Asia.

9- Cada año la Luna se aleja de la Tierra 3.8 centímetros.

10- Que las personas actúen de forma extraña durante la luna llena, es un mito.

Fuente: National Geographic

Los viajes espaciales pueden acelerar la aparición de alzheimer


Por ABC.es - EP / MADRID
La radiación cósmica galáctica representa una amenaza importante para los futuros astronautas, según una investigación

La radiación cósmica que bombardean los astronautas en misiones en el espacio a lugares como Marte podría acelerar la aparición de la enfermedad de Alzheimer, según concluye un nuevo estudio, publicado en la revista «Plos One». «La radiación cósmica galáctica representa una amenaza importante para los futuros astronautas», afirmó Kerry O'Banion, profesor en el Departamento de Neurobiología y Anatomía del Centro Médico de la Universidad de Rochester (Estados Unidos) y autor principal de la investigación.

«La posibilidad de que la exposición a la radiación en el espacio puede dar lugar a problemas de salud tales como el cáncer ha sido reconocida. Sin embargo, este estudio demuestra que la exposición a niveles de radiación equivalentes a una misión a Marte podría producir problemas cognitivos y acelerar los cambios en el cerebro que están asociados con la enfermedad de Alzheimer», concreta este experto.

Mientras que el espacio está lleno de radiación, el campo magnético de la Tierra protege en general el planeta y a la gente en la órbita baja de la Tierra de estas partículas. Sin embargo, una vez que los astronautas dejan la órbita están expuestos a la ducha constante de diversas partículas radiactivas. Varios estudios han demostrado el potencial riesgo de cáncer, impacto cardiovascular y musculoesquelético de la radiación cósmica galáctica, pero esta investigación examina el impacto potencial de la radiación espacial en la neurodegeneración y, en particular, los procesos biológicos en el cerebro que contribuyen al desarrollo de la enfermedad de Alzheimer.

O'Banion, cuyo estudio se centra en cómo la radiación afecta al sistema nervioso central, y su equipo han estado trabajando con la NASA (agencia norteamericana del espacio) desde hace más de ocho años. Los investigadores estudiaron el impacto de una determinada forma de radiación de partículas de alta masa y alta cargada (HZE). Estas partículas, que son impulsadas por el espacio a velocidades muy altas por la fuerza de las estrellas en explosión, tienen muchas formas diferentes por lo que estos científicos eligieron partículas de hierro para su estudio.

«Debido a que un paquete de partículas de hierro es más duro que un golpe es muy difícil desde el punto de vista de ingeniería proteger eficazmente contra ellas», dijo O'Banion, que añade que para ello habría que envolver una nave espacial en un bloque de plomo u hormigón.
Experimento en ratones

Una parte de la investigación se llevó a cabo en el Laboratorio de Radiación Espacial de la NASA en el Laboratorio Nacional de Brookhaven en Long Island (Estados Unidos). Los investigadores quisieron comprobar si la exposición a la radiación tiene el potencial de acelerar los indicadores biológicos y cognitivos de la enfermedad de Alzheimer, sobre todo en personas que puedan estar predispuestas a desarrollar esta patología. Para lograrlo, estudiaron el impacto en los modelos animales de la enfermedad de Alzheimer, que fueron expuestos a diferentes dosis de radiación, incluyendo los niveles comparables a lo que los astronautas experimentarían durante una misión a Marte.

En Rochester, un equipo de investigadores evaluaron el impacto cognitivo y biológico de la exposición, sometiendo a los ratones a una serie de experimentos en los que les retiraron objetos o lugares específicos. Los investigadores observaron que los ratones expuestos a la radiación eran mucho más propensos a fallar en estas tareas, sugiriendo un deterioro neurológico, antes de que estos síntomas aparecen normalmente.

Los cerebros de los ratones también mostraron signos de alteraciones vasculares y una mayor acumulación de placa en la proteína amiloide beta de lo normal que se acumula en el cerebro y es una de las características de la enfermedad.

«Estos hallazgos sugieren claramente que la exposición a la radiación en el espacio tiene el potencial de acelerar el desarrollo de la enfermedad de Alzheimer, sentenció O'Banion. A su juicio, este es otro de los factores que la NASA, «que está claramente preocupada por los riesgos para la salud de los astronautas», tendrá que tener en cuenta que los planes de futuras misiones.

jueves, 27 de diciembre de 2012

Se inaugura la antena para Exploración del Espacio Profundo de la ESA en suelo argentino


Se inauguró la antena para el estudio del espacio profundo (DS, por sus siglas en inglés), en la localidad mendocina de Malargüe. Esta antena completa la red de tres estaciones de monitoreo ubicadas en Australia, en España, y ahora, en Argentina, que la ESA utiliza para seguimiento de sus misiones de exploración del espacio. 

El 10% del uso estará destinado a la comunidad científica nacional. La ESA ha invertido  45 millones de euros en la construcción de la antena, ubicada 30 kilómetros al sur de la ciudad mendocina de Malargüe y  que fue elegida por presentar las mejores condiciones de ubicación, por su visibilidad y potencial de propagación de radio, informó la agencia europea. 

De este modo, la denominada "DSA 3 Malargüe" se une a dos antenas ya establecidas en New Norcia (Australia) y Cebreros (España), finalizadas en 2002 y 2005, respectivamente. Con esta facilidad la ESA completa la cobertura circunferencial para sondas de estudio del espacio lejano que operan más allá de los 2 millones de kilómetros de la Tierra, en donde "las comunicaciones requieren de actividades de apuntamiento mecánico y calibración de gran exactitud", detalla un informe técnico de la ESA.
La Agencia Espacial Europea (ESA) el gobierno de la República Argentina a través de la Comisión Nacional de Actividades Espaciales (CONAE), suscribieron en el año 2009 un convenio para el establecimiento de la estación denominada Deep Space 3 (DS3) en la localidad de Malargüe, provincia de Mendoza. Equipada con una antena parabólica de 35 metros de diámetro e instalaciones asociadas a su operación, la estación está dedicada a dar soporte a las misiones espaciales europeas de exploración interplanetaria.


La CONAE, en su carácter de organismo nacional a cargo del desarrollo y coordinación de las actividades espaciales de la Argentina, tuvo a su cargo la implementación del proyecto con la ESA y con los organismos participantes del Estado Nacional y de la Provincia de Mendoza. La CONAE también coordina para la comunidad científica del país el uso de un 10% del tiempo de antena disponible, con el fin de promover el acceso de los investigadores de nuestro país al uso de esta importante red internacional, para sus propios estudios.

La instalación de la antena DS3 en Argentina es un hito importante en el Plan Espacial Nacional, ya que de esta manera, Argentina incursiona en el selecto grupo de países, junto a Estados Unidos, Europa, Rusia, Japón y China, que manejan tecnología de exploración interplanetaria. Argentina es el primer país de Latinoamérica que se suma con un equipamiento de esta envergadura, a la exploración del espacio; y no sólo para colaborar con la Agencia Espacial Europea, sino también para que nuestros científicos generen proyectos originados desde Argentina y con países de la región. Este emprendimiento significa también un claro reconocimiento a las capacidades de nuestro país a nivel científico-técnico, de recursos humanos e infraestructura, para alojar un proyecto de tal magnitud.

El sitio elegido: Seleccionado entre veinte lugares posibles de América y del país, el sitio elegido para este importante proyecto está ubicado al sur de la localidad de Malargüe, provincia de Mendoza. Así lo definió un estudio técnico que se desarrolló durante 2008 y 2009, que comprendió una exhaustiva evaluación de las condiciones de cada sitio propuesto. En este proceso se analizaron aspectos relativos a las capacidades existentes, las condiciones geológicas del terreno y la limpieza del espectro radioeléctrico en la zona, entre otros requerimientos necesarios para la instalación de la antena y de la infraestructura asociada para su operación.

En el Espacio Profundo: En el año 1998 la ESA decidió crear su propia red para el seguimiento de satélites en el espacio profundo, dado el aumento de sus misiones científicas con sondas interplanetarias. Para ello, se necesitaban tres estaciones en el globo terrestre, separadas, aproximadamente, 120° en longitud, para proporcionar cobertura continua a los satélites y así compensar la rotación de la Tierra. Las misiones al espacio profundo están situadas a distancias de la Tierra de más de 2 millones de kilómetros y para comunicarse con las sondas a esas distancias, se requieren sistemas muy precisos tanto de apuntamiento mecánico como de calibración de la antena.
La primera estación de espacio profundo de la ESA, la Deep Space Antenna 1 (DSA 1), terminó de construirse en 2002 en Australia; posteriormente, en 2005, se construyó la DSA 2 en España; y por último, en este momento se finalizó la instalación, en Argentina, de la DSA 3. Estas tres estaciones conforman la Red de Espacio Profundo de la ESA, y son controladas remotamente desde el Centro Europeo de Operaciones Espaciales (ESOC) en Darmstadt, Alemania. Están equipadas con antenas parabólicas de 35 m de diámetro que aumentan el rango y la velocidad de recepción de los datos necesarios para las presentes y futuras misiones de exploración, tales como Mars Express, Venus Express, Rosetta, Herschel, Planck, Gaia, BepiColombo, LISA, Solar Orbiter, Euclid y Juice. Las antenas DSA 1 Australia, DSA 2 España y DSA 3 Argentina, también tienen equipos para experimentos científicos que permiten a los investigadores estudiar las características de la materia a través de la cual viajan las señales de comunicaciones sonda-tierra.

Con su nueva red, la ESA se independiza de la Red de Espacio Lejano de la NASA en el control de sus misiones en el espacio profundo. No obstante, ambas agencias han reconocido la importancia del seguimiento y el control de satélites de la NASA por parte de estaciones de la ESA y viceversa, además de tener la posibilidad de controlar con mayor fiabilidad sus respectivos satélites. El hecho de contar con redes independientes, pero interoperables, también supone una ventaja en caso de emergencia de un satélite o de fallo de una estación.
Las futuras misiones al espacio profundo generarán crecientes cantidades de datos desde cientos de millones de kilómetros y requerirán frecuencias mucho más elevadas para aumentar la capacidad de transmisión de datos. Por ello, la ESA ha introducido, tanto en DSA 2 Cebreros como en DSA 3 Malargüe, la capacidad de recepción de señales en la banda K, mejorando significativamente el funcionamiento de la Red de estaciones de la ESA.

Asimismo, la estación de Malargüe está preparada para recibir señales en la banda K (25.5-27 GHz) en futuras misiones que requieran una alta velocidad de transmisión de datos, disponible gracias al mayor ancho de banda existente en banda K.De acuerdo a las condiciones locales, hay ciertas diferencias entre las tres antenas como pueden ser la resistencia al viento, la velocidad de giro o la resistencia a los movimientos sísmicos. 

Todas las estaciones, para reducir el ruido eléctrico del sistema y mejorar la recepción de las debilísimas señales que llegan de los satélites, están equipadas con receptores de bajo ruido enfriados a –258 grados centígrados y utilizan transmisores de banda S (DSA 1) y banda X (DSA 1, DSA 2 y DSA 3) de hasta 20kW para transmitir órdenes al espacio.

Características de las Antenas de Exploración del Espacio Profundo:
Altura: 40 metros
Peso del reflector: 130 toneladas
Peso partes de elevación: 380 toneladas
Peso partes móviles: 610 toneladas
Torre de hormigón: 1910 toneladas
(Por Luis Piñeiro, corresponsal en Argentina - Defensa.com)
Related Posts Plugin for WordPress, Blogger...