Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas

jueves, 6 de junio de 2013

La NASA y un mapa asombroso: La Antártida sin hielo glaciar

CIUDAD DE BUENOS AIRES (Urgente24) - La NASA presentó un nuevo mapa de la Antártida que muestra una faceta desconocida del continente blanco: sin su casquete de hielo. El mapa, bautizado Bedmap2, fue elaborado por los científicos del British Antarctic Survey y permite ver de manera detallada qué hay debajo de la capa de hielo del glaciar más grande del mundo. La NASA ha presentado un nuevo y detallado mapa de la superficie de la Antártida como nunca la ha visto el ojo humano: despojada de la capa de hielo de sus glaciares.
El mapa, bautizado Bedmap2, fue elaborado por los científicos del British Antarctic Survey y permite ver de manera detallada qué hay debajo de la capa de hielo del glaciar más grande del mundo.   
La contribución de la NASA en el diseño de Bedmap2 consiste en las mediciones de la superficie actual realizadas por el satélite Ice, Cloud, and Land Elevation (ICESat), así como en los resultados obtenidos durante varios años de sobrevuelos de aeronaves especializadas que midieron los cambios en el espesor del hielo marino y del de los glaciares. 
Durante el proyecto los investigadores descubrieron que el volumen de hielo situado bajo el nivel del mar es un 23% mayor de lo que se creía, y que el punto más hondo del glaciar Byrd se encuentra a 400 metros de profundidad. 
El hielo de la Antártida no es estático, sino que fluye constantemente hacia el mar. Conocer la forma de la superficie del continente antártico y el espesor de su capa de hielo permite a los científicos estudiar estos movimientos de agua y predecir cómo podría cambiar en el futuro el continente. 
El estudio detallado de las tierras subglaciales de la Antártida también podría revelar la relación existente entre el cambio climático y la forma del Polo Sur de nuestro planeta.

viernes, 3 de mayo de 2013

Islas Georgias del Sur: avanza la campaña de investigación pesquera en aguas circundantes


Por Redacción Notitrans
La campaña se inició días atrás con la partida desde el puerto de Mar del Plata del Buque de Investigación Pesquera (BIP) “ Eduardo L.Holmberg", perteneciente al Instituto Nacional de Investigación y Desarrollo Pesquero (INIDEP), que navega el área que se extiende sobre las plataformas de la Islas San Pedro y Rocas Cormorán.

Foto: Buque de Investigación Pesquera “ Eduardo L.Holmberg".

El avance de la campaña de investigación, denominada "Estudio de la situación de los recursos biológicos marinos en la subárea estadística 48.3 y su vinculación con la Confluencia Weddell-Scotia", fue informada por la cartera de Agricultura,Ganadería y Pesca de la Nación y se realiza en aguas circundantes a las Islas Georgias del Sur.

Características

El buque incursionará en profundidades no mayores a los 500 metros de profundidad en el archipiélago de las Islas Georgias del Sur. "Cabe destacar que esta campaña, que durará aproximadamente 28 días, retoma las investigaciones conjuntas que el INIDEP y el Instituto Antártico Argentino (IAA) iniciaron en 1994 y quedaron interrumpidas en 1998" y lo hace "gracias a las gestiones que llevó adelante la Subsecretaría de Pesca y Acuicultura de la Nación, a cargo de Miguel Bustamante", se informó en un comunicado.

El personal científico-técnico asignado a la misión pertenece a ambos institutos pero, además, se embarcaron a dos profesionales designados del Canal Encuentro, que filmarán todas las actividades que se realicen a bordo, para elaborar undocumental sobre el crucero. "Hay que señalar en este aspecto la intensa tarea que el INIDEP realizó para recuperar la flota de buques de investigación", se dijo.

Objetivo

La busqueda principal del estudio es aportar información sobre la distribución espacial de los cardúmenes de peces dermersales, sobre todo del Pez Hielo (Champsocephalus Gunnari). Esta especie tuvo una abrupta reducción de su población desde 1992 y todavía no se recuperó a pesar de las restricciones a su captura, que impuso la Convención para la Conservación de los Recursos Vivos Marinos Antárticos (CCRVMA).

Asimismo, se observará la disponibilidad de krill y se harán estudios para analizar la comunidad planctónica y de invertebrados bentónicos, para así poder describir las asociaciones de especies y caracterizar el área de estudio apartir de la riqueza específica.

En otro orden, se realizarán muestreos de peces y crustáceos decápodos para identificar la composición faunística del área y se recolectará material para estudios taxonómicos, tróficos, histológicos y de biología reproductiva de las especies de valor comercial.   Fuente: http://www.notitrans.com/nota/118300/-islas-georgias-del-sur-avanza-la-campana-de-investigacion-pesquera-en-aguas-circundantes-

martes, 9 de abril de 2013

Argentina e Italia acuerdan la construcción de un telescopio en suelo argentino

Ambos países son socios en el proyecto Cherenkov Telescope Array (CTA), por el cual Argentina podría albergar una red de 80 telescopios para estudiar los rayos gamma que provienen del Universo. Un paso en este sentido es la firma del convenio por el cual se construirá un prototipo de estos instrumentos en nuestro país. Representantes de la Comisión Nacional de Energía Atómica (CNEA) y del Instituto Nacional de Astrofísica de Italia (INAF) acordaron que la institución argentina destine 3 millones de pesos para construir íntegramente en el país un telescopio de 4 metros de diámetro. 

La agencia italiana ya aporta 8 millones de euros para montar otros seis telescopios, cinco de los cuales podrían instalarse en nuestro país en caso de que Argentina sea elegida para albergar el megaproyecto CTA que está destinado a revolucionar el estudio de las fuentes de energía que existen en el Universo.  Los telescopios más grandes del proyecto CTA tendrán hasta 25 metros de diámetro y los más chicos de 4 a 6 metros. Estarán dispuestos en una planicie de 10 kilómetros cuadrados y la construcción total implicará un costo cercano a los 250 millones de dólares, los cuales serán financiados por los 25 países que forman parte de la colaboración. La comunidad científica argentina, como así también el ministerio de Ciencia y el CONICET están expectantes con motivo de que este observatorio se aloje en el país.

El representante argentino del proyecto CTA, Alberto Etchegoyen, explicó que a fin de año se decidirá la ubicación de esta red de telescopios. “Además de nuestro país, también son candidatos Namibia y Chile”. Por lo pronto, la CNEA hará un prototipo de cuatro metros de estos telescopios que estudian los rayos gamma que provienen del espacio. Etchegoyen, quien también se desempeña como director del observatorio Pierre Auger, destacó que “el telescopio será construido en Argentina y por investigadores argentinos”. El mismo podría ser instalado en Salta, a 3700 metros de altura, o en San Juan, dependiendo ello de que algunos de estos sitios fuera elegido para instalar la red de CTA.

Previamente a la firma de este convenio entre Argentina e Italia en la embajada del país europeo, se desarrolló una jornada de seminarios sin precedentes en el Planetario. En la conferencia estuvo presente el propio Alberto Etchegoyen, disertando sobre el Observatorio Pierre Auger, que es el máximo detector de astropartículas del mundo, con una superficie 3.000 kilómetros cuadrados y que está ubicado en Malargüe, Mendoza. “Es la primera vez que se realiza un evento así en el Planetario, porque del mismo también participaron investigadores italianos y esto sirve para unir todavía más el trabajo que estamos realizando conjuntamente entre ambos países en el área de la astrofísica”, subrayó Etchegoyen.

Consecutivamente, realizo su exposición el investigador superior del CONICET y coordinador internacional de la infraestructura del proyecto CTA, el Doctor Félix Mirabel, quien ha realizado grandes hallazgos científicos en la astrofísica, destacándose especialmente en el descubrimiento de los microcuásares, las galaxias ultraluminosas y las galaxias enanas de marea.

También, conferenció el Doctor Osvaldo Civitarese, corresponsable del proyecto ANDES, el cual consiste en el establecimiento de un laboratorio subterráneo bajo la Cordillera, a la altura de la provincia de San Juan, con el objeto de estudiar la materia oscura, los neutrinos, hacer investigaciones sobre biofísica, geología e impacto ambiental entre otros fenómenos. (Luis Piñeiro, corresponsal en Argentina - Defensa.com)

martes, 1 de enero de 2013

Juegos gravitatorios: cómo volar a otros mundos

Viajes de mínima energía a otros planetas considerando el tiempo requerido y el consumo de energía implicado por cada kilogramo de masa de la sonda espacial.

JUEGOS GRAVITATORIOS

El sueño de explorar el espacio no puede terminar en la Luna. Todos los precursores del vuelo espacial, de Tsiolkovski a Goddard, formularon sus propuestas y realizaron sus experimentos con la mirada puesta en los planetas hermanos de la Tierra. Los intentos por alcanzar Marte y Venus con sondas espaciales empezaron en 1960 y 1961, tan solo tres o cuatro años después del lanzamiento del primer satélite artificial de la Tierra.

En la cultura popular no hay una diferencia clara entre lanzar un cohete al espacio circunterrestre, enviar una sonda a la Luna o hacer llegar un artefacto a otro planeta. Pero en realidad las discrepancias entre los tres problemas son enormes, desde muchos puntos de vista. Quizá la más sencilla de entender sea la referida a las telecomunicaciones. Un satélite en órbita terrestre baja puede hallarse a tan sólo unos cuantos miles de kilómetros. La Luna se coloca a varios cientos de veces esa distancia. Pero incluso el más cercano de los planetas, Venus, se encuentra siempre cien veces más lejos que la Luna, unas mil veces más distante que un satélite artificial cualquiera. Si se tiene en cuenta que la intensidad de las ondas de radio disminuye con el cuadrado de la lejanía, podremos hacernos una idea del desafío de ingeniería que representa transmitir información a y desde una sonda interplanetaria.

La distancia complica no solo las transmisiones de radio, sino también muchos otros aspectos de estas misiones espaciales. La cuestión más importante es la del propio viaje. Enviar un trozo de metal y plástico de la Tierra a otro planeta implica una inversión de energía formidable y obliga, a la vez, a mantener "vivos" los instrumentos durante periodos de tiempo muy prolongados en el ambiente hostil del espacio. Si comparamos el viaje a la Estación Espacial Internacional con salir a comprar a la panadería de la esquina, entonces el vuelo a la Luna correspondería a un viaje en tren a otra ciudad, y la exploración de otro planeta se convertiría en un viaje intercontinental en avión. Por supuesto, en los tres casos hablamos de desplazamientos, pero está claro que se trata de problemas radicalmente distintos por duración, logística y costes.

Sin embargo, desde el punto de vista teórico se pueden encontrar analogías entre el viaje a la Luna y las trayectorias que siguen las sondas espaciales dirigidas a otros planetas. Al igual que en el caso de nuestro satélite natural, y como ya hemos insinuado, una de las primeras consideraciones que hay que tener en cuenta hace referencia a la energía necesaria para colocar un artefacto en la trayectoria interplanetaria adecuada. En el artículo dedicado al viaje a la Luna comentamos las trayectorias de mínima energía u órbitas de Hohmann. Este concepto resulta muy útil también para analizar la ruta óptima a los planetas.

Consideremos de entrada, para fijar ideas, el viaje de la Tierra a Marte. El concepto de órbita de Hohmann adaptado al vuelo hacia un planeta como Marte implica impulsar el aparato cósmico hasta una órbita elíptica alrededor del Sol cuyo punto más cercano a nuestra estrella (perihelio) toque de manera tangencial la órbita de partida, que es la de la Tierra, y que tenga el punto más alejado del Sol (afelio) rozando la órbita de destino. La órbita que implica un consumo mínimo de energía en el viaje hacia Marte debe tener el perihelio a unos 150 millones de km del Sol y el afelio a aproximadamente 230 millones de km.

Para el estudio del viaje interplanetario resulta muy útil emplear como unidad de medida no el kilómetro, sino la unidad astronómica de distancia. Esta unidad de medida, cuyo símbolo internacional es au (las letras a y u minúsculas, juntas y escritas en tipo redondo), equivale muy aproximadamente a la distancia media entre la Tierra y el Sol. De este modo, la órbita terrestre tiene un radio de 1 au, mientras que la de Marte mide 1,52 au (si se considera circular). La órbita de mínima energía para el viaje de la Tierra a Marte queda descrita por tanto de este modo: perihelio de 1 au y afelio de 1,52 au.

Sigamos pensando en Marte. Para lanzar una sonda hacia ese planeta, por tanto, hay que colocarla sobre un cohete potente, capaz de aplicarle al ingenio espacial una aceleración considerable en el mismo sentido en el que se mueve la Tierra alrededor del Sol. Ese aumento de velocidad asciende, en el caso de Marte, a nada menos que 3.000 metros por segundo, unos 10.000 kilómetros por hora adicionales que, por supuesto, se suman a la velocidad orbital que ya lleva la Tierra por sí misma y que equivale a unos 100.000 km/h. Impulsar un artilugio hasta que alcance una velocidad de 10.000 km/h respecto de la Tierra no es trivial.

Una vez situada la sonda en órbita trans-marciana, solo queda esperar a que la trayectoria la lleve hasta la distancia a la que se encuentra la órbita de Marte. Este viaje se verifica en un tiempo determinado con todo rigor por las leyes de la mecánica celeste y asciende a 259 días. Como es natural, el lanzamiento no se puede efectuar en cualquier momento, sino que tiene que haberse producido en el instante exacto en que al planeta Marte le falten 259 días para llegar al punto previsto para el encuentro. De aquí el concepto de ventana de lanzamiento. Si se va a usar una trayectoria de mínima energía, entonces las fechas útiles para lanzar el cohete quedan acotadas de manera bastante estricta. Aunque los aparatos se construyen de manera que haya un margen de varias semanas en torno al instante óptimo, si se pierde la ocasión hay que esperar a la siguiente, y para el planeta Marte las oportunidades suceden tan solo cada dos años y cincuenta días.

Al llegar a Marte la sonda debe encender los motores de nuevo para igualar su velocidad con la del planeta de destino. Esta maniobra implica consumir energía otra vez, en un nuevo empujón en el mismo sentido de giro de los planetas alrededor del Sol.

Hasta ahora hemos considerado las órbitas de partida y destino como circulares y coplanarias. En realidad la órbita de Marte es algo excéntrica, de modo que las distancias Marte-Sol pueden variar entre 1,67 au y 1,38 au. Esta circunstancia hace que las órbitas de mínima energía para el viaje a Marte resulten distintas de una vez a otra. En el mejor de los casos el tiempo de viaje se reduce a 237 días, mientras que en el peor asciende a 281. Esta diferencia tiene una correspondencia también en términos de energía y los cálculos indican que viajar a Marte cuando su distancia es mayor implica un gasto de energía que asciende a una vez y media la necesaria cuando la lejanía de este planeta es la menor. El contraste es muy considerable y explica las diferencias de masa de las sondas enviadas a este planeta en años distintos, a pesar de que muchas veces se emplean cohetes semejantes.


Si se analizan las fechas de lanzamiento y llegada de las misiones espaciales dirigidas a Marte se observa que no todas han seguido trayectorias de Hohmann estrictas, sino que han tendido a abreviar un poco el viaje, con un predominio de los trayectos de unos siete meses de duración, en vez de los ocho u ocho y medio que habría implicado un recorrido de mínima energía. Las misiones más pesadas, o las lanzadas en condiciones menos propicias, tienden a seguir órbitas más parecidas a las de Hohmann.



Pero pensemos ahora en el viaje hacia un planeta inferior, es decir, cuya órbita se encuentre no por encima, sino por debajo de la terrestre, como por ejemplo Venus. En este caso la trayectoria de Hohmann tendrá el afelio en la órbita terrestre, a 1 au del Sol, y el perihelio en la órbita de Venus, a 0,72 au. Ahora el cohete, al salir al espacio, tiene que restarle velocidad a la sonda para que caiga hacia el Sol. Para ir a Venus, la velocidad que se debe sustraer a la nave equivale a 9.000 km/h. Para ello el cohete se orienta en sentido contrario al del movimiento de la Tierra alrededor del Sol y actúa durante un cierto tiempo. Aunque se le resten 9.000 km/h a la sonda, el aparato ya tenía de partida la velocidad heliocéntrica correspondiente a la Tierra, así que, a pesar de la desaceleración, sigue desplazándose alrededor del Sol en el sentido original, aunque más despacio. La sonda se aproximará a la órbita de Venus y, si despegó en la ventana de lanzamiento correcta, se encontrará con el planeta de destino al cabo de 146 días. En ese momento la nave se estará desplazando, respecto del Sol, bastante más rápido que Venus, lo cual la obligará a un segundo encendido de motores que le aplique otra dosis de frenado. Vemos por tanto que para viajar "hacia el Sol" hay que hacer frenar las naves dos veces, mientras que para moverse por el Sistema Solar "en contra del Sol" lo que corresponde es acelerar en dos oportunidades distintas.

Las órbitas de Venus y la Tierra son bastante circulares y por eso no hay diferencias significativas entre las órbitas de mínima energía de una ventana de lanzamiento o de otra. Por cierto que en el caso de Venus esas ventanas se repiten cada año y 220 días.

Podríamos plantearnos viajes de mínima energía a otros planetas. Nos interesará considerar, en cada caso, el tiempo requerido para el viaje y, también, el consumo de energía implicado por cada kilogramo de masa de la sonda espacial. Para valorar la energía podemos emplear como unidad aquella requerida para enviar un kilogramo al planeta más cercano, Venus, que corresponde a 170 millones de julios (40 millones de calorías). En este cómputo de energía se incluyen tanto la aceleración (o desaceleración) necesaria al partir de la Tierra como la que hay que aplicar a la llegada a destino para igualar la velocidad de la sonda con la del planeta. Los datos obtenidos se especifican en la tabla 1 del multimedia.

Se observan varios resultados sorprendentes. En primer lugar, que el viaje a Mercurio resulta más breve que a Venus, a pesar de estar más lejos. Pero, aunque se llegue antes a Mercurio, el coste a lo largo de una trayectoria de Hohman es muy considerable, el cuádruple, en términos energéticos. El viaje promedio a Marte viene a salir igual de caro que a Venus en cuanto a energía (puede costar lo mismo en los años menos favorables). Pero las cifras más significativas las encontramos a partir de Júpiter. Cada kilogramo enviado al planeta gigante cuesta el doble que si se mandara a Venus y, además, requiere un tiempo de tránsito superior a los dos años y medio. Este tiempo puede ser tolerable con la tecnología actual, pero para mundos cada vez más lejanos nos encontramos con que el coste energético se estabiliza en unas dos veces y media el precio del viaje a Venus, pero los tiempos de tránsito se tornan prohibitivos, por largos.

Las conclusiones que se deducen de estas cifras explican las técnicas que se emplean para el viaje interplanetario. Para ir a Venus, Marte y Júpiter suelen seguirse trayectorias parecidas a las de mínima energía de Hohmann, o incluso más rápidas aun a costa de consumir más combustible por unidad de masa. Pero para el resto de planetas hay que recurrir a otras técnicas. En el caso de Mercurio por cuestiones energéticas y en el de los planetas exteriores por motivos de tiempo, la mecánica celeste dentro del Sistema Solar exige soluciones creativas. Y, en efecto, para visitar todos estos mundos se ha recurrido a un método inesperado que permite a la vez abaratar costes (ahorrar energía) y acortar los tiempos: la asistencia gravitatoria. Pero tenemos que dejar este ingenioso recurso de la astronáutica moderna para el último artículo de esta serie.

Fuente: Cortesía de David Galadí-Enríquez para Caos y ciencia - Via National Geografhic

Datos increíbles acerca de la Luna

 Diez curiosidades sobre la LunaDiez datos curiosos acerca de la Luna:

1- Una persona que pese 45 kilos, en la Luna pesaría 8,05 kilos.

2- Sin traje espacial en la Luna, la sangre hierve instantáneamente.

3- En la Luna es imposible silbar.

4- Ha llegando más gente a la Luna que a las profundidades de los océanos.

5- James. B. Irwin, astronauta del Apollo 15, fue la octava persona en caminar sobre la Luna el 30 de julio de 1971.

6- La última persona que pisó la Luna lo hizo en 1972.

7- En la Luna no hay viento ni sonido.

8- La superficie de la Luna es más pequeña que Asia.

9- Cada año la Luna se aleja de la Tierra 3.8 centímetros.

10- Que las personas actúen de forma extraña durante la luna llena, es un mito.

Fuente: National Geographic

Los viajes espaciales pueden acelerar la aparición de alzheimer


Por ABC.es - EP / MADRID
La radiación cósmica galáctica representa una amenaza importante para los futuros astronautas, según una investigación

La radiación cósmica que bombardean los astronautas en misiones en el espacio a lugares como Marte podría acelerar la aparición de la enfermedad de Alzheimer, según concluye un nuevo estudio, publicado en la revista «Plos One». «La radiación cósmica galáctica representa una amenaza importante para los futuros astronautas», afirmó Kerry O'Banion, profesor en el Departamento de Neurobiología y Anatomía del Centro Médico de la Universidad de Rochester (Estados Unidos) y autor principal de la investigación.

«La posibilidad de que la exposición a la radiación en el espacio puede dar lugar a problemas de salud tales como el cáncer ha sido reconocida. Sin embargo, este estudio demuestra que la exposición a niveles de radiación equivalentes a una misión a Marte podría producir problemas cognitivos y acelerar los cambios en el cerebro que están asociados con la enfermedad de Alzheimer», concreta este experto.

Mientras que el espacio está lleno de radiación, el campo magnético de la Tierra protege en general el planeta y a la gente en la órbita baja de la Tierra de estas partículas. Sin embargo, una vez que los astronautas dejan la órbita están expuestos a la ducha constante de diversas partículas radiactivas. Varios estudios han demostrado el potencial riesgo de cáncer, impacto cardiovascular y musculoesquelético de la radiación cósmica galáctica, pero esta investigación examina el impacto potencial de la radiación espacial en la neurodegeneración y, en particular, los procesos biológicos en el cerebro que contribuyen al desarrollo de la enfermedad de Alzheimer.

O'Banion, cuyo estudio se centra en cómo la radiación afecta al sistema nervioso central, y su equipo han estado trabajando con la NASA (agencia norteamericana del espacio) desde hace más de ocho años. Los investigadores estudiaron el impacto de una determinada forma de radiación de partículas de alta masa y alta cargada (HZE). Estas partículas, que son impulsadas por el espacio a velocidades muy altas por la fuerza de las estrellas en explosión, tienen muchas formas diferentes por lo que estos científicos eligieron partículas de hierro para su estudio.

«Debido a que un paquete de partículas de hierro es más duro que un golpe es muy difícil desde el punto de vista de ingeniería proteger eficazmente contra ellas», dijo O'Banion, que añade que para ello habría que envolver una nave espacial en un bloque de plomo u hormigón.
Experimento en ratones

Una parte de la investigación se llevó a cabo en el Laboratorio de Radiación Espacial de la NASA en el Laboratorio Nacional de Brookhaven en Long Island (Estados Unidos). Los investigadores quisieron comprobar si la exposición a la radiación tiene el potencial de acelerar los indicadores biológicos y cognitivos de la enfermedad de Alzheimer, sobre todo en personas que puedan estar predispuestas a desarrollar esta patología. Para lograrlo, estudiaron el impacto en los modelos animales de la enfermedad de Alzheimer, que fueron expuestos a diferentes dosis de radiación, incluyendo los niveles comparables a lo que los astronautas experimentarían durante una misión a Marte.

En Rochester, un equipo de investigadores evaluaron el impacto cognitivo y biológico de la exposición, sometiendo a los ratones a una serie de experimentos en los que les retiraron objetos o lugares específicos. Los investigadores observaron que los ratones expuestos a la radiación eran mucho más propensos a fallar en estas tareas, sugiriendo un deterioro neurológico, antes de que estos síntomas aparecen normalmente.

Los cerebros de los ratones también mostraron signos de alteraciones vasculares y una mayor acumulación de placa en la proteína amiloide beta de lo normal que se acumula en el cerebro y es una de las características de la enfermedad.

«Estos hallazgos sugieren claramente que la exposición a la radiación en el espacio tiene el potencial de acelerar el desarrollo de la enfermedad de Alzheimer, sentenció O'Banion. A su juicio, este es otro de los factores que la NASA, «que está claramente preocupada por los riesgos para la salud de los astronautas», tendrá que tener en cuenta que los planes de futuras misiones.

jueves, 27 de diciembre de 2012

Se inaugura la antena para Exploración del Espacio Profundo de la ESA en suelo argentino


Se inauguró la antena para el estudio del espacio profundo (DS, por sus siglas en inglés), en la localidad mendocina de Malargüe. Esta antena completa la red de tres estaciones de monitoreo ubicadas en Australia, en España, y ahora, en Argentina, que la ESA utiliza para seguimiento de sus misiones de exploración del espacio. 

El 10% del uso estará destinado a la comunidad científica nacional. La ESA ha invertido  45 millones de euros en la construcción de la antena, ubicada 30 kilómetros al sur de la ciudad mendocina de Malargüe y  que fue elegida por presentar las mejores condiciones de ubicación, por su visibilidad y potencial de propagación de radio, informó la agencia europea. 

De este modo, la denominada "DSA 3 Malargüe" se une a dos antenas ya establecidas en New Norcia (Australia) y Cebreros (España), finalizadas en 2002 y 2005, respectivamente. Con esta facilidad la ESA completa la cobertura circunferencial para sondas de estudio del espacio lejano que operan más allá de los 2 millones de kilómetros de la Tierra, en donde "las comunicaciones requieren de actividades de apuntamiento mecánico y calibración de gran exactitud", detalla un informe técnico de la ESA.
La Agencia Espacial Europea (ESA) el gobierno de la República Argentina a través de la Comisión Nacional de Actividades Espaciales (CONAE), suscribieron en el año 2009 un convenio para el establecimiento de la estación denominada Deep Space 3 (DS3) en la localidad de Malargüe, provincia de Mendoza. Equipada con una antena parabólica de 35 metros de diámetro e instalaciones asociadas a su operación, la estación está dedicada a dar soporte a las misiones espaciales europeas de exploración interplanetaria.


La CONAE, en su carácter de organismo nacional a cargo del desarrollo y coordinación de las actividades espaciales de la Argentina, tuvo a su cargo la implementación del proyecto con la ESA y con los organismos participantes del Estado Nacional y de la Provincia de Mendoza. La CONAE también coordina para la comunidad científica del país el uso de un 10% del tiempo de antena disponible, con el fin de promover el acceso de los investigadores de nuestro país al uso de esta importante red internacional, para sus propios estudios.

La instalación de la antena DS3 en Argentina es un hito importante en el Plan Espacial Nacional, ya que de esta manera, Argentina incursiona en el selecto grupo de países, junto a Estados Unidos, Europa, Rusia, Japón y China, que manejan tecnología de exploración interplanetaria. Argentina es el primer país de Latinoamérica que se suma con un equipamiento de esta envergadura, a la exploración del espacio; y no sólo para colaborar con la Agencia Espacial Europea, sino también para que nuestros científicos generen proyectos originados desde Argentina y con países de la región. Este emprendimiento significa también un claro reconocimiento a las capacidades de nuestro país a nivel científico-técnico, de recursos humanos e infraestructura, para alojar un proyecto de tal magnitud.

El sitio elegido: Seleccionado entre veinte lugares posibles de América y del país, el sitio elegido para este importante proyecto está ubicado al sur de la localidad de Malargüe, provincia de Mendoza. Así lo definió un estudio técnico que se desarrolló durante 2008 y 2009, que comprendió una exhaustiva evaluación de las condiciones de cada sitio propuesto. En este proceso se analizaron aspectos relativos a las capacidades existentes, las condiciones geológicas del terreno y la limpieza del espectro radioeléctrico en la zona, entre otros requerimientos necesarios para la instalación de la antena y de la infraestructura asociada para su operación.

En el Espacio Profundo: En el año 1998 la ESA decidió crear su propia red para el seguimiento de satélites en el espacio profundo, dado el aumento de sus misiones científicas con sondas interplanetarias. Para ello, se necesitaban tres estaciones en el globo terrestre, separadas, aproximadamente, 120° en longitud, para proporcionar cobertura continua a los satélites y así compensar la rotación de la Tierra. Las misiones al espacio profundo están situadas a distancias de la Tierra de más de 2 millones de kilómetros y para comunicarse con las sondas a esas distancias, se requieren sistemas muy precisos tanto de apuntamiento mecánico como de calibración de la antena.
La primera estación de espacio profundo de la ESA, la Deep Space Antenna 1 (DSA 1), terminó de construirse en 2002 en Australia; posteriormente, en 2005, se construyó la DSA 2 en España; y por último, en este momento se finalizó la instalación, en Argentina, de la DSA 3. Estas tres estaciones conforman la Red de Espacio Profundo de la ESA, y son controladas remotamente desde el Centro Europeo de Operaciones Espaciales (ESOC) en Darmstadt, Alemania. Están equipadas con antenas parabólicas de 35 m de diámetro que aumentan el rango y la velocidad de recepción de los datos necesarios para las presentes y futuras misiones de exploración, tales como Mars Express, Venus Express, Rosetta, Herschel, Planck, Gaia, BepiColombo, LISA, Solar Orbiter, Euclid y Juice. Las antenas DSA 1 Australia, DSA 2 España y DSA 3 Argentina, también tienen equipos para experimentos científicos que permiten a los investigadores estudiar las características de la materia a través de la cual viajan las señales de comunicaciones sonda-tierra.

Con su nueva red, la ESA se independiza de la Red de Espacio Lejano de la NASA en el control de sus misiones en el espacio profundo. No obstante, ambas agencias han reconocido la importancia del seguimiento y el control de satélites de la NASA por parte de estaciones de la ESA y viceversa, además de tener la posibilidad de controlar con mayor fiabilidad sus respectivos satélites. El hecho de contar con redes independientes, pero interoperables, también supone una ventaja en caso de emergencia de un satélite o de fallo de una estación.
Las futuras misiones al espacio profundo generarán crecientes cantidades de datos desde cientos de millones de kilómetros y requerirán frecuencias mucho más elevadas para aumentar la capacidad de transmisión de datos. Por ello, la ESA ha introducido, tanto en DSA 2 Cebreros como en DSA 3 Malargüe, la capacidad de recepción de señales en la banda K, mejorando significativamente el funcionamiento de la Red de estaciones de la ESA.

Asimismo, la estación de Malargüe está preparada para recibir señales en la banda K (25.5-27 GHz) en futuras misiones que requieran una alta velocidad de transmisión de datos, disponible gracias al mayor ancho de banda existente en banda K.De acuerdo a las condiciones locales, hay ciertas diferencias entre las tres antenas como pueden ser la resistencia al viento, la velocidad de giro o la resistencia a los movimientos sísmicos. 

Todas las estaciones, para reducir el ruido eléctrico del sistema y mejorar la recepción de las debilísimas señales que llegan de los satélites, están equipadas con receptores de bajo ruido enfriados a –258 grados centígrados y utilizan transmisores de banda S (DSA 1) y banda X (DSA 1, DSA 2 y DSA 3) de hasta 20kW para transmitir órdenes al espacio.

Características de las Antenas de Exploración del Espacio Profundo:
Altura: 40 metros
Peso del reflector: 130 toneladas
Peso partes de elevación: 380 toneladas
Peso partes móviles: 610 toneladas
Torre de hormigón: 1910 toneladas
(Por Luis Piñeiro, corresponsal en Argentina - Defensa.com)

miércoles, 19 de diciembre de 2012

De la Pampa argentina al espacio con la ESA


La antena contra el cielo con nubes y claros
La Agencia Espacial Europea (ESA) ha inaugurado en Malargüe (Argentina) una nueva estación de seguimiento. Entrará en servicio a primeros de año y recibirá los valiosos datos científicos generados por las misiones que viajan a cientos de millones de kilómetros en nuestro Sistema Solar.


La antena DSA 3 de Malargüe se unirá a la red formada por las antenas DSA1 en Nueva Norcia, Australia, y DSA2 en la localidad española de Cebreros. Las tres antenas harán el seguimiento a las misiones de la ESA en el espacio profundo, aquellas que se alejan a más de 2 millones de kilómetros de nuestro planeta para lo que son necesarias antenas de altísima precisión.

Jean-Jacque Dordain, director general de la ESA, ha dicho que «con la estación de Malargüe, la ESA se convierte en la segunda agencia espacial del mundo en proporcionar cobertura global a las misiones del espacio profundo» (...) «Se trata de un recurso formidable, no sólo para Europa, sino para todos los países con los que colaboramos en la exploración del Sistema Solar».

Las tres antenas DSA están equipadas con reflectores parabólicos de 35 metros de diámetro, que les permiten ofrecer el alcance y la velocidad de transmisión de datos requeridos por las misiones de exploración actuales y futuras, que abarcan desde sondas planetarias como Mars Express o BepiColombo a observatorios espaciales como Solar Orbiter.

Este tipo de misiones ha hecho que la red de estaciones de seguimiento de la ESA, Estrack, aumente su capacidad, desarrolle nuevas tecnologías de seguimiento, adopte frecuencias y velocidades de transferencia de datos más elevadas e invierta en infraestructura, al mismo tiempo que colabora con otras agencias para aumentar su eficacia y reducir costes.

Al igual que las otras dos estaciones DSA de la Agencia, el reflector de 600 toneladas de Malargüe está equipado con sofisticados amplificadores criogénicos de bajo ruido que le permitirán detectar las señales más débiles y medir parámetros de misiones que se encuentren en órbita a los planetas o surcando el Sistema Solar.

La nueva estación está ubicada a 30 kilómetros al sur de la ciudad de Malargüe, en la provincia de Mendoza, Argentina, y a unos 1200 kilómetros al oeste de Buenos Aires. Este emplazamiento fue elegido en el año 2009 tras la evaluación de varios candidatos en distintos países de América del Sur.
La construcción de la estación de Malargüe comenzó en enero de 2010 y en la primavera de 2012 ya estaba prácticamente finalizada. El 14 de junio de 2012 recibió las primeras señales de prueba de la sonda Mars Express, en órbita al Planeta Rojo, a 193 millones de kilómetros de la Tierra.

Como todas las estaciones de la red Estrack, la de Malargüe se controlará desde el ESOC, el Centro Europeo de Operaciones Espaciales en Darmstadt, Alemania. Desde allí se coordinarán sus labores cotidianas de seguimiento y descarga de datos científicos.

Telespazio Argentina, una subsidiaria de Telespazio (Finmeccanica/Thales) estará a cargo de su operación local y mantenimiento, de la infraestructura y de los servicios de la estación.  

Fuente: http://www.euroxpress.es/index.php/noticias/2012/12/19/de-la-pampa-argentina-al-espacio-con-la-esa/

jueves, 5 de abril de 2012

Investigadores Argentinos desarrollan una aleación más resistente a la corrosión

Colaboración de nuestro lector El Oso Argentino:
Investigadores argentinos mejoraron un recubrimiento metálico de zinc y níquel que tendría mayor resistencia en ambientes adversos, por lo que resulta de especial interés para la industria automotriz.

Uno de los problemas cotidianos en la fabricación de autopartes para automóviles y otros tipos de vehículos es la velocidad con que la corrosión arruina los artefactos, más aún, en ambientes donde las temperaturas son extremadamente bajas o altas, o también en lugares caracterizados por las continuas precipitaciones y los vientos cargados con partículas de tierra o arena.

A partir de esta problemática, el Centro de Procesos Superficiales del INTI desarrolló un recubrimiento constituido por zinc y níquel, una aleación que se caracteriza por tener más porcentaje de níquel que otras, lo que asegura una mayor resistencia al desgaste.

En este caso, la aleación tiene un 85% de zinc y un 15% de níquel, lo que la distingue de los recubrimientos metálicos ya conocidos en el mundo, que no superan el 12% del metal que se encuentra en menor proporción.

“En una aleación de este tipo, cuanto más alto es el contenido de níquel, mayor es su resistencia a la corrosión, que puede aumentar hasta cuatro veces respecto al zinc”, aseguró a Agencia CTyS la doctora Zulema Mahmud, investigadora del INTI y autora de este desarrollo que comenzó en 2010, cuando obtuvo el primer premio en la sesión de Innovación Tecnológica del Encuentro de Primavera.

La obtención de la amalgama metálica se logró mediante el proceso de electrólisis, a través de acero inmerso en una solución líquida a la que se agregó el zinc-níquel convencional (con un 12% de concentración de níquel) y más partículas sueltas de sales de níquel. En esta especie de “sopa de metales” se realizó una descarga eléctrica que permitió que se unieran las partículas y así, obtener la nueva aleación, que tiene mayor dureza a nivel microscópico, ya que el material posee un espesor de 30 micrones.

El trabajo contó con la participación del Centro de Procesos Superficiales y Mecánica del INTI, de la Facultad de Ciencias Exactas y Naturales (FCEN) de la UBA, de la Comisión Nacional de Energía Atómica (CNEA), el Instituto Nacional de Investigaciones Fisicoquímicas Teóricas y Aplicadas (INIFTA) y la Facultad de Paraná en Brasil.

El zinc-níquel convencional ya se utiliza en la industria automotriz, de electrodomésticos y aeroespacial, pero si a la aleación se le agregan partículas cerámicas, puede usarse para la industria de las motos y en materiales de construcción, como los tornillos sujetadores.

Con los avances del INTI posiblemente se pueda reemplazar a otros materiales difíciles de sustituir como el cadmio, que además es nocivo para el ambiente.

Fuente: Agencia Ciencia, Tecnología y Sociedad, Universidad de La Matanza - http://www.argentina.ar/_es/ciencia-y-educacion/C10071-desarrollan-una-aleacion-mas-resistente-a-la-corrosion.php

martes, 6 de diciembre de 2011

Descubren planeta en zona habitable

Por Redacción de la Voz de América
Está a 600 años luz de la Tierra, tendría agua, gira alrededor de un Sol como el nuestro y su temperatura en la superficie sería muy agradable.
Foto: NASA

El exoplaneta Kepler-22b fue detectado por una sonda-telescopio lanzada en 2009. .La agencia espacial estadounidense NASA confirmó este lunes por primera vez la existencia de un planeta fuera del sistema solar que podría estar habitado, a unos 600 años luz de la Tierra. El planeta, descubierto gracias al telescopio espacial Kepler, fue detectado en 2009 pero no fue hasta ahora que se informó por los astrónomos que sus condiciones son aptas para la vida.
Según los científicos, la sonda con el telescopio ya había dado pistas de la existencia de planetas orbitando en “zonas habitables” pero esta es la primera ocasión en que puede constatarse. Aunque los astrónomos no pueden confirmar que haya realmente vida en él, lo favorecen la posible existencia de agua y también sus condiciones atmosféricas y su temperatura.

El exoplaneta Kepler-22b es el más pequeño encontrado dentro de un sistema de otros mil candidatos, pero aún así es más grande que la Tierra y todavía no se ha determinado si es rocoso, gaseoso o líquido. Sólo se sabe que tiene 2,4 veces el radio de nuestro planeta y que gira cada 290 días alrededor de su estrella, similar a nuestro Sol. Se estima que su temperatura en la superficie sería de 22 grados Celsius.

Según dijo la subdirectora del equipo científico del Centro de Investigación Ames de la NASA, Natalie Batalha: "estamos cada vez más cerca de encontrar un planeta parecido a la Tierra".

La sonda Kepler fue lanzada en marzo de 2009 con el objetivo de recopilar información y pruebas sobre planetas que orbitan alrededor de estrellas con condiciones de temperatura promedio donde pueda existir agua líquida y, por tanto, vida tal y como la conocemos. Desde ese año, la sonda, que está dotada de la cámara más potente jamás enviada al espacio sideral, ha descubierto otros 1.094 posibles exoplanetas, el doble del número hasta entonces eran rastreados.

jueves, 24 de noviembre de 2011

Salvan proyecto de telescopio Webb

Apodado como “Hubble 2” por algunos medios periodísticos en Estados Unidos, el telescopio Webb es una de las principales prioridades de la NASA para el futuro.
Foto: AP - El Hubble ha estado observando el cosmos desde su lanzamiento en 1990.

La misión del Hubble ha sido la de observar la historia del universo que se estima en unos 13.700 trillones de años..El proyecto del planeado sucesor del popular Telescopio Espacial Hubble, de la Agencia Espacial de Estados Unidos (NASA), escapó por un estrecho margen ser cancelado.

El Congreso de Estados Unidos salvó al proyecto del Telescopio Espacial James Webb con una contribución de $530 millones de dólares del presupuesto federal de 2012, después que algunos legisladores propusieran cortar sus fondos a principios de 2011.

El Telescopio Espacial James Webb asumirá la misión del Hubble de observar la historia del universo que se estima en unos 13.700 trillones de años, desde las primeras galaxias hasta la formación de la galaxia que aloja al Planeta Tierra, la Vía Láctea y la evolución del sistema solar.

Apodado como “Hubble 2” por algunos medios periodísticos en Estados Unidos, el telescopio Webb es una de las principales prioridades de la NASA para el futuro. Sin embargo, crecientes costos y otros problemas han amenazado el proyecto y demorado su lanzamiento, que ahora está previsto para 2018.

Fuente: Voz de América

sábado, 19 de noviembre de 2011

Ciencia y tecnología en busca del soldado invencible

La invencibilidad del soldado ha sido uno de las fantasías bélicas más constantes de todos los tiempos, un soldado invulnerable que venza y nunca deje de combatir.
Hay quienes piensan que la guerra es una condición casi natural del género humano, imposible de extirpar de nuestro atávico comportamiento en colectividad. Esto, en combinación con otros factores culturales y económicos, ha hecho de la industria bélica no solo una de las más rentables en casi cualquier época, sino también una especie de ubicuo laboratorio en el que se experimenta, paradójicamente, menos con el fin de terminar de una vez por todas con la guerra que de continuarla perpetuamente: vencer, sí, pero nunca dejar de combatir.

Quizá por esto uno de los sueños más largamente acariciados en la historia de la guerra ha sido el soldado invencible, el soldado ante el cual todo enemigo vacilaría porque todo enemigo se sabría derrotado. De Aquiles al Capitán América, la ambicionada invulnerabilidad ha suscitado las más diversas invenciones e investigaciones en campos tan diversos como la mecánica, la medicina, la física o, más recientemente, la neurociencia.

De acuerdo con Michael Hanlon, actual editor de la sección de ciencia en The Daily Mail, el Pentágono destina aproximadamente 400 millones de dólares anuales en “mejorar” al soldado humano y no solo por medio de técnicas que podríamos considerar habituales —por ejemplo, modernizando el armamento o con nuevos e impresionantes equipos que adopten las tecnologías más avanzadas— sino también, en los últimos años, intentando entender cómo funciona el cerebro del soldado, qué son, desde el punto de vista neurocientífico, el dolor, el terror, la fatiga. Comprender todo esto para idear también la manera de reducirlo o evitarlo completamente.

Y es que es un tanto peculiar (por decir lo menos) que el último ámbito en el que quizá se implementen los adelantos de la robótica sea en la guerra. Quizá, en el futuro, habrá robots humanoides que asistan en las tareas domésticas, que cumplan trabajos sencillos, que manejen el automóvil en el trayecto diario que va de la casa a la oficina, y aun así serán seres humanos quienes se maten unos a otros en el campo de batalla.
De ahí el interés de las altas autoridades militares estadounidenses por trazar un mapa fidedigno de las emociones, los pensamientos, las pesadillas que asaltan al soldado mientras se encuentra en el frente. Saber, por ejemplo, cómo entrenar soldados menos propensos al sueño y la fatiga, siempre alertas y lúcidos para operar las precisas y complejas armas que se fabrican hoy en día.

Sin embargo, mientras la neurociencia no esté lo suficientemente perfeccionada como para proporcionar estas respuestas, una de las pocas alternativas al alcance para conseguir un sucedáneo del soldado invencible está en las drogas. Las drogas que, casi también desde siempre, han significado una diferencia —a veces decisiva— entre la superioridad o la inferioridad de un ejército.

Dos siglos atrás, los soldados prusianos utilizaron cocaína para mantenerse alertas y los guerreros incas usaron coca para estar alertas mucho antes de eso. Desde entonces, la nicotina, las anfetaminas, la cafeína y una nueva clase de estimulantes que incluyen la droga Modafinil se han utilizado, exitosamente, en vista de que ahora los soldados estadounidenses pueden actuar normalmente incluso después de 48 horas sin dormir. Ahora los químicos están tratando de modificar la estructura molecular de esta droga para que desactive el deseo de dormir incluso por más tiempo.

Por otro lado, otras circunstancias de salud mucho más severas como el desorden de estrés post-traumático —del que la medicina ha aprendido tanto gracias a la Segunda guerra mundial y la Guerra de Vietnam— se tratan ahora con una combinación de terapia psicológica y fuertes dosis de antidepresivos, aunque se han buscado también los medios para borrar de la memoria de los soldados recuerdos sumamente dolorosos que les impiden tanto volver a empuñar un arma como vivir el resto de sus días en relativa tranquilidad.

Sin embargo, todo esto pertenece en cierta forma al soldado presente, el que ya existe y combate, el que ahora mismo está embarcado en una empresa bélica de la que unos cuantos esperan sacar algún tipo de provechos. ¿Qué pasa entonces con el soldado del futuro? ¿Hay otras investigaciones no para mejorar, sino para crear una nueva versión totalmente distinta a la de generaciones anteriores?

Ese parece ser el cometido de los estudios que se realizan en torno a la estimulación magnética transcraneal (EMT), la cual, aunque no se conocen a fondo sus efectos en el cerebro humano, pudiera detonar capacidades inéditas de aprendizaje en una persona cualquiera.

Según Allan Snyder, director del Centro para la Mente de la Universidad de Australia, la EMT podría apagar los altos niveles del procesamiento mental que normalmente nublan nuestros pensamientos, dando lugar a formas más puras de razonamiento.

Y quizá, si esto deriva en algún tipo de dispositivo de aprendizaje instantáneo, este no sería muy distinto al que se propuso en Matrix, en donde los personajes aprendían artes marciales, a conducir un helicóptero o cualquier otro conocimiento con solo descargar la información de un disco en su mente.

Pero, como bien dice Michael Hanlon, “parece claro que si quieres crear un hombre sin escrúpulos, que sienta poco dolor y nada de miedo, tendrías una excelente máquina de guerra, pero quizá este sería uno de los ejemplos en que hay que tener cuidado en lo que se desea”. Y concluye: Quítenles su humanidad a los soldados y ahí hay un peligro de que las batallas y las guerras que peleemos se vuelvan inhumanas también.

Fuente: The Independent - http://pijamasurf.com/2011/11/ciencia-y-tecnologia-en-busca-del-soldado-invencible/

martes, 15 de noviembre de 2011

Nanotubos de carbono permiten el almacenamiento indefinido de energía

Por Pablo Javier Piacente.
La tecnología, creada por ingenieros del MIT, es más económica y eficiente que otras aplicaciones
Ingenieros y científicos del Instituto Tecnológico de Massachussets (MIT), en Estados Unidos, han desarrollado una tecnología basada en nanotubos de carbono y destinada al almacenamiento de energía. La aplicación permite un almacenamiento energético indefinido, con dispositivos que se recargan por la exposición al sol. Además, es más económica que las opciones empleadas en la actualidad.
Este nuevo enfoque podría revolucionar las tecnologías relacionadas con el almacenamiento de energía solar. Imagen: Grossman/Kolpak.

Ingenieros e investigadores del MIT han desarrollado una innovadora tecnología para el almacenamiento de la energía solar que no se degrada y supone un coste menor que el de otras alternativas. El nuevo enfoque utiliza nanotubos de carbono, que se recargan al estar expuestos al sol. Este innovador método soluciona varios de los inconvenientes habituales relacionados con el almacenamiento de la energía solar, mediante el uso de productos químicos. Además supone ventajas significativas con respecto a la conversión eléctrica o al uso de recipientes térmicos aislados.

El almacenamiento a través de productos químicos puede extenderse por largos períodos de tiempo sin perder ningún porcentaje de la energía almacenada. El problema con este enfoque hasta hoy ha sido que los productos químicos, necesarios para realizar esta conversión y el almacenamiento, se degradan después de algunos ciclos, como sucede por ejemplo con el rutenio, que es además muy costoso.

Sin embargo, el grupo de investigación del MIT, liderado por los especialistas Jeffrey Grossman y Alexie Kolpak, ha desarrollado un nuevo enfoque con fulvalene diruthenium, una molécula conocida por los científicos como la mejor alternativa química para el almacenamiento de energía solar, ya que permite el desarrollo de dispositivos que no se degradan.

Grossman señala, además, que cuando se avance en una mejor comprensión de este proceso se podrá acelerar la búsqueda de otros compuestos, hechos de materiales abundantes y baratos, que podrían ser utilizados de la misma manera y con la misma eficacia para el almacenamiento de energía solar. El trabajo desarrollado en el MIT ha sido difundido a través de una nota de prensa del propio instituto de investigación, y además fue resumido en un artículo publicado recientemente en la revista especializada Nano Letters.

El enfoque empleado por Grossman y Kolpak a partir de fulvalene diruthenium hace uso de nanotubos de carbono, diminutas estructuras tubulares de carbono puro, que se combinan con un compuesto llamado azobenceno. Las moléculas resultantes de esta interacción incluyen nuevas propiedades que no están disponibles en los materiales por separado. El nuevo sistema no solamente es menos costoso que el rutenio, por ejemplo, sino que también es mucho más eficiente en el almacenamiento de energía en una determinada cantidad de espacio.

La efectividad es cerca de 10.000 veces más alta en términos de densidad volumétrica de energía, según los especialistas. De esta forma, la densidad de energía obtenida es comparable a la presente en las baterías de litio-ion. En consecuencia, los procesos energéticos ligados a la energía solar podrían verse claramente beneficiados con este nuevo enfoque.

Importantes ventajas
Asimismo, mediante el uso de métodos de nanofabricación es posible controlar las interacciones entre las moléculas, el aumento de la cantidad de energía que se puede almacenar y la longitud de tiempo durante el que se debe realizar el almacenamiento. Además, cada variable se puede controlar de manera independiente.

Una de las grandes ventajas del nuevo enfoque para aprovechar la energía solar es que simplifica el proceso, mediante la combinación de la recolección y almacenamiento de energía en un único paso. Se trata de una alternativa que no se degrada y que puede trabajar en forma indefinida, además de ser económica.

Una limitación, sin embargo, es que aunque este método es útil para aplicaciones de calefacción, en el caso de la producción de electricidad se requiere también un proceso de conversión, el uso de dispositivos termoeléctricos o la producción de vapor para poner en marcha un generador.

Según Grossman, el método diseñado es un concepto general que se puede aplicar a muchos nuevos materiales que ya han sido sintetizadas por otros investigadores para diferentes aplicaciones. Ahora será necesario adaptar sus propiedades para el almacenamiento de energía solar térmica, permitiendo que esta nueva tecnología amplíe en mayor medida su impacto y aplicación.

Fuente: http://www.tendencias21.net/Nanotubos-de-carbono-permiten-el-almacenamiento-indefinido-de-energia_a7050.html

jueves, 27 de octubre de 2011

Presentaron el mapa que armó el satélite argentino SAC-D

El satélite argentino de observación de la Tierra, el SAC-D, goza de buena salud. Se puso en órbita el 10 de junio pasado y ya permitió aportar nuevo conocimiento para la humanidad. Gracias a uno de los instrumentos que lleva a bordo, el Aquarius (que fue desarrollado por la NASA) se obtuvo el primer mapa mundial de la salinidad superficial de los océanos.
El mapa se presentó ayer durante un seminario en el Palacio San Martín de la Cancillería argentina. Parte de esos datos serán usados para monitorear las capturas pesqueras en el Mar Argentino.

El objetivo principal de la misión satelital es la estimación de la salinidad de mares y océanos de todo el planeta. Y el primer mapa que se logró muestra que hay una mayor concentración de salinidad en las zonas subtropicales y una baja salinidad en el Ecuador, donde abundan las lluvias . Pronto, el satélite aportará datos sobre la humedad de los suelos, un parámetro que ayudará a dar alertas de inundaciones y de dispersión de enfermedades.

“Esta misión no es sólo un logro de la Comisión Nacional de Actividades Espaciales”, dijo su titular Conrado Varotto. Es fruto de la colaboración con los Estados Unidos, Italia, Francia, Brasil, y Canadá. También destacó la participación de instituciones como el Ministerio de Ciencia, Tecnología e Innovación Productiva, el Conicet, la Universidad Tecnológica Nacional, el Invap, y la Universidad de la Plata.

Fuente: Diario Clarín

martes, 25 de octubre de 2011

La Argentina firmará un convenio de cooperación espacial con Estados Unidos

La presidente Cristina Kirchner encabezará esta tarde en la Casa Rosada el acto de rúbrica de un acuerdo de cooperación espacial con el gobierno norteamericano, que se instrumentará a través de la Comisión Nacional de Energía Atómica y la NASA


El acto se celebrará en el Salón de las Mujeres a partir de las 18.30, y asistirán el canciller, Héctor Timerman; la embajadora de los Estados Unidos en Argentina, Vilma Martínez; el titular dela CONAE, Conrado Varotto, y el administrador dela NASA, Charles Bolden, entre otras autoridades, informó Presidencia.

El convenio apunta a la exploración y uso del espacio ultraterrestre con fines pacíficos en áreas de interés común, como la observación y monitoreo de la Tierra, las ciencias espaciales y sistemas de exploración, entre otras. Se informará también en la ocasión sobre los primeros datos que el satélite argentino SAC-D ya envió desde su órbita ala Tierra, a través los distintos instrumentos que lleva a bordo.

Fuente: Infobae.com

lunes, 19 de septiembre de 2011

Histórico: Paraguay logra la primera semilla de soja que resiste a la sequía

El material genético, resultado de una investigación encabezada por la Universidad Nacional de Asunción podría ser liberado comercialmente en 2016. La semilla, que podría aguantar una merma de precipitaciones de hasta 400 milímetros por año, no es un transgénico
Foto: El 43% de la soja paraguaya se perdió en 2009 a causa de la sequía

A paso lento pero seguro avanza la concreción de la primera variedad de semillas de soja resistentes a la sequía. Tras realizarse la irradiación de las simientes, fueron sembradas en campos experimentales en San Lorenzo, registrándose de esta forma la primera generación de semillas que puede convertirse con el tiempo en una de las herramientas más preciadas para el sector productivo.

El Dr. Héctor Nakayama, investigador del Centro Multidisciplinario de Investigaciones Tecnológicas (Cemit) de la Universidad Nacional de Asunción (UNA), quien encabeza el trabajo de investigación, dijo que ahora se está acelerando el proceso para la obtención de una variedad que muestre características uniformes para posteriormente lanzarla al mercado.

Agregó que el tiempo de investigación se podría extender hasta 5 años más, lo que deduce que para el 2016 Paraguay contaría con su material genético tolerante a la sequía disponible para la siembra. Agregó que deben buscar la variedad para conseguir la estabilidad necesaria: que posean las mismas características o superiores a las variedades de soja existentes actualmente en el mercado. Pueden ser resistentes a la sequía, pero si no contienen el mismo nivel nutritivo, no sirve el trabajo, resaltó.

El técnico precisó que la primera generación de semillas que fueron cosechadas durante el último ciclo de producción de soja (abril pasado) se encuentran almacenadas y refrigeradas. Se estima que para la próxima campaña sojera, que arranca a partir de este setiembre, serán trasladadas hasta el Chaco, para la experimentación de campo, en terrenos de la Cooperativa Chorotitzer Komite Ltda. Además de sequía, esta primera generación de soja será sembrada bajo condiciones extremas de sequía, alta salinidad y elevadas temperaturas, de modo a crear una variedad resistente, que se genera en condiciones altamente adversas para la producción de la oleaginosa.

Nakayama señaló que la idea apunta a que en esta zafra se tenga ejemplares resistentes y fértiles de modo a mejorar la calidad, teniendo en cuenta que los materiales tienden a retroceder y a volver en su estado anterior. De acuerdo a las condiciones en que serán sembradas, estas semillas pueden, inclusive, aguantar una merma de precipitaciones de hasta 400 milímetros por año.

El trabajo se inició con la selección de una variedad de soja convencional (sin transgénesis) que fue llevada a una inducción desde la mutación, sin la presencia de ningún gen transgénico. Nakayama señaló que no quisieron trabajar materiales transgénicos por el hecho de prever cualquier problema por el uso de una patente comercial de las empresas que explotan este negocio, a la par de generar un material de propagación (semillas) libre de transgénicos. Agregó que el proceso se aceleró por medio de la radiación.

EL trabajo es desarrollado en forma regional, con el financiamiento del Organismo Internacional de Energía Atómica, el Instituto de Biotecnología Agrícola (Inbio), la Cooperativa Komite Ltda y la Universidad Nacional de Asunción. El 43% de la soja paraguaya se perdió en 2009 a causa de la sequía, mientras que la caída en el PBI, por ese motivo, fue de 3.8 por ciento. En paralelo, el país produjo un total de 8.4 millones de toneladas de soja en la campaña pasada, correspondiente al período 2010/11.

lunes, 8 de agosto de 2011

Un cinturón de antimateria rodea a la Tierra

Se trata de una fina banda de partículas de antiprotones, que podrían ser atraídos por el campo magnético terrestre y usarse como combustible para naves espaciales
Crédito foto: NASA

Los investigadores señalan que los antiprotones se encuentran entre los cinturones de Van Allen formados de materia normal atrapada. El trabajo, publicado en la revista Astrophysical Journal Letters, confirmaría que el campo magnético de la Tierra puede atrapar la antimateria.

El equipo explicó que los antiprotones pueden chocar contra las moléculas que componen la atmósfera terrestre creando una lluvia de partículas. Algunas de ellas pueden quedar atrapadas en el campo magnético de los cinturones de Van Allen, de acuerdo con lo consignado por Europa Press. De esta forma, la antimateria se "aniquila" al entrar en contacto con los protones normales.

El anillo evidencia que las bandas de antiprotones se mantienen como antimateria en el lugar hasta que encuentran materia normal. "Los antiprotones atrapados se pueden perder en las interacciones con los componentes atmosféricos, especialmente a bajas altitudes, donde la aniquilación se convierte en el mecanismo de la pérdida principal", explica el trabajo.
Los antiprotones, llamados rayos cósmicos, fueron detectados por el satélite Pamela, lanzado en 2006 para estudiar las partículas procedentes del Sol y más allá del sistema solar. Las partículas podrán ser, también, una fuente novedosa de combustible para las futuras naves espaciales, según anunció la NASA.

Fuente: Infobae.com

viernes, 27 de mayo de 2011

La Luna tendría tanta agua como la Tierra

Es la conclusión a la que arribó un grupo de científicos estadounidenses. El nuevo hallazgo, publicado en Science Express, arroja dudas sobre teorías de larga data acerca de la conformación del satélite

Durante mucho tiempo se creyó que la Luna era un lugar seco y polvoriento hasta que hace pocos años se encontró agua por primera vez. Ahora, científicos de la Case Western Reserve University, del Carnegie Institution for Science, y la Brown University creen que en su interior hay cien veces más agua de lo que inicialmente se creía.

Los hallazgos fueron realizados con la utilización de un instrumento de precisión, llamado NanoSIMS 50L microanalizador de iones, para examinar el magma lunar o pequeñas cantidades de roca derretida recolectada por el Apolo 17, la última misión estadounidense al satélite, en 1972.
"Estas muestras proporcionan la mejor ventana que tenemos para (calcular) la cantidad de agua en el interior de la Luna", dijo James Van Orman, co-autor del estudio y profesor de ciencias geológicas en Case Western Reserve. "El interior parece ser bastante similar al de la Tierra, por lo que sabemos sobre la abundancia de agua", agregó.
Los hallazgos fueron publicados en la edición del 26 de mayo de Science Express. El mismo equipo publicó en 2008 un trabajo en Nature, describiendo la primera evidencia de la presencia de agua en los cristales volcánicos traídos por las misiones Apolo. "Lo esencial es que en 2008 dijimos que el contenido primitivo de agua en el magma lunar debería ser similar al agua contenida en la lava proveniente del drenado del manto superior de la Tierra", dijo el co-autor del estudio, Alberto Saal. "Ahora, hemos probado que ese es el caso", agregó.

Mientras los hallazgos corroboran la teoría largamente sostenida de que la Luna y la Tierra tienen orígenes comunes, también arrojan dudas sobre la creencia más aceptada de la formación del satélite. Esta sostiene que la Luna se formó tras un desprendimiento de la Tierra, perdiendo buena parte de su humedad en ese proceso de alta temperatura. Los hallazgos también plantean interrogantes sobre las teorías que afirman que el hielo hallado en los cráteres de los polos lunares puede ser resultado de impactos de meteoros, sugiriendo que parte del mismo pudo provenir de la erupción de los magmas lunares.

La NASA anunció en 2009 que dos naves enviadas a estrellarse contra la superficie de la Luna descubrieron por primera vez agua congelada, una revelación que se vio como un paso de gigante hacia la exploración espacial.

Fuente: Infobae.com

jueves, 26 de mayo de 2011

Construyen el mapa 3D más exacto del Universo

Por Marcelo Bellucci - Clarin.com
Marca la ubicación de las galaxias y cómo se alejan. Es un logro de científicos británicos y grafica el Universo más cercano a la Tierra, conocido como “local”. Sus detalles llegan hasta los 380 millones de años luz y demandó 10 años de investigación.
Foto: Mapa del Universo. Se hizo en base a mediciones infrarrojas. Muestra 45 mil galaxias, algunas a 380 millones de años luz.

Un grupo de astrónomos del Instituto de Cosmología y Gravitación, de la Universidad de Portsmouth, Inglaterra, confeccionó el mapa 3D más detallado del Universo local, que abarca una distancia de 380 millones de años luz. Revelando de esta forma, detalles inéditos sobre nuestra posición en el Cosmos .

El 2 MASS Redshift Survey (2 MRS, así fue identificado el mapa) demandó 10 años de investigación y tiene la virtud de acercarse más al plano galáctico que mediciones anteriores, ya que se trata de una región que por lo general está oscurecida por el polvo cósmico. Fue presentado en Boston durante la 218° reunión de la Sociedad Astronómica Norteamericana, y permitirá a los cosmólogos hacer foco en determinadas áreas y ver el Universo muy lejano, donde es difícil medir las posiciones de muchas galaxias individuales.

Como explica el cosmólogo Gabriel R. Bengochea, del Instituto de Astronomía y Física del Espacio/IAFE (Conicet-UBA) “lo novedoso de esta cartografía no es que veamos galaxias lejanas, sino que tenemos ahora un mapa muy detallado de nuestro vecindario en el rango del infrarrojo ”.  Un objetivo interesante es lograr hacer mapas de cómo esta distribuida la materia en el Universo con la mayor cantidad de detalles. “Y como sabemos, la luz que nos llega de las galaxias no sólo se encuentra en el rango que ve el ojo humano: por eso se desarrollan telescopios que ayudan a observar en un amplio rango de frecuencias de luz”, aporta Bengochea.

Este no fue el primer intento por exponer la cartografía celestial en tres dimensiones: hubo otros proyectos.
Los colores en la imagen del nuevo mapa 3D, como apunta Alejandro Gangui, astrofísico, investigador del Conicet y profesor en Exactas-UBA “nos indican diferentes ‘corrimientos al rojo’ de las decenas de miles de galaxias catalogadas por el experimento 2 MASS. Estos datos no sólo señalan las posiciones de las galaxias en la bóveda del cielo, sino que también nos informan sobre las velocidades de alejamiento de cada una de ellas, es decir, proveen una ‘tercera dimension’ que una simple foto del cielo no daría . Es por ello que se dice que estos censos de galaxias otorgan información en 3D de las galaxias catalogadas”.

La luz de una galaxia es desplazada hacia el rojo, o extendida hacia longitudes de onda más largas, por efectos de la expansión del universo. Cuanto más lejos está la galaxia, mayor es su desplazamiento hacia el rojo y por ende, las mediciones sobre este desplazamiento arrojan como resultado qué distancias las separan. El movimiento de la Vía Láctea en relación al resto del Universo ha sido una incógnita desde que se logró mensurar. La 2 MASS realizó un mapeo en detalle de zonas que antes estaban ocultas detrás de nuestra Vía Láctea, para comprender mejor ese fenómeno.

Este sondeo escaneó todo el firmamento en tres bandas de largo de onda infrarrojas cercanas , que penetran el polvo intermedio mejor que la luz visible. Esto permite a los astrónomos alcanzar una mayor profundidad del firmamento.
El equipo de Portsmouth, a cargo de Karen Masters, comenzó a medir los corrimientos al rojo a fines de los años 90, utilizando dos telescopios. Uno está en el Observatorio Fred Lawrence Whipple en el Monte Hopkins, AZ, y otro en el Observatorio Interamericano Cerro Tololo de Chile.

Cómo interpretar el nuevo mapa
Las tonalidades azules indican que los cuerpos que señala están más alejados, siempre desde el punto de vista terrestre. Las galaxias que se encuentran a distancias consideradas “intermedias” se grafican en estos tonos más pasteles. Estos colores son considerados “fríos”: no hacen foco en lo más alejado y tampoco en lo más cercano. Las galaxias que se ubican a distancias mayores, a un máximo de 380 millones de años luz respecto de la Tierra, tienen un corrimiento hacia el rojo. Se ven en esa tonalidad según las nuevas mediciones registradas.

jueves, 19 de mayo de 2011

Hallan otro planeta que podría albergar vida

Un equipo de astrónomos de Francia ha identificado otro planeta rocoso alrededor de la estrella Gliese581 que podría albergar vida tal como la que se conoce en la Tierra, según un artículo de la revista Astrophysical Journal Letters.
Los científicos del Laboratorio de Metrología Dinámica en el Instituto Pierre Simon Laplace, de París (Francia), que llevaron a cabo un nuevo estudio de modelado atmosférico del planeta denominado Gliese581d, determinaron que éste se encuentra dentro de la "zona habitable" de su estrella. Los astrónomos definen "zona habitable" a los márgenes de distancia desde la estrella que permiten la existencia de agua líquida. En este caso, los investigadores creen que ese planeta podría contener océanos, nubes y lluvia como la Tierra.

El estudio supone que Gliese581d tiene un tamaño unas siete veces mayor que el de la Tierra y está rodeado por una gruesa atmósfera con base de dióxido de carbono, pero los científicos señalan que, si bien eso es posible, no puede afirmarse con certeza que así sea. La estrella central del sistema es una enana roja ubicada a unos 20 años luz de la Tierra y hasta ahora los astrónomos han detectado seis planetas que la orbitan.

Otro de los planetas en el sistema, el llamado Gliese581g, es tres veces más grande que la Tierra y casi con toda probabilidad es también un mundo rocoso. El Gliese581g atrajo mucha atención cuando se anunció su descubrimiento en septiembre del año pasado porque se encuentra justo en el medio de la zona habitable, lo cual lo hace un candidato principal para la existencia de agua líquida y, quizá, vida similar a la terrestre.

Fuente: Ambito.com
Related Posts Plugin for WordPress, Blogger...