Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas

martes, 2 de julio de 2013

Convierten agua salada en potable con un filtro de grafeno (III)

Convierten agua salada en potable con un filtro de grafeno
Grafeno para filtrar el agua salada
A pesar de que los océanos y mares contienen alrededor del 97% del agua existente sobre la Tierra, en la actualidad apenas un 1% del suministro mundial de agua potable proviene del agua desalada. Realmente muy poco. Los científicos creen que este recurso podría ser más y mejor explotado, con técnicas de desalinización más eficientes y menos costosas.  

Dos investigadores del Instituto de Tecnología de Massachusetts (MIT) han dado un interesante paso en ese camino. En simulaciones, dicen haber demostrado que los nanoporos de grafeno pueden filtrar la sal del agua a una velocidad de 2 a 3 veces mayor que la mejor tecnología de desalinización comercial que existe en la actualidad (la ósmosis inversa). 

Los investigadores creen que la superior permeabilidad al agua del grafeno podría conducir a técnicas de desalinización que requieren menos energía y equipos, según explican en Physorg. «Este trabajo muestra que algunos de los inconvenientes de las técnicas de desalinización actuales se podrían evitar con la invención de materiales membrana más eficientes y precisos», dice Jeffrey C. Grossman, del MIT. Los investigadores creen que este material permite el flujo real de agua, evita por completo que se filtre la sal y tiene una permeabilidad mucho mayor en comparación a la ósmosis inversa. Y todo ello mucho más rápido que con las técnicas actuales. 

Una sola capa de grafeno, que tiene un átomo de carbono de espesor, resulta muy delgada, por lo que es ventajoso para la desalinización del agua. En la eficacia de la deslinización participan el tamaño de los poros del material y la presión aplicada. Claro que esto tiene un pequeño inconveniente: hace falta que la humanidad consiga fabricar grafeno de forma sencilla y barata.

Los científicos esperan probar la capacidad de desalación con grafeno en los próximos meses. Si realmente es una técnica exitosa, podría ayudar a conseguir agua potable en aquellos lugares del mundo azotados por la desertización y la sequía. La investigación aparece publicada en NanoLetters.

Crean un material fino como el papel y diez veces más fuerte que el acero (II)

Por J. DE Jorge / ABC.es
Desarrollado a partir del grafeno, puede revolucionar las industrias automovilística y de aviación
Crean un material fino como el papel y diez veces más fuerte que el acero Lisa Aloisio 
 
Papel de grafeno, diez veces más fuerte que el acero
Si hace tan solo unos días un equipo internacional de investigadores presentaba en la prestigiosa revista «Nature» un nuevo material capaz de repararse a sí mismo en menos de un minuto mediante la exposición a la luz ultravioleta, ahora un segundo grupo científico, éste australiano, presenta increíbles resultados en el desarrollo de otro nuevo material. 

En este caso, se trata de un compuesto de grafeno, fino como el papel, pero que es asombrosamente diez veces más fuerte que el acero. El trabajo, que aparece publicado en la revista Journal of Applied Physics, podría revolucionar la aviación, la automoción, la óptica y la industria eléctrica.
El papel de grafeno es un material que puede ser procesado, remodelado y reformado desde su estado original, el grafito. Los Investigadores de la Universidad Tecnológica de Sídney utilizaron productos químicos para manipular la nanoestructura de esa materia prima y procesarlas en hojas tan finas como el papel. De esta forma, el material consigue «excelentes propiedades térmicas, eléctricas y mecánicas», según explican en su web.

Como resultado, el material es extraordinariamente flexible, pero al mismo tiempo es muy resistente. En comparación con el acero, el nuevo material es seis veces más ligero, tiene de cinco a seis veces menos densidad, es dos veces más duro y tiene diez veces mayor resistencia a la tracción y 13 veces más rigidez de flexión.

«No sólo es más ligero, más fuerte y más flexible que el acero sino que también es un producto reciclable y sostenible respetuoso con el medio ambiente y rentable en su uso», explica Ali Reza Ranjbartorech, responsable de la investigación. 

El científico cree que este papel de grafeno puede ser muy eficiente en la industria del automóvil y la aviación, lo que permite el desarrollo de automóviles más ligeros y más resistentes y aviones que utilicen menos combustible y generan menos contaminación.

La fómula mágica que convierte el cemento en metal

Por j. lópez garcía / ABC.es
Sus novedosas propiedades eléctricas hacen el nuevo material muy atractivo para hacer más robustos y duraderos los dispositivos electrónicos
La fómula mágica que convierte el cemento en metal AP Photo/Marcio Jose Sanchez
Pantallas más robustas y duraderas a base del nuevo material 
 
El sueño de los alquimistas de convertir compuestos vulgares en oro y plata está más cerca. La ansiada transmutación, hoy se consigue con ayuda del fuego de un potente láser, un crisol capaz de mantener el líquido fundido levitando a dos mil grados —sin tocar sus paredes—, y un control del oxígeno de la atmósfera, para que los cristales que se formen al enfriar posean propiedades electrónicas «a la carta», según se desee que sea más o menos conductor de la corriente eléctrica. De este modo, se ha conseguido convertir el cemento en un vidrio capaz de ser utilizado en los dispositivos electrónicos.

Este procedimiento abre la puerta a la creación de nuevos materiales vítreos, que con el procedimiento habitual son aislantes debidido a su rápido enfriamiento (no permitiendo el paso de la corriente eléctrica). Con este nuevo proceso de síntesis, los electrones libres son atrapados en pequeñas estructuras en forma de jaula para que conduzcan la corriente, dotando al vidrio de propiedades metálicas como puedan ser las del cobre utilizado en los cables del tendido eléctrico.

Esta facilidad de comportarse como un metal, unido a las útiles características de este cemento vítreo como son: una mejor resistencia a la corrosión que la de los metales —que sufren oxidación si son expuestos a la intemperie—; menor fragilidad que el vidrio convencional a base de sílice; mayor fluidez para ser moldeado y su novedosa conductividad eléctrica; hacen del nuevo compuesto un material muy atractivo para hacer más robustos y duraderos los dispositivos electrónicos.

En palabras de Chris Benmore, físico del Departamento de Energía de los Estados Unidos, lo importante de este trabajo, realizado en colaboración entre científicos estadounidenses, japoneses, finladeses y alemanes, es la comprensión del mecanismo mediante el cual el vidrio atrapa los electrones, «convirtiendo el cemento fundido en un líquido con propiedades metálicas». Este proceso, que no había sido explicado en detalle hasta la fecha, será susceptible de reproducirse con otros materiales aislantes para convertirlos en semiconductores a temperatura ambiente.

De este modo, a las óptimas propiedades mecánicas de los materiales cerámicos, mediante esta técnica de síntesis en el futuro se les podrá usar en los dispositivos electrónicos. Su ventaja sobre los metales, consiste en una menor pérdida de energía en forma de disipación térmica, y por tanto, menor contaminación electromagnética y menos interferencias con otros dispositivos. Los resultados han aparecido el lunes 27 de mayo en la revista Proceeding of the National Academy of Sciences, concentrándose el trabajo en vidrios a base de alúmina, y utilizando como fundente el óxido de calcio.

«Este nuevo material posee multitud de aplicaciones», según Benmore, entre las que se encuentra «la fina película utilizada en las pantallas de cristal líquido o LCD», básicamente el panel plano que contiene la pantalla del ordenador desde el cual, con mucha probabilidad, usted esté leyendo esta noticia. A día de hoy, el viejo sueño de convertir los metales en oro pasa por fabricar dispositivos móviles o tabletas con una pantalla atractiva que enamore a los usuarios.

Confirman que el grafeno es el material más fuerte del mundo

(Diario ABC.es) - Haría falta poner encima a un elefante balanceándose sobre un lápiz para romper una sola hoja de este material puesta sobre una taza de cafe.

El grafeno es uno de los materiales más finos, flexibles y con mayor conductividad que existen. Está llamado a revolucionar el futuro por sus enormes aplicaciones potenciales en diferentes campos, que van desde las telecomunicaciones o la fabricación de chips para ordenadores ultrarápidos hasta una nueva forma de elaborar fármacos contra el cáncer o un increíble ascensor espacial. Ahora, además, científicos de la Universidad de Columbia han confirmado algo que ya sospechaban, que se trata del material más fuerte que existe, incluso aunque contenga defectos.  

Lo cuentan en la revista Science. El grafeno es una capa atómica de carbono de un átomo de espesor dispuesta en celosía de nido de abeja. Es perfecta en áreas pequeñas, pero su uso práctico requiere superficies de mayores dimensiones, por ejemplo para crear hojas del tamaño de una pantalla de televisión. Esto requiere uniones que contienen muchos pequeños granos cristalinos, lo que podría debilitar el material y hacer que se rompa con más facilidad. Sin embargo, los experimentos de los investigadores demostraron que, incluso con esas imperfecciones, el grafeno es fortísimo. Aproximadamente el 90% de lo que es el grafeno perfecto. «Estamos muy contentos de decir que el grafeno ha vuelto y más fuerte que nunca», afirma James Hone, profesor de ingeniería mecánica y responsable del estudio.

El equipo de ingeniería de Columbia ya publicó en la revista Science en 2008 que el grafeno perfecto era el material más fuerte jamás medido. «Se necesitaría un elefante en equilibrio sobre un lápiz para romper una hoja de grafeno del espesor del papel film», decía Hone. Ahora han comprobado que el grafeno imperfecto también puede con todo.

«Este es un resultado interesante para el futuro del grafeno, ya que proporciona la evidencia experimental de que la fuerza excepcional que posee en la escala atómica puede persistir en muestras más grandes», afirma el investigador. «Esta fuerza será de gran valor para que los científicos continúen desarrollando nuevos productos electrónicos flexibles y materiales compuestos ultrafuertes».

El grafeno podrá utilizar en una amplia variedad de aplicaciones como pantallas de televisión que se enrollan como un póster o materiales compuestos ultra fuertes que podrían reemplazar a la fibra de carbono. Los investigadores incluso especulan con la idea de un ascensor espacial que podría conectar un satélite en órbita a la Tierra por un cable largo construido con grafeno. Dicen que ningún otro material podría ser capaz de hacer realidad algo así.

Crean un nuevo material capaz de albergar una gran cantidad de energía

(Diario ABC.es) - Puede tener importantes aplicaciones prácticas en las renovables, los coches eléctricos y tecnologías espaciales y de defensa
Crean un nuevo material capaz de albergar una gran cantidad de energíaA.N.U.
Ray Withers y Yun Liu, con el modelo químico del nuevo material. 
 
Un nuevo material que puede almacenar grandes cantidades de energía con muy poca pérdida de energía ha sido desarrollado por investigadores de la Universidad Nacional de Australia. Los científicos ceen que este nuevo material dieléctrico tiene aplicaciones prácticas en el almacenamiento de energía renovable, los coches eléctricos y las tecnologías espaciales y de defensa.
 
«Los materiales dieléctricos se utilizan para fabricar componentes fundamentales llamados condensadores, que almacenan la energía», explica Liu Yun, coautor del artículo. Según explica, el nuevo material dieléctrico de óxido de metal supera a los condensadores actuales en muchos aspectos, como el almacenamiento de grandes cantidades de energía trabajando de forma fiable a partir de -190°C a 180°C, y es más barato de fabricar que los componentes actuales. 

«Nuestro material se comporta significativamente mejor que los materiales dieléctricos existentes, por lo que tiene un enorme potencial. Con un mayor desarrollo, el material podría ser utilizado en 'supercondensadores' que almacenan enormes cantidades de energía, eliminando las limitaciones de almacenamiento de energía actuales y abriendo la puerta a la innovación en las áreas de la energía renovable, los coches eléctricos, incluso las tecnologías de defensa y el espacio», afirma Liu. 

El material podría ser especialmente transformador para la energía eólica y solar. «La energía que va por la red tiene que estar equilibrada con la demanda en un momento dado», dice el coautor y profesor Ray Withers. «Esto significa que es muy importante ser capaz de almacenar la energía hasta el momento en que realmente se necesita».

Los investigadores han estado tratando de diseñar nuevos materiales dieléctricos para hacer dispositivos de almacenamiento de energía más eficientes durante años. El proceso de diseño ha sido difícil debido a que los materiales deben cumplir con tres requisitos: una alta constante dieléctrica, lo que significa que pueden almacenar una gran cantidad de energía; una pérdida dieléctrica muy baja, es decir, que la energía no se escape y ni se desperdicie, y la capacidad para trabajar a través de una amplia gama de temperaturas.
«Si usted tiene una constante dieléctrica más alta pero también una gran pérdida, el material es básicamente inútil, ya que no se conserva bien la energía, es como un cubo agujereado. 

El material también sería inútil si solo funciona bien a una cierta temperatura, ya que no podría hacer frente a las fluctuaciones diarias de temperatura normales. Es muy difícil conseguir estas tres características», señala Withers.

Después de cinco años de duro trabajo, el equipo de investigación ha desarrollado un material que cumple con todos estos requisitos. «Nuestro éxito es una mezcla de suerte, experimentación y la determinación», asegura Liu. «La primera vez que encontramos este material sabíamos que tenía un gran potencial. Es amable con el medio ambiente, no tóxico y abundante».

jueves, 27 de junio de 2013

La Plata tiene el planetario más moderno de la región


(Diario La Nación) -  Ubicado en el bosque, posee una tecnología HD que permite una proyección inmersiva; esperan que incentive el turismo

El moderno planetario, dependiente de la UNLP, otra atracción de la ciudad. Foto: LA NACION

En una función inaugural que reunió a docentes, investigadores y autoridades de la Universidad Nacional de La Plata (UNLP), se presentó ayer el nuevo planetario de esta ciudad: ubicado en el bosque platense, se trata de un complejo de alta tecnología que combina la ciencia con la recreación.

Con el objetivo de abrir sus puertas al público general durante las próximas vacaciones de invierno, el edificio, ubicado en el predio de la Facultad de Ciencias Astronómicas y Geofísicas donde antes funcionaban talleres del Observatorio, posee una superficie de 1200 metros cuadrados y capacidad para 200 visitantes.

Desde la UNLP se informó que se trata del planetario más moderno de América latina. Dotado con equipamiento de punta para la reproducción de imágenes de altísima definición, cuenta con dos proyectores tipo "4K Ultra HD" ubicados de manera que "en un punto determinado los haces de luz se superponen, provocando lo que se llama proyección inmersiva. Eso hace que el espectador tenga la sensación de estar adentro del escenario virtual que está viendo", explicó el director del flamante planetario, Carlos Feinstein. En su papel de maestro de ceremonias, Feinstein no pudo ocultar su orgullo al mencionar que se trata del primer planetario del país dependiente de una universidad. La inversión, que en buena parte fue solventada por el gobierno bonaerense, fue de unos 10 millones de pesos.

La función de ayer sirvió como ensayo y puesta a punto del sistema de proyección. El próximo miércoles el sitio tendrá una prueba de fuego: se hará una nueva presentación destinada a los directores de los 40 planetarios que existen en América latina.

Recostados sobre mullidos asientos de cara hacia la enorme pantalla en forma de cúpula -el domo posee 187 metros de diámetro-, los asistentes no sólo vieron pasar planetas, estrellas y asteroides, sino que también se metieron en el interior de un templo egipcio.

Feinstein explicó que se busca convocar al resto de las 17 facultades de la UNLP para pensar en utilizar las flamantes instalaciones siguiendo un concepto de "integración cultural", con el fin de convertir al lugar en un verdadero polo de atracción para el denominado turismo científico.

En el planetario tiene prevista la proyección de películas como Maravillas del universo , un recorrido por las profundidades del espacio a través de los ojos del telescopio espacial Hubble; Dos pequeñas piezas de vidrio , permite interiorizarse de la historia de los telescopios; y Universo , que aborda las visiones del universo a través de la historia. Asimismo se exhibirá Estrellas de los faraones , un viaje al antiguo Egipto para que el espectador conozca de cerca cómo la ciencia era utilizada con el objetivo de investigar acerca del tiempo, realizar calendarios y alinear grandes construcciones.

En tal sentido, el decano de la Facultad de Ciencias Astronómicas y Geofísicas de la UNLP, Adrián Brunini, explicó que "los planetarios actuales no sólo muestran las proyecciones de estrellas y constelaciones, sino que tienen capacidad para la generación de espectáculos 3D", agregó.

A la función de ayer asistieron, entre otros, el presidente de la UNLP Fernando Tauber, el ministro de Infraestructura de la provincia de Buenos Aires, Alejandro Arlia y el intendente local, Pablo Bruera.

Integrado al Museo de Ciencias Naturales, al Jardín Botánico, al Zoológico, al lago, al teatro Martín Fierro en el paseo del Bosque, el nuevo planetario se suma a un mega complejo de atracción científica, cultural y turística. A metros funciona el Observatorio para ver lo mismo, pero en el cielo verdadero, a través del telescopio Gran Ecuatorial de 43 centímetros de diámetro y 9 metros de distancia focal (donde ahora se realizan las visitas públicas); la sala museo ubicada en la planta baja del Gran Ecuatorial; el telescopio buscador de cometas, el telescopio cenital de latitudes; el telescopio reflector de 80 centímetros y el edificio principal de la Facultad de Ciencias Astronómicas con la sala de relojes y el sismógrafo histórico.

Según lo informado, de martes a viernes, y solicitando turno previamente, se recibirán exclusivamente las visitas de las escuelas e instituciones educativas -desde jardín de infantes hasta secundaria-. En tanto, los fines de semana y días feriados estará abierto, en diferentes horarios, para todo público..

miércoles, 19 de junio de 2013

Acuerdo chino-argentino


(La Nación) - La compañía argentina Bioceres desarrollará junto con la firma Dabeinong Technology Group, de China, semillas de soja y maíz que combinen tecnologías de aumento de rendimiento por tolerancia a sequía y salinidad, con resistencias a insectos y herbicidas.
Éste es el primer acuerdo agrobiotecnológico firmado entre compañías de ambos países, que, según Federico Trucco, CEO de Bioceres, "permitirá desarrollar en conjunto semillas de soja y maíz que conjuguen las dos tecnologías y permitan aumentar los rendimientos". A su vez, Yuping Lu, director general de Dabeinong, afirmó que el convenio permitirá construir un puente entre los dos países porque "la combinación de las tecnologías puede acelerar el desarrollo de esta nueva variedad y aumentar su impacto".

jueves, 6 de junio de 2013

La NASA y un mapa asombroso: La Antártida sin hielo glaciar

CIUDAD DE BUENOS AIRES (Urgente24) - La NASA presentó un nuevo mapa de la Antártida que muestra una faceta desconocida del continente blanco: sin su casquete de hielo. El mapa, bautizado Bedmap2, fue elaborado por los científicos del British Antarctic Survey y permite ver de manera detallada qué hay debajo de la capa de hielo del glaciar más grande del mundo. La NASA ha presentado un nuevo y detallado mapa de la superficie de la Antártida como nunca la ha visto el ojo humano: despojada de la capa de hielo de sus glaciares.
El mapa, bautizado Bedmap2, fue elaborado por los científicos del British Antarctic Survey y permite ver de manera detallada qué hay debajo de la capa de hielo del glaciar más grande del mundo.   
La contribución de la NASA en el diseño de Bedmap2 consiste en las mediciones de la superficie actual realizadas por el satélite Ice, Cloud, and Land Elevation (ICESat), así como en los resultados obtenidos durante varios años de sobrevuelos de aeronaves especializadas que midieron los cambios en el espesor del hielo marino y del de los glaciares. 
Durante el proyecto los investigadores descubrieron que el volumen de hielo situado bajo el nivel del mar es un 23% mayor de lo que se creía, y que el punto más hondo del glaciar Byrd se encuentra a 400 metros de profundidad. 
El hielo de la Antártida no es estático, sino que fluye constantemente hacia el mar. Conocer la forma de la superficie del continente antártico y el espesor de su capa de hielo permite a los científicos estudiar estos movimientos de agua y predecir cómo podría cambiar en el futuro el continente. 
El estudio detallado de las tierras subglaciales de la Antártida también podría revelar la relación existente entre el cambio climático y la forma del Polo Sur de nuestro planeta.

viernes, 3 de mayo de 2013

Islas Georgias del Sur: avanza la campaña de investigación pesquera en aguas circundantes


Por Redacción Notitrans
La campaña se inició días atrás con la partida desde el puerto de Mar del Plata del Buque de Investigación Pesquera (BIP) “ Eduardo L.Holmberg", perteneciente al Instituto Nacional de Investigación y Desarrollo Pesquero (INIDEP), que navega el área que se extiende sobre las plataformas de la Islas San Pedro y Rocas Cormorán.

Foto: Buque de Investigación Pesquera “ Eduardo L.Holmberg".

El avance de la campaña de investigación, denominada "Estudio de la situación de los recursos biológicos marinos en la subárea estadística 48.3 y su vinculación con la Confluencia Weddell-Scotia", fue informada por la cartera de Agricultura,Ganadería y Pesca de la Nación y se realiza en aguas circundantes a las Islas Georgias del Sur.

Características

El buque incursionará en profundidades no mayores a los 500 metros de profundidad en el archipiélago de las Islas Georgias del Sur. "Cabe destacar que esta campaña, que durará aproximadamente 28 días, retoma las investigaciones conjuntas que el INIDEP y el Instituto Antártico Argentino (IAA) iniciaron en 1994 y quedaron interrumpidas en 1998" y lo hace "gracias a las gestiones que llevó adelante la Subsecretaría de Pesca y Acuicultura de la Nación, a cargo de Miguel Bustamante", se informó en un comunicado.

El personal científico-técnico asignado a la misión pertenece a ambos institutos pero, además, se embarcaron a dos profesionales designados del Canal Encuentro, que filmarán todas las actividades que se realicen a bordo, para elaborar undocumental sobre el crucero. "Hay que señalar en este aspecto la intensa tarea que el INIDEP realizó para recuperar la flota de buques de investigación", se dijo.

Objetivo

La busqueda principal del estudio es aportar información sobre la distribución espacial de los cardúmenes de peces dermersales, sobre todo del Pez Hielo (Champsocephalus Gunnari). Esta especie tuvo una abrupta reducción de su población desde 1992 y todavía no se recuperó a pesar de las restricciones a su captura, que impuso la Convención para la Conservación de los Recursos Vivos Marinos Antárticos (CCRVMA).

Asimismo, se observará la disponibilidad de krill y se harán estudios para analizar la comunidad planctónica y de invertebrados bentónicos, para así poder describir las asociaciones de especies y caracterizar el área de estudio apartir de la riqueza específica.

En otro orden, se realizarán muestreos de peces y crustáceos decápodos para identificar la composición faunística del área y se recolectará material para estudios taxonómicos, tróficos, histológicos y de biología reproductiva de las especies de valor comercial.   Fuente: http://www.notitrans.com/nota/118300/-islas-georgias-del-sur-avanza-la-campana-de-investigacion-pesquera-en-aguas-circundantes-

martes, 9 de abril de 2013

Argentina e Italia acuerdan la construcción de un telescopio en suelo argentino

Ambos países son socios en el proyecto Cherenkov Telescope Array (CTA), por el cual Argentina podría albergar una red de 80 telescopios para estudiar los rayos gamma que provienen del Universo. Un paso en este sentido es la firma del convenio por el cual se construirá un prototipo de estos instrumentos en nuestro país. Representantes de la Comisión Nacional de Energía Atómica (CNEA) y del Instituto Nacional de Astrofísica de Italia (INAF) acordaron que la institución argentina destine 3 millones de pesos para construir íntegramente en el país un telescopio de 4 metros de diámetro. 

La agencia italiana ya aporta 8 millones de euros para montar otros seis telescopios, cinco de los cuales podrían instalarse en nuestro país en caso de que Argentina sea elegida para albergar el megaproyecto CTA que está destinado a revolucionar el estudio de las fuentes de energía que existen en el Universo.  Los telescopios más grandes del proyecto CTA tendrán hasta 25 metros de diámetro y los más chicos de 4 a 6 metros. Estarán dispuestos en una planicie de 10 kilómetros cuadrados y la construcción total implicará un costo cercano a los 250 millones de dólares, los cuales serán financiados por los 25 países que forman parte de la colaboración. La comunidad científica argentina, como así también el ministerio de Ciencia y el CONICET están expectantes con motivo de que este observatorio se aloje en el país.

El representante argentino del proyecto CTA, Alberto Etchegoyen, explicó que a fin de año se decidirá la ubicación de esta red de telescopios. “Además de nuestro país, también son candidatos Namibia y Chile”. Por lo pronto, la CNEA hará un prototipo de cuatro metros de estos telescopios que estudian los rayos gamma que provienen del espacio. Etchegoyen, quien también se desempeña como director del observatorio Pierre Auger, destacó que “el telescopio será construido en Argentina y por investigadores argentinos”. El mismo podría ser instalado en Salta, a 3700 metros de altura, o en San Juan, dependiendo ello de que algunos de estos sitios fuera elegido para instalar la red de CTA.

Previamente a la firma de este convenio entre Argentina e Italia en la embajada del país europeo, se desarrolló una jornada de seminarios sin precedentes en el Planetario. En la conferencia estuvo presente el propio Alberto Etchegoyen, disertando sobre el Observatorio Pierre Auger, que es el máximo detector de astropartículas del mundo, con una superficie 3.000 kilómetros cuadrados y que está ubicado en Malargüe, Mendoza. “Es la primera vez que se realiza un evento así en el Planetario, porque del mismo también participaron investigadores italianos y esto sirve para unir todavía más el trabajo que estamos realizando conjuntamente entre ambos países en el área de la astrofísica”, subrayó Etchegoyen.

Consecutivamente, realizo su exposición el investigador superior del CONICET y coordinador internacional de la infraestructura del proyecto CTA, el Doctor Félix Mirabel, quien ha realizado grandes hallazgos científicos en la astrofísica, destacándose especialmente en el descubrimiento de los microcuásares, las galaxias ultraluminosas y las galaxias enanas de marea.

También, conferenció el Doctor Osvaldo Civitarese, corresponsable del proyecto ANDES, el cual consiste en el establecimiento de un laboratorio subterráneo bajo la Cordillera, a la altura de la provincia de San Juan, con el objeto de estudiar la materia oscura, los neutrinos, hacer investigaciones sobre biofísica, geología e impacto ambiental entre otros fenómenos. (Luis Piñeiro, corresponsal en Argentina - Defensa.com)

martes, 1 de enero de 2013

Juegos gravitatorios: cómo volar a otros mundos

Viajes de mínima energía a otros planetas considerando el tiempo requerido y el consumo de energía implicado por cada kilogramo de masa de la sonda espacial.

JUEGOS GRAVITATORIOS

El sueño de explorar el espacio no puede terminar en la Luna. Todos los precursores del vuelo espacial, de Tsiolkovski a Goddard, formularon sus propuestas y realizaron sus experimentos con la mirada puesta en los planetas hermanos de la Tierra. Los intentos por alcanzar Marte y Venus con sondas espaciales empezaron en 1960 y 1961, tan solo tres o cuatro años después del lanzamiento del primer satélite artificial de la Tierra.

En la cultura popular no hay una diferencia clara entre lanzar un cohete al espacio circunterrestre, enviar una sonda a la Luna o hacer llegar un artefacto a otro planeta. Pero en realidad las discrepancias entre los tres problemas son enormes, desde muchos puntos de vista. Quizá la más sencilla de entender sea la referida a las telecomunicaciones. Un satélite en órbita terrestre baja puede hallarse a tan sólo unos cuantos miles de kilómetros. La Luna se coloca a varios cientos de veces esa distancia. Pero incluso el más cercano de los planetas, Venus, se encuentra siempre cien veces más lejos que la Luna, unas mil veces más distante que un satélite artificial cualquiera. Si se tiene en cuenta que la intensidad de las ondas de radio disminuye con el cuadrado de la lejanía, podremos hacernos una idea del desafío de ingeniería que representa transmitir información a y desde una sonda interplanetaria.

La distancia complica no solo las transmisiones de radio, sino también muchos otros aspectos de estas misiones espaciales. La cuestión más importante es la del propio viaje. Enviar un trozo de metal y plástico de la Tierra a otro planeta implica una inversión de energía formidable y obliga, a la vez, a mantener "vivos" los instrumentos durante periodos de tiempo muy prolongados en el ambiente hostil del espacio. Si comparamos el viaje a la Estación Espacial Internacional con salir a comprar a la panadería de la esquina, entonces el vuelo a la Luna correspondería a un viaje en tren a otra ciudad, y la exploración de otro planeta se convertiría en un viaje intercontinental en avión. Por supuesto, en los tres casos hablamos de desplazamientos, pero está claro que se trata de problemas radicalmente distintos por duración, logística y costes.

Sin embargo, desde el punto de vista teórico se pueden encontrar analogías entre el viaje a la Luna y las trayectorias que siguen las sondas espaciales dirigidas a otros planetas. Al igual que en el caso de nuestro satélite natural, y como ya hemos insinuado, una de las primeras consideraciones que hay que tener en cuenta hace referencia a la energía necesaria para colocar un artefacto en la trayectoria interplanetaria adecuada. En el artículo dedicado al viaje a la Luna comentamos las trayectorias de mínima energía u órbitas de Hohmann. Este concepto resulta muy útil también para analizar la ruta óptima a los planetas.

Consideremos de entrada, para fijar ideas, el viaje de la Tierra a Marte. El concepto de órbita de Hohmann adaptado al vuelo hacia un planeta como Marte implica impulsar el aparato cósmico hasta una órbita elíptica alrededor del Sol cuyo punto más cercano a nuestra estrella (perihelio) toque de manera tangencial la órbita de partida, que es la de la Tierra, y que tenga el punto más alejado del Sol (afelio) rozando la órbita de destino. La órbita que implica un consumo mínimo de energía en el viaje hacia Marte debe tener el perihelio a unos 150 millones de km del Sol y el afelio a aproximadamente 230 millones de km.

Para el estudio del viaje interplanetario resulta muy útil emplear como unidad de medida no el kilómetro, sino la unidad astronómica de distancia. Esta unidad de medida, cuyo símbolo internacional es au (las letras a y u minúsculas, juntas y escritas en tipo redondo), equivale muy aproximadamente a la distancia media entre la Tierra y el Sol. De este modo, la órbita terrestre tiene un radio de 1 au, mientras que la de Marte mide 1,52 au (si se considera circular). La órbita de mínima energía para el viaje de la Tierra a Marte queda descrita por tanto de este modo: perihelio de 1 au y afelio de 1,52 au.

Sigamos pensando en Marte. Para lanzar una sonda hacia ese planeta, por tanto, hay que colocarla sobre un cohete potente, capaz de aplicarle al ingenio espacial una aceleración considerable en el mismo sentido en el que se mueve la Tierra alrededor del Sol. Ese aumento de velocidad asciende, en el caso de Marte, a nada menos que 3.000 metros por segundo, unos 10.000 kilómetros por hora adicionales que, por supuesto, se suman a la velocidad orbital que ya lleva la Tierra por sí misma y que equivale a unos 100.000 km/h. Impulsar un artilugio hasta que alcance una velocidad de 10.000 km/h respecto de la Tierra no es trivial.

Una vez situada la sonda en órbita trans-marciana, solo queda esperar a que la trayectoria la lleve hasta la distancia a la que se encuentra la órbita de Marte. Este viaje se verifica en un tiempo determinado con todo rigor por las leyes de la mecánica celeste y asciende a 259 días. Como es natural, el lanzamiento no se puede efectuar en cualquier momento, sino que tiene que haberse producido en el instante exacto en que al planeta Marte le falten 259 días para llegar al punto previsto para el encuentro. De aquí el concepto de ventana de lanzamiento. Si se va a usar una trayectoria de mínima energía, entonces las fechas útiles para lanzar el cohete quedan acotadas de manera bastante estricta. Aunque los aparatos se construyen de manera que haya un margen de varias semanas en torno al instante óptimo, si se pierde la ocasión hay que esperar a la siguiente, y para el planeta Marte las oportunidades suceden tan solo cada dos años y cincuenta días.

Al llegar a Marte la sonda debe encender los motores de nuevo para igualar su velocidad con la del planeta de destino. Esta maniobra implica consumir energía otra vez, en un nuevo empujón en el mismo sentido de giro de los planetas alrededor del Sol.

Hasta ahora hemos considerado las órbitas de partida y destino como circulares y coplanarias. En realidad la órbita de Marte es algo excéntrica, de modo que las distancias Marte-Sol pueden variar entre 1,67 au y 1,38 au. Esta circunstancia hace que las órbitas de mínima energía para el viaje a Marte resulten distintas de una vez a otra. En el mejor de los casos el tiempo de viaje se reduce a 237 días, mientras que en el peor asciende a 281. Esta diferencia tiene una correspondencia también en términos de energía y los cálculos indican que viajar a Marte cuando su distancia es mayor implica un gasto de energía que asciende a una vez y media la necesaria cuando la lejanía de este planeta es la menor. El contraste es muy considerable y explica las diferencias de masa de las sondas enviadas a este planeta en años distintos, a pesar de que muchas veces se emplean cohetes semejantes.


Si se analizan las fechas de lanzamiento y llegada de las misiones espaciales dirigidas a Marte se observa que no todas han seguido trayectorias de Hohmann estrictas, sino que han tendido a abreviar un poco el viaje, con un predominio de los trayectos de unos siete meses de duración, en vez de los ocho u ocho y medio que habría implicado un recorrido de mínima energía. Las misiones más pesadas, o las lanzadas en condiciones menos propicias, tienden a seguir órbitas más parecidas a las de Hohmann.



Pero pensemos ahora en el viaje hacia un planeta inferior, es decir, cuya órbita se encuentre no por encima, sino por debajo de la terrestre, como por ejemplo Venus. En este caso la trayectoria de Hohmann tendrá el afelio en la órbita terrestre, a 1 au del Sol, y el perihelio en la órbita de Venus, a 0,72 au. Ahora el cohete, al salir al espacio, tiene que restarle velocidad a la sonda para que caiga hacia el Sol. Para ir a Venus, la velocidad que se debe sustraer a la nave equivale a 9.000 km/h. Para ello el cohete se orienta en sentido contrario al del movimiento de la Tierra alrededor del Sol y actúa durante un cierto tiempo. Aunque se le resten 9.000 km/h a la sonda, el aparato ya tenía de partida la velocidad heliocéntrica correspondiente a la Tierra, así que, a pesar de la desaceleración, sigue desplazándose alrededor del Sol en el sentido original, aunque más despacio. La sonda se aproximará a la órbita de Venus y, si despegó en la ventana de lanzamiento correcta, se encontrará con el planeta de destino al cabo de 146 días. En ese momento la nave se estará desplazando, respecto del Sol, bastante más rápido que Venus, lo cual la obligará a un segundo encendido de motores que le aplique otra dosis de frenado. Vemos por tanto que para viajar "hacia el Sol" hay que hacer frenar las naves dos veces, mientras que para moverse por el Sistema Solar "en contra del Sol" lo que corresponde es acelerar en dos oportunidades distintas.

Las órbitas de Venus y la Tierra son bastante circulares y por eso no hay diferencias significativas entre las órbitas de mínima energía de una ventana de lanzamiento o de otra. Por cierto que en el caso de Venus esas ventanas se repiten cada año y 220 días.

Podríamos plantearnos viajes de mínima energía a otros planetas. Nos interesará considerar, en cada caso, el tiempo requerido para el viaje y, también, el consumo de energía implicado por cada kilogramo de masa de la sonda espacial. Para valorar la energía podemos emplear como unidad aquella requerida para enviar un kilogramo al planeta más cercano, Venus, que corresponde a 170 millones de julios (40 millones de calorías). En este cómputo de energía se incluyen tanto la aceleración (o desaceleración) necesaria al partir de la Tierra como la que hay que aplicar a la llegada a destino para igualar la velocidad de la sonda con la del planeta. Los datos obtenidos se especifican en la tabla 1 del multimedia.

Se observan varios resultados sorprendentes. En primer lugar, que el viaje a Mercurio resulta más breve que a Venus, a pesar de estar más lejos. Pero, aunque se llegue antes a Mercurio, el coste a lo largo de una trayectoria de Hohman es muy considerable, el cuádruple, en términos energéticos. El viaje promedio a Marte viene a salir igual de caro que a Venus en cuanto a energía (puede costar lo mismo en los años menos favorables). Pero las cifras más significativas las encontramos a partir de Júpiter. Cada kilogramo enviado al planeta gigante cuesta el doble que si se mandara a Venus y, además, requiere un tiempo de tránsito superior a los dos años y medio. Este tiempo puede ser tolerable con la tecnología actual, pero para mundos cada vez más lejanos nos encontramos con que el coste energético se estabiliza en unas dos veces y media el precio del viaje a Venus, pero los tiempos de tránsito se tornan prohibitivos, por largos.

Las conclusiones que se deducen de estas cifras explican las técnicas que se emplean para el viaje interplanetario. Para ir a Venus, Marte y Júpiter suelen seguirse trayectorias parecidas a las de mínima energía de Hohmann, o incluso más rápidas aun a costa de consumir más combustible por unidad de masa. Pero para el resto de planetas hay que recurrir a otras técnicas. En el caso de Mercurio por cuestiones energéticas y en el de los planetas exteriores por motivos de tiempo, la mecánica celeste dentro del Sistema Solar exige soluciones creativas. Y, en efecto, para visitar todos estos mundos se ha recurrido a un método inesperado que permite a la vez abaratar costes (ahorrar energía) y acortar los tiempos: la asistencia gravitatoria. Pero tenemos que dejar este ingenioso recurso de la astronáutica moderna para el último artículo de esta serie.

Fuente: Cortesía de David Galadí-Enríquez para Caos y ciencia - Via National Geografhic

Datos increíbles acerca de la Luna

 Diez curiosidades sobre la LunaDiez datos curiosos acerca de la Luna:

1- Una persona que pese 45 kilos, en la Luna pesaría 8,05 kilos.

2- Sin traje espacial en la Luna, la sangre hierve instantáneamente.

3- En la Luna es imposible silbar.

4- Ha llegando más gente a la Luna que a las profundidades de los océanos.

5- James. B. Irwin, astronauta del Apollo 15, fue la octava persona en caminar sobre la Luna el 30 de julio de 1971.

6- La última persona que pisó la Luna lo hizo en 1972.

7- En la Luna no hay viento ni sonido.

8- La superficie de la Luna es más pequeña que Asia.

9- Cada año la Luna se aleja de la Tierra 3.8 centímetros.

10- Que las personas actúen de forma extraña durante la luna llena, es un mito.

Fuente: National Geographic

Los viajes espaciales pueden acelerar la aparición de alzheimer


Por ABC.es - EP / MADRID
La radiación cósmica galáctica representa una amenaza importante para los futuros astronautas, según una investigación

La radiación cósmica que bombardean los astronautas en misiones en el espacio a lugares como Marte podría acelerar la aparición de la enfermedad de Alzheimer, según concluye un nuevo estudio, publicado en la revista «Plos One». «La radiación cósmica galáctica representa una amenaza importante para los futuros astronautas», afirmó Kerry O'Banion, profesor en el Departamento de Neurobiología y Anatomía del Centro Médico de la Universidad de Rochester (Estados Unidos) y autor principal de la investigación.

«La posibilidad de que la exposición a la radiación en el espacio puede dar lugar a problemas de salud tales como el cáncer ha sido reconocida. Sin embargo, este estudio demuestra que la exposición a niveles de radiación equivalentes a una misión a Marte podría producir problemas cognitivos y acelerar los cambios en el cerebro que están asociados con la enfermedad de Alzheimer», concreta este experto.

Mientras que el espacio está lleno de radiación, el campo magnético de la Tierra protege en general el planeta y a la gente en la órbita baja de la Tierra de estas partículas. Sin embargo, una vez que los astronautas dejan la órbita están expuestos a la ducha constante de diversas partículas radiactivas. Varios estudios han demostrado el potencial riesgo de cáncer, impacto cardiovascular y musculoesquelético de la radiación cósmica galáctica, pero esta investigación examina el impacto potencial de la radiación espacial en la neurodegeneración y, en particular, los procesos biológicos en el cerebro que contribuyen al desarrollo de la enfermedad de Alzheimer.

O'Banion, cuyo estudio se centra en cómo la radiación afecta al sistema nervioso central, y su equipo han estado trabajando con la NASA (agencia norteamericana del espacio) desde hace más de ocho años. Los investigadores estudiaron el impacto de una determinada forma de radiación de partículas de alta masa y alta cargada (HZE). Estas partículas, que son impulsadas por el espacio a velocidades muy altas por la fuerza de las estrellas en explosión, tienen muchas formas diferentes por lo que estos científicos eligieron partículas de hierro para su estudio.

«Debido a que un paquete de partículas de hierro es más duro que un golpe es muy difícil desde el punto de vista de ingeniería proteger eficazmente contra ellas», dijo O'Banion, que añade que para ello habría que envolver una nave espacial en un bloque de plomo u hormigón.
Experimento en ratones

Una parte de la investigación se llevó a cabo en el Laboratorio de Radiación Espacial de la NASA en el Laboratorio Nacional de Brookhaven en Long Island (Estados Unidos). Los investigadores quisieron comprobar si la exposición a la radiación tiene el potencial de acelerar los indicadores biológicos y cognitivos de la enfermedad de Alzheimer, sobre todo en personas que puedan estar predispuestas a desarrollar esta patología. Para lograrlo, estudiaron el impacto en los modelos animales de la enfermedad de Alzheimer, que fueron expuestos a diferentes dosis de radiación, incluyendo los niveles comparables a lo que los astronautas experimentarían durante una misión a Marte.

En Rochester, un equipo de investigadores evaluaron el impacto cognitivo y biológico de la exposición, sometiendo a los ratones a una serie de experimentos en los que les retiraron objetos o lugares específicos. Los investigadores observaron que los ratones expuestos a la radiación eran mucho más propensos a fallar en estas tareas, sugiriendo un deterioro neurológico, antes de que estos síntomas aparecen normalmente.

Los cerebros de los ratones también mostraron signos de alteraciones vasculares y una mayor acumulación de placa en la proteína amiloide beta de lo normal que se acumula en el cerebro y es una de las características de la enfermedad.

«Estos hallazgos sugieren claramente que la exposición a la radiación en el espacio tiene el potencial de acelerar el desarrollo de la enfermedad de Alzheimer, sentenció O'Banion. A su juicio, este es otro de los factores que la NASA, «que está claramente preocupada por los riesgos para la salud de los astronautas», tendrá que tener en cuenta que los planes de futuras misiones.

jueves, 27 de diciembre de 2012

Se inaugura la antena para Exploración del Espacio Profundo de la ESA en suelo argentino


Se inauguró la antena para el estudio del espacio profundo (DS, por sus siglas en inglés), en la localidad mendocina de Malargüe. Esta antena completa la red de tres estaciones de monitoreo ubicadas en Australia, en España, y ahora, en Argentina, que la ESA utiliza para seguimiento de sus misiones de exploración del espacio. 

El 10% del uso estará destinado a la comunidad científica nacional. La ESA ha invertido  45 millones de euros en la construcción de la antena, ubicada 30 kilómetros al sur de la ciudad mendocina de Malargüe y  que fue elegida por presentar las mejores condiciones de ubicación, por su visibilidad y potencial de propagación de radio, informó la agencia europea. 

De este modo, la denominada "DSA 3 Malargüe" se une a dos antenas ya establecidas en New Norcia (Australia) y Cebreros (España), finalizadas en 2002 y 2005, respectivamente. Con esta facilidad la ESA completa la cobertura circunferencial para sondas de estudio del espacio lejano que operan más allá de los 2 millones de kilómetros de la Tierra, en donde "las comunicaciones requieren de actividades de apuntamiento mecánico y calibración de gran exactitud", detalla un informe técnico de la ESA.
La Agencia Espacial Europea (ESA) el gobierno de la República Argentina a través de la Comisión Nacional de Actividades Espaciales (CONAE), suscribieron en el año 2009 un convenio para el establecimiento de la estación denominada Deep Space 3 (DS3) en la localidad de Malargüe, provincia de Mendoza. Equipada con una antena parabólica de 35 metros de diámetro e instalaciones asociadas a su operación, la estación está dedicada a dar soporte a las misiones espaciales europeas de exploración interplanetaria.


La CONAE, en su carácter de organismo nacional a cargo del desarrollo y coordinación de las actividades espaciales de la Argentina, tuvo a su cargo la implementación del proyecto con la ESA y con los organismos participantes del Estado Nacional y de la Provincia de Mendoza. La CONAE también coordina para la comunidad científica del país el uso de un 10% del tiempo de antena disponible, con el fin de promover el acceso de los investigadores de nuestro país al uso de esta importante red internacional, para sus propios estudios.

La instalación de la antena DS3 en Argentina es un hito importante en el Plan Espacial Nacional, ya que de esta manera, Argentina incursiona en el selecto grupo de países, junto a Estados Unidos, Europa, Rusia, Japón y China, que manejan tecnología de exploración interplanetaria. Argentina es el primer país de Latinoamérica que se suma con un equipamiento de esta envergadura, a la exploración del espacio; y no sólo para colaborar con la Agencia Espacial Europea, sino también para que nuestros científicos generen proyectos originados desde Argentina y con países de la región. Este emprendimiento significa también un claro reconocimiento a las capacidades de nuestro país a nivel científico-técnico, de recursos humanos e infraestructura, para alojar un proyecto de tal magnitud.

El sitio elegido: Seleccionado entre veinte lugares posibles de América y del país, el sitio elegido para este importante proyecto está ubicado al sur de la localidad de Malargüe, provincia de Mendoza. Así lo definió un estudio técnico que se desarrolló durante 2008 y 2009, que comprendió una exhaustiva evaluación de las condiciones de cada sitio propuesto. En este proceso se analizaron aspectos relativos a las capacidades existentes, las condiciones geológicas del terreno y la limpieza del espectro radioeléctrico en la zona, entre otros requerimientos necesarios para la instalación de la antena y de la infraestructura asociada para su operación.

En el Espacio Profundo: En el año 1998 la ESA decidió crear su propia red para el seguimiento de satélites en el espacio profundo, dado el aumento de sus misiones científicas con sondas interplanetarias. Para ello, se necesitaban tres estaciones en el globo terrestre, separadas, aproximadamente, 120° en longitud, para proporcionar cobertura continua a los satélites y así compensar la rotación de la Tierra. Las misiones al espacio profundo están situadas a distancias de la Tierra de más de 2 millones de kilómetros y para comunicarse con las sondas a esas distancias, se requieren sistemas muy precisos tanto de apuntamiento mecánico como de calibración de la antena.
La primera estación de espacio profundo de la ESA, la Deep Space Antenna 1 (DSA 1), terminó de construirse en 2002 en Australia; posteriormente, en 2005, se construyó la DSA 2 en España; y por último, en este momento se finalizó la instalación, en Argentina, de la DSA 3. Estas tres estaciones conforman la Red de Espacio Profundo de la ESA, y son controladas remotamente desde el Centro Europeo de Operaciones Espaciales (ESOC) en Darmstadt, Alemania. Están equipadas con antenas parabólicas de 35 m de diámetro que aumentan el rango y la velocidad de recepción de los datos necesarios para las presentes y futuras misiones de exploración, tales como Mars Express, Venus Express, Rosetta, Herschel, Planck, Gaia, BepiColombo, LISA, Solar Orbiter, Euclid y Juice. Las antenas DSA 1 Australia, DSA 2 España y DSA 3 Argentina, también tienen equipos para experimentos científicos que permiten a los investigadores estudiar las características de la materia a través de la cual viajan las señales de comunicaciones sonda-tierra.

Con su nueva red, la ESA se independiza de la Red de Espacio Lejano de la NASA en el control de sus misiones en el espacio profundo. No obstante, ambas agencias han reconocido la importancia del seguimiento y el control de satélites de la NASA por parte de estaciones de la ESA y viceversa, además de tener la posibilidad de controlar con mayor fiabilidad sus respectivos satélites. El hecho de contar con redes independientes, pero interoperables, también supone una ventaja en caso de emergencia de un satélite o de fallo de una estación.
Las futuras misiones al espacio profundo generarán crecientes cantidades de datos desde cientos de millones de kilómetros y requerirán frecuencias mucho más elevadas para aumentar la capacidad de transmisión de datos. Por ello, la ESA ha introducido, tanto en DSA 2 Cebreros como en DSA 3 Malargüe, la capacidad de recepción de señales en la banda K, mejorando significativamente el funcionamiento de la Red de estaciones de la ESA.

Asimismo, la estación de Malargüe está preparada para recibir señales en la banda K (25.5-27 GHz) en futuras misiones que requieran una alta velocidad de transmisión de datos, disponible gracias al mayor ancho de banda existente en banda K.De acuerdo a las condiciones locales, hay ciertas diferencias entre las tres antenas como pueden ser la resistencia al viento, la velocidad de giro o la resistencia a los movimientos sísmicos. 

Todas las estaciones, para reducir el ruido eléctrico del sistema y mejorar la recepción de las debilísimas señales que llegan de los satélites, están equipadas con receptores de bajo ruido enfriados a –258 grados centígrados y utilizan transmisores de banda S (DSA 1) y banda X (DSA 1, DSA 2 y DSA 3) de hasta 20kW para transmitir órdenes al espacio.

Características de las Antenas de Exploración del Espacio Profundo:
Altura: 40 metros
Peso del reflector: 130 toneladas
Peso partes de elevación: 380 toneladas
Peso partes móviles: 610 toneladas
Torre de hormigón: 1910 toneladas
(Por Luis Piñeiro, corresponsal en Argentina - Defensa.com)

miércoles, 19 de diciembre de 2012

De la Pampa argentina al espacio con la ESA


La antena contra el cielo con nubes y claros
La Agencia Espacial Europea (ESA) ha inaugurado en Malargüe (Argentina) una nueva estación de seguimiento. Entrará en servicio a primeros de año y recibirá los valiosos datos científicos generados por las misiones que viajan a cientos de millones de kilómetros en nuestro Sistema Solar.


La antena DSA 3 de Malargüe se unirá a la red formada por las antenas DSA1 en Nueva Norcia, Australia, y DSA2 en la localidad española de Cebreros. Las tres antenas harán el seguimiento a las misiones de la ESA en el espacio profundo, aquellas que se alejan a más de 2 millones de kilómetros de nuestro planeta para lo que son necesarias antenas de altísima precisión.

Jean-Jacque Dordain, director general de la ESA, ha dicho que «con la estación de Malargüe, la ESA se convierte en la segunda agencia espacial del mundo en proporcionar cobertura global a las misiones del espacio profundo» (...) «Se trata de un recurso formidable, no sólo para Europa, sino para todos los países con los que colaboramos en la exploración del Sistema Solar».

Las tres antenas DSA están equipadas con reflectores parabólicos de 35 metros de diámetro, que les permiten ofrecer el alcance y la velocidad de transmisión de datos requeridos por las misiones de exploración actuales y futuras, que abarcan desde sondas planetarias como Mars Express o BepiColombo a observatorios espaciales como Solar Orbiter.

Este tipo de misiones ha hecho que la red de estaciones de seguimiento de la ESA, Estrack, aumente su capacidad, desarrolle nuevas tecnologías de seguimiento, adopte frecuencias y velocidades de transferencia de datos más elevadas e invierta en infraestructura, al mismo tiempo que colabora con otras agencias para aumentar su eficacia y reducir costes.

Al igual que las otras dos estaciones DSA de la Agencia, el reflector de 600 toneladas de Malargüe está equipado con sofisticados amplificadores criogénicos de bajo ruido que le permitirán detectar las señales más débiles y medir parámetros de misiones que se encuentren en órbita a los planetas o surcando el Sistema Solar.

La nueva estación está ubicada a 30 kilómetros al sur de la ciudad de Malargüe, en la provincia de Mendoza, Argentina, y a unos 1200 kilómetros al oeste de Buenos Aires. Este emplazamiento fue elegido en el año 2009 tras la evaluación de varios candidatos en distintos países de América del Sur.
La construcción de la estación de Malargüe comenzó en enero de 2010 y en la primavera de 2012 ya estaba prácticamente finalizada. El 14 de junio de 2012 recibió las primeras señales de prueba de la sonda Mars Express, en órbita al Planeta Rojo, a 193 millones de kilómetros de la Tierra.

Como todas las estaciones de la red Estrack, la de Malargüe se controlará desde el ESOC, el Centro Europeo de Operaciones Espaciales en Darmstadt, Alemania. Desde allí se coordinarán sus labores cotidianas de seguimiento y descarga de datos científicos.

Telespazio Argentina, una subsidiaria de Telespazio (Finmeccanica/Thales) estará a cargo de su operación local y mantenimiento, de la infraestructura y de los servicios de la estación.  

Fuente: http://www.euroxpress.es/index.php/noticias/2012/12/19/de-la-pampa-argentina-al-espacio-con-la-esa/

jueves, 5 de abril de 2012

Investigadores Argentinos desarrollan una aleación más resistente a la corrosión

Colaboración de nuestro lector El Oso Argentino:
Investigadores argentinos mejoraron un recubrimiento metálico de zinc y níquel que tendría mayor resistencia en ambientes adversos, por lo que resulta de especial interés para la industria automotriz.

Uno de los problemas cotidianos en la fabricación de autopartes para automóviles y otros tipos de vehículos es la velocidad con que la corrosión arruina los artefactos, más aún, en ambientes donde las temperaturas son extremadamente bajas o altas, o también en lugares caracterizados por las continuas precipitaciones y los vientos cargados con partículas de tierra o arena.

A partir de esta problemática, el Centro de Procesos Superficiales del INTI desarrolló un recubrimiento constituido por zinc y níquel, una aleación que se caracteriza por tener más porcentaje de níquel que otras, lo que asegura una mayor resistencia al desgaste.

En este caso, la aleación tiene un 85% de zinc y un 15% de níquel, lo que la distingue de los recubrimientos metálicos ya conocidos en el mundo, que no superan el 12% del metal que se encuentra en menor proporción.

“En una aleación de este tipo, cuanto más alto es el contenido de níquel, mayor es su resistencia a la corrosión, que puede aumentar hasta cuatro veces respecto al zinc”, aseguró a Agencia CTyS la doctora Zulema Mahmud, investigadora del INTI y autora de este desarrollo que comenzó en 2010, cuando obtuvo el primer premio en la sesión de Innovación Tecnológica del Encuentro de Primavera.

La obtención de la amalgama metálica se logró mediante el proceso de electrólisis, a través de acero inmerso en una solución líquida a la que se agregó el zinc-níquel convencional (con un 12% de concentración de níquel) y más partículas sueltas de sales de níquel. En esta especie de “sopa de metales” se realizó una descarga eléctrica que permitió que se unieran las partículas y así, obtener la nueva aleación, que tiene mayor dureza a nivel microscópico, ya que el material posee un espesor de 30 micrones.

El trabajo contó con la participación del Centro de Procesos Superficiales y Mecánica del INTI, de la Facultad de Ciencias Exactas y Naturales (FCEN) de la UBA, de la Comisión Nacional de Energía Atómica (CNEA), el Instituto Nacional de Investigaciones Fisicoquímicas Teóricas y Aplicadas (INIFTA) y la Facultad de Paraná en Brasil.

El zinc-níquel convencional ya se utiliza en la industria automotriz, de electrodomésticos y aeroespacial, pero si a la aleación se le agregan partículas cerámicas, puede usarse para la industria de las motos y en materiales de construcción, como los tornillos sujetadores.

Con los avances del INTI posiblemente se pueda reemplazar a otros materiales difíciles de sustituir como el cadmio, que además es nocivo para el ambiente.

Fuente: Agencia Ciencia, Tecnología y Sociedad, Universidad de La Matanza - http://www.argentina.ar/_es/ciencia-y-educacion/C10071-desarrollan-una-aleacion-mas-resistente-a-la-corrosion.php

martes, 6 de diciembre de 2011

Descubren planeta en zona habitable

Por Redacción de la Voz de América
Está a 600 años luz de la Tierra, tendría agua, gira alrededor de un Sol como el nuestro y su temperatura en la superficie sería muy agradable.
Foto: NASA

El exoplaneta Kepler-22b fue detectado por una sonda-telescopio lanzada en 2009. .La agencia espacial estadounidense NASA confirmó este lunes por primera vez la existencia de un planeta fuera del sistema solar que podría estar habitado, a unos 600 años luz de la Tierra. El planeta, descubierto gracias al telescopio espacial Kepler, fue detectado en 2009 pero no fue hasta ahora que se informó por los astrónomos que sus condiciones son aptas para la vida.
Según los científicos, la sonda con el telescopio ya había dado pistas de la existencia de planetas orbitando en “zonas habitables” pero esta es la primera ocasión en que puede constatarse. Aunque los astrónomos no pueden confirmar que haya realmente vida en él, lo favorecen la posible existencia de agua y también sus condiciones atmosféricas y su temperatura.

El exoplaneta Kepler-22b es el más pequeño encontrado dentro de un sistema de otros mil candidatos, pero aún así es más grande que la Tierra y todavía no se ha determinado si es rocoso, gaseoso o líquido. Sólo se sabe que tiene 2,4 veces el radio de nuestro planeta y que gira cada 290 días alrededor de su estrella, similar a nuestro Sol. Se estima que su temperatura en la superficie sería de 22 grados Celsius.

Según dijo la subdirectora del equipo científico del Centro de Investigación Ames de la NASA, Natalie Batalha: "estamos cada vez más cerca de encontrar un planeta parecido a la Tierra".

La sonda Kepler fue lanzada en marzo de 2009 con el objetivo de recopilar información y pruebas sobre planetas que orbitan alrededor de estrellas con condiciones de temperatura promedio donde pueda existir agua líquida y, por tanto, vida tal y como la conocemos. Desde ese año, la sonda, que está dotada de la cámara más potente jamás enviada al espacio sideral, ha descubierto otros 1.094 posibles exoplanetas, el doble del número hasta entonces eran rastreados.

jueves, 24 de noviembre de 2011

Salvan proyecto de telescopio Webb

Apodado como “Hubble 2” por algunos medios periodísticos en Estados Unidos, el telescopio Webb es una de las principales prioridades de la NASA para el futuro.
Foto: AP - El Hubble ha estado observando el cosmos desde su lanzamiento en 1990.

La misión del Hubble ha sido la de observar la historia del universo que se estima en unos 13.700 trillones de años..El proyecto del planeado sucesor del popular Telescopio Espacial Hubble, de la Agencia Espacial de Estados Unidos (NASA), escapó por un estrecho margen ser cancelado.

El Congreso de Estados Unidos salvó al proyecto del Telescopio Espacial James Webb con una contribución de $530 millones de dólares del presupuesto federal de 2012, después que algunos legisladores propusieran cortar sus fondos a principios de 2011.

El Telescopio Espacial James Webb asumirá la misión del Hubble de observar la historia del universo que se estima en unos 13.700 trillones de años, desde las primeras galaxias hasta la formación de la galaxia que aloja al Planeta Tierra, la Vía Láctea y la evolución del sistema solar.

Apodado como “Hubble 2” por algunos medios periodísticos en Estados Unidos, el telescopio Webb es una de las principales prioridades de la NASA para el futuro. Sin embargo, crecientes costos y otros problemas han amenazado el proyecto y demorado su lanzamiento, que ahora está previsto para 2018.

Fuente: Voz de América

sábado, 19 de noviembre de 2011

Ciencia y tecnología en busca del soldado invencible

La invencibilidad del soldado ha sido uno de las fantasías bélicas más constantes de todos los tiempos, un soldado invulnerable que venza y nunca deje de combatir.
Hay quienes piensan que la guerra es una condición casi natural del género humano, imposible de extirpar de nuestro atávico comportamiento en colectividad. Esto, en combinación con otros factores culturales y económicos, ha hecho de la industria bélica no solo una de las más rentables en casi cualquier época, sino también una especie de ubicuo laboratorio en el que se experimenta, paradójicamente, menos con el fin de terminar de una vez por todas con la guerra que de continuarla perpetuamente: vencer, sí, pero nunca dejar de combatir.

Quizá por esto uno de los sueños más largamente acariciados en la historia de la guerra ha sido el soldado invencible, el soldado ante el cual todo enemigo vacilaría porque todo enemigo se sabría derrotado. De Aquiles al Capitán América, la ambicionada invulnerabilidad ha suscitado las más diversas invenciones e investigaciones en campos tan diversos como la mecánica, la medicina, la física o, más recientemente, la neurociencia.

De acuerdo con Michael Hanlon, actual editor de la sección de ciencia en The Daily Mail, el Pentágono destina aproximadamente 400 millones de dólares anuales en “mejorar” al soldado humano y no solo por medio de técnicas que podríamos considerar habituales —por ejemplo, modernizando el armamento o con nuevos e impresionantes equipos que adopten las tecnologías más avanzadas— sino también, en los últimos años, intentando entender cómo funciona el cerebro del soldado, qué son, desde el punto de vista neurocientífico, el dolor, el terror, la fatiga. Comprender todo esto para idear también la manera de reducirlo o evitarlo completamente.

Y es que es un tanto peculiar (por decir lo menos) que el último ámbito en el que quizá se implementen los adelantos de la robótica sea en la guerra. Quizá, en el futuro, habrá robots humanoides que asistan en las tareas domésticas, que cumplan trabajos sencillos, que manejen el automóvil en el trayecto diario que va de la casa a la oficina, y aun así serán seres humanos quienes se maten unos a otros en el campo de batalla.
De ahí el interés de las altas autoridades militares estadounidenses por trazar un mapa fidedigno de las emociones, los pensamientos, las pesadillas que asaltan al soldado mientras se encuentra en el frente. Saber, por ejemplo, cómo entrenar soldados menos propensos al sueño y la fatiga, siempre alertas y lúcidos para operar las precisas y complejas armas que se fabrican hoy en día.

Sin embargo, mientras la neurociencia no esté lo suficientemente perfeccionada como para proporcionar estas respuestas, una de las pocas alternativas al alcance para conseguir un sucedáneo del soldado invencible está en las drogas. Las drogas que, casi también desde siempre, han significado una diferencia —a veces decisiva— entre la superioridad o la inferioridad de un ejército.

Dos siglos atrás, los soldados prusianos utilizaron cocaína para mantenerse alertas y los guerreros incas usaron coca para estar alertas mucho antes de eso. Desde entonces, la nicotina, las anfetaminas, la cafeína y una nueva clase de estimulantes que incluyen la droga Modafinil se han utilizado, exitosamente, en vista de que ahora los soldados estadounidenses pueden actuar normalmente incluso después de 48 horas sin dormir. Ahora los químicos están tratando de modificar la estructura molecular de esta droga para que desactive el deseo de dormir incluso por más tiempo.

Por otro lado, otras circunstancias de salud mucho más severas como el desorden de estrés post-traumático —del que la medicina ha aprendido tanto gracias a la Segunda guerra mundial y la Guerra de Vietnam— se tratan ahora con una combinación de terapia psicológica y fuertes dosis de antidepresivos, aunque se han buscado también los medios para borrar de la memoria de los soldados recuerdos sumamente dolorosos que les impiden tanto volver a empuñar un arma como vivir el resto de sus días en relativa tranquilidad.

Sin embargo, todo esto pertenece en cierta forma al soldado presente, el que ya existe y combate, el que ahora mismo está embarcado en una empresa bélica de la que unos cuantos esperan sacar algún tipo de provechos. ¿Qué pasa entonces con el soldado del futuro? ¿Hay otras investigaciones no para mejorar, sino para crear una nueva versión totalmente distinta a la de generaciones anteriores?

Ese parece ser el cometido de los estudios que se realizan en torno a la estimulación magnética transcraneal (EMT), la cual, aunque no se conocen a fondo sus efectos en el cerebro humano, pudiera detonar capacidades inéditas de aprendizaje en una persona cualquiera.

Según Allan Snyder, director del Centro para la Mente de la Universidad de Australia, la EMT podría apagar los altos niveles del procesamiento mental que normalmente nublan nuestros pensamientos, dando lugar a formas más puras de razonamiento.

Y quizá, si esto deriva en algún tipo de dispositivo de aprendizaje instantáneo, este no sería muy distinto al que se propuso en Matrix, en donde los personajes aprendían artes marciales, a conducir un helicóptero o cualquier otro conocimiento con solo descargar la información de un disco en su mente.

Pero, como bien dice Michael Hanlon, “parece claro que si quieres crear un hombre sin escrúpulos, que sienta poco dolor y nada de miedo, tendrías una excelente máquina de guerra, pero quizá este sería uno de los ejemplos en que hay que tener cuidado en lo que se desea”. Y concluye: Quítenles su humanidad a los soldados y ahí hay un peligro de que las batallas y las guerras que peleemos se vuelvan inhumanas también.

Fuente: The Independent - http://pijamasurf.com/2011/11/ciencia-y-tecnologia-en-busca-del-soldado-invencible/

martes, 15 de noviembre de 2011

Nanotubos de carbono permiten el almacenamiento indefinido de energía

Por Pablo Javier Piacente.
La tecnología, creada por ingenieros del MIT, es más económica y eficiente que otras aplicaciones
Ingenieros y científicos del Instituto Tecnológico de Massachussets (MIT), en Estados Unidos, han desarrollado una tecnología basada en nanotubos de carbono y destinada al almacenamiento de energía. La aplicación permite un almacenamiento energético indefinido, con dispositivos que se recargan por la exposición al sol. Además, es más económica que las opciones empleadas en la actualidad.
Este nuevo enfoque podría revolucionar las tecnologías relacionadas con el almacenamiento de energía solar. Imagen: Grossman/Kolpak.

Ingenieros e investigadores del MIT han desarrollado una innovadora tecnología para el almacenamiento de la energía solar que no se degrada y supone un coste menor que el de otras alternativas. El nuevo enfoque utiliza nanotubos de carbono, que se recargan al estar expuestos al sol. Este innovador método soluciona varios de los inconvenientes habituales relacionados con el almacenamiento de la energía solar, mediante el uso de productos químicos. Además supone ventajas significativas con respecto a la conversión eléctrica o al uso de recipientes térmicos aislados.

El almacenamiento a través de productos químicos puede extenderse por largos períodos de tiempo sin perder ningún porcentaje de la energía almacenada. El problema con este enfoque hasta hoy ha sido que los productos químicos, necesarios para realizar esta conversión y el almacenamiento, se degradan después de algunos ciclos, como sucede por ejemplo con el rutenio, que es además muy costoso.

Sin embargo, el grupo de investigación del MIT, liderado por los especialistas Jeffrey Grossman y Alexie Kolpak, ha desarrollado un nuevo enfoque con fulvalene diruthenium, una molécula conocida por los científicos como la mejor alternativa química para el almacenamiento de energía solar, ya que permite el desarrollo de dispositivos que no se degradan.

Grossman señala, además, que cuando se avance en una mejor comprensión de este proceso se podrá acelerar la búsqueda de otros compuestos, hechos de materiales abundantes y baratos, que podrían ser utilizados de la misma manera y con la misma eficacia para el almacenamiento de energía solar. El trabajo desarrollado en el MIT ha sido difundido a través de una nota de prensa del propio instituto de investigación, y además fue resumido en un artículo publicado recientemente en la revista especializada Nano Letters.

El enfoque empleado por Grossman y Kolpak a partir de fulvalene diruthenium hace uso de nanotubos de carbono, diminutas estructuras tubulares de carbono puro, que se combinan con un compuesto llamado azobenceno. Las moléculas resultantes de esta interacción incluyen nuevas propiedades que no están disponibles en los materiales por separado. El nuevo sistema no solamente es menos costoso que el rutenio, por ejemplo, sino que también es mucho más eficiente en el almacenamiento de energía en una determinada cantidad de espacio.

La efectividad es cerca de 10.000 veces más alta en términos de densidad volumétrica de energía, según los especialistas. De esta forma, la densidad de energía obtenida es comparable a la presente en las baterías de litio-ion. En consecuencia, los procesos energéticos ligados a la energía solar podrían verse claramente beneficiados con este nuevo enfoque.

Importantes ventajas
Asimismo, mediante el uso de métodos de nanofabricación es posible controlar las interacciones entre las moléculas, el aumento de la cantidad de energía que se puede almacenar y la longitud de tiempo durante el que se debe realizar el almacenamiento. Además, cada variable se puede controlar de manera independiente.

Una de las grandes ventajas del nuevo enfoque para aprovechar la energía solar es que simplifica el proceso, mediante la combinación de la recolección y almacenamiento de energía en un único paso. Se trata de una alternativa que no se degrada y que puede trabajar en forma indefinida, además de ser económica.

Una limitación, sin embargo, es que aunque este método es útil para aplicaciones de calefacción, en el caso de la producción de electricidad se requiere también un proceso de conversión, el uso de dispositivos termoeléctricos o la producción de vapor para poner en marcha un generador.

Según Grossman, el método diseñado es un concepto general que se puede aplicar a muchos nuevos materiales que ya han sido sintetizadas por otros investigadores para diferentes aplicaciones. Ahora será necesario adaptar sus propiedades para el almacenamiento de energía solar térmica, permitiendo que esta nueva tecnología amplíe en mayor medida su impacto y aplicación.

Fuente: http://www.tendencias21.net/Nanotubos-de-carbono-permiten-el-almacenamiento-indefinido-de-energia_a7050.html
Related Posts Plugin for WordPress, Blogger...