sábado, 12 de enero de 2008

Extrayendo electricidad del mar

















Se puede generar electricidad aprovechando la diferencia de temperatura entre las aguas superficiales cálidas y las frías del fondo. El océano es el mayor colector de energía solar del mundo. En un día cualquiera, Los 60 millones de kilómetros cuadrados que cubren los mares tropicales, absorben una radiación solar equivalente al contenido térmico de 250000 millones de barriles de petróleo.

A pesar de la gran abundancia actual de este producto, varios países continúan persiguiendo el objetivo de convertir una fracción de esa energía en electricidad. La técnica se conoce por las siglas inglesas OTEC, que corresponden a “conversión de la energía térmica del océano”. Si un conjunto plurinacional de instalaciones OTEC convirtiera menos de un uno por mil de la energía almacenada como calor en las aguas superficiales tropicales, generaría un mínimo de 14 millones de megawatt, más de 20 veces la capacidad productora de electricidad de los estados unidos. La misma técnica podría proporcionar agua dulce, refrigeración y aire acondicionado, así como facilitar la piscicultura.


En un sistema OTEC, la fuente de energía térmica es el agua cálida del mar, la cual genera electricidad a través de dos métodos. En uno de ellos, el agua cálida evapora un líquido operante que posee un bajo punto de ebullición. En el otro método, el agua de mar hierve en una cámara de vacío; al relajar la presión, la cámara reduce, a su vez, el punto de ebullición del agua.


En ambos casos, el vapor resultante mueve una turbina que genera electricidad. El agua fría extraída de profundidades marinas comprendidas entre 600 y 1000 metros condensa después el líquido operante, cerrando así el ciclo. Siempre y cuando exista una diferencia de unos 20° entre la capa superior cálida y la de agua fría del fondo, se puede generar en principio, cantidades útiles de energía eléctrica neta. La planta puede situarse en tierra, a poca distancia de la costa o a bordo de un barco que se desplace de un punto a otro. La electricidad puede enviarse a una red de suministro o emplearse en la planta misma, para la elaboración de metanol, hidrógeno, metales refinados, y amoniaco.

Hay dos tipos de sistemas OTEC a punto de comenzar a producir electricidad y listos para su explotación comercial:

- Uno de ellos (el que trabaja con un fluido de punto de ebullición bajo) opera en ciclo cerrado. En la operación de ciclo cerrado, el sistema contiene el líquido operante y lo recicla de modo continuo, de forma similar al líquido operante de un refrigerador; este sistema utiliza un líquido operante con un punto de ebullición bajo como el amoniaco o el freón. El líquido se bombea a través de un termopermutador (el evaporador), donde se evapora por acción del agua cálida del mar que se alimenta mediante la tubería correspondiente. El vapor hace girar una turbina conectada a un generador de electricidad. El vapor descargado de la turbina, a baja presión, pasa por un segundo termopermutador (el condensador), donde se enfría con agua bombeada de las profundidades marinas, a través de la tubería de agua fría. Las bombas devuelven el líquido operante condensado al evaporador, para repetir nuevamente el ciclo.

- El otro (el sistema de baja presión) trabaja en ciclo abierto. En la operación de ciclo abierto, el líquido operante es agua caliente de mar en constante renovación. Esta hierve violentamente en la cámara de vacío, produciendo vapor de baja densidad. Podemos representar el proceso como una generalización del fenómeno que hace que el agua hierva a temperaturas mas bajas a medida que aumenta la altitud. La cámara de vacío permite que un sistema de ciclo abierto funcione a presiones equivalentes a las que prevalecen en altitudes comprendidas entre 27 y 30 kilómetros sobre la superficie de la tierra. Estas bajas presiones crean problemas particulares, entre ellos, la tendencia de agua marina a producir gases disueltos.

Dado que tales gases no pueden condensarse, pueden inutilizar el sistema, a menos que se eliminen de modo continuo. En esta planta, el agua caliente que se convierte en vapor no llega al 0.5 %. De aquí que se requieren grandes cantidades de agua en la planta para generar vapor suficiente con que propulsar la imponente turbina de baja presión. El ciclo se completa con la condensación del vapor con agua de mar fría. Esta condensación puede llevarse a cabo directamente, mezclando el agua fría del mar con el vapor, o indirectamente, en un condensador de superficie. En tal condensador, el vapor y el refrigerante (el agua fría del mar) quedan separados físicamente por tabiques. Mediante este sistema, el vapor condensado queda exento de las impurezas del agua de mar, con lo que la operación comporta el beneficio adicional de producir agua desalinizada.

La idea de utilizar la energía térmica del océano fue propuesta, hace mas de un siglo, por el ingeniero francés Jaques Arsène d’Arsonval, quien concibió un sistema de ciclo cerrado que nunca puso a prueba. En 1926, su amigo y antiguo discípulo Georges Claude –bien conocido ya por su invención del luminoso de neón- se obsesiono con lo que sería el objetivo de su vida: hacer de OTEC una realidad. Diseño un sistema de ciclo abierto que puso a prueba en la bahía de Matanzas, al norte de Cuba, en 1930. el sistema generaba 22 kilowatt de potencia, pero consumía más en su funcionamiento. Si Claude hubiera bombeado el agua por la tubería de agua fría (de 1.6 metros de diámetro y dos kilómetros de longitud) a mayor velocidad, si hubiera empleado una turbina mayor y si hubiera explotado la mayor diferencia de temperaturas (24°) existente en Santiago, al sur de Cuba, hubiera generado probablemente hasta dos megawatt de potencia neta. Tal como fue realizado, el experimento demostró que era posible traer agua fría a la superficie desde profundidades de hasta 700 metros, con pocas pérdidas por fricción en la tubería.


La siguiente tentativa importante de Claude consistió en una planta flotante de ciclo abierto, instalada en un carguero y anclada frente a la costa de Brasil. El experimento falló, por que las olas destruyeron la tubería de agua fría mientras se estaba tendiendo. Claude finalmente murió sin haber conseguido su objetivo de generar energía eléctrica neta con un sistema de ciclo abierto.


Animado por el trabajo de Claude, el gobierno francés continuó las investigaciones sobre sistemas de ciclo abierto durante varios años. En 1956, un equipo de ese país diseño una planta de tres megawatt que se construiría en Abidjan, en la costa occidental de África, donde se da una diferencia de temperatura de 20°. Por diversas razones, entre ellas la dificultad que implicaba el tendido de la tubería de agua fría (2.5 metros de diámetro y 4 kilómetros de largo), la planta no llegó a construirse. La crisis energética de los 70 obligó a los Estados Unidos y a otros países a considerar en serio las posibilidades de OTEC. El estado de Hawai y la compañía aeronáutica Lockheed, construyeron una mini – OTEC, la primera planta OTEC con la cual producir una cantidad neta de energía eléctrica. Se trataba de un sistema de ciclo cerrado, montado en un barcaza anclada a unos dos kilómetros de Keahole Point, en la isla de Hawai. La planta funciono sin interrupción durante varios períodos de hasta diez días, durante un total de cuatro meses, generando 50 kilowatt brutos y 15 kilowatt netos de energía eléctrica.

Durante esos mismos años, el departamento de energía de EE.UU. superviso la construcción de OTEC-1, un sistema experimental instalado a bordo de un buque cisterna, procedente de la marina. El sistema fue diseñado para poner a prueba termopermutadores para sistemas de ciclo cerrado de tipo comercial, así como un manojo de tres tubos de agua fría, de 1.2 metros de diámetro cada uno, y las correspondientes bombas. La operación produjo resultados significativos, al probar la validez del diseño de los permutadotes y mostrar que una planta OTEC puede operar por “pastoreo”, desplazándose lentamente por aguas tropicales.

Algún tiempo después, la compañía Tokyo Electric Power y la empresa Toshiba construyeron una planta de ciclo cerrado en la república isleña de Nauru, en el océano pacífico. Empleando freón como líquido operante, la planta funcionó intermitentemente desde octubre de 1981 hasta septiembre de 1982, y generó 100 kilowatt brutos de energía. Todas estas plantas pilotos, se diseñaron para poner a prueba los sistemas OTEC, sin esperar que alcanzaran la relación energía bruta/energía neta que sería la típica de plantas industriales OTEC. La operación Nauru fue la última prueba práctica realizada con un sistema OTEC.


Un termopermutador clásico para un sistema de ciclo cerrado esta formado por lo que generalmente se conoce como configuración de carcasa y tubo. El agua de mar fluye por los tubos y el líquido operante se condensa o evapora alrededor de ellos, en el interior de la carcasa envolvente. Con el fin de conseguir un mayor rendimiento, un diseño mas avanzado, de placas-aleta, incorpora un sistema de placas paralelas. Estas se disponen de forma que por una de ellas pase agua de mar, por la placa contigua líquido operante y así sucesivamente, a través de todo el sistema.


Los investigadores del laboratorio Argonne han visto que la degradación de los componentes expuestos solamente al agua fría del mar no constituirá un problema, ya que, en ese ambiente, las reacciones químicas y biológicas se desarrollan lentamente. En lo que respecta al agua cálida del mar, los experimentos realizados han demostrado que la degradación de elementos expuestos puede controlarse por cloración intermitente, a razón total de una hora diaria. Los niveles de cloro a emplear están muy por debajo de las normas actuales establecidas por la oficina para la protección del medio ambiente de los Estados Unidos.

Estos resultados no se han aplicado aún en ninguna planta piloto de ciclo cerrado. Hay varias de ellas en proyecto: una americana en Hawai, otra francesa en Tahití, una holandesa en Bali y una planta británica flotante. En todos y cada uno de estos proyectos, el problema reside en su financiamiento. De acuerdo con los cálculos estadounidenses, una planta de 50 megawatt representaría una inversión de 550 millones de dólares, según fueran el emplazamiento y los componentes a emplear.

Estos costos se traducen en una inversión de 4000 a 11000 dólares por kilowatt de capacidad instalada, y de 5 a 14 centavos por kilowatt-hora suministrado. (Una central térmica alimentada por petróleo a 20 dólares por barril suministra electricidad a 5.6 centavos por kilowatt-hora.) La inversión necesaria para una planta OTEC es bastante más elevada que la de una planta generadora de vapor convencional; en la situación económica actual el capital necesario no sería fácil de conseguir.

El gobierno federal esta apoyando también la investigación de sistemas de ciclo abierto, especialmente los que emplean la técnica de cámara de vacío a baja presión, conocida por ciclo de Claude. Aunque los sistemas de ciclo abierto no han adquirido el desarrollo de los ciclos cerrados, parecen presentar como mínimo cuatro ventajas:
-el uso de agua de mar como líquido operante elimina la posibilidad de contaminar el entorno marino con productos tóxicos tales como el amoniaco y el freón.
-un sistema de ciclo abierto conlleva termopermutadores de contacto directo, más económicos y potencialmente más eficientes que los requeridos en sistemas de ciclo cerrado.

Por ello, las plantas de ciclo abierto pueden ser más rentables a la hora de convertir el calor marino en electricidad, y deberían ser además menos costosas a la hora de construir:
-los termopermutadores de contacto directo podrían fabricarse de plástico en vez de metal; serían menos sensibles a la corrosión y podrían también serlo menos al deterioro en agua marina caliente.
-un sistema con el ciclo de Claude y con condensador de superficie puede producir agua desalinizada como producto secundario.

Al mismo tiempo, los sistemas de ciclo abierto presentan sus propios problemas técnicos.
Las turbinas deben ser mucho mayores que las de sistemas de ciclo cerrado, debido a la baja densidad del vapor. Por otra parte, la operación de grandes turbinas con vapor de baja densidad requiere aún trabajo de investigación y desarrollo. el sistema de ciclo abierto debe comprender trayectos de flujo lisos para el vapor de baja densidad, por lo que la cámara de vacío deberá ser de gran tamaño. El agua marina desgasificada vertida por una planta de ciclo abierto puede alterar la composición química del agua circundante y afectara adversamente a los organismos.

Durante los últimos cinco años, diversos investigadores se han dedicado a desarrollar o mejorar los componentes cruciales del sistema de ciclo de Claude: evaporadores, condensadores y turbinas. Este trabajo ha ideado ya un sencillo evaporador de espita vertical y un condensador de contacto directo, diseñados en el instituto para la investigación solar en Golden, Colorado. Ambos tienen la ventaja de operar con muy poca pérdida de presión.

Debido a que tan solo un 0.5% del agua caliente marina que entra en la planta se convierte en vapor, la planta requiere un gran flujo de agua caliente (de dos a cuatro metros cúbicos por segundo, lo que da entre 126800 y 253600 litros por minuto). El bombeo de tal volumen de agua, significa que las pérdidas de presión deberán mantenerse al mínimo en el circuito de agua caliente, con el fin de asegurar la máxima salida neta de electricidad.

Para evitar pérdidas de presión, el evaporador de espita vertical lleva unos dispositivos de toma y salida de agua relativamente simples, lo que facilita la separación del vapor del agua marina agotada. El evaporador aumenta el calor transferido en un volumen determinado de agua en un orden de magnitud respecto al de los modelos comerciales disponibles.

Otra característica de este aparato de ciclo abierto afecta al área que proporciona la evaporación. El trabajo sobre condensadores se ha centrado en los termopermutadores de contacto directo; estos pueden resultar más rentables que los condensadores de superficie y producir mayores cantidades de energía eléctrica. La condensación por contacto directo trabaja la evaporación relámpago (característica de una operación de ciclo abierto a baja presión). Da mejores resultados cuando el agua de mar fría se distribuye uniformemente en el condensador, con tanta área de superficie líquida cuanta sea posible disponer para el vapor agotado.

Una desventaja de la condensación por contacto directo, es la de no producir agua desalinizada, para obtener esto, la planta debe mantener separado el vapor condensado y desalinizado del agua fría del mar. Este proceso obliga a instalar un condensador de superficie bastante grande.

Una planta de ciclo abierto de dos megawatt (netos) con un condensador de superficie puede producir unos 4320 m3 de agua por día. A menos que los requisitos de agua excedan la capacidad de la planta, esta empleara ambos tipos de condensador (de superficie y de contacto directo). Un segundo condensador por contacto directo se empleara después de la fase de desalinización, para concentrar los gases no condensables y reducir el tamaño del sistema de vacío para la expulsión de dicho gas, aumentando con ello la relación energía neta/energía bruta.

La turbina es quizás el componente más importante de un sistema OTEC de ciclo de Claude. Constituye así mismo, el componente menos ensayado. El requisito de grandes turbinas puede satisfacerse en plantas pequeñas, empleando las mayores turbinas de vapor de hoy en día, que miden 4.5 metros de diámetro y que se utilizan en las fases secundarias, de baja presión, de algunos sistemas generadores convencionales. No siendo probable que el número de turbinas aumente los costos en más de 10%, se puede elevar la producción eléctrica, hasta cierto punto, instalando varias turbinas en paralelo.

La otra alternativa, sería construir una turbina única de mayor diámetro, lo cual requeriría de avances significativos en dicha técnica. La característica singular de cualquier sistema OTEC es la tubería de agua fría, que abre las puertas a un basto y hasta ahora inexplorado recurso oceánico.

El agua fría no solo contribuye a generar electricidad, sino que también contiene los nutrientes necesarios para mantener las grandes cantidades de plancton y algas que sostiene la vida animal en los ecosistemas marinos. Este gran potencial continúa en suspenso ante la dificultad que entraña fabricar tuberías de más de un metro de diámetro y conseguir su tendido a 1000 m de profundidad.

Según la investigación patrocinada por el gobierno federal de EE.UU. de que una planta de ciclo abierto de 10 megawatt costaría unos 7200 dólares por kilowatt neto de energía producida, se podría decir que a este precio, una planta de ciclo abierto, sería competitiva en los mercados de las islas del Pacífico solamente si el precio del petróleo llegara a ser mucho más alto de lo que es actualmente; sin embargo, podría pensarse que en las zonas del caribe y en otras regiones donde el agua dulce es insuficiente, los ingresos de la venta de agua desalinizada harían que un sistema OTEC de ciclo abierto fuera competitivo, incluso con los precios del petróleo rebajados.

Fuente: Revista “investigación y ciencia # 162” y http://www.nrel.gov/otec/
Por: CATALINA RESTREPO DÍEZ - cvcatre@eia.edu.co

Adjudican nueve centrales eléctricas en zonas críticas

Con el fin de reforzar la generación eléctrica durante el verano, el Gobierno suscribió los contratos del programa "Energía Delivery" que permitirán la instalación de nueve usinas de bajo porte en las zonas con mayores problemas de abastecimiento eléctrico.

La estatal ENARSA adjudicó la provisión de las centrales a seis empresas que ahora deberán trabajar contra reloj para que las máquinas entren en servicio en diciembre y enero de 2008.
El grupo de usinas aportarán al sistema eléctrico cerca de 200 MW de energía adicional, que se utilizarán para garantizar el suministro en los lugares críticos.

Los proveedores seleccionados por ENARSA son los siguientes:
-Emgasud: Instalará en Pinamar una central de 15 MW.
-SO Energy: Se quedó con la provisión de dos turbinas de 39 MW en Junín y Pehuajó.
- Alstom: Tendrá que montar una usina de 30 MW en Formosa y dos máquinas de 10 MW cada una en Sáenz Peña (Chaco).
-Agrecco: Tiene una central de 20 MW en Córdoba y otra de 15,3 MW en Castelli (Chaco).
-Secco S.A.: Debe instalar una máquina de 10 MW y otra de 9,2 MW en Catamarca.
-Sullair: Proveerá un turbogenerador de 18,7 MW en Añatuya.

En todos los casos, ENARSA optó por alquilar las usinas por un plazo de 3 años que puede ampliarse por otros cuatro años más en función del crecimiento de la demanda. La operación queda a cargo de la empresa estatal y será su primera experiencia como "generadora eléctrica".


Respecto a las barcazas generadoras incluidas en el programa, los técnicos de Cammesa identificaron los seis lugares posibles para su ubicación y conexión al sistema: Bahía Blanca, Necochea, Mar del Plata, Ensenada, San Nicolás y Barranqueras. Ahora ENARSA tiene que convocar a los oferentes para que arrimen sus propuestas de alquiler o compra antes del 15 de diciembre.


Fuente: Antonio Rossi para Diario Clarín.

Biomasa - Energía del vertedero

El vertedero central de residuos de Gelsenkichen es uno de los mayores de Europa y una pródiga fuente de energía. En el vertedero los residuos orgánicos se fermentan. El biogás producido se utiliza como combustible en una planta de generación combinada de calor y electricidad. Unos 3000 hogares de Gelsenkirchen son abastecidos hoy de corriente desde el vertedero. Ya sean restos de plantas, estiércol o virutas: ninguna otra fuente renovable de energía obtiene energía de residuos y es a la vez tan eficaz y polifacética como la biomasa.


La biomasa, sustancia orgánica renovable de origen animal o vegetal, era la fuente energética más importante para la humanidad y en ella se basaba la actividad manufacturera hasta el inicio de la revolución industrial. Con el uso masivo de combustibles fósiles el aprovechamiento energético de la biomasa fue disminuyendo progresivamente y en la actualidad presenta en el mundo un reparto muy desigual como fuente de energía primaria. Mientras que en los países desarrollados, es la energía renovable más extendida y que más se está potenciando, en multitud de países en vías de desarrollo es la principal fuente de energía primaria lo que provoca, en muchos casos, problemas medioambientales como la deforestacíon, desertización, reducción de la biodiversidad, etc.


No obstante, en los últimos años el panorama energético mundial ha variado notablemente. El elevado coste de los combustibles fósiles y los avances técnicos que han posibilitado la aparición de sistemas de aprovechamiento energético de la biomasa cada vez más eficientes, fiables y limpios, han causado que esta fuente de energía renovable se empiece a considerar por las industrias como una alternativa, total o parcial, a los combustibles fósiles.

La energía de la biomasa proviene en última instancia del sol. Mediante la fotosíntesis el reino vegetal absorbe y almacena una parte de la energía solar que llega a la tierra; las células vegetales utilizan la radiación solar para formar sustancias orgánicas a partir de sustancias simples y del CO2 presente en el aire. El reino animal incorpora, transforma y modifica dicha energía. En este proceso de transformación de la materia orgánica se generan subproductos que no tienen valor para la cadena nutritiva o no sirven para la fabricación de productos de mercado, pero que pueden utilizarse como combustible en diferentes aprovechamientos energéticos.

Tipos de biomasa
Existen diferentes tipos o fuentes de biomasa que pueden ser utilizados para suministrar la demanda de energía de una instalación, una de las clasificaciones más generalmente aceptada es la siguiente:

- Biomasa natural: es la que se produce espontáneamente en la naturaleza sin ningún tipo de intervención humana. Los recursos generados en las podas naturales de un bosque constituyen un ejemplo de este tipo de biomasa. La utilización de estos recursos requiere de la gestión de su adquisición y transporte hasta la empresa lo que puede provocar que su uso sea inviable económicamente.

- Biomasa residual seca: se incluyen en este grupo los subproductos sólidos no utilizados en las actividades agrícolas, en las forestales y en los procesos de las industrias agroalimentarias y de transformación de la madera y que, por tanto, son considerados residuos. Este es el grupo que en la actualidad presenta un mayor interés desde el punto de vista del aprovechamiento industrial. Algunos ejemplos de este tipo de biomasa son la cáscara de almendra, el orujillo, las podas de frutales, el serrin, etc.

- Biomasa residual húmeda: son los vertidos denominados biodegradables: las aguas residuales urbanas e industriales y los residuos ganaderos (principalmente purines).

- Cultivos energéticos: son cultivos realizados con la única finalidad de producir biomasa transformable en combustible. Algunos ejemplos son el cardo (cynara cardunculus), el girasol cuando se destina a la producción de biocarburantes, el miscanto, etc.

- Biocarburantes: aunque su origen se encuentra en la transformación tanto de la biomasa residual húmeda (por ejemplo reciclado de aceites) como de la biomasa residual seca rica en azúcares (trigo, maíz, etc.) o en los cultivos energéticos (colza, girasol, pataca, etc.), por sus especiales características y usos finales este tipo de biomasa exige una clasificación distinta de las anteriores.

Sus aplicaciones son diversas: generación de energía térmica, energía eléctrica y mecánica.
Calderas de biomasa: una revolución silenciosa
En el plazo de los últimos 20 años, las calderas de biomasa han experimentado un avance considerable desde los caducos sistemas manuales, humeantes, hasta los dispositivos automáticos de alta tecnología.
Las calderas modernas queman biomasa de alta calidad como astillas de madera, pellets o residuos agrícolas y agroindustriales uniformes, sin humos y con emisiones comparables a los sistemas modernos de gasoil y gas. La mayor ventaja de los sistemas de biomasa se encuentra en el balance neutro de sus emisiones de CO2.

El estado actual de desarrollo tecnológico de estas calderas permite que la limpieza de las superficies de intercambio y la extracción de cenizas sean automáticas. Estos sistemas de calefacción arrancan y paran según la demanda, comunican incidentes y actúan en consecuencia por control remoto y se adaptan a cualquier sistema de gestión. También se pueden combinar fácilmente con sistemas de energía solar térmica.

Una caldera contaminante, ineficiente y difícil de manejar no contentará a ninguna comunidad o familia en cuya casa se instale, aunque sea barata. Como mínimo, las especificaciones de cualquier caldera de biomasa de alta calidad deben ser las siguientes:
- Rendimiento mayor del 85%
- Emisiones de CO menores de 200 mg/m³ y de partículas menores de 150 mg/m³ a carga completa y al 50% de carga
- Sistema automático de limpieza de los intercambiadores de calor y de extracción de cenizas
- Control remoto de la caldera por el fabricante o instalador
- Alta fiabilidad y fácil operación y mantenimiento confirmado por expertos, fabricantes e instaladores en proyectos similares, aunque nunca una instalación es igual a otra dado que en los parámetros basados en su proyecto y diseño nunca coinciden y las apariencias engañan

Con la biomasa es posible producir combustible, calor y electricidad. No sólo los residuos, sino también materiales orgánicos cultivables y renovables, como la madera, la remolacha, la colza o la caña son excelentes portadores de energía. A diferencia del petróleo y el gas natural, la biomasa reduce la emisión de gases de invernadero, está siempre a disposición y no depende ni del viento ni del tiempo.

La biomasa está en auge: sólo en 2005 se construyeron en Alemania 800 nuevas plantas de biomasa. En 2005, la biomasa generó casi 10000 millones de kilovatios hora: 4000 millones más que un año antes. La participación de la biomasa en el suministro energético sigue creciendo: según estimaciones del Ministerio de Medio Ambiente, a largo plazo el 10 por ciento del total de la energía generada y el 20 por ciento del calor para calefacción serán producidos en Alemania con biomasa.

Fuente: Zona Militar

viernes, 11 de enero de 2008

La represa de Aña Cuá


El Gobierno decidió la extensión de los plazos de licitación para construir la represa Aña Cuá, complementaria de la central hidroeléctrica binacional. La EBY sustenta que la construcción de la represa tiene como objetivo aprovechar la caída de agua del vertedero del Aña Cuá mediante la colocación de tres turbinas de tipo Kaplan, de 85 Mw cada una, totalizando así una potencia adicional de casi 300 Mw, sobre las que se volcará una masa de 1.500 metros cúbicos de agua por segundo. 

La energía a ser generada es de unos 2.000 millones de Kw/h por año, lo que representaría ingresos de 60 millones de dólares anuales para Yacyretá. La central será instalada con el fin de aprovechar el caudal de 1.500 metros cúbicos por segundo, que como mínimo está siendo erogado de manera continua por el vertedero, representando un consumo de dos unidades generadoras instaladas en la central hidroeléctrica actual. Al ser 20 las máquinas instaladas, la energía no aprovechada por esta erogación es del 10 por ciento del total de energía generable de Yacyretá.


El objetivo de alentar la competencia internacional mediante la prórroga de los plazos licitatorios está dando resultados ya que otras dos empresas internacionales han mostrado su interés por participar de la convocatoria para participar de la construcción de la represa Aña Cuá, como ampliación del complejo hidroeléctrico Yacyretá.

Además de IMPSA y Energomachexport, la empresa francesa Alstom también adquirió un pliego de la licitación, lo que indica su interés cierto en competir por la construcción de la obra que aportará 10 por ciento de energía adicional a la que producirá el proyecto original de Yacyretá una vez que la represa esté en su máximo nivel de cota 83, informaron a Télam fuentes altamente confiables.Otra empresa, de origen estadounidense, también está consultando sobre las características de la licitación desde hace un mes con vistas a la adquisición del pliego, cuyo costo es de 30.000 dólares estadounidenses.


Estos elementos hacen aconsejable que el Comité Ejecutivo de la Entidad Binacional Yacyretá (EBY) administre los tiempos de la licitación de modo tal que se apliquen nuevas prórrogas si fuera necesario para garantizar la participación de mayor cantidad de empresas para aplicar las instrucciones de los presidentes Néstor Kirchner y Nicanor Duarte Frutos de garantizar la competencia para que el proceso licitatorio tenga toda la transparencia que las sociedades de la Argentina y Paraguay requieren de Yacyretá. Los gobiernos de ambos países están dispuestos a demorar todo lo que fuera necesario el plazo de cierre de la convocatoria para asegurar la competencia y la transparencia del proceso licitatorio, aseguraron a Télam las fuentes consultadas.


Con estas nuevas muestras de interés, ya son efectivamente tres los grupos económicos internacionales que están dispuestos a competir por la licitación de Aña Cuá.Los grupos ya alineados en la grilla competitiva de esta licitación son, la argentina IMPSA (Industrias Metalúrgicas Pescarmona SA), de Mendoza; la rusa Energomachexport, y la francesa Alstom, a los que podrán sumar su perfil competitivo internacional una o dos grandes compañías, una de ellas estadounidense, como ya se señaló.La importancia de Aña Cuá está basada en que se podrá generar energía con un caudal de 1.500 metros cúbicos por segundo que actualmente está desaprovechado.


Su utilización podrá generar un volumen de energía por un monto superior a los 60 millones de dólares, que permitirá mayor disponibilidad de electricidad para la Argentina y mayores recursos fiscales para el Paraguay.Con este volumen de producción de energía, la obra se amortizaría en un período aproximado de cinco años. En el proyecto original de Aña Cuá, cancelada por la crisis argentina que derivó en la salida del gobierno del entonces presidente Fernando de la Rúa. 

Esta central complementaria tendrá, tras su concreción, tres unidades generadoras de 85 megawatios cada una.Una tercera parte del año, Aña Cuá opera con caudales de 2.000 metros cúbicos por segundo, lo que justifica el aumento de la potencia instalada en licitación (300 megawatios) y hace más dinámico el proceso de amortización de su construcción. Con esta variante, finalmente, el aporte de Aña Cuá se alcanzará un 15 por ciento de energía adicional a ser generada en esta central complementaria de Yacyretá.


Las condiciones en que deben competir las empresas internacionales, las obliga a otorgar a empresas nacionales de Paraguay y de la Argentina una participación mínima obligatoria del 25 por ciento del contrato, porque de esa forma se garantizará participación y desarrollo de las aptitudes competitivas y tecnológicas de las empresas de ambos países.

Otra condición relevante es que será obligatorio también para las competidoras respetar una participación de 45 por ciento de la mano de obra paraguaya en la margen derecha del Paraná y 45 por ciento de mano de obra argentina en margen izquierda. Se estima que Aña Cuá generará ocupación directa, durante su etapa de construcción, para unas 1.800 personas y en forma indirecta para otras 6.000 personas en ambos países.

Las empresas concurrentes deberán competir especialmente por precio porque en el pliego de licitación no establece ningún monto de referencia. Pero además, deberán aportar un esquema de financiamiento aceptable para ambos estados.

Fuente: Infobae.com

LADE (Transporte aéreo de fomento)

Líneas Aéreas del Estado es el único Organismo Estatal de Transporte Aéreo de Fomento. Depende de la Fuerza Aérea Argentina, y su origen fue el deseo y la necesidad de emprender una acción comunitaria que uniese los centros de mayor densidad poblacional con los alejados pueblos de nuestro territorio, carentes de medios rápidos y regulares de comunicación creando nuevas rutas que luego sean explotadas por empresas privadas.

Comienza así, en julio de 1940 esta Línea Aérea de Transporte de Pasajeros, Carga y Correspondencia cubriendo la ruta entre El Palomar y Esquel, con escalas intermedias en Santa Rosa, Neuquén y San Carlos de Bariloche, haciendo su vuelo inaugural el 04 de Septiembre de dicho año, bajo la denominación de LASO, (Líneas Aéreas del Sudoeste). Este primer vuelo oficial regular se realizó con un avión Junker JU-52, trimotor, al mando del entonces Tte. 1ro. D. Juan Francisco Fabri.
Resultado de imagen para LADE rutas
Posteriormente se creo LANE. (Líneas Aéreas del Noreste) que cubría la ruta entre Buenos Aires y Cataratas del Iguazú, realizando su vuelo inicial el 06 de enero de 1944. El 23 de octubre se unificaron las denominaciones LASO y LANE, en LADE (Líneas Aéreas del Estado), la que sigue cumpliendo con el cometido para la que fue creada, llegando a nuestra Patagonia a través de sus sucursales.

Es de destacar que siendo un organismo dependiente de la Fuerza Aérea Argentina, LADE. Realiza un servicio de carácter público, utilizando para ello la especialización en las áreas de: "aeronavegación", mantenimiento, apoyo operativo y administrativo, de su personal militar y civil, como así también de sus aviones de transporte.

Las rutas cubiertas por LADE y el particular sentido regional y promocional que orienta a toda su acción, creó un evidente mejoramiento de las posibilidades de comunicación, pero además un efecto muy profundo al quebrar el aislamiento, dado que la sola posibilidad de contar con un medio de transporte capaz de unir aquellas pequeñas poblaciones con los grandes centros en pocos minutos, crea una real conciencia de integración entre los pobladores de la región Patagónica.

LADE facilita el traslado de los pobladores desde el limite cordillerano, hasta el litoral marítimo, coordinando sus vuelos y sus aviones entre las principales cabeceras y los destinos mas alejados. Uniendo así las pequeñas poblaciones con centros de mayor importancia social, comercial y/o turística frecuentados por el turismo internacional.

Con salidas desde Aeroparque, y escalas en Mar del Plata, San Antonio Oeste, y Puerto Madryn, pasando por Trelew unen los centros costeros mas importantes del país. Comodoro Rivadavia "Capital del Oro Negro" es la cabecera más importante de la Patagonia, desde allí enlaza pueblos del interior Patagónico como Río Mayo, Alto Río Senguer, José de San Martín, El Maiten y El Bolsón, entre otras.


LADE une además las ciudades de Comodoro Rivadavia y Ushuaia, haciendo escalas en las localidades costeras de Puerto Deseado, San Julián, Santa Cruz, Río Gallegos y Río Grande y las pre-cordilleranas de Perito Moreno, Gobernador Gregores, Río Turbio y Calafate.


En un periodo importante de su vida LADE, a través de convenios internacionales mantuvo una escala en nuestras Islas Malvinas, "Puerto Argentino". En 1972 inicio los vuelos con el avión Grumman Albatros continuando posteriormente con dos vuelos semanales de Twin Otter, Fokker F-27 y F-28; interrumpiéndose en 1982 la prestación de dichos servicios aéreos, con motivo del conflicto del Atlántico Sur. En su irreversible marcha hacia el sur, la Argentina crece.

En esa marcha, la Fuerza Aérea Argentina contribuye constantemente.
Resultado de imagen para LADE rutas
Las rutas aéreas de LADE son una prueba fehaciente de ello. Posee un servicio de carga prestado por un avión Hércules C-130. Recientemente ha incorporado cuatro aeronaves SAAB 340

Fuente: LADE Webpage e Internet

Avión C-212 Aviocar

El CASA C-212 Aviocar es un avión de transporte medio turbopropulsado con capacidad STOL diseñado y construido en España para uso civil y militar. También se ha fabricado bajo licencia española, en Indonesia. El C-212 Aviocar entra en servicio en el Ejército del Aire en 1974 donde desde entonces ha estado llevando a cabo toda clase de misiones.

El CASA C-212 es un bimotor propulsado por turbopropulsores para transporte ligero de mercancías, tropa o pasajeros. El Aviocar tiene un ala montada en la parte superior del fuselaje, lo que le permite funcionar en pistas en no buen estado, un fuselaje de gran capacidad y un empenaje vertical elevado que permite la apertura de una rampa en la parte trasera del fuselaje, lo que facilita enormemente el embarque y salida de tropas, vehículos o carga.
Resultado de imagen para C 212 Aviocar
La puerta lateral, situada tras el ala en el lado de babor permite tanto el acceso o descenso de personal en tierra como el lanzamiento de paracaidistas, que también puede hacerse como el de cargas, por la rampa trasera. El tren de aterrizaje no es retráctil. De construcción robusta, su gran resistencia a la operación en pistas no preparadas ha constituido la base de su éxito y cabe decir que cuando ha sido alcanzado por fuego desde tierra ha mostrado también excelentes condiciones de supervivencia. Los motores del C 212 Aviocar son unos Garrett TPE331-12-JR que ofrecen 925 caballos de potencia continuada que mueven unas hélices de paso variable. El Aviocar está diseñado para ser usado en pistas cortas poco preparadas, por lo que tiene características STOL (Short Take-off and Landing).

Es un avión muy maniobrable, robusto y preparado para operar en condiciones atmosféricas duras y en sitios con baja infraestructura para operar con aviones, por lo que usa sistemas simples y fiables. Los motores están situados bajo los bordes de alas. El fuselaje es grueso, con sección transversal de forma rectangular, y una sección trasera con una rampa de descarga. El fuselaje se divide en dos áreas, la cabina de mando y el compartimiento de carga. El compartimiento de carga tiene unas dimensiones de 6,55 metros de largo, 1,80 de alto y 2,10 de ancho. En ese compartimiento de carga pueden ir 18 pasajeros y su equipaje, o 16 paracaidistas completamente equipados, o 2950 Kg de cargas diversas, incluidos vehículos. Para operaciones médicas pueden montarse 12 camillas y dos asientos para personal médico. La cabina se complementa con una rampa de descarga trasera que permite llevar a cabo diferentes tipos de transportes logísticos. Además esa rampa puede ser abierta en vuelo para el lanzamiento de cargas, tanto a alta como a baja altura (LAPES), equipo de supervivencia o tropas paracaidistas.

Variantes:
El C-212 Aviocar tiene básicamente cuatro series de producción. A la serie de pre-producción le siguió la serie 100.

- Serie 100: Se caracteriza por llevar motores de 715 HP que le permitía transportar hasta 2000 kg de carga. Una sub-variante conocida como EC-212 para la recopilación de datos de inteligencia electrónica y labores de contramedidas ECM fue desarrollada para Portugal.
C-212A Versión original de producción militar. Conocida como C-212-5 o C-212-5 serie M, el Ejército del Aire Español los denomina T-12B y D-3A (evacuación médica)
C-212AV Versión para transporte de VIP, T-12C
C-212B Seis aviones C-212A de pre-producción, reconvertidos para misiones de reconocimiento fotográfico TR-12A
C-212C Versión civil original
C-212D Dos C-212A de pre-producción reconvertidos a entrenadores TE-12B.


- Serie 200: A partir de 1979 se instalaron motores de mayor potencia TPE 331 de 900 CV lo que dio como resultado el C-212 serie 200 que aumentaba el peso máximo al despegue de 6.500 a 7.700 kg. España compró tres serie 200 para adiestramiento ECM y siete para servicio Aéreo de Rescate (SAR). La versión SAR tenía un importante radomo en el morro para un radar de búsqueda AN/APS 128 que cubría 270 grados. Este modelo es similar al modelo de patrulla marítima (Conocido como C-212 Patrullero) utilizado por Argentina, México, Suecia, Sudán y Venezuela. El CASA C-212-200 se ha hecho popular entre los paracaidistas debido a su gran capacidad, rápida ascensión y gran rampa trasera.

- Serie 300: Voló por primera vez en septiembre de 1984, conserva los motores de la serie 200 pero cambia la instrumentación de cabina y posee winglets. Un avión serie 300 fue modificado por el US. Army como avión prototipo del programa “Grizzlie Hunter” de interdicción de estupefacientes mediante sensores no identificados. Al menos 6 aviones más de la serie 300 son utilizados en operaciones clandestinas de la US. Army (aunque “oficialmente” sirven en la USAF), de los que al menos cuatro operan desde Incirlik (Turquía) en operaciones clandestinas en Oriente Medio. Aparte de las ventas militares muchos aparatos operan para operadores civiles. En total las ventas del C-212 han superado los 460 aparatos, a los que habría que sumar los 126 fabricados bajo licencia por IPTN.
La producción de esta versión empezó en 1987.
C-212M serie 300 o serie 300M Versión militar
C-212 serie 300 Airliner Versión civil con capacidad de 26 pasajeros para líneas aéreas
C-212 serie 300 Utility - Versión utilitaria civil con capacidad para 23 pasajeros
C-212 serie 300P Versión del C-212 series 300 utility con motores A-65.
C-212 serie 300MP Versión de patrulla marítima.


Serie 400: La última serie es el C-212-400, cuyo primer vuelo tuvo lugar en el 4 de abril de 1997, esta versión lleva motores Garrett TPE331-12JR con mayor potencia al despegue y que mejora las actuaciones en altura y temperatura. El nuevo sistema de aviónica incorpora instrumentos electrónicos (EFIS) en cuatro pantallas. En total 31 operadores militares y más de 50 compañías civiles lo han volado a lo largo del mundo.

Equipos: Uno de los principales compromisos cuando se diseñó el C-212 Aviocar era su sencillez de mantenimiento y de equipos, pero cuando se fueron diversificando sus misiones se añadieron multitud de equipos. El sistema más complejo de los C-212 de transporte es el radar de seguimiento de terreno Bendix. Entre otros equipos podemos destacar sobre todo los de las versiones de patrulla marítima. El equipamiento habitual para este tipo de misiones depende del sistema de patrulla elegido. Si es un sistema más moderno FITS de alguna de las series anteriores. 
Resultado de imagen para C-212 serie 300MP
De todas formas podríamos decir que un equipamiento básico incluiría equipamientos ESM, MAD, lanzamiento de sonoboyas, Equipo de procesamiento de datos de las sonoboyas, reflector, FLIR y un radomo en el fuselaje de barrido de 360 grados. Se pueden lanzar torpedos de guía autónoma o incluso misiles antibuque Sea Skua. Las variantes para protección pesquera no llevan armamento pero en cambio llevan un radar de apertura sintética (SLAR), sensores IR y UV de detección de contaminación etc. 

En la serie 400 además se ha hecho una puesta al día de la cabina con la adopción de sistemas EFIS en cuatro pantallas multifunción de CRT que mejoran la fiabilidad de la información, reemplazando los instrumentos tradicionales del motor por un sistema IEDS (Integrated Engine Data System) que comprende dos pantallas redundantes de cristal líquido en las que se presentan datos del funcionamiento de los motores y de los principales sistemas del avión (combustible, hidráulico, eléctrico etc.) guardando en la memoria toda la información telemétrica para su análisis posterior. También lleva un sistema de gestión en vuelo FMS (Flight Management System) que incluye GPS y que permite una mejor planificación de la navegación integrando la información proporcionada por los sensores VOR, ADF y DEM, entre otros.
Resultado de imagen para C 212 Aviocar + Ejercito Argentino
Actualmente, presta servicio en el Ejército Argentino.

Especificaciones:
Misión: Transporte táctico
Tripulación: 2 pilotos.
Primer vuelo: 26 de marzo de 1971
Constructor: Construcciones Aeronáuticas S.A.
Longitud: 15,55 m
Altura: 6,32 m
Envergadura: 19 m
Superficie alar: 41 m²
Peso Vacío 3.250 kg
Peso Cargado: Máximo al despegue 8.000 kg
Pasajeros: 25 soldados o 16 paracaidistas.
Planta motriz: Motor 2 turbopropulsores Garrett TPE-331-10R-513C, potencia 925 HP c/u
Velocidad máxima: 390 km/h
Alcance en combate: 1.100 km con carga máxima
Alcance máximo: 1.930 km
Techo de servicio: 7925 m (26.000 pies)
Velocidad de ascenso: 497 m/min (1630 ft/min)
Carga de combate: 2.900 kg
Armamento: Hasta 500 kg de armamento en dos puntos de anclaje. Normalmente contenedores de ametralladora o lanza cohetes.

Fuente: Wikipedia.org

miércoles, 9 de enero de 2008

Avión Pilatus PC-6 Porter


El Pilatus Porter PC-6, es un avión monomotor de ala alta, tren de aterrizaje fijo y patín (rueda) de cola. Es uno de los diseños más exitosos de la empresa aeronáutica suiza, con capacidades operativas que superan con creces su bajo costo de mantenimiento. Debido a su gran cabina de carga, sus amplias puertas y su estabilidad en vuelo, el Porter es utilizado como transporte de personas, paracaidistas, transporte de carga a zonas remotas (especialmente en emergencias), evacuación de personal como ambulancia, control policial y fronterizo, avión para fotografía aérea y remolcador de planeadores.


En la búsqueda de una nueva planta motriz, el Porter se le equipo con el Lycoming IO-540 de inyección, seis cilindros opuestos y 540 pulgadas cúbicas, pero el motor que develó todo el potencial del avión fue la turbina, al ser instalada una Turbomeca Astazou II. En mayo de 1961 el PC-6/A Turbo Porter se convierte en el primer turbohélice de este avión que gracias a un diseño simple pero eficaz, ha sobrevivido por casi cincuenta años sin cambios. Lo emplea la Gendarmería Nacional Argentina.


Cómo aeronave STOL éste avión puede despegar y aterrizar en distancias muy cortas, debido a las bajas velocidades de despegue (15º de flap) de 51 nudos y de aterrizaje (38º de flap) de 49 nudos (peso al despegue 2767 kg). Sus distancias de despegue y aterrizaje a una temperatura de +10 ºC y a nivel del mar son:
Distancia de despegue: 228 m

Distancia de aterrizaje: 215 m

Características generales
Tipo: Transporte STOL
Fabricante Pilatus Aircraft Ltd (Lic: Fairchild AU-23A Peacemaker)
Primer vuelo 4 de mayo de 1959
Construidos 538 unidades.
Coste unitario US$ 1.000.000 aprox.
Tripulación: 1 o 2
Capacidad: 7 asientos o 10 asientos o 6 paracaidistas o 1 litera y 2 médicos
Carga: 1.200 kg o 1.080 kg con máximo combustible.
Longitud: 10,90 m
Envergadura: 15,87 m
Altura: 3,20 m
Superficie alar: 30,15 m²
Peso vacío: 1.400 kg
Peso útil: 1.410 kg
Peso máximo de despegue: 2.800 kg
Resultado de imagen para Avión Pilatus PC-6 Porter
Planta de poder: 1× turbohélice Pratt & Whitney Canada PT6A-27, 550 SHP al despegue.
Hélices: Tripala Hartzell HC-B3TN-3D o Cuadripala Hartzell HC-D4N-3P (opcional).
Rendimiento: Velocidad nunca a exceder (Vne): 279,62 km/h
Velocidad máxima operativa: 231,48 km/h
Velocidad crucero (Vc): 220,36 km/h
Velocidad stall (Vs): 107,4 km/h
Alcance en vuelo: 926 km
Alcance en ferry: 1.611,24 km con dos estanques externos de 240 L cada uno.
Techo de servicio: 6.248,40 m (20.500 pies) con máxima carga
Razón de ascenso: 307,85 m/min
Carga alar: 92,87 kg/m²

Fuente: Wikipedia.org

jueves, 27 de diciembre de 2007

Tuberculosis

La infección por Mycobacterium tuberculosis se ha identificado, en África y Asia, en huesos que datan del período Neolítico y en la población amerindia en huesos datando de 800 años a.C.
Resultado de imagen para Prevención de la Tuberculosis
En Europa, durante los siglos XVII y XVIII, una de cada cuatro muertes era secundaria a la tuberculosis. En el siglo xix, la tuberculosis era la primera causa de mortalidad en Estados Unidos.

Robert Koch aisló M. tuberculosis en Alemania en 1882. Desde los años 1940-1950, el tratamiento eficaz de la tuberculosis ha logrado una regresión importante en su incidencia. Sin embargo, en la última década se ha producido cierta recrudescencia de la enfermedad.
En 1997, la Organización Mundial de la Salud (OMS) ha valorado que el 32 % de la población mundial estaba infectada con M. tuberculosis . En países subdesarrollados, hay 8,8 millones de nuevos casos/año de infección tuberculosa. En la actualidad, y en el comienzo del siglo xxi, la tuberculosis continúa siendo una de las tres causas más importantes de mortalidad mundial, con dos millones de muertes.
Resultado de imagen para Tuberculosis
En varios países del mundo, donde la incidencia de tuberculosis ha disminuido, se ha demostrado que los casos de infección aparecen sobre todo en inmigrantes de países donde la incidencia de tuberculosis es mucho más elevada. Las condiciones socioeconómicas, la promiscuidad, la dificultad de acceso a la sanidad, la infección por el virus de la inmunodeficiencia humana (VIH) y la ausencia de vacuna bacilo de Calmette-Guérin (BCG) son factores que favorecen las infecciones graves, sobre todo en el lactante.

La lucha contra la tuberculosis comienza con una política eficaz de identificación y tratamiento de las personas infectadas y con riesgo de desarrollar la enfermedad. Hay tres ejes importantes: limitar el contagio, mejorar el diagnóstico y el tratamiento. Actualmente, la tuberculosis infantil es rara. El niño se contamina a partir de un adulto. La enfermedad se desarrolla después de una infección tuberculosa. En general, las personas nacidas en países extranjeros con elevada incidencia de tuberculosis, y con derivado proteico purificado (PPD) positivo, tienen un 10 % de posibilidad de desarrollar la enfermedad.

La probabilidad de que una infección latente se transforme en enfermedad tuberculosa varía según la edad: el 43 % en el primer año de vida, el 24 % entre 1 y 5 años y el 15 % entre 11 y 15 años. El riesgo de desarrollar una forma grave (diseminada, miliar o meningitis) es más frecuente en el lactante.

En general, la tuberculosis primaria benigna y asintomática y la enfermedad tuberculosa se presentan de forma insidiosa en la edad infantil, pero a veces en los más jóvenes pueden presentarse de forma sintomática. Es esencial identificar la tuberculosis primaria cuando existe un contexto de riesgo, como en el caso de niños inmigrantes o adoptados.

La búsqueda sistemática de tuberculosis en la población general no es necesaria (p. ej., el cribado escolar). La prueba tuberculínica está indicada si hay más de un factor de riesgo.
Los niños nacidos en el extranjero, que han viajado a países endémicos con tuberculosis o que viven con personas con tuberculosis activa o latente, son personas con riesgo elevado. La primoinfección benigna está definida por la ausencia de sintomatología clínica, una radiografía pulmonar normal y un resultado positivo de la prueba tuberculínica. El tratamiento recomendado para prevenir la reactivación de la enfermedad es la isoniazida durante 9 meses.

El método diagnóstico para la primoinfección tuberculosa es la intradermorreacción de Mantoux. Clemens Von Pirquet y Charles Mantoux prepararon el material de PPD utilizado para el diagnóstico de tuberculosis desde principios del siglo xx. Se utilizan 2 U de tuberculina PPD RT-23, mientras que en América del Norte se utilizan 5 U de PPD-S. La prueba debe ser leída a las 48-72 h. El resultado debe darse en milímetros del diámetro transversal de induración (p. ej., 00 mm, 12 mm). Para mejorar la sensibilidad y especificidad del resultado de la prueba, se utilizan tres niveles: ≥ 5, ≥ 10, ≥ 15 mm.

Hay muchas causas de resultados falsos negativos de PPD: los problemas de interpretación de la prueba (p. ej., administración o lectura, dosis inadecuada), la malnutrición, las enfermedades anergizantes (sarampión, varicela), las vacunas con virus vivos atenuados (sarampión, rubéola, parotiditis, varicela) y, si la prueba se realiza muy pronto después de la inmigración, se aconseja realizarla después de 3 meses de su llegada.

Muchos estudios han discutido los falsos resultados positivos de la intradermorreacción: la relación con la vacuna BCG o las infecciones con micobacterias no tuberculosas. Los niños nacidos en países donde la tuberculosis es endémica, probablemente habrán recibido la vacuna BCG. En esos países, el riesgo de ser contaminados con M. tuberculosis es muy alto.

La literatura especializada demuestra que los niños muy jóvenes que proceden de países con tuberculosis endémica tienen más posibilidad de presentar una intradermorreacción positiva secundaria a una primoinfección tuberculosa que secundaria a una vacunación de BCG.

Las micobacterias no tuberculosas o atípicas se encuentran en el medio ambiente. En ciertos países, provocan adenitis cervicales granulomatosas con más frecuencia que M. tuberculosis . Esas adenitis, en general unilaterales, se presentan en niños sanos, sin fiebre y sin antecedentes de tuberculosis. La mayoría de los pacientes presentan un PPD entre 5-10 mm y raramente superior a 10 mm. Si están disponibles, se pueden realizar las pruebas intradérmicas a las sensitivas específicas, pero el diagnóstico de confirmación se obtiene con la patología y el cultivo del ganglio. Para las adenitis por micobacterias no tuberculosas, la cirugía es el tratamiento de elección, con un excelente resultado cosmético y raras complicaciones.

La vacuna BCG fue utilizada por primera vez en 1921 por Calmette y Guérin. La vacuna parece eficaz para prevenir las formas graves de tuberculosis. Ante la disminución de la incidencia de esta enfermedad en muchos países del mundo, esta vacuna se ha eliminado o limitado en niños con riesgo. En España esta vacuna fue suprimida del calendario vacunal en la década de 1980. La BCG parcialmente protectora y la disminución de casos de tuberculosis son los responsables de la baja incidencia de meningitis tuberculosa.

La meningitis tuberculosa es una complicación precoz sobre todo en lactantes. El inicio de la infección es insidioso, más tarde puede haber irritabilidad y apatía. Los signos neurológicos en general son tardíos. La prueba tuberculínica y la radiografía de tórax no ayudan a realizar el diagnóstico. Se debe realizar una tomografía cerebral de forma sistemática. En niños con alteraciones típicas del líquido cefalorraquídeo y evolución grave, hay que sospechar y tratar rápidamente una meningitis tuberculosa, para intentar evitar las secuelas graves .
Imagen relacionada
Resumiendo:
Para prevenir la enfermedad tuberculosa, se administra Quimioprofilaxis (administración
de Isoniacida por 6 meses) a todo contacto de paciente con TBC BK positivo menor de 15 años sin evidencia de la enfermedad. Se denomina contactos a las personas que conviven con el enfermo, teniendo por ello alto riesgo de infectarse y enfermar.

Existen otras indicaciones para quimioprofilaxis como son:
-Infectados por el Virus de la Inmunodeficiencia Humana (VIH/SIDA) sin evidencia de
enfermedad tuberculosa activa.
-Sintomáticos respiratorios en seguimiento diagnóstico, portadores de lesiones fibróticas pulmonares compatibles con el diagnóstico de secuela de tuberculosis y sin antecedentes de haber recibido quimioterapia antituberculosa previa.
-Contactos de casos con TBC Pulmonar Frotis Positivo en situaciones clínicas especiales, en los que podrá emplearse quimioprofilaxis únicamente por indicación médica cuando presenten diabetes, silicosis, gastrectomía, enfermedades hematológicas malignas, tratamiento con inmunosupresores, insuficiencia renal terminal y transplantes renales, terapia con corticoides y enfermedades caquectizantes.

Con finalidad de prevenir las formas graves de Tuberculosis, se aplica la vacuna BCG
a menores de un año. Actividad que se realiza en coordinación con el Componente Inmunizaciones. No obstante la medida preventiva mas eficaz es evitar el contagio eliminando las fuentes de infección presentes en la comunidad a través de la detección, diagnóstico precoz y el tratamiento completo de los casos de Tuberculosis Pulmonar

Fuente: Internet

lunes, 24 de diciembre de 2007

Vigilancia de Salud Pública y Vigilancia Centinela.

La Vigilancia de la Salud ha sido considerada como la base para la práctica de la Salud Pública 25, la cual se considera la base sobre la cual descansa el desarrollo y bienestar. 
La epidemiología contribuye con los métodos y técnicas necesarias para que las autoridades responsables de los servicios de salud puedan identificar y priorizar los problemas de salud y convocar a los actores pertinentes para crear una respuesta organizada frente a estos requerimientos.


Una forma de manejar eficiente y creativamente los servicios de salud, es orientarlos de acuerdo con las necesidades de las comunidades y en este aspecto la epidemiología es muy útil. Entre los múltiples usos de la epidemiología, se pueden destacar:
- Describir y analizar el nivel de salud de las comunidades, estudiar la aparición, distribución y propagación de las enfermedades; como base para el planeamiento administración y evaluación de los servicios de atención (promoción y recuperación de la salud).
- Proporcionar datos para el entendimiento de los factores responsables de la salud y la enfermedad.
- Promover la utilización de los conceptos epidemiológicos en la administración de los servicios de salud.
- Identificar, medir, monitorear y evaluar las inequidades.

De acuerdo con estos principios la epidemiología pone en énfasis, no tanto en la enfermedad, como en la salud y el bienestar, su quehacer es fundamentalmente la prevención de la enfermedad y la promoción de la salud.


Hasta que 1950, el término “vigilancia” estaba restringido en la práctica de salud pública para vigilar los contactos de las personas con enfermedades transmisibles graves como la viruela, con el objetivo de detectar los primeros síntomas y procurar el aislamiento inmediato. 

En 1963, Alexander Langmuir limitó el uso del término “vigilancia” a la recolección, el análisis y la difusión de los datos. Langmuir, el epidemiólogo principal en los CDC por más de 20 años, efectuó las contribuciones centrales a la vigilancia de la salud pública que definieron en último término la práctica actual en todo el mundo. El Director de División de la OMS, Karel Raska, definió a la vigilancia mucho más ampliamente que Langmuir, como “el estudio epidemiológico de la enfermedad es un proceso dinámico”. Utilizando la malaria como referencia, Raska previó la vigilancia epidemiológica abarcando al control y a las actividades de prevención.

En 1968, la 21a Asamblea Mundial de la Salud se centró en la vigilancia nacional y mundial de las enfermedades transmisibles, aplicando el término a las enfermedades mismas en lugar del seguimiento de las personas con enfermedades transmisibles. La Asamblea que contó con delegados de aproximadamente 100 países, aprobó el documento de trabajo, y las discusiones sobre la vigilancia nacional y mundial de las enfermedades transmisibles e identificaron tres características principales de la vigilancia que Langmuir había descrito en 1963:
a) la colección sistemática de datos pertinentes
b) la consolidación ordenada y evaluación de estos datos.
c) la difusión inmediata de los resultados a los que lo necesitan en particular a quienes están en posición de tomar medidas.

Las discusiones de la Asamblea Mundial de la Salud de 1968 reflejaron la ampliación de los conceptos de la “vigilancia epidemiológica” y abordaron la aplicación del concepto a los problemas de salud pública diferentes de las enfermedades transmisibles. Además, la vigilancia epidemiológica se dijo, implica “...la responsabilidad del seguimiento para ver que se haya tomado una acción eficaz”.

Desde entonces, otros eventos de salud, como la intoxicación por plomo, la leucemia, las malformaciones congénitas. Los abortos, las lesiones y los factores de riesgo conductuales se han colocado bajo vigilancia.

Vigilancia de Salud Pública

La función primaria de la aplicación del término “epidemiológica” a la vigilancia, que apareció por vez primera en los años sesenta en asociación con la recién creada unidad de la OMS con ese nombre, fue la de distinguir esta actividad de otras formas de la vigilancia (por ejemplo, inteligencia militar) y a su vez reflejar sus aplicaciones más amplias.

El uso del término “epidemiológica”, sin embargo, engendra tanto confusión como controversia. En 1971, Langmuir señaló que algunos epidemiólogos tendieron a equiparar la vigilancia a la epidemiología en su sentido más amplio, e incluyeron a las investigaciones epidemiológicas y la investigación en sí. Él encontró este término “imprudente tanto epidemiológica como administrativamente” y favoreció una descripción de la vigilancia como “inteligencia epidemiológica”.

Sí el uso de la información obtenida es limitado a acumular archivos ya la indagación académica, este material es por consiguiente considerado correctamente como información sanitaria en vez de información de vigilancia. La vigilancia no abarca la investigación epidemiológica o el servicio, los cuales son actividades de salud pública relacionadas pero independientes que pueden o no basarse en la vigilancia. Por lo tanto, el límite de la práctica de vigilancia excluye la investigación y puesta en práctica real de los programas de entrega de servicios. Debido a esta separación, con toda propiedad “epidemiológica” no es el adjetivo adecuado para la vigilancia.

El término “vigilancia de salud pública” describe el alcance (vigilancia) e indica el contexto en qué ocurre (salud pública). También obvia la necesidad de acompañar cualquier uso del término “vigilancia epidemiológica” con una lista de todo los ejemplos de lo que este término no cubre. La vigilancia es correcta —y necesariamente— un componente de la práctica de salud pública y debe seguir reconociéndose como tal.
Finalidades y usos de la vigilancia de salud pública.

Finalidades
La información de vigilancia de salud pública se usa para:
- identificar el estado de salud
- definir las prioridades de salud pública,
- evaluar los programas
- sustentar el inicio de investigaciones.

Esta información nos dice dónde están los problemas, a quién afectan, y a dónde deben dirigirse las actividades programáticas y de prevención. Tal información también puede usarse para ayudar a definir las prioridades de una manera cuantitativa y también en las evaluaciones de la eficacia de las actividades programáticas. Los resultados del análisis de los datos de vigilancia de salud pública también les permiten a los investigadores identificar las áreas de interés para la investigación adicional.

Usos.
Las aplicaciones de la vigilancia son:
- cuantificación de la magnitud de un problema de salud
- representación de la historia natural de las enfermedades
- detección y control de epidemias.
- identificar factores de riesgo o favorables al estado de salud
- documentación de la distribución y propagación de un evento de salud
- facilitar la investigación epidemiológica y de laboratorio
- prueba de hipótesis
- evaluación de medidas de prevención y control
- monitoreo de los cambios en los agentes infecciosos
- monitoreo de las actividades de aislamiento
- detección de los cambios en las prácticas de atención a la salud
- base para la identificación de prioridades
- elaboración de programas
- evaluar servicios de salud

Etapas en la organización de los sistemas de Vigilancia
La organización de un sistema de vigilancia, en una población determinada, implica la concreción de una serie de etapas que se inician con la determinación de prioridades.
Enunciamos las etapas en la organización de estos sistemas.
- Identificación de prioridades.
- Formulación de objetivos.
- Definición de las necesidades de información para estos objetivos
- Selección de la estrategias de Vigilancia.
- Análisis e Interpretación de la información
- Difusión de la información.
- Evaluación de los sistemas de Vigilancia.
- Selección de las Estrategias de Vigilancia.

La Vigilancia Centinela
Algunas de las fuentes de información epidemiológica, antes enumeradas, pueden ser utilizadas en sí mismas como estrategias o procedimientos de vigilancia, según sean los mecanismos de obtención y utilización de datos. Es evidente que resulta prácticamente inviable que un sistema de Vigilancia en Salud Pública abarque con profundidad y detalle todos los aspectos vinculados a la salud de las poblaciones.

Por este motivo, todo sistema de vigilancia debe establecer prioridades para que sólo sean incluidos en el sistema aquellos aspectos de mayor relevancia en la salud pública y seleccionar las estrategias más adecuadas para que sea viable, eficiente, adecuada y oportuna la recolección, procesamiento, análisis, interpretación y difusión de la información.

Las estrategias de los sistemas de vigilancia son muy variadas, aunque básicamente pueden agruparse de acuerdo a su principal propósito: simplificar procedimientos y aumentar la eficiencia del sistema, aumentar la cobertura del sistema o investigar en profundidad un evento en la población.

Existen diferentes modalidades o estrategias de vigilancia, que individualmente ofrecen información parcializada:
• Notificación semanal pasiva (C2)
• Notificación Intensificada (Vigilancia Sindrómica)
• Notificación negativa o Búsqueda Activa de Casos
• Vigilancia de Registros Especiales
• Vigilancia Ambiental
• Vigilancia de la Mortalidad
• Vigilancia Simplificada o Comunitaria
• Redes de Laboratorios
• Bancos de Sangre
• Encuestas Epidemiológicas
• Encuestas Serológicas
• Vigilancia Centinela (Sitios, Unidades y Grupos Centinela)

De estas modalidades o estrategias describiremos la Vigilancia Centinela en algunas de sus modalidades:

Los Sitios Centinela: Buscan realizar una vigilancia intensiva en un área geográfica delimitada con el objetivo de generalizar los resultados obtenidos a un área más amplia (provincia, región, país). En estas áreas se relevan en forma periódica datos de alta calidad sobre eventos frecuentes. Para que estos datos tengan representatividad hacia el área de referencia, será necesario seleccionar con cuidado cual será el Sitio Centinela. Por lo general esta estrategia requiere la selección de varios sitios que representen los diferentes estratos de la región a la que se pretende extrapolar los datos, lo que implica el análisis de una serie de variables socioeconómicas, demográficas, culturales, etc., para la definición de los estratos. Para mantener la representatividad los Sitios Centinelas no deben ser objetos de intervenciones especiales. Por su condición de actividad intensiva en áreas restringidas, esta estrategia permite disminuir el sesgo de otras estrategias o fuentes de información que pueden resultar en un sub-registro o sobre-registro.

Las Unidades Centinela: Con una base conceptual similar a la de los Sitios Centinela, respecto a una actividad intensiva para obtener información de mayor calidad, sin embargo, en lugar de seleccionarse un área geográfica, aquí se selecciona una unidad de atención de la salud. La información obtenida de estas unidades permitirá caracterizar mejor el evento en estudio, aún cuando no se podrá conocer con precisión su incidencia, (información sin base poblacional). De cualquier manera puede ser utilizada para monitorear tendencias de la Incidencia o Prevalencia cuando se dispone de información comparativa en el tiempo de una misma unidad. Esta estrategia tiene como limitaciones que no permite comparar la magnitud de la prevalencia o incidencia con otras subpoblaciones o áreas donde la información no se recolecta mediante esta estrategia. Son sistemas altamente específicos pero poco sensibles.
La selección de Unidades Centinela supone la participación total del personal en dicha unidad, por lo que debe realizarse la capacitación y motivación necesaria para lograr un funcionamiento adecuado. Frecuentemente esta selección está basada en recursos específicos existentes en la unidad que la hacen especialmente apta para proveer información de alta calidad.

Los Grupos Centinelas: En esta modalidad no es un sitio geográfico o un centro de salud lo que se selecciona, sino un grupo de personas obviamente seleccionadas por presentar factores de riesgo, como ocurre en el caso del VIH / SIDA, por ejemplo en un grupo de adictos intravenosos se monitorea en el tiempo para identificar la aparición de la infección. Estas modalidades o estrategias no son mas que un conjunto de fuentes de información y procedimientos específicos, de tal manera que la información generada sea útil para incrementar el conocimiento y favorecer la toma de decisiones y acciones.

Unidades Centinela como estrategia y subsistema de vigilancia

Las Unidades Centinelas se constituyen como una Estrategia y a su vez la Red de Unidades Centinelas se constituyen en un Subsistema del Sistema Nacional de Vigilancia. Todo subsistema debe responder a las prioridades identificadas como problemas relevantes y debe cumplir con los atributos generales de un sistema de vigilancia.

Como tal el Subsistema de Redes de Unidades Centinelas en su funcionamiento, deben reunir los siguientes atributos:

- Simplicidad: Facilidad con que funciona, tiene que ver con la estructura en la que basa su operación.

- Adaptabilidad: Debe ser dinámico, con capacidad de adaptarse a nuevos requerimientos, entre ellos nuevos métodos de diagnóstico o nuevas entidades o nuevas definiciones de caso. Las Unidades Centinelas tienen adaptabilidad a nuevos o diferentes requerimientos, pero deben mantener la uniformidad, o sea todo cambio debe ser incorporado en todo el sistema y debe vigilarse que no se pierda la información previa.

- Aceptabilidad: Se debe promover una actitud participativa de los trabajadores y de la población en el desarrollo de las actividades previstas en el sistema y en especial de las autoridades y administradores que deben gerenciarlo. Debe evitarse la superposición de tareas. Las Unidades Centinelas demandan una gran aceptabilidad en el personal de salud para lograr un adecuado funcionamiento.

- Sensibilidad: Representa la capacidad de detectar casos y brotes a nivel comunitario. Esta capacidad esta relacionada con la Definición de Caso utilizada y la capacidad de detectar cambios en el número esperado. Lo esperado o habitual está relacionado con la Tasa de Incidencia y el Nivel o grado de agregación con que se realiza el análisis, recordar que los datos consolidados diluyen las diferencias locales. Las Unidades Centinelas carecen de base poblacional lo que las hace ser poco sensibles.

- Especificidad: Es la capacidad del sistema de reconocer la no existencia de un evento. Al igual que la sensibilidad dependerá de la proporción de “no casos” que son erróneamente considerados casos y otro como el número de situaciones consideradas anormales (brotes) y que en realidad no lo son. Las Redes de Unidades Centinelas son Subsistemas altamente específicos.

- Valor Predictivo Positivo: Refleja una relación entre la sensibilidad, la especificidad de la definición de caso utilizada y la prevalencia de la condición en la población. El valor de este atributo, se obtiene de dividir los casos confirmados entre el total de notificados como caso.

- Representatividad: Está dada en función de la cobertura de población a vigilar. Implica la posibilidad de aplicar los resultados observados a otras poblaciones. Dependerá entre otras cosas del tipo de evento a vigilar. En los Sitios Centinelas este atributo es una exigencia, en cambio en las Unidades Centinelas debe tenerse presente la población de influencia que está siendo vigilada para intentar generalizarlos. Los resultados obtenidos a nivel de toda la Red de UC cuyas ubicaciones estén acordes con las problemáticas estudiadas, podrían toman valores referenciales para todo el país.

- Oportunidad: El grado de oportunidad con que se necesita la información dependerá de los tiempos requeridos para realizar intervenciones. Está vinculada a la modalidad operacional que utilicemos. En general la estrategia de UC debería asegurar oportunidad y periodicidad adecuadas. 

- Calidad del Dato: La calidad del dato, refleja el grado de completamiento y validez de los datos recolectados por los instrumentos (formularios) utilizados para la recolección de información por el sistema de vigilancia. La Calidad del dato esta influenciada por; la definición de caso utilizada, la claridad de los formularios utilizados y el entrenamiento y supervisión de las personas que están encargadas de llenarlos y por último el cuidado con que se carga esta información en las bases de datos. La calidad del dato suele obtenerse de manera fácil identificando la proporción de datos en blanco o desconocidos existente en los formularios utilizados. La aplicación de la estrategia de Unidades Centinelas permite obtener datos de buena calidad.

- Estabilidad: Se refiere a fiabilidad y disponibilidad del sistema para responder a los Objetivos para los cuales fue diseñado. La fiabilidad se expresa como la habilidad del sistema para recolectar, administrar y proveer datos con calidad similar y mantenida en el tiempo y la disponibilidad se refiere a la operacionalidad del sistema de responder cuando esto se necesita.

- Difusión: Dependerá de la oportunidad y de la capacidad operativa de difusión del sistema. El hacer difusión de la información, promueve la realización de acciones de prevención y control y estimula a mejorar la recolección de los datos.

Estos atributos están vinculados entre sí y que en ocasiones cuando pretendemos mejorar los resultados de uno de ellos podemos provocar una reducción en los resultados de otro, por lo cual se recomienda buscar un equilibrio tal que resulte en un producto (información) que satisfaga las necesidades, evitando subdimensionar o sobredimensionar el subsistema.

Las Unidades Centinelas como estrategia de Vigilancia, insertadas en el Sistema de Vigilancia actual permitirán:
- Focalizar la Vigilancia sobre problemas de salud relevantes
- Identificar con detalle las características de los problemas de salud no bien conocidos.
- Facilitar la investigación epidemiológica, clínica y de laboratorio, a través del trabajo colaborativo, posibilitando una mayor integración entre esas áreas.
- Monitorear los cambios en los agentes infecciosos
- Monitorear tendencias de la Incidencia o Prevalencia cuando se disponga de información comparativa en el tiempo.
- Evaluar medidas de Prevención y Control
- Utilizar de una forma más efectiva y eficiente los recursos

jueves, 20 de diciembre de 2007

El Acuífero guaraní


El denominado Sistema Acuífero Guaraní es uno de los reservorios de agua subterránea más grandes del mundo, encontrándose en el subsuelo de un área de alrededor de 1.190.000 kilómetros cuadrados (superficie mayor que las de España, Francia y Portugal juntas) por lo que también en un momento se lo denominó "el Acuífero Gigante del Mercosur".

En Brasil abarca una superficie - en kilómetros cuadrados - de aproximadamente 850.000 (9,9% del territorio) en Argentina 225.000 (7,8%) en Paraguay 70.000 (17,2%) y en Uruguay 45.000 (25,5%). De acuerdo a lo actualmente se conoce, salvo en la Argentina -que se encuentra a profundidades por debajo de los novecientos metros- en los demás países se lo alumbra a profundidades muy variables (entre los 50 y 1.500 metros).

En general posee presión de surgencia, de manera que realizada una perforación, cuando se alcanza la profundidad del acuífero el agua se eleva naturalmente y en muchos casos emerge sobre el nivel del suelo; las temperaturas, producto de las profundidades alcanzadas (por gradiente geotérmico), van desde los 33º C a los 65º C. 

Si bien el volumen total de agua almacenado es inmenso (37.000 kilómetros cúbicos, donde 1 kilómetro cúbico es igual a 1 billón de litros), en realidad el volumen explotable, estimado actualmente como reservas reguladoras o renovables, es de 40 a 80 kilómetros cúbicos por año. Estas cifras corresponden, por ejemplo, a una magnitud comparable en volúmenes a un tercio de la totalidad del escurrimiento del río Uruguay, y también representan 4 veces la demanda anual de agua de la Argentina para todos los usos.


El país que más lo explota es Brasil, abasteciendo total o parcialmente entre 300 y 500 ciudades; Uruguay tiene 135 pozos de abastecimiento público de agua, algunos de los cuales se destinan a la explotación termal. En Paraguay se registran unos 200 pozos destinados principalmente al uso humano. En la Argentina hay en explotación 5 perforaciones termales de agua dulce y una de agua salada, ubicadas en el sector oriental de la provincia de Entre Ríos, en tanto que hacia el Oeste de la misma se ha alumbrado sólo agua salada termal, con la consiguiente problemática del efluente salado. Se desconoce la existencia del acuífero en el resto de las provincias donde se hallan en el subsuelo las unidades geológicas que lo podrían contener.


El agua subterránea del Sistema Guaraní se aloja en formaciones geológicas antiguas, correspondientes a los períodos Triásico, Jurásico y Cretácico Inferior, teniendo esas rocas edades entre los 200 a 132 millones de años. En esa época, en que aún estaban unidas África y Sudamérica, los depósitos comenzaron a desarrollarse en ambientes fluviales y lacustre conociéndoselos en la literatura geológica como formación Tacuarembó o también Piramboiá. Luego, como resultado de un clima más seco, se desarrolló un gran desierto de arenas bien seleccionadas (semejante al actual Sahara) que también abarcó la región que nos ocupa de los 4 países, constituyendo posteriormente el acuífero principal del Sistema dentro de la formación geológica denominada Botucatú o Rivera.

Todos estos sedimentos abarcaron dentro de la Argentina: el litoral y región chaco pampeano norte y central resultando espesores variables entre los 200 metros y los 600 metros.

Luego de esta etapa, y a través de grandes fracturas profundas, todos los sedimentos anteriores fueron cubiertos por coladas de lavas basálticas, que acompañaron la separación entre los continentes mencionados, constituyendo la efusión basáltica de mayor extensión mundial comprendiendo un millón de kilómetros cuadrados en los 4 países del Mercosur.

Esta efusión dejó volúmenes de rocas muy diversos: en Misiones más de 800 metros de espesor de coladas de lavas superpuestas, en la margen oriental entrerriana más de 600 metros, en tanto que la región chaco pampeana presenta escasos metros y con presencia irregular discontinua. El máximo espesor conocido de basaltos se registra en Brasil - Estado de San Pablo - con más de 1.900 metros.

Luego de todos estos eventos geológicos, que permitieron en ese entonces la depositación de más de 1.000 metros de espesor de rocas en toda el área, se comienzan a producir y reactivar fallas y estructuras geológicas que en muchos sectores alteraron el orden estratigráfico establecido, las orientaciones originales y las alturas, sumado todo ello a los procesos erosivos actuando durante varios millones de años y la conformación de depósitos más modernos producidos en el Terciario y Cuaternario.

En ese escenario, considerado geológicamente casi final, y muy parecido al actual, las rocas más permeables que afloraban comenzaron a llenarse de agua por infiltración desde la superficie (producto de las lluvias y ríos), circulando muy lentamente - en el orden de los pocos metros por día - desde las áreas de afloramiento (áreas de recarga) hacia las de hundimiento y confinamiento (áreas de tránsito y descarga). Este proceso comenzó en gran escala hace más de 20.000 años (cuando en las pampas vivía el gliptodonte y en Europa el homo sapiens habitaba en cavernas) y continua...

Fuente: Dr. Jorge N. Santa Cruz -INA



EL PROYECTO SISTEMA ACUIFERO GUARANI MERCOSUR - UNION TAMBIEN DE LA GEOLOGIA Y EL AGUA SUBTERRÁNEA

Axel van Trotsenburg, director de la sede regional del BM, destacó la importancia de "que estos cuatro países (Argentina, Brasil, Paraguay y Uruguay) hayan reconocido la necesidad de preservar el acuífero" y dar "un gran paso en la dirección correcta". Dijo el holandés que "lo que es histórico es que hayan acordado hacerlo antes de que el recurso se contamine". 

El costo del proyecto es de 27.240.000 de dólares y cuenta con una donación de 13,4 millones de dólares del Fondo Mundial para el Medio Ambiente. El resto se cubre con contrapartidas nacionales y financiamiento de organismos internacionales que apoyan la iniciativa.

La sesión inaugural, realizada el jueves en el Edificio Mercosur -frente a la rambla de Montevideo-, contó con la presencia de autoridades de los cuatro países involucrados. El presidente uruguayo, Jorge Batlle, destacó el valor del emprendimiento y dijo que la integración en la región debe hacerse "de abajo hacia arriba y construirla por el agua, la sanidad animal y las comunicaciones".

El proyecto cuenta con el apoyo de los cuatro gobiernos del Mercosur, el Fondo Global para el Medio Ambiente (GEF), el Banco Mundial, la Organización de Estados Americanos (OEA), los gobiernos de Holanda y Alemania, y la Agencia Internacional de Energía Atómica.

El proyecto requiere que en cada país se establezca una unidad o un consejo directivo con los máximos organismos de recursos hídricos, medio ambiente y cancillería, y un consejo técnico que coordine las acciones.
Resultado de imagen para Acuífero guaraní
Con cuatro años de duración, el proyecto está estructurado en siete áreas: 
1) Conocimiento y usos (expansión del conocimiento científico). 
2) Gestión (instrumentación conjunta de marco de gestión). 
3) Participación (fomento de la participación de la sociedad). 
4) Educación y comunicación (campaña educativa sobre la necesidad de protección ambiental). 
5) Proyectos piloto (desarrollo de medidas para gestión de aguas subterráneas y mitigación de daños). 
6) Energía geotérmica (evaluación del potencial geotermal del acuífero). 
7) Coordinación (trabajos administrativos y gerenciamiento del proyecto).

Fuente: Nelson Fernández Para La Nación
Related Posts Plugin for WordPress, Blogger...