31 de agosto de 2011

NUEVOS AUTOBUSES DE HIDRÓGENO PARA HAMBURGO



La industria Alemana está siendo un hervidero de actividad en los últimos cinco años. Cuando se trata de hablar de la economía del hidrógeno, la competencia es encarnizada entre Estados Unidos, Alemania y Japón, los tres mayores exportadores de automóviles del mundo.

El último movimiento corresponde a Alemania, país en el que se está llevando a cabo un avance coordinado de las tecnologías de automoción y la implantación de infraestructuras de apoyo. La ciudad de Hamburgo, que ya contaba con cuatro autobuses híbridos dotados de Célula de combustible de la marca Mercedes-Benz ha confirmado la renovación de sus unidades, toda vez que las primeras, adquiridas en 2003, han terminado su periodo de pruebas. La empresa de autobuses urbanos Hamburger Hochabahn AG, ha informado que adquirirá otras tres unidades extra el próximo año. De este modo da un espaldarazo a las tecnologías limpias basadas en pila de combustible.

Los nuevos autobuses Citaro FuelCELL presentan algunas mejoras con respecto a la primera generación de autobuses con pila de combustible que se lanzó en Hamburgo en 2003. Se ha introducido un nuevo sistema híbrido de recuperación y almacenaje de energía en las frenadas, gracias a la incorporación de nuevas baterías de Litio-ion. Los motores eléctricos van dentro de las llantas, con una potencia máxima de 120 kw (164 CV), y la pila de combustible son más avanzadas. Estas últimas están diseñadas para una vida útil de seis años o 12.000 horas de funcionamiento, lo que le permite un uso intensivo de seis horas diarias. Las pilas de combustible son idénticas a las del Mercedes Benz Clase B, que hizo recientemente una exhibición de fiabilidad dando la vuelta al mundo.

ALMACENAJE DE HIDRÓGENO (BORANO DE AMONIACO)

Sustituir a los motores de explosión no está resultando tarea fácil y como muestra un dato:

Entre los métodos de almacenar hidrógeno de forma segura y eficaz, uno de los más prometedores es el borano de amoniaco (NH3BH3), un compuesto químico capaz de almacenar y liberar hidrógeno hasta un 12% en peso a temperaturas elevadas (110-150 ºC). A temperatura ambiente ronda el 4,6% por kg, o lo que es lo mismo, una densidad energética de 1.532 Wh/kg, que pasa a ser de 760 Wh/kg cuando la célula de combustible transforma el hidrógeno en la preciada electricidad. Estas cifras superan por mucho a las de las mejores baterías de Litio-ion. Pero aún así, se encuentran a años luz de la densidad energética de la gasolina 3.500 Wh/kg una vez aprovechada por el motor de nuestro automóvil. Y no es que los motores de explosión tengan un gran rendimiento, todo lo contrario. Lo que ocurre es que la densidad energética de la gasolina no tiene rival, ¡de momento! Para que un depósito con hidrógeno pueda compararse a uno con gasolína tendría que multplicarse la densidad energética del borano de amoniaco por 4,6 (a temperatura ambiente). Para ello se investiga la utilización de diversos catalizadores que permitan la reacción de liberación de hidrógeno a bajas temperaturas.


¿QUÉ FUE DE LAS PANTALLAS OLED?

Las pantallas OLED fueron inventadas en 1987 por dos investigadores de la empresa KODAK cuando estudiaban una célula solar orgánica en la que estaban trabajando. Desde entonces no se ha parado de investigar en la mejora de sus prestaciones. Hacia el año 2004 ya se especulaba con que sustituirían ventajosamente a las pantallas LCD y que superarían a los LED en la carrera por hacer las pantallas más económicas y eficientes. Con el paso de los años las pantallas LED han desbancado a las LCD en las tiendas, mientras que las OLED no han dado los resultado esperados.

Su funcionamiento se basa en la existencia de sustancias orgánicas fotoluminiscentes, los diodos de emisores de luz orgánicos (OLED, Organic Light Emitting Diode). Extremadamente luminosos, emiten luz al ser estimulados por un determinado voltaje. Gracias a ello, consumen menos energía que las pantallas de cristal líquido LCD, (Liquid Cristal Display) que requieren retroalimentación. Su aplicación en capas finas sobre diversos sustratos como vidrio, plástico flexible e incluso una lámina metálica, permiten conseguir pantallas de naturaleza inusual, con extremada delgadez y flexibilidad, lo que las dota de un inmenso abanico de posibilidades. En los últimos prototipos se han utilizado partículas de óxido de zinc e iones de amonio de una dimensión de cinco nanómetros para proporcionar un semiconductor de electrones capaz de ser estable también en un entorno atmosférico, dando como resultado un dispositivo de luz con una eficiencia de 10 candelas de amperios y 50.000 candelas por metro cuadrado que promete mejorar el mercado de televisores, pantallas e iluminación del mundo.

Sin embargo, las pantallas LED actuales tienen una vida útil más larga que las OLED, a lo que hay que añadir que, el coste de una pantalla OLED triplica al de una LCD. ¡Demasiado caro para los tiempos que corren! Eso ha confinado el mercado de pantallas OLED a dispositivos de pequeño tamaño (inferior a 7 pulgadas), que tienen que ser especialmente delgados y ligeros, con un consumo energético mínimo. Las pantallas AMOLED (la última evolución de las OLED) proliferan en los tablet PC y los smartphones de SAMSUNG. Pero incluso en estas aplicaciones tan específicas su precio es un 20% superior a las S-LCD.

En el siguiente video se puede comparar la diferencia de definición y contraste entre la pantalla Super AMOLED Plus 4,3” del Samsung Galaxy S2, las pantalla de 4” Super AMOLED del Galaxy S y la pantalla 3,5” IPS-LCD del iPhone4 (Apple). La pantalla Super AMOLED plus mejora la eficiencia de su predecesora en un 18%, con un 50% más de subpíxeles y mejorando el brillo y la delgadez.


30 de agosto de 2011

HIDRÓGENO versus ELECTRICIDAD



Que la solución para los problemas energéticos a largo plazo pasa por la electrificación del transporte, es algo en lo que coinciden todos los expertos. Otra cosa es averiguar, ¿cómo y cuándo se producirá tal transición? En este caso, las hipótesis sobre el futuro se suceden y los expertos lanzan sus vaticinios en función de los descubrimientos del momento.

En estos momentos me viene a la memoria una entrevista realizada hace diez años al director de una conocida marca de coches alemanes. En ella, la periodista le preguntaba por la aparente falta de interés de la compañía hacia la economía del hidrógeno, los vehículos eléctricos y todo lo que oliera a investigación en los vehículos del futuro. Su respuesta fue sencilla, dentro de 10 años seguirán vendiéndose vehículos con mecánicas de combustión interna, por qué malgastar dinero en tecnologías poco maduras, en lugar de invertirlo en mejorar las ya existentes. Su idea era que las mecánicas de combustión aún tenían mucho margen de mejora, tanto en términos de eficiencia como de consumo y emisiones. Visto en retrospectiva, no le faltaba razón, las mecánicas diesel actuales logran consumos de poco más de 4 l/100 km con potencias entre los 140 y los 184 caballos. Si lo comparamos con el mejor automóvil de hidrógeno actual, que gasta 2,8 litros de gasolina equivalentes con 140 caballos de potencia, comprobamos que la diferencia es mínima. ¿Realmente interesa comprar un carísimo automóvil de hidrógeno para disminuir el consumo en 1,5 litros? Me temo que no. Los vehículos híbridos (gasolina – eléctricos) consiguen consumos de 3,9 litros, y los híbridos (diesel – eléctricos) prácticamente igualan los consumos del automóvil de hidrógeno. Pero ambos casos lo hacen con una tecnología madura que se puede adquirir a menor coste.

Parece claro que con los altos rendimientos que logran los vehículos híbridos actuales, en sus múltiples versiones; híbridos con mecánicas de gasolina o diesel, híbridos plug-in “con enchufe”, dotados de baterías que les permite funcionar en modo eléctrico para recorridos cortos, e híbridos de autonomía extendida, que funcionan siempre en modo eléctrico gracias a un motor de gasolina que hace las veces de generador eléctrico, no se necesitan carísimas tecnologías experimentales.

Visto esto, me gustaría volver al despacho del presidente de la compañía para hacerle la misma pregunta ¿cómo ve el futuro del automóvil a diez años vista? (Deduzcamos su contestación)

La respuesta indudablemente pasa por la electrificación del transporte, el problema es cómo conseguirlo, mediante una economía basada en el hidrógeno o con automóviles eléctricos de baterías. La tan oída economía del hidrógeno puede llegar a resultar una opción muy derrochadora. Se requiere una gran cantidad de energía para obtener hidrógeno de compuestos naturales como (agua, gas natural o biomasa), para almacenarlo (gas a presión o licuefacción), para transportarlo hasta el usuario final, y para volver a generar electricidad en una pila de combustible. Mucho más práctico, y eficiente, resultaría generar electricidad, transportarla por la red eléctrica y almacenarla directamente en las baterías de los vehículos. Si se observa el gráfico que se presenta a continuación, las pérdidas energéticas desde la producción de electricidad hasta su utilización en el vehículo son más elevadas en la economía del hidrógeno que en una economía basada en baterías. Si pensamos en la obtención de electricidad mediante energías renovables como la eólica, es tres veces más eficiente utilizar la electricidad directamente para recargar una batería que convertirla en hidrógeno, almacenarlo, transportarlo y volverlo a convertir en electricidad mediante una célula de combustible.


Ante una verdad incuestionable como esa podría parecer que la respuesta está clara, pero estaríamos precipitándonos. Aún quedan puntos críticos por solucionar tanto en una alternativa como en la otra. Las baterías tienen que demostrar que son capaces de almacenar la energía eléctrica necesaria para dotar a los automóviles de una autonomía suficiente, con un peso y un precio, contenidos. Ninguno de esos factores lo consiguen en la actualidad. Los precios rondan los 600 euros por kWh, 36.000 euros para la batería de un automóvil con 500 km de autonomía. El tiempo de recarga de una noche es demasiado elevado para plantearse viajar. Su peso es tan elevado que un camión tendría que transportar más de 6 toneladas de baterías para el recorrido de un día. Su vida media es de unos 5 años o 1000 recargas. La autonomía media varía en hasta un 20% dependiendo de la temperatura ambiente. Y para colmo de males, pueden incendiarse y explotar. Tendrán que aparecer nuevos tipos de baterías como las SMCs antes de que podamos hablar en serio de esta opción.

Pero los automóviles de hidrógeno no salen mucho mejor parados. Logran grandes autonomías (hasta 800 km) con tiempos de repostaje de minutos. Pero el precio del automóvil es astronómico. Las células de combustible son muy caras de fabricar, porque utilizan platino en sus electrodos (aunque se están investigando alternativas). Los depósitos de hidrógeno a 700 atmósferas de presión son caros y voluminosos. Y lo que es peor, el hidrógeno sale más caro que la gasolina. Para que los vehículos de hidrógeno sean una alternativa realista, hay que encontrar un método de almacenar hidrógeno realmente competitivo y hay que producir el hidrógeno con centrales nucleares de cuarta generación. Solo en esas condiciones, la economía del hidrógeno se impondría a cualquier otra alternativa.

LASER BLANCO

Fibra óptica
La luz laser blanca o “supercontinua” posee muchas de las propiedades de la luz laser, pero abarcando una banda de frecuencias mucho más amplia. Eso le otorga grandes ventajas en aplicaciones tan interesantes como las telecomunicaciones, toma de imágenes, medición de tiempos y ciencia de la atmósfera.

En la gama visible de la luz, el color es una sensación fisiológica determinada por la frecuencia de los fotones. Las lámparas de luz artificial que tenemos en nuestro hogar, emiten a través de todo el rango de frecuencias del espectro visible por lo que nos da la sensación de percibir luz blanca. Pero la luz que puede ofrecernos una bombilla incandescente tiene inconvenientes que, aunque difíciles de apreciar a simple vista, la convierte en poco adecuada para la transmisión de información por fibra óptica.


Observar el haz de luz laser blanca a la iquierda y la
descomposición del espectro que lo compone,
 a la derecha.
La luz de una lámpara incandescente tiene una baja intensidad, no está colimada (su haz de rayos no se encuentran paralelos) y no es coherente (las fases oscilatorias de los fotones emitidos no coinciden). Los láseres pueden llegar a solucionar estos tres problemas, pero a cambio no son capaces de emitir más que en una sola frecuencia al mismo tiempo. Con la nueva técnica para producir láseres blancos se elimina esa desventaja. Eso permite aplicaciones muy interesantes, como la que les valió el premio Nobel de Física (2005) a Jhon L. Hall (Universidad de Colorado) y Theodor Hänsch del Instituto Máx Planck de Óptica Cuántica en Garching, por utilizarlo para la medición de tiempos y frecuencias con una precisión desconocida hasta el momento. Los laser blancos permiten grabar a cámara lenta procesos que se producen en tiempos exiguos.

Para producir un haz laser de luz blanca supercontinua utilizaron un laser de luz verde de alta intensidad y brevísima duración, del orden de los picosegundos, trasmitido a través de cristales como la calcita o vidrios especiales. Posteriormente, también se han logrado láseres blancos mediante la utilización de líquidos y gases. Su principal aplicación de laboratorio fue explorar procesos fundamentales cuya duración se encuentra entre los picosegundos (10-12 segundos) y los femtosegundos (10-15 segundos). Eso permitió estudiar los procesos de absorción de fotones en la fotosíntesis y en nuestras retinas. También pudieron diferenciar etapas en las reacciones químicas y el modo en el que las moléculas excitadas por la captación de radiación se relajan sin volverla a emitir.

Otras aplicaciones más próximas a nuestro día a día son:

Telecomunicaciones: Las aplicaciones en comunicaciones son extraordinariamente prometedoras pues permiten la emisión de información por fibra óptica 1000 veces más lejos sin sufrir dispersión. Eso evita la necesidad de incluir repetidores de la señal coda pocos kilómetros. A esa ventaja cabe añadir la posibilidad de transmitir volúmenes de información 1000 veces mayores que la de los sistemas existentes. Esto lo logra gracias a su extraordinaria anchura de banda, el haz supercontinuo es un medio económico de obtener multitud de canales en distintas longitudes de onda, sin tener que recurrir a cientos de láseres distintos.

Medicina: La Tomografía óptica de coherencia crea imágenes similares a la de ultrasonidos, pero con mucha más resolución, 10 micrómetros frente a 100 micrómetros. Además logra una resolución 4 veces mayor que la que se obtenía con la Tomografía Óptica de luz normal. De este modo se obtienen imágenes de alta resolución de los tejidos de nuestro cuerpo, lo que resulta muy útil en el estudio de la retina, en la detección del cáncer de piel y de trastornos gastrointestinales.

Ciencia de la atmósfera: Detección de gases contaminantes en la atmósfera. Los contaminantes y aerosoles de la atmósfera absorben luz en determinadas frecuencias. Un laser de luz supercontinua que se trasmita a través de una fibra óptica desprotegida, con la suficiente longitud (más de 20 metros), permite detectar un espectro de absorción al final del filamento.

CHERNÓBIL: NUEVO CONFINAMIENTO SEGURO



Tras la explosión del reactor número 4 en 1986, la Unión Soviética levantó un sarcófago de acero y hormigón para evitar que se liberaran los elementos radiactivos. Su construcción contra reloj en uno de los entornos más peligrosos fue un gran logro de los trabajadores que actuaron como auténticos héroes. El problema fue la velocidad con la que se construyó y que se trataba en su momento de una solución provisional. Veinticinco años después los materiales comienzan a corroerse y toda la estructura corre el peligro de derrumbarse. Según los ingenieros su estructura se asemeja a la de un castillo de naipes, con piezas de metal enganchadas unas a las otras. Esa era la manera más rápida de construir el sarcófago sin arriesgar la salud de los trabajadores, pero al carecer de soldaduras o uniones atornilladas, cualquier evento fortuito, como un terremoto, podría derrumbar el edificio.

Para evitar este riesgo potencial, ya se trabaja en el Nuevo Confinamiento Seguro (NSC), construido por la empresa francesa Novarka. Se trata de un gigantesco arco metálico, semejante a un hangar de aviación pero de mayor altura que la Estatua de la Libertad, que se construirá a una distancia segura del reactor, a partir de segmentos prefabricados. Posteriormente, la estructura de 20.000 toneladas se trasladará a lo largo de 300 metros hasta cubrir el antiguo sarcófago. Para ello han diseñado un mecanismo mediante gatos hidráulicos y cojinetes de teflón, con capacidad para desplazar a la estructura móvil más grande jamás construida.

Una vez sobre su emplazamiento definitiva será sellada y empezarán las labores de desmantelamiento del antiguo sarcófago y del propio reactor. Si todo sale según lo previsto, Novarka concluirá el NSC antes del verano de 2014, con un coste de 1500 millones de euros. La estructura diseñada para contener la radiación durante 100 años, permitirá el desmantelamiento definitivo del reactor 4 de Chernóbil mediante dos grúas robotizadas.

29 de agosto de 2011

DEMIOS 2

Maqueta del Demios 2
Elecnor Demios es un grupo de empresas españolas que opera en el sector aeroespacial, defensa, redes de telecomunicaciones, sistemas de información y de control, entre otros. La sucursal Demios Space, creada en 2001, ha anunciado que tiene preparado el segundo satélite el Demios 2, (el Demios-1 fue lanzado al espacio en 2009) y está en el proceso de búsqueda de un cohete portador apropiado para su lanzamiento al espacio en septiembre del 2013.

Dadas las pequeñas dimensiones del satélite, dos metros de altura, 800 kg de peso, y una órbita operativa baja, a tan solo 600 km de la superficie terrestre, el cohete portador contratado puede ser de los más pequeños del mercado. La dirección de Elecnor está contactando con empresas de Estados Unidos, con la ESA, con empresas rusas (ISC) e incluso indias (PSLV), con el fin de encontrar la mejor relación precio – garantías de lanzamiento. Existen cohetes económicos que someten a la carga a tal nivel de vibración durante el lanzamiento que pueden resultar poco interesantes. Los satélites son diseñados con un grado de robustez determinado en función de las condiciones que sufrirá durante su lanzamiento. De ahí que sea esencial conocer con antelación cuál será el cohete contratado para llevar al Demios 2 al espacio. Además hay que tener en cuenta el coste por unidad de peso. Lanzar a baja órbita cuesta unos 20.000 dolares el kg, aunque el precio varía según se asigne el satélite como carga principal o secundaria.

El Demios 1, fue lanzado al espacio en 2009
con la empresa rusa ISC a un coste de
15.000 dolares kilogramo.
Una de las alternativas de lanzamiento más interesantes es el nuevo cohete Vega, dependiente de la agencia europea ESA. El primero de estos lanzadores de bajo coste acaba de ser construido en la Guayana Francesa y se espera a los primeros lanzamientos para comprobar su fiabilidad. Es capaz de llevar cargas de 300 a 1.500 kilos a órbitas bajas. También resulta atractiva la empresa india PSLV, ligada a la Agencia Espacial de India, es de las más competitivas en precio, pero aún no ha trasladado a Elecnor la minuta que cobraría.

Una vez en órbita, el satélite está diseñado para realizar millones de fotografías de alta calidad que pueden resultar muy útiles en aplicaciones como la agricultura de precisión, el urbanismo y la cartografía. La lente suministrada por la coreana Satrec, le permitirá ser uno de los diez satélites comerciales con mayor resolución. La empresa Elecnor, que hará una inversión en Puertollano (Ciudad Real) de entre 60 y 100 millones para construir el Demios 2, espera que su vida útil supere los 7 años de amortización previstos, e incluso que alcance los 40 años.

EXPERIMENTO AMS-02 y LA ESTACIÓN ESPACIAL INTERNACIONAL

ISS vista desde el Endeavour
Tras 16 años y más de 1.500 millones de euros se ha conseguido terminar y enviar al espacio el experimento AMS-02. Un detector de partículas (similar a los empleados en el Gran Colisionador de Hadrones del CERN), pero adaptado al entorno espacial. El Espectrómetro Magnético Alpha (AMS-02) fue trasportado en el último vuelo del transbordador espacial Endeavour a la Estación Espacial Internacional (ISS). Poco tiempo después era instalado con éxito en la estructura de la ISS donde permanecerá, si no hay contratiempos, hasta el 2028.

Es la primera vez que un dispositivo de investigación de este tipo se ancla a la ISS en lugar de crear un satélite individual. Las ventajas de la nueva estrategia son múltiples, pues el AMS es un gran derrochador de energía, necesita 2000 vatios para su normal funcionamiento (¡una barbaridad para los estándares del espacio!). La gran superficie de paneles solares de la ISS asegurará el constante suministro energético necesario para su normal funcionamiento. Además al encontrarse tan próximo a los astronautas, su instrumental puede ser reparado, o sustituido por equipos más avanzados, con gran facilidad y bajo coste. Eso asegura que el rendimiento del equipo será siempre óptimo, aumentando el ratio inversión/resultados científicos.

Instalación AMS-02 en la ISS.

Con un tamaño de 5x4x3 metros, y  7,5 toneladas de peso, su objetivo será estudiar los rayos cósmicos con un detalle nunca antes conseguido. Al no tener en frente una atmósfera repleta de contaminantes que alteren los resultados de las mediciones (como sucede con dispositivos similares situados en la superficie Terreste, telescopio MAGIC), se podrán medir con gran precisión la masa, carga eléctrica y energía de las partículas cósmicas que nos bombardean a diario. Si hay suerte, el AMS será capaz de detectar trazas de antimateria cósmica y, puede que, indicios de la naturaleza de la materia oscura.


¡Jornalero espacial!

El AMS-02 abre una nueva etapa para el futuro de la ISS, que había sido muy cuestionada por la desproporción de coste / resultados científicos. Sus detractores achacaban que la investigación científica que se llevaba a cabo a bordo era de bajo nivel y que no justificaba el elevado coste de mantener en funcionamiento una estación espacial permanente. Fuera del desafío técnico que suponía crear una estación de tales dimensiones en el espacio, parecían no existir motivos suficientes para pagar su costoso mantenimiento anual. Con el experimento AMS, se inicia una investigación de primer nivel en la que la ISS no solo ofrece un entorno ideal, sino que además, reduce los costes de investigación.

En la construcción de la AMS-02 ha intervenido un equipo internacional con más de 600 expertos, liderado por el premio Nobel Samuel C.C. Ting (Instituto Tecnológico de Massachusetts). Entre los dieciséis países colaboradores cabe destacar, Estados unidos, Italia, España, Francia, Suiza, Alemania, China y Taiwán. La aportación española corresponde a diversas empresas e instituciones coordinadas por el Centro de Investigaciones Energéticas (CIEMAT). Solo el tiempo nos dirá si la ISS se consolida como un centro de investigaciones científicas de primer nivel.

AMS-02 instalado.

DIÓXIDO DE CARBONO, ¿CULPABLE O INOCENTE?

¡Oso indignado, se manifiesta contra el cambio
climático!
La atmósfera Terrestre supera los 100 km de altura, aunque el 75% de su masa se concentra en los primeros 11 km. Está formada en un 78% de nitrógeno, en un 21% de oxígeno, y en casi un 1% de argón. La proporción de CO2 en la atmósfera es de tan solo el 0,035%. Entonces, con una proporción de gas tan exigua, ¿podemos achacar el calentamiento global al dióxido de carbono? La respuesta es, . El nitrógeno, el oxígeno y el argón no absorben la luz solar en el rango visible, ni en el infrarrojo. Solo el CO2 y el vapor de agua absorben parte del calor irradiado por la Tierra, con lo que impiden su salida al espacio y su normal refrigeración. De ahí que se haya denominado efecto invernadero. También podemos apreciar el efecto invernadero cuando dejamos nuestros automóviles al sol. La radiación lumínica atraviesa sin problemas los cristales del auto, pero la radiación infrarroja del interior es reflejada parcialmente por los cristales que actúan como espejos para ese rango de frecuencias. Por otra parte, las partículas de gas que componen el aire del interior se agitan violentamente debido a la temperatura. Al no poder contactar con las del exterior, con un menor grado de agitación, su efecto se acumula.

De este modo, aunque el dióxido de carbono y el vapor de agua son una ínfima fracción de la atmósfera, sus moléculas transmiten el calor que absorben a las restantes cuando colisionan. La atmósfera termina actuando como una manta térmica que impide la liberación del calor al espacio. Al efecto invernadero también contribuyen el metano y el óxido nitroso, que incluso en proporciones menores contribuyen al calentamiento global.

El calentamiento total producido por el conjunto de gases de efecto invernadero a lo largo del siglo XX no llega al 1 por ciento de la radiación solar absorbida en la superficie. Puede parecer poco, teniendo en cuenta que las variaciones de temperatura entre glaciaciones y periodos cálidos es de 5 a 8 grados Celsius. Pero la diferencia estriba en la velocidad del incremento de temperaturas, pues los cambios de temperatura que marcan la eras geológicas suele durar de cientos a miles de años como poco, y nosotros estamos cambiando el clima en menos de doscientos años. Esa velocidad a la que estamos cambiando el clima es tan alta que los ecosistemas pueden sufrir un gran estrés, al ser incapaces de adaptarse con la suficiente velocidad.

Aunque no debemos considerar el efecto invernadero como algo antinatural, los periodos de intenso vulcanismo indujeron en el pasado cambios de temperaturas de mayor intensidad que las que estamos viviendo ahora. En el propio sistema solar podemos observar casos de efecto invernadero, como ocurre en Venus. El segundo planeta del sistema solar es más caliente (460 ºC) que Mercurio, a pesar de encontrarse más alejado del Sol. Eso se debe a la alta concentración de gases de efecto invernadero en su atmósfera, que está compuesta principalmente de dióxido de carbono, monóxido de carbono, nitrógeno, ácido sulfúrico, argón y partículas de azufre. Por tanto, el efecto invernadero en las atmósferas de algunos planetas es algo tan natural como la vida misma.

Dicho esto, también hay que tener en cuenta que el efecto invernadero per se, es beneficioso para nuestra civilización. De no existir dióxido de carbono en la atmósfera viviríamos en una bola de nieve gélida. Entonces, la clave está en lograr el adecuado equilibrio en los gases de efecto invernadero, que beneficie a nuestra civilización sin perjudicar al planeta.

Finalmente, mencionar que, los últimos análisis de disipación de calor atmosférico han demostrado que conforme mayor es su temperatura atmosférica mayor es el ritmo de disipación de calor . Ese cambio del ritmo con el que es capaz de enfriarse el planeta no había sido previsto por los modelos climáticos actuales, lo que repercutirá a la baja en la previsión de aumento de temperaturas para el presente siglo.

28 de agosto de 2011

¡PON LAS BACTERIAS A TRABAJAR!


Siguen sucediéndose las noticias de incremento en las reservas de uranio a nivel mundial. Si anteriormente fue el caso de la India, ahora le toca el turno a Suecia. Según las últimas estimaciones, los yacimientos de uranio en la reserva de Haggan en Suecia poseen más del doble de recursos de lo previamente estimado. Esto lo convierte en el tercer yacimiento más grande del mundo sin explotar comercialmente, según la compañía Australiana Aura.

En concreto las reservas estimadas han sido revisadas desde 111.930 tU hasta las 242.710 tU. De acuerdo con la empresa Aura, estas reservas aúpan al yacimiento de Haggan hasta el tercer puesto entre los yacimientos sin explotar del mundo, solo superado por el yacimiento de Viken (402.725 tU) también en Suecia y el de Elkon en Rusia (271.175 tU).

El proyecto Haggan, anteriormente conocido como Storsjon, forma parte de un gran yacimiento de uranio en el centro de Suecia. El uranio se encuentra aquí, junto con depósitos de molibdeno, níquel, vanadio y zinc, en betas de pizarra negra. Las reservas totales podrían revisarse al alza en un futuro próximo pues, hasta el momento, solo se ha explorado el 15% del área de Haggan.

Para extraer el uranio del mineral se podría utilizar las técnicas tradicionales de lixiviación acida, con las que se recuperaría el 93% del uranio de Haggan. Sin embargo, la alta concentración de azufre del depósito, indujo a la compañía Aura a probar con tecnologías novedosas de biolixiviación, en los que las bacterias son utilizadas para realizar el trabajo pesado de acidificar y oxidar el mineral. Hace un año, Aura afirmó que era técnicamente viable. Los trabajos iniciales han demostrado que la presencia de bacterias mejoran los márgenes de extracción de uranio, molibdeno, níquel y zinc. Los procesos de lixiviación son utilizados habitualmente en minería para extraer un compuesto sólido objetivo de un mineral mediante la utilización de un disolvente líquido. Mediante la utilización de bacterias se evita la necesidad de producir el disolvente para tratar el minera, abaratando los costes de extracción.

Aura informó recientemente que la segunda fase de su test de biolixiviación en Haggan han demostrado unos resultados muy prometedores. Análisis químicos y test de resultados, han demostrado que el proceso de mineralización genera ácido que a su vez, facilita la lixiviación de los metales. En un ensayo de extracción a pequeña escala se ha obtenido un rendimiento de extracción de uranio del 75%, junto con un 65% de níquel, un 60% de zinc y un 25% de molibdeno. Aura espera incrementar el rendimiento aún más, mediante la trituración del mineral en un grano más fino.

Ahora, el único temor de la compañía es que las bacterias mineras, ¡creen un poderoso sindicato de trabajadores!

27 de agosto de 2011

TELESCOPIO ESPACIAL JAMES WEBB


Primros espejos del JWST

Cuando el Telescopio Espacial Hubble se retire definitivamente dentro de unos años, será sustituido por uno de nueva generación, el Telescopio Espacial James Webb (JWST). Bautizado con el nombre del administrador de la NASA durante la época de prestigioso programa APOLO, el nuevo telescopio tendrá un área colectora 6 veces mayor a la del Hubble y sus instrumentos observarán en la banda del infrarrojo (la más difícil de observar desde la superficie de la Tierra), con una potencia desconocida hasta el momento. Su objetivo será estudiar el universo en sus primeros momentos, cuando se formaron las primeras galaxias. También se utilizará para detectar exoplanetas de tamaño similar a la Tierra.

El nuevo observatorio espacial es una misión de 5.000 millones de euros en la que participa la NASA junto con la ESA (Agencia Espacial Europea), y Canadá. El telescopio sucederá al mítico Hubble, que ha rastreado los cielos con gran éxito desde 1990, a partir del año 2018. El Webb promete mejorar las asombrosamente nítidas imágenes del cosmos que ya nos enviara el Hubble. Su objetivo principal será detectar las explosiones de las primeras estrellas de universo, con lo que se espera que nos revele el origen de las galaxias actuales. También dirigirá su aguda mirada hacia las nubes de gas y polvo de las cuales surgen los sistemas solares.

Una vez ensamblado el Webb tendrá un espejo principal de 6,5 metros de diámetro (el del Hubble tenía 2,4 m), compuesto por 18 espejos hexagonales bañados en oro. Cada uno de los segmentos está fabricado en berilio con más de un metro de diámetro y cinco centímetros de grosor. El ensamblaje debe ser perfecto para que los 18 segmentos actúen como un solo espejo, por lo que las uniones entre ellos tendrá una precisión de alineamiento del orden de la diezmilésima parte del grosor de un cabello humano.

Comparación de los espejos del Hubble y el James Webb.

El JWST será puesto en órbita a una distancia de un millón de kilómetros, superior a la que separa a la Tierra de la Luna (384.000 km). Una vez en el punto de equilibrio gravitatorio (L2), desplegará un gigantesco paraguas protector. Un parasol que tienen que evitar que la temperatura de los espejos supere los 55 grados Kelvin (unos 220 grados Centígrados bajo cero) o, de lo contrario, perdería la sensibilidad necesaria para captar las tenues radiaciones que han viajado por el universo durante 13.000 millones de años. El gigantesco parasol irá plegado durante el viaje por falta de espacio en el cohete portador. Cuando se despliega en órbita, alcanzará un tamaño de 11 metros de ancho por 19 de largo, evitando que la luz del Sol pueda inutilizar los delicados instrumentos del observatorio.



Una órbita tan alejada es necesaria para evitar que el calor que desprende la Tierra pueda alterar las observaciones. Pero una posición tan alejada de la Tierra supone un reto tecnológico para los técnicos de la NASA que no tendrán margen de error. A diferencia de lo que ocurrió con el Hubble, ya no existen los transbordadores espaciales que incluso, si se mantuvieran en activo, no podrían llegar tan lejos como para reparar al James webb. El ingenio será lanzado mediante el cohete europeo Aarian 5, el único con una bahía de carga lo suficientemente capaz. Pero dado su gran tamaño, el Webb se tendrá que desplegar como un transformer una vez alcance su órbita.

Las cuestiones científicas sobre las que James Webb deberá arrojar nueva luz son:

  1. ¿Cómo acabó la edad oscura del cosmos? Deberá detectar las primeras estrellas gigantes que se formaron en el inicio del universo y sus explosiones en supernovas.
  2. ¿Cómo se forman las galaxias como nuestra Vía Láctea? Los restos de las explosiones generaron el gas y el polvo que dieron origen a galaxias como la nuestra.
  3. ¿Cómo nacieron las estrellas y los planetas? Los sensores de infrarrojos del Webb podrán escudriñar en las nubes de gas y polvo que dieron origen al nacimiento de los sistemas solares.
  4. ¿Hay vida en otros planetas? James Webb tendrá la potencia suficiente para estudiar familias de planetas entorno a estrellas cercanas. Con suerte detectará planetas similares a la Tierra.
Sin embargo, las últimas noticias sobre el futuro del observatorio espacial no son nada aragüeñas. En julio 2011, el congreso de los Estados Unidos canceló el presupuesto destinado para el proyecto en el año 2012, la NASA cuenta con reservas para que el proyecto sigua adelante un año más pero no mucho más allá. Para que el JSWT pueda salvarse, la NASA tiene que conseguir rebajar el coste total del proyecto. Sería lamentable que los políticos de Estados Unidos decidan una vez más reducir el abultado déficit de su nación a costa de cancelar proyectos científicos. El alto coste del JWST, junto con unos presupuestos menguantes para la ciencia han disminuido drásticamente el número de misiones futuras.


26 de agosto de 2011

HALLAN UN EXÓTICO PLANETA DE DIAMANTE

Recreación artística de un planeta rico en diamante.
Lo que fuera una vez una estrella masiva se ha convertido en un diminuto planeta compuesto esencialmente de diamante. Eso es lo que afirman los astrónomos de la Universidad de Manchester, tras observar un púlsar situado en la Vía Láctea a 4000 años luz, en la constelación de la Serpiente. El descubrimiento ha sido posible gracias a la investigación de un equipo internacional de astrónomos liderado por el profesor Mathew Bailes de la Universidad Tecnológica de Melburne (Australia).

Los investigadores detectaron primero un pulsar utilizando el radiotelescopio Parkes del (CSIRO) Australia, y a continuación lo confirmaron con el radiotelescopio Lovell en Inglaterra y con uno de los telescopios Keck de Hawaii. Al nuevo pulsar lo han bautizado con el sugerente nombre de PSR J1719-1438.

Un pulsar es una estrella giratoria de pequeño tamaño, menos de 20Km de radio (aproximadamente el tamaño de una ciudad), pero con 50.000 veces la masa de la Tierra, que emite un pulso regular de ondas de radio. A medida que la estrella gira, el haz de ondas de radio barre la Tierra de forma cíclica, con lo que se puede detectar un patrón regular de pulsos de radio. Esta particularidad es la que hace de los pulsar auténticos faros galácticos.

Los astrónomos observaron que los que los tiempos de llegada eran modulados sistemáticamente, lo que les llevó a concluir que se debía a la atracción gravitatoria de un pequeño planeta compañero. Con una órbita de solo 2 horas y diez minutos, la distancia entre ellos no debe ser superior a los 600.000 km (algo menos del radio del Sol). El compañero del pulsar parece un astro de pequeño tamaño, menos de 60.000 km (la quinta parte del diámetro de la Tierra). Pero a pesar de su pequeño tamaño tiene una masa superior a la de Júpiter. “Esta alta densidad del astro nos proporciona una pista sobre su origen”, comentó el profesor Bailes. Él y su equipo considera que el “planeta diamante”, es todo lo que queda de lo que un día fue una estrella enana blanca. El pulsar debió de absorber la materia que componían sus mantos externos y dejó como resultado una enana blanca desnuda y un pulsar ultrarrápido.



El pulsar J1719-1438 es de los denominados de “milisegundos”, pues rota a 10.000 revoluciones por minuto, debido a su masa (1,4 veces la del Sol) y su pequeño tamaño (unos 20 km de diámetro). El 70% de los púlsares de milisegundo tienen alguna compañera. De hecho son las estrellas compañeras las que transfieren la masa y momento que los transforma en pulsares de milisegundo. La enana blanca debió de perder el 99,9% de su masa original antes de quedar con su núcleo desnudo. “El remanente se supone rico en carbono y oxígeno, porque una estrella constituida por elementos más ligeros como el hidrógeno y el helio, sería demasiado grande para adaptarse a los tiempos orbitales observados”, afirmó el Dr. Michael Keith (CSIRO). La alta densidad implica que la composición debe ser cristalina, lo que significa que gran parte de la estrella es semejante al diamante.

“El destino final de los sistemas binarios está determinado por la masa y el periodo orbital de la estrella donante en el momento de la transferencia de masa. La rareza de hallazgos de este tipo, hace pensar que la producción de exóticos planetas como éste, es la excepción y no la regla”, comentó el Dr. Benjamin Stappers de la Universidad de Manchester.

SEGUNDO VUELO HIPERSÓNICO HTV-2

La Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA) ha presentado un video del vehículo hipersónico HTV-2. Se trata del segundo avión de pruebas que intenta conseguir vuelos hipersónicos estables. Se considera vuelo hipersónico, a aquel capaz de superar en cinco veces la velocidad del sonido (Mach 5). Muchos programas de investigación han intentado este tipo de vuelos, lográndolo solo durante periodos breves de tiempo que van desde los segundos hasta los minutos. La agencia de defensa norteamericana experimenta con este tipo de vuelos para lograr un bombardero que pueda golpear en cualquier parte del mundo saliendo desde una base en los estados unidos y en menos de una hora.

El 11 de agosto tuvo lugar el segundo test de vehículo HTV-2 que logró alcanzar una velocidad 20 veces superior la velocidad del sonido antes de estrellarse en el océano. El prototipo se estrello tras solo 3 minutos de vuelo, cuando detectó un problema en la aeronave y se redirigió hacia el océano. La nave, diseñada para alcanzar velocidades de Mach 20 (unos 20.800 km/h) fue lanzada mediante un cohete Minotaur 4 desde la base californiana de Vandenberg. El cohete tiene como misión llevar a la aeronave hasta el borde del espacio.

“Estas imágenes nos dan una sensación visceral de lo que supone volar a Mach 20”, comentó la directora del DARPA Regina Dugan cuando vio por primera vez el vídeo del segundo vuelo.

El test se inscribe dentro del programa para este mes de Agosto que prevé lazar dos naves HTV-2, con las que se intenta aprender más sobre los vuelos hipersónicos y la avanzada tecnología necesaria. Uno de los problemas que se están encontrando es la altísima temperatura que tiene que soportar el morro del aparato, unos 3500ºC. Temperaturas que obligan a recurrir a materiales composites de carbono. Otro problema es mantener el correcto funcionamiento del GPS cuando se viaja a 5,8 Km por segundo. ¡A mí me cuesta manejar el GPS cuando viajo a 0,003 km por segundo (100 km/h)!


El primer test con los vehículos HTV-2 se realizó el 22 de abril del 2010, lográndose en aquella ocasión un vuelo de 9 minutos, de los cuales 139 segundos fueron a velocidades entre 17 y 22 Mach. Su final fue el mismo, tras detectar problemas en la aeronave se activaron los sistemas de emergencia y se precipito sobre el océano Pacífico. Aunque parece que los problemas que terminaron con aquel vuelo son diferente a los aparecidos en esta ocasión.

IBM y YO ROBOT



IBM está de enhorabuena, ha cumplido 100 años de existencia y para celebrarlo está desarrollando una nueva generación de microprocesadores llamados de “computación cognitiva” que imitan el funcionamiento del cerebro humano, lo que no solo podría mejorar el consumo de energía y espacio, sino que evitarían los fenomenales problemas que está encontrando las supercomputadoras actuales para imitar procesos biológicos tan básicos, como el reconocimiento visual de objetos. Si a un niño de 7 años le enseñas una foto en la que se observa una pantalla de ordenador enchufada a una plancha seguramente se reirá ante el absurdo, sin embargo un ordenador no verá nada extraño en ella, al fin y al cabo, ¡él no entiende de barcos!

Para conseguir el simple reconocimiento visual y entender lo que está viendo hay que recurrir a supercomputadoras que analizan terabytes de datos almacenados por el rudimentario procedimiento de comparar con el modelo. Y aún así, es posible que no llegue a identificar contradicción alguna en una fotografía como la anterior. Este obstáculo, aparentemente insalvable debe ser superado por los “cerebros electrónicos” del futuro si pretendemos llegar a crear robots que nos resulten útiles. Así no les resultará extraño que los dos primeros prototipos de esta nueva generación de microprocesadores hayan sido fabricados gracias a la inestimable colaboración de la agencia del Pentágono DARPA (Agencia de Investigación de Proyectos Avanzados de Defensa). No deja de resultar curioso que esta sea la agencia encargada de las investigaciones punteras del ejército norteamericano. Aunque al final y a la postre, muchos de sus ingenios acaban adoptando un doble uso, civil y militar.


Independientemente de quién sea el impulsor principal de la investigación, hay que reconocer que han dado con la tecla de la problemática actual de la computación. La empresa IBM abandonó en 2004 la fabricación de PCs para especializarse en desarrollar nuevas supercomputadoras. Ya posee en su inventario microprocesadores de 32 núcleos (IBM POWER), muy útiles para gestionar enormes volúmenes de información, pero no para imitar ciertas tareas que hasta un niño haría mejor y con un menor gasto energético. El nuevo chip cognitivo, construido con tecnología de 45 nanómetros sobre una matriz de memoria, tiene solo 2 núcleos (al igual que muchos ordenadores actuales) y 256 nodos neuronales cada uno. El primer núcleo enlaza con 256.144 módulos de memoria llamadas “sinapsis programables”, mientras que el segundo núcleo contiene 65.536 módulos de memoria. “Estos módulos de memoria son sinapsis dedicadas al aprendizaje”. Tal y como indica Dharmendra Modha, investigador de IBM.

En un experimento, uno de estos nuevos chips aprende a jugar al Pong, en otro aprende a conducir un coche por un circuito de carreras sencillo y, en otro, aprende a reconocer imágenes. Según el director del proyecto Dharmendra Modha, los nuevos chips imitan la actuación del cerebro al aumentar la proximidad entre las partes responsables de memoria y computación (hardware) y por el hecho de que las conexiones entre estas partes pueden configurarse según un patrón de aprendizaje (software): hacerse o deshacerse y aumentar su preeminencia haciéndose más fuerte o más débiles. Los nuevos microprocesadores tienen que aprender a realizar una tarea determinada antes de salir al mercado.



La idea final parece bastante ambiciosa, crear una supercomputadora del tamaña de una caja de zapatos, que tenga la mitad de la complejidad del cerebro humano y consuma lo mismo que su aire acondicionado (1000W). En el gráfico de la derecha se puede comprobar un modelo de funcionamiento del cerebro humano creado por IBM.


25 de agosto de 2011

MERCURIO: ENVENENAMIENTO SILENCIOSO



La cadena trófica del mercurio comienza con la expulsión de gases desde el vulcanismo y algunos procesos industriales. En el caso del vulcanismo los gases de mercurio son expulsados a la atmósfera donde se enfrían y cae al suelo. Desde el suelo los microorganismos lo transforman en mercurio orgánico (metil-, dimetil- y difenil- mercurio) y se trasmite a través de la cadena trófica (alimenticia). Pero la principal fuente de contaminación con mercurio proviene de nuestras propias bocas. Las amalgamas dentales son combinaciones de mercurio al 50% con otros metales (a excepción del hierro), lo que crea pseudoaleaciones a baja temperatura. Una amalgama típica está compuesta por mercurio 50%, cobre 12%, estaño 15%, plata 20% y zinc 3%.


También se producen filtraciones tóxicas
directamente al torrenta sanguíneo.
Estas amalgamas son compuestos más inestables de los que cabría pensar, dado el agresivo entorno químico de nuestras bocas. Los alimentos y bebidas de tipo ácido (la Coca Cola es tremendamente ácida) atacan el mercurio de la amalgama. Los propios dentífricos y líquidos de higiene bucal que, deberían de estar específicamente optimizados para este tipo de empastes, atacan al mercurio. En concreto, el flúor que contienen forma fluoruro de mercurio, totalmente soluble en saliva y agua, y que pasa a nuestro organismo diariamente con su contenido tóxico. Las personas que llevan amalgamas con mercurio deberían utilizar dentífricos y productos de higiene bucal carentes de flúor. Por supuesto no esperen que la industria de dentífricos alerten de este envenenamiento continuo de la población. En todo caso aumentarán la dosis de flúor para incrementar las ventas de sus productos.
Pero no solo los alimentos ácidos y los dentífricos liberan el mercurio de nuestras amalgamas. La temperatura de evaporación del mercurio es muy baja, de tan solo 40ºC. Por lo que bebidas y alimentos calientes, favorecen la sublimación. El mercurio pasa a vapor y lo inhalamos directamente.

En el documento ICSC (International Chemical Safety Cards), se mencionan los efectos perjudiciales del mercurio sobre la salud:

- Pérdida de memoria.

- Efectos nocivos en el riñón.

- Alteración del sistema nervioso central.

- Inestabilidad emocional y psíquica.

- Temblores mercuriales.

- Alteraciones cognitivas y del habla.

- Peligro de efectos acumulativos.

- Posibles efectos tóxicos en la reproducción humana.

A los efectos directos de las personas que tienen amalgamas dentales hay que añadir los indirectos, pues la incineración de fallecidos con amalgamas libera el mercurio directamente a la atmósfera en las proximidades de las ciudades. El vapor de mercurio termina enfriándose cae al suelo y los microorganismos hacen su labor, convirtiendo el mercurio en su variantes orgánicas. Todos ellas fácilmente asimilables por los animales y las plantas. De aquí pasan a los ríos y los mares, en donde los peces incorporan el mercurio y pasan al resto de la cadena trófica. Otro peligro son los residuos de las amalgamas y los cambios de empastes en los pacientes son directamente tirados a los cubos de basura, a los basureros y desde aquí al medio ambiente como el caso anterior.

Por todos estos riesgos, ya existen prohibiciones a su uso en países como Japón, Noruega, Suecia y Rusia. En España el 50% de odontólogo siguen utilizando amalgamas con mercurio. Hay países de la Unión Europea en los que su uso es aún más elevado, como en República Checa (85%).



No solo en nuestros dientes podemos encontrar mercurio. El mercurio es un elemento fundamental de muchas pilas (relojes), y de termómetros. Las centrales térmicas de carbón suelen enviar grandes cantidades a la atmósfera. Finalmente también se utiliza mercurio para el desemplomado de armas de tiro olímpico y escopetas de caza. En este caso su utilización es aún más negligente, carente de cualquier regulación o control. Más información en: Contaminación con Mercurio en Bebés.

24 de agosto de 2011

LA NUEVA ECONOMÍA DEL ESPACIO

Cohete Saturno V, de las misiones APOLO

Con la llegada del hombre a la Luna con sus famosas huellas fotografiadas, las banderitas estadounidenses y los paseos en coche por su superficie, parecía augurar un futuro espacial para la humanidad muy prometedor. Sin embargo, los viajes se fueron sucediendo y lo único que se comprobó es que la Luna carecía del suficiente interés científico, que los viajecitos les costaban a los norteamericanos un ojo de la cara y que el aura de superioridad tecnológica frente a la URSS ya se había logrado con solo pisarla. Entonces llegó la primera decadencia de los viajes espaciales. Se cancelaron las misiones Apolo y se replanteo todo el programa espacial. Había que encontrar una nueva utilidad a eso del espacio, o de lo contrario los ciudadanos no pagarían de sus bolsillos los costosos programas espaciales de la NASA. En 1972 el Apolo 17 llegó a la Luna, fue la última misión del proyecto Apolo. Un proyecto con el que se había logrado depositar a 12 hombres en la Luna y realizar espectaculares avances tecnológicos. Pero el programa tenía que replantearse desde una perspectiva más económica, así fue como apareció el Skylab (1973-1979) con el que se podía hacer experimentos en el espacio pero en órbitas próximas a la Tierra.

Última misión del Discovery

El siguiente paso fue crear una nave con capacidad de llevar a grandes tripulaciones (hasta 7 astronautas) a orbitas bajas y realizar experimentos sin necesidad de un laboratorio externo. El problema era su alto coste de operatividad. Solo el transbordador costaba unos 2000 millones de euros. Además pronto comenzaron a aparecer problemas de diseño de difícil solución que llevaron a la pérdida de dos tripulaciones. Si el coste económico era excesivo, el humano era inasumible, había que encontrar una alternativa. Los ingenieros de la NASA no podían dejar de sorprenderse por el sorprendente éxito de las naves Soyuz, pequeñas, ligeras, económicas y tremendamente fiables.

De ahí surgió la necesidad de dar un nuevo paso. Después de 40 años de desarrollo espacial no se había conseguido rebajar el coste del acceso al espacio. ¿Por qué no abrir el espacio a la economía de mercado? Si en algo es buena la competitividad de la economía de mercado es en lograr el medio más barato de conseguir algo. En teoría, un apoyo financiero inicial al sector empresarial podría catalizar una nueva economía centrada en los viajes espaciales. La competencia debería proporcionar precios cada vez más bajos.


El reto está en conseguir una nave económica y fiable que acelere hasta los 7 kilómetros por segundo (25.200 km/h) necesarios para poner una carga útil en órbita a 300 kilómetros de altura sobre la superficie de la Tierra. Si se logra, se permitirá el acceso al espacio a cientos de ingenieros, investigadores, turistas y nuevos empleados. ¡Una economía orbital que podría consolidar la presencia humana en el espacio! De ahí a la minería de la Luna, la visita a Marte o incluso más allá sería solo cuestión de tiempo.

En la actualidad más de diez empresas han anunciado planes para enviar a personas al espacio.

Entre ellos se encuentran:

  • Taurus, construido por Orbital Science Corporation.
  • Falcon 9 de Space X, con una primera prueba exitosa.
  • Delta (una variante del cohete comercial actual), fabricado por United Launch Alliance. Una empresa conjunta formada por los gigantes aeronáuticos Boeing y Locheed Martin.
  • También están resultando un éxito los vuelos suborbitales de Virgin Galactic.


Virgin Galactic

  • XCOR, Blue Origin y Amarillo Aerospace, tienen sus propios proyectos en marcha.

22 de agosto de 2011

GRAFENO


Descubierto en la década de 1930, no se le bautizó con el nombre de “grafeno” hasta 1994. El estudio detallado de su estructura y sorprendentes propiedades por Andre Geim y Konstantine Novoselov les valió el premio Nobel de Física en 2010.


El grafeno no es más que una de las estructuras alotrópicas del carbono, que presenta un teselado hexagonal plano. Su aspecto recuerda vagamente el de la superficie de un panal de abejas. Algunos elementos químicos, como es el caso del carbono, tienden a presentarse con características físicas diferentes que nos lleva a observarlo como grafito, diamante, grafeno o fullereno.

El grafito de nuestros lápices realmente está compuesto por monocapas de grafeno superpuestas. Pero esas capas individuales tienen unas propiedades que las hacen únicas: gran conductividad térmica y eléctrica. Alta elasticidad y dureza, con una resistencia 200 veces superior al acero. Muy ligero y flexible, como la fibra de carbono.


En dispositivos electrónicos, consume menos electricidad que el silicio para una misma tarea y se calienta menos. Esto los convierte en los materiales ideales para los dispositivos electrónicos con circuitos integrados. IBM ha logrado fabricar transistores que operan a 300 GHz, esto es, 100 veces más rápidos que los transistores de silicio de su ordenador. El problema estriba en que el grafeno no tiene una banda de resistividad, no es capaz de dejar de conducir la corriente, a diferencia del silicio, lo que complica mucho su implantación generalizada en los circuitos integrados. Al ser un material conductor y transparente lo hace ideal para crear pantallas flexibles y delgadas de múltiples usos. Ya se está utilizando para la creación de nuevas pantallas OLEDs. Su facilidad para conducir la corriente eléctrica sin sobrecalentarse es lo que puede convertirlo en el elemento central de una nueva generación de baterías. (ver entrada ¡Revolución en Baterías!)

MÉTODOS DE OBTENCIÓN:
Para hacer posible la comercialización a gran escala, se hace imprescindible un método de obtención económico. Para ello hay que concebir procedimientos industriales que permitan fabricar láminas grandes y uniformes de grafeno monocapa y sin impurezas. El caso es que, la producción de pequeñas cantidades de grafeno resulta sorprendentemente fácil, como afirma el Nobel Andre K. Geim. De hecho, todos producimos un poco de grafeno cada vez que deslizamos la punta del lápiz sobre una superficie de papel. La mina del lápiz esta compuesta por una apilación vertical de láminas de grafeno. El procedimiento de laboratorio para obtener grafeno era similar, simplemente se raspaba la superficie del grafito, y con un microscopio se examinaban los restos en busca de las muestras idóneas o se separaban las escamas con una cinta adhesiva.
Para mejorar el procedimiento de laboratorio, se utilizan ultrasonidos para fragmentar el grafeno en capas individuales que se dispersan en un líquido. Posteriormente la suspensión se deseca sobre una superficie. El resultado es que obtenemos una película de láminas parcialmente superpuestas de cristales de grafeno. Al no darse una separación completa de las láminas con este procedimiento, se desconoce todavía si los efectos de borde de cada uno de los copos alterarán las propiedades fundamentales.
La exfoliación química podría lograr muestras de mayor tamaño. Se ha comprobado la solubilidad del grafeno en ciertos disolventes orgánicos. Una vez retirado el disolvente, la sustancia gris que se obtiene es grafeno puro. La empresa Graphene Solutions, confía poder convertir ese grafeno en láminas uniformes y monocristalinas para su comercialización.
Técnicas alternativas de exfoliación química, han demostrado que si se añada ácido a uno solución acuosa de grafito, se obtiene un óxido de grafito que puede emplearse posteriormente para obtener grafeno. Los copos de óxido suspendidos en líquido se depositan por decantación en un sustrato, donde terminan formando una película. Aumentando la temperatura y añadiendo otros compuestos, se elimina el oxígeno obteniéndose grafeno puro.
Uno de los métodos que está logrando superficies mayores de grafeno (muestras de 2 a 3 centímetros cuadrados) es el que se estudia en el Instituto de Tecnología de Masachusetts (MIT) entre otros centros. Se trata de la formación de grafeno mediante disposición química de vapor (DQV). Es un proceso que podría resultar idóneo para la fabricación de  microchips. El método DQV consiste en la creación de elementos volátiles que reaccionan y quedan depositados sobre un sustrato, formando un recubrimiento muy fino. Para lograr la volatilización se utiliza calor procedente de un horno tubular en el que se depositan sustratos con níquel que actúan a modo de catalizadores de la reacción. En un extremo del horno se hace fluir un hidrocarburo gaseoso, que al calentarse, se descompone. Los átomos de carbono terminan depositándose sobre la superficie de níquel formando las películas de grafeno. La calidad del grafeno obtenido depende directamente del sustrato de níquel. Si este es monocristalino (el más costoso) se consiguen los mejores resultados.
El equipo de investigación que logre el procedimiento idóneo para la obtención de grafeno en cantidades industriales se llevará el premio gordo. Por desgracia, ninguno de los equipos de investigación ha querido explicarnos con precisión cómo funcionan sus procedimientos, ¡serán desconfiados los tíos!

¡REVOLUCIÓN en BATERÍAS!


¿Recargar mi automóvil eléctrico en menos de un minuto? Sí, ahora es posible según los Investigadores del Nanotek Instruments, Inc., y su subsidiaria Angstron Materials, Inc., situadas en Dayton (Ohio), que han desarrollado un nuevo dispositivo de almacenaje de electricidad basado en facilitar el rápido desplazamiento de grandes cantidades de iones de litio entre electrodos dotados con grandes superficies de grafeno. El nuevo dispositivo de almacenaje puede resultar extremadamente útil para los automóviles eléctricos, ya que reduce de forma drástica el tiempo de recarga. ¡Puede llegar a menos de un minuto!

Los investigadores han llamado al nuevo dispositivo de almacenamiento “superficie de grafeno que permite el paso de iones de litio”, o de forma más sencilla “células de mediadores de superficie” (SMCs) por sus siglas en inglés. Unas siglas que irán sonando cada vez más en el futuro. Aunque de momentos sigue siendo un dispositivo de laboratorio cuya configuración y materiales aún no han sido optimizados para la comercialización. A pesar de ello, ya superan las características de las baterías de litio y las de los supercapacitadores.

Los nuevos dispositivos pueden entregar una densidad de potencia de 10.000 W/kg, que es 100 veces mayor que la de las baterías de Li-ion comercializadas o 10 veces más que lo que logra un supercapacitador. A mayor densidad de potencia mayor la capacidad de transferir energía lo cual determina el tiempo de recarga. Los Formula 1 utilizan supercapacitadores por su alta capacidad de transferencia de energía, y su rapidez de carga y descarga. Con los nuevos dispositivos SMCs el tiempo de recarga es diez veces menor que en un supercapacitador. Además los nuevos dispositivos pueden almacenar una densidad de energía de 160 Wh/kg, que es una cifra en el rango superior de las baterías de Li-ion y treinta veces superior al de los supercapacitadores. Esto es muy importante, pues la gran pega de los supercapacitadores es su escasa capacidad de carga, lo que limita enormemente la autonomía de un vehículo eléctrico. En la Formula 1 solo suministran electricidad durante unos segundos. Pero ahora contamos con un dispositivo que no solo mejora la capacidad de carga de un supercapacitador, sino que además logra almacenar grandes cantidades de carga. ¡Buenas noticias, sin duda!



Tomando en consideración un mismo peso, los SMC y las baterías de Li-ion proveen a un vehículo eléctrico con una autonomía máxima similar. Aunque según Bor. Z. Jang, cofundador de Nanotek Instruments “Su SMCs, como las actuales baterías de Li-ion, pueden desarrollarse en un futuro para aumentar la densidad de energía”. Quizá logren en un futuro mejorar también la autonomía que proporcionan a los vehículos eléctricos, pero de momento los SMCs ya consiguen ser recargados en minutos en lugar de horas.

Tanto las baterías de Li-ion como los supercapacitadores tienen sus propios pros y contras. Mientras que las baterías de Li-ion tienen una mayor capacidad de almacenaje (densidad de energía de 120-150 Wh/kg) que los supercapacitadores (5 Wh/kg), entregan mucha menor densidad de potencia (1000 W/kg), frente a (10.000 W/kg). Muchos investigadores han tratado de mejorar los puntos debiles de cada dispositivo, pero con escaso exito hasta el momento. El desarrollo del nuevo tipo de dispositivo de almacenaje elimina esas trabas, mejorando simultáneamente las características de baterías y supercapacitadores. La clave fue diseñar un cátodo y un ánodo con grandes superficies de grafeno. En principio se depositan electrolito líquido con átomos de Litio en el ánodo. Tras la primera descarga el Litio se ioniza y se obtienen muchas más partículas de Litio ionizado que en las baterías tradicionales. Conforme la batería es usada las partículas de litio pasan al cátodo y rellenan las grandes superficies de grafeno. Durante la recarga, cantidades enormes de iones de Litio migran velozmente del cátodo al ánodo. Las grandes superficies disponibles en ambos electrodos es lo que posibilita el veloz movimiento de los iones de litio que le dota de sus impresionantes características.

También se han experimentado con distintas configuraciones de grafeno para observar la más adecuada (una capa, doble capa, oxidada, etc.). Aún se necesitan más pruebas para dar con la configuración idónea. También se necesita seguir investigando en la vida útil, o número de ciclos de carga y descarga de los SMCs. De momento se ha comprobado que el dispositivo mantiene un 95% de su capacidad tras los primeros 1000 ciclos de carga/descarga, mejorando las actuales baterías de Li-ion (vida máxima de 750 a 1000 ciclos). Incluso con más de 2000 ciclos de carga/descarga no se ha observado la formación de dendritas.

No es fácil anticipar cuando esteran disponibles comercialmente. Puede pasar desde un año hasta más de tres, dependiendo de cuánto tiempo tarde en descender el elevado precio del grafeno en el mercado.