Cosmología: origen del universo


Existe la teoría aceptada de que el universo se creo a partir del un punto de singularidad llamado el Big Bang, también es aceptado por  la comunidad científica el hecho de que el universo se expande aceleradamente. Pero en lo que respecta al futuro surgen varias teorías:
-El big-Crunch:
No hay evidencia clara de que exista o se alcance una masa critica que lleve a que despues de cierto momento se cree una contraccion y ocurra el Big-Crunch, pero ademas de ello
-Cosmología Cíclica Uniforme:
Propuesta por Sir Roger Penrose, plantea que el fin de la expansión del universo es en si el Big-Bang de otro universo, comenzando otro ciclo o Eon.
-Big-Rip o gran desgarro:
Es lo que arroja las mediciones de los científicos cuado se asume que la energía obscura es el 70% del universo y que la relación presión-densidad (que en valor absoluto la presión supere a la densidad de energía) sea tan solo un 10 % más grande que para la constante cosmológica

======================================================
Archivos Recuperados

——————————————————–


¿Había algo antes del Big-Bang?

Según la teoría de la Cosmología Cíclica Conforme, de Sir Roger Penrose, el Universo vive un ciclo continuo e infinito de «creaciones»

La Nebulosa del Cangrejo, formada tras una explosión de supernova.
El término «explosión» se queda muy corto para describir lo que ocurrió en el Big Bang – NASA, ESA, J. Hester, A. Loll (ASU)
POR HÉCTOR SOCAS NAVARRO/INVESTIGADOR EN EL INSTITUTO ASTROFÍSICO DE CANARIAS (IAC) – @hsocasnavarro Tenerife17/09/2016 01:55h – Actualizado: 17/09/2016 15:44h.

Sir Roger Penrose es una leyenda viva de la Física. Durante el festival Starmus tuve el placer de escucharle explicando su controvertida teoría cosmológica. Su exposición fue tan elocuente, convincente e incluso divertida, que me causó una profunda impresión. A ver si en este artículo consigo explicarla de forma mínimamente coherente.

Estamos bastante seguros de que el Universo entero comenzó con lo que se llama el Big Bang (la «gran explosión») hace la friolera de 13,700 millones de años. En realidad, lo de la explosión no es una muy buena metáfora. Este nombre lo acuñó despectivamente el astrofísico Fred Hoyle durante la retransmisión de un programa de radio de la BBC en 1949. Hoyle se burlaba con él de la absurda teoría que había propuesto el sacerdote (además de físico y matemático) Georges Lemaître. El propio Einstein al principio tampoco creía en las ideas de Lemaître. El prejuicio de la época era que el Universo debía ser algo estático e inmutable. Pero las matemáticas de Lemaître eran impepinables.

Su solución de las ecuaciones de Einstein implicaba que el Universo debía estar o bienexpandiéndose o bien colapsando, cayendo sobre sí mismo como un edificio en demolición. Visto con perspectiva histórica, debe dar mucha rabia eso de que alguien coja las ecuaciones que son el trabajo de tu vida y las resuelva magistralmente para llegar a una conclusión que aborreces. Las discusiones entre Einstein y Lemaître, que llevaron al primero a proponer la existencia de una «constante cosmológica», merecerían un artículo aparte. Por lo pronto, baste decir que, como buen científico, Einstein acabó aceptando la evidencia, tanto teórica como empírica, que comenzaba a acumularse. Pese a sus prejuicios iniciales, terminó abrazando la idea de que, efectivamente, el Universo se estaba expandiendo.

La singularidad original

La historia sería más o menos así: Al principio de los tiempos, todo el Universo estaba concentrado en una singularidad, un punto de densidad infinita que repentinamente estalló en ese instante inicial, saltando toda la materia, energía y espacio despedidos en todas direcciones. A medida que pasa el tiempo, la Física nos dice que las galaxias van a sentir el tirón gravitatorio unas de otras, y esto debería hacer que poco a poco se vayan frenando. Cuánto se van a frenar dependerá de cuánta masa haya en el Universo. Si hay mucha, la gravedad terminará por dominar, la expansión se detendrá y el Universo volverá a caer sobre sí mismo.

De acuerdo al cosmólogo Viatcheslav Mukhanov (Kanash, antigua URSS, 1952) todo se formó a partir de un fenómeno microscópico llamado fluctuaciones cuánticas, generadas después del Big Ban.  Cuando el Universo era recién nacido, el comportamiento de la materia estaba afectado por la mecánica cuántica, que prohíbe el estado de reposo absoluto. La mínima desviación del estado de reposo se llama fluctuación cuántica y, debido a ella, se formarían «semillas» de materia que, por la gravedad, acabarían convirtiéndose en galaxias, estrellas y planetas. Todo eso estaba localizado en algo aún más pequeño que una caja de cerillas. Luego, la mecánica cuántica es también responsable del origen de nuestra propia vida. [2]

NASA / WMAP Science Team

Si hay poca, la atracción será incapaz de frenar la expansión y el Universo continuará expandiéndose por toda la eternidad, aunque a menor velocidad. La distinción es trascendental, con implicaciones hasta en el plano espiritual. Porque un Universo que vuelve a colapsar se presta a la perspectiva del ciclo infinito de big bang-big crunch, el ciclo continuo y eterno de creación y destrucción. Mientras que la otra posibilidad nos lleva a una insulsa muerte final de toda la existencia, más que nada por aburrimiento.

La sorpresa de la densidad crítica

La cantidad de masa (o, hablando con más precisión, de energía) que se necesita para pasar de un comportamiento a otro se llama «densidad crítica». No hace mucho, cuando yo estudiaba, sin ir más lejos (y créanme que tampoco hace tanto de eso), nos preguntábamos si en el Universo había más o menos densidad que la crítica. Parecía que no, que era muy pequeña, que no sería suficiente toda la masa para volver a cerrar el ciclo. Pero claro, en aquella época no se conocían la materia y la energía oscura. Si tenemos en cuenta estos factores, nos encontramos con uno de los grandes misterios de la cosmología moderna: ¡Resulta que tiene exactamente la densidad crítica!

La radiación de fondo de microondas, una de las mayores evidencias de que ocurrió un Big Bang- WIKIPEDIA

La revelación de que la densidad del Universo es exactamente la crítica (con tanta precisión como somos capaces de medir), sacudió el mundo de la Física. Y es que, aunque sea en el plano subconsciente, se hace difícil no evocar la imagen de un creador para explicar tal coincidencia cósmica. La situación de crisis existencial se resolvió poco después, para alivio de muchos, con la llegada de la teoría de la inflación.

Por ponerlo en términos muy simples, esta teoría nos dice que durante la primera fracción de segundo (técnicamente, desde los 10^-36 hasta los 10^-32 segundos), el Universo sufrió una expansión tan brutalmente violenta, que el término «explosión» se queda muy corto para describir lo que ocurrió. La expansión en esa época fue acelerada exponencialmente, que es una forma que hay en Física de decir enormemente rápida.

Los cosmólogos suelen decir que todo lo que existe pasó de tener el tamaño de un átomo al de un melón. Por alguna razón se suele usar el melón como medida de referencia. Podrían decir que medía 30 centímetros, que era como un balón de baloncesto o como un florero grande. Pero no, parece que lo del melón lleva camino de convertirse en la unidad estándar de volumen cósmico, algo así como el campo de fútbol lo es hoy en día para medir áreas de monte quemado.

La cuestión es que a este disparatado crecimiento del espacio, infinitamente más rápido que la luz, se le llama inflación. Es un poco contraintuitivo porque, en lenguaje cotidiano, el verbo inflar nos suena mucho más suave y benigno que explotar. Es bien conocido que los físicos no son muy buenos para poner nombres a las cosas. No entendemos bien cómo y por qué ocurrió la inflación salvo que parece estar relacionado con lo que se llama «gran unificación», la época en la que las tres fuerzas fundamentales de la naturaleza eran una, grande y única.

El Universo no se frena

El otro gran descubrimiento que ha tenido lugar desde los tiempos de Einstein es otro hallazgo reciente que también ha causado cierta zozobra existencial. Discutíamos antes las dos posibilidades sobre hasta qué punto sería la gravedad capaz de frenar la expansión del Universo, creando un ciclo continuo de explosión-colapso (Big Bang-Big Crunch) o bien una expansión que se iría ralentizando eternamente pero sin llegar nunca a detenerse del todo. Pues bien, hoy en día sabemos que no va a ser ni lo uno ni lo otro. Resulta que el Universo no se está frenando. No tiene visos de querer volver a colapsar pero tampoco está ralentizando su marcha.

Antes al contrario, las observaciones nos muestran que desde hace 5,000 millones de años (un tercio de su vida), el Universo ha dejado de frenarse y ¡ha comenzado a acelerar! Este resultado fue obtenido por dos grupos independientemente y ambos recibieron el Premio Nobel en 2011. Fue tan sorprendente que ninguno de los dos grupos se atrevió a publicarlo hasta que se enteraron de los resultados del otro. Para explicar el fenómeno, los teóricos han tenido que postular la existencia de una «energía oscura», que sería omnipresente en todo el espacio vacío.

El ciclo continuo de Penrose

Hasta aquí hemos explicado la cosmología moderna canónica, la visión aceptada mayoritariamente por los expertos en el tema. ¿Qué es, entonces, lo que añade Penrose? Pues, según su teoría, estas dos revelaciones, la inflación y la expansión acelerada del Universo, están íntimamente relacionadas. De hecho, serían la misma cosa. Para Penrose, el Universo vive un ciclo continuo e infinito de «creaciones», pero no en el modelo tradicional de explosión-colapso.

Una fotografía de Roger Penrose, tomada en 2005- Festival della Scienza

En su lugar, Penrose postula que cada uno de los ciclos (que él llama eones) acaba con una fase de expansión acelerada que se convierte en la inflación del eón siguiente. Lo de Penrose no es una ocurrencia, es una teoría. Esto significa que ha resuelto las ecuaciones de la relatividad general y los números cuadran salvo por un factor de escala. Quiere decirse que las escalas del nuevo universo son mucho mayores, tanto en el espacio como en el tiempo.

De Universo a melón

Así, todo nuestro Universo en expansión acelerada, está camino de convertirse en lo que sería un melón del Universo siguiente. Y los miles de millones de años que dura esta expansión serían la breve fracción de segundo en aquel nuevo Universo. Quizás en un futuro increíblemente distante, habrá criaturas inconcebiblemente grandes y lentas en el siguiente eón, investigando esta época en la que vivimos hoy en día, a la que quizás den el absurdo nombre de inflación y quizás la consideren el origen de su universo. Una implicación particularmente profunda de todo esto es que, de ser cierto, estaríamos ahora mismo viviendo un nuevo big bang que comenzó hace 5,000 millones de años y lo estaríamos viendo transcurrir a cámara superlenta.

Quiero resaltar que esta teoría, llamada Cosmología Cíclica Conforme, no es la aceptada por la mayoría de los cosmólogos. Sin embargo, no hay nada incorrecto o erróneo en ella, que sepamos. Penrose es uno de los mayores expertos mundiales en la física de la relatividad general y la cosmología. Su teoría cumple con la física conocida y esto sí que es un mérito que le concede la comunidad. Al igual que hizo Lemaître hace un siglo, ha encontrado una solución matemática correcta a las ecuaciones de la Física que conocemos, pero es una solución que aborrecen sus colegas por razones más filosóficas que científicas.

Un aspecto particularmente fascinante es que, como toda buena teoría, la naturaleza cuantitativa de la cosmología de Penrose le permite hacer predicciones. Las ecuaciones indican que los eones no son completamente independientes y algo de información se puede transmitir de uno a otro. En particular, las ondas gravitacionales (ésas que recientemente detectó el experimento LIGO) creadas por catástrofes cósmicas en el eón anterior podrían atravesar la época de la inflación y llegar hasta nuestros días. Estas ondas producirían patrones de anillos concéntricos en el fondo cósmico de microondas. Ni que decir tiene que muchos investigadores están ya manos a la obra buscando esos anillos. Si se encontraran, sería la primera observación de algo que ocurrió antes del Big Bang.

Héctor Socas Navarro es investigador del Instituto de Astrofísica de Canarias (IAC) y divulgador en «Coffe Break». El autor agradece al Dr Jose Alberto Rubiño por su lectura crítica y comentarios para mejorar este artículo.

[2] http://www.abc.es/ciencia/abci-viatcheslav-mukhanov-universo-surgio-nada-y-puede-volver-suceder-201703171608_noticia.html
einstein  .http://www.abc.es/ciencia/abci-teoria-relatividad-einstein-necesaria-para-tele-o-no-perderse-201511242221_noticia.html
starmus  .http://www.abc.es/ciencia/abci-starmus-empieza-fiesta-ciencia-honor-stephen-hawking-201606280917_noticia.html
coffeebreak  .http://vivaldi.ll.iac.es/proyecto/coffeebreak/
ondas gravitacionales  .http://www.abc.es/ciencia/abci-cientificos-detectan-segunda-ondas-gravitacionales-predichas-einstein-201606151914_noticia.html.
Cosmología Cíclica Conforme .https://es.wikipedia.org/wiki/Cosmolog%C3%ADa_c%C3%ADclica_conforme
Densidad Critica .http://cosmologia.relatividad.org/dens-cos.htm

Las predicciones sugieren que el universo se estirará hasta su destrucción

Pongamos en la coctelera un título impactante, una pregunta ancestral y unas gotitas de física. Si lo agitamos bien solo nos quedará degustarlo. Pero ¿nos dejará un buen sabor de boca saber qué destino aguarda al universo? Recogemos aquí el testigo de todas las personas que se han preguntado eso mismo desde la antigüedad. No obstante, jugamos con ventaja: por fin podemos dar respuestas usando ciencia puntera y las predicciones sugieren que podríamos dirigirnos a un final violento, un Big Rip o Gran Desgarro.

Los datos experimentales encajan muy bien con el Big Rip, apuntando a que es muy probable que ocurra. La base es que el universo contiene suficiente energía oscura para ir ‘estirándolo’, expandiéndolo de un modo cada vez más acelerado.

Las galaxias se irán separando cada vez más, y la atracción gravitatoria irá poco a poco haciéndose más insignificante hasta que su efecto desaparezca. Los planetas y los satélites perderán sus órbitas y las estrellas se desligarán de las galaxias. Entonces habrá llegado ese Gran Desgarro del universo.

La energía oscura expande aceleradamente el universo

Definitivamente el universo a gran escala se está haciendo cada vez más grande. En concreto, su ritmo de expansión se está acelerando. Las ecuaciones de Einstein indican que la causa es que está compuesto en su mayor parte de energía oscura, la cual produce gravedad repulsiva. Pero ¿podemos afinar más?

Admitamos humildemente antes de ir más allá que nuestros modelos disfrazan nuestra ignorancia haciéndola pasar por sabiduría. En ellos imaginamos la energía oscura como un fluido descrito de forma muy elemental. Usaríamos para ello variables heredadas de la termodinámica.

Por un lado tendríamos la presión de ese fluido y por otro su densidad, es decir, la cantidad de energía por unidad de volumen. Si solo tuviéramos partículas con velocidades pequeñas, esa energía sería esencialmente la de sus masas. Nos bastaría así pensar en la gravitación a la manera de Newton, sin depender de Einstein. Pero eso no es posible porque en nuestro universo también hay partículas muy rápidas, como fotones y neutrinos.

En vista de ello planteamos entonces que el universo es una sopa de distintos fluidos con sus propiedades diversas. Así hacemos que las ecuaciones de Einstein nos hablen de las propiedades que deben tener los distintos fluidos para que se produzca la expansión acelerada. Y no solo eso, nos indican en qué proporciones han de estar esos ingredientes. Aparte de los fotones (neutrinos y otras porquerías) tendremos materia oscura en el sector de componentes que producen gravitación atractiva. Y entran en pugna con la energía oscura.

El ritmo de expansión podría hacerse infinito

El tipo de energía oscura más intrigante es la constante cosmológica y representa un barrera muy singular. La hipótesis de trabajo más usual para describir cualquier fluido de los mencionados es que la presión y la densidad de energía son proporcionales entre sí.

¡Pero, cuidado! Si bien la densidad de energía es siempre positiva, la energía oscura tiene presión negativa. De hecho, ha de ser suficientemente negativa. El número que gobierna la proporción de presión frente a densidad de energía juega un papel crucial en las soluciones de las ecuaciones de Einstein. Ese parámetro nos dice en primer lugar si el universo se expande aceleradamente o no. Dicho de otro modo, dicta si la presión es suficientemente negativa como para producir la necesaria repulsión.

Pero una presión aún más negativa podría dar lugar a un comportamiento dramático: el ritmo de expansión podría hacerse infinito de repente. De hecho, lo mismo le ocurriría al propio tamaño del universo (y a su factor de escala). Y eso tendría consecuencias catastróficas, destruyendo todas las estructuras conocidas. De hecho, todo sería un disparate bajo estas condiciones. Y también el cambio del cambio se haría infinito súbitamente.

Hay evidencias

La posibilidad de que ocurra esta situación es bien conocida desde la perspectiva teórica. La sorpresa es que los datos experimentales parecen favorecer esa situación. Dicho de otro modo, hay evidencias de que el universo pueda acabar en un Big Rip.

Bueno, conviene hacer un pequeño matiz para esquivar las protestas de algunos colegas. Dependiendo de las fuentes consultadas, ese escenario no es necesariamente el que la estadística apoya con más fuerza. Pero, curiosamente, el consenso apunta a que el actual rango de incertidumbre sí incluye al Big Rip entre los destinos finales muy probables.

La energía oscura fantasma es la culpable

El tipo de energía oscura causante de ese fin de fiesta violento se llama energía oscura fantasma. Para ofrecer un poquito más de detalle hay que recurrir a un sistema de unidades escogido al efecto. Usándolo vemos que el Big Rip se producirá si en valor absoluto la presión supera a la densidad de energía. Si son iguales, estamos ante un caso límite, precisamente la famosa constante cosmológica. Este conocido tipo de fluido fue introducido por Einstein. Paradójicamente, su objetivo era conseguir un universo estático, sin expansión. El genio lo abandonó calificándolo del mayor error de su vida al evidenciar Hubble la expansión del universo.

Faltan 130.000 millones de años para el Big Rip

Pero volvamos a lo que importa. ¿Si el universo va a romperse en mil pedazos, de qué cosas debemos dejar de preocuparnos? ¿Respirarán con alivio quienes aún contemplan seguir pagando hipoteca por 20 años más? Me temo que no soy portadora de buenas noticias. El Gran Desgarro podría tardar en producirse unos 130.000 millones de años. Eso equivale a 10 veces la edad actual del universo.

Esa estimación se basa en seleccionar un par de valores dentro de las ventanas estadísticamente válidas. En primer lugar pondríamos que la energía oscura representase un 70 % del contenido del universo. Y en segundo lugar haríamos la relación entre la presión y la densidad de energía tan solo un 10 % más grande que para la constante cosmológica. Y con eso, ¡listo! Predecimos un Big Rip que tardará muchísimo tiempo en llegar.

Para afinar más todo este panorama necesitamos tener observaciones del universo a gran escala en más cantidad y calidad. Sin duda contribuirán a ello los datos que nos aportarán los telescopios James Webb (en marcha) o Nancy Grace Roman (planificado), combinados con los de otros esfuerzos internacionales. Y quizá lo más interesante no sea resolver el enigma del destino final del universo. Tampoco lo es la oportunidad de resolver otros de los que no hemos hablados. Lo verdaderamente apasionante sería la posibilidad de que emergieran enigmas desconocidos. Porque, como dijo el físico y premio Nobel Kip Thorne, «la respuesta correcta es rara vez tan importante como la pregunta correcta».

Ruth Lazkoz es profesora de Física Teórica, en la Universidad del País Vasco (UPV-EHU).

Este artículo se publicó originalmente en ‘The Conversation’.

.https://www.abc.es/ciencia/abci-predicciones-sugieren-universo-estirara-hasta-destruccion-202205101134_noticia.html

genetica: evolucion


Un ‘regalo’ hecho durante la carrera evolutiva

A partir de la investigación de una proteína encargada de la reproducción sexual entre las células, un equipo de científicos de la Universidad de Maryland encontró el gen encargado de facilitar su unión y determinó que este había sido ‘heredado’, pues su función inicial no era facilitar la unión de las células sexuales, sino la de ingresar al organismo como lo hacen los virus.

William Snell, investigador del Departamento de Biología Celular de la universidad y jefe del equipo de investigación, considera que una de las pocas formas que la naturaleza ha encontrado para hacer que las células se reproduzcan, es precisamente a través de una proteína que es idéntica en su estructura a las moléculas que los virus —como el dengue o el zika— utilizan para ingresar en las células de los organismos vivos.

Los investigadores ahora conocen que la capacidad de reproducirse sexualmente ha sido un ‘obsequio’ que los virus hicieron a nuestros antepasados mientras mantenían una carrera evolutiva entre sí.

Ezequiel Zamora: villano o héroe


Ezequiel Zamora: villano o héroe de la historia republicana de Venezuela

21.02.17, 6:05 am / Editor /

José Camacho

La Guerra Federal no fue un mero estallido militar ni tampoco un episodio más de la lucha entre los caudillos.

Puerto La Cruz.- A propósito de conmemorarse 200 años del natalicio del general Ezequiel Zamora, su figura ha sido objeto de polémica en el último mes a raíz de los actos que organizó el Gobierno nacional para honrar la memoria del llamado “General del pueblo”, y por la respuesta dada por el diputado y expresidente de la Asamblea Nacional (AN), Henry Ramos Allup, a estas actividades.

El parlamentario, argumentado por la obra del escritor Adolfo Rodríguez, calificó al, en un principio ingente comerciante devenido en militar, como un “vagabundo”, un negrero, esclavista, delincuente, atracador, y asaltante de camino, entre otros cargos que le confirió.

Semejante afirmación despertó el descontento del primer mandatario nacional Nicolás Maduro, al punto que instó a la Fiscalía a abrir un proceso contra el parlamentario por ofender la memoria de Zamora.

El hombre nacido en la población de Cúa, estado Miranda, el 1 de febrero de 1817, durante los tiempos de la Capitanía General de Venezuela, fue protagonista de relieve en uno de los episodios más difíciles de la historia post-independentista de Venezuela, como lo fue la llamada Guerra Federal (1859-1863). Pero, dependiendo de cómo lo miren los historiadores, algunos lo califican como un héroe y excelso estratega militar y otros como lo describió Ramos Allup.

La Guerra Federal no fue un mero estallido militar ni tampoco un episodio más de la lucha entre los caudillos. Por el contrario, ese conflicto constituyó una verdadera conmoción popular, que convulsionó el país durante cinco años y dejó profunda huella en la vida nacional.

Según la página web http://www.efemeridesvenezolanas.com Zamora, a juicio del historiador José Gil Fortoul, “tuvo todas las cualidades buenas o malas del héroe popular: bravura, fanatismo partidario, constancia indomable, odio sincero o, como él mismo decía, horror a la oligarquía”.

Perteneciente a la clase social denominada como los “Blancos de orilla”, que según la historiografía social de la época colonial venezolana es una persona que representa a la categoría de blancos, pero que no formaba parte ni del grupo de los españoles peninsulares (blancos nacidos en España) ni de la aristocracia local (los mantuanos), Zamora se trasladó a Caracas donde continúa la escuela primaria para posteriormente radicarse en la población aragüeña de Villa de Cura, donde se establece como un comerciante probo y respetuoso.

Cuando aún no llegaba a los 30 años, ese trato de Zamora con los comerciantes y el pueblo, le permite constatar el descontento social provocado por la crisis económica ocasionada por la guerra de la independencia.

La página refiere que su camino como militar prácticamente comienza con su alzamiento en la población de Guambra, el 7 de septiembre de 1846, en las que emplea las consignas: “tierra y hombres libres” (utilizada con frecuencia por el expresidente Hugo Chávez tras la implementación de la Ley de Tierras en 2010 que allanó el camino a numerosas expropiaciones de haciendas en el país), “respeto al campesino y desaparición de los Godos”, ganando así la devoción popular y el nombre de “General del Pueblo Soberano”.

Adequismo zamorano
Zamora no es una figura nueva en el presidencialismo venezolano.

Su muerte, ocurrida en el campo de batalla tras recibir un balazo en la cabeza del cual no se sabe de dónde salió, permitió elevar su figura al misticismo y con ello ser usada como ideal de gobierno.

Su advenimiento a la palestra pública se produjo durante el primer mandato de Carlos Andrés Pérez (1974-1979). Este exhibió a Zamora como figura reivindicativa de la lucha del pueblo por mejoras sociales.

El “zamoranismo” de Pérez llegó a su máxima expresión cuando en 1975, al cumplirse 158 años de su nacimiento, mediante decreto presidencial 1178 expedido el 7 de octubre de ese año, crea la Universidad Nacional Experimental de los Llanos Occidentales Ezequiel Zamora (Unellez) con sede rectoral en Barinas.

Previo a ello, y según decretó 736 emitido el 4 de febrero de 1975, Pérez ordena construir un parque en el sitio histórico de la batalla de Santa Inés (ganada por Zamora a los conservadores y que marcó el rumbo definitivo de la Guerra Federal); erigir un monumento en la plaza de Santa Inés, en honor al general; editar todas las obras referentes al prócer Ezequiel Zamora; y construir un museo histórico en la casa donde nació el estratega.

En trabajo publicado en el portal web Efecto Cocuyo, los historiadores Daniel Terán y Carlos Balladares, afirman que Zamora si fue un revolucionario, un caudillo, pero no un héroe como que lo quiere hacer ver el actual Gobierno nacional.

“El chavismo hace una interpretación interesada y desorbitada de este personaje. Zamora fue un caudillo, pero no un prócer de la Patria como sí lo fueron los que lucharon en la Guerra de Independencia. La imagen de Zamora fue tomada por (Hugo) Chávez desde el momento en el que empezó a hablar del “Árbol de las Tres Raíces”, esgrimió Terán.

“Es desmedido y exagerado que se declare un feriado y se haga un año bicentenario en memoria de Zamora. Tiene que ver más con una posición ideológica que tiene el chavismo respecto a este personaje porque fue un caudillo más de los tantos que surgieron durante la Guerra Federal. Su momento más importante fue la victoria que tuvo en la Batalla de Santa Inés”, afirma Balladares.
Imagen acomodada
En un trabajo escrito por María Elena González Deluca y publicado en la revista Venezolana de Economía y Ciencias Sociales, la autora deja ver que el Ejecutivo utiliza los símbolos históricos, en especial aquellos que reivindican las luchas sociales, para aglutinar a su alrededor un ejército de fieles a sus propósitos.

Un ejemplo claro fueron los comicios de 2004, en los que se eligieron gobernadores, alcaldes, y diputados a la Asamblea Nacional, y que el entonces presidente Hugo Chávez bautizó como un nuevo episodio de la “Batalla de Santa Inés”, la lucha entre los oligarcas y un pueblo que quiere ser visibilizado la cual fue ganada por Zamora.

“Hemos vuelto a Santa Inés, aquí donde mi general Zamora, gran líder de este pueblo hizo morder el polvo y el barro a la oligarquía venezolana, aquí los trajo y aquí los derrotó…”, dijo Chávez el 13/6/2004.

En su artículo de opinión publicado el pasado domingo 5 de febrero en el diario El Nacional, el historiador Elías Pino Iturrieta hace una aproximación verosímil de Ezequiel Zamora. En el escrito narra como el “General del Pueblo” surge en la escala social y deja de ser aquel muchacho que leía en voz alta los editoriales liberalistas de Antonio Leocadio Guzmán.

En la parte final del escrito, Iturrieta señala como un disparate colocar a Zamora como precursor del Socialismo del Siglo XXI, algo similar a lo realizado por Pérez en 1975 cuando le colocó su nombre a una universidad, porque según Iturrieta Zamora en una de sus proclamas durante la Guerra Federal y “organizó una escabechina contra todo aquel que supiera leer y escribir”.

“Presentar a don Ezequiel como pionero del socialismo del siglo XXI es tan disparatado como la decisión ya vieja de los adecos de bautizar con su nombre una universidad. Una casa de estudios cobijada en el regazo del anunciador de una escabechina de usuarios de los lápices y los libros fue una enormidad, capaz de animar la peregrina interpretación del personaje que hacen hoy los chavistas”. (Iturrieta 5/02/2017 diario El Nacional).

Para bien o para mal, Zamora irrumpe en nuestra historia republicana como el primer líder popular de masas pro-partidista y ha sido tan invocado por las figuras políticas de Venezuela que hasta el día de hoy permanece a la vista de todos, como por ejemplo la fecha 20 de febrero de 1859, escrita en la orla derecha del escudo de Venezuela y que marca el inicio de la Guerra Federal con la toma de Coro, en la que el coronel Tirso Salaverría lanza el grito de Federación.

Diario El Tiempo
Author: José Camacho

http://quepasaenvenezuela.com/2017/02/21/ezequiel-zamora-villano-o-heroe-de-la-historia-republicana-de-venezuela/

1858-63-Guerra federal


Mon, 20/02/2017 – 09:36

Guerra civil venezolana, también conocida con el nombre de Guerra Larga, Revolución Federal o Guerra de los Cinco Años, utilizada esta última denominación por aquellos historiadores que sitúan el comienzo de la guerra con los primeros alzamientos ocurridos contra el recién instaurado gobierno de Julián Castro (mayo-julio 1858).

Después de la Guerra de Independencia, es considerada como la contienda bélica más larga y sangrienta que haya asolado al territorio nacional, así como la prolongación de los problemas políticos y sociales presentes en nuestra gesta emancipadora, dejados sin resolver una vez lograda definitivamente la emancipación de España con la victorias de 1821 y 1823 y la separación de la Gran Colombia bolivariana en 1830.

En términos generales, en la Guerra Federal se enfrentaron dos bandos políticos que venían luchando por el poder desde 1846: Conservadores y Liberales.

En cuanto a sus consecuencias, se puede afirmar que la Guerra Federal no modificó las estructuras de una sociedad agraria tradicional.

La solución conciliatoria adoptada con la firma del Tratado de Coche, en abril de 1863 consagró el triunfó nominal de la Federación, aunque en la práctica este principio político nunca pasó de ser una ficción.

Una vez en el poder, Falcón distribuyó liberalmente los frutos de la victoria entre él mismo y sus compañeros más allegados. Se le atribuye en este sentido al general federalista José Loreto Arismendi la cínica o desencantada declaración «… luchamos cinco años para sustituir ladrones por ladrones, Tiranos por Tiranos…».

En síntesis, a pesar de los calificativos tales como «Crisol de la igualdad social», «insurrección campesina» «guerra revolucionaria»o «guerra social» que se han utilizado para resaltar su carácter igualitario de la Guerra de los Cinco Años, en términos generales, al final de ésta, el fundamento material de la sociedad oligárquica seguía intacto.

Es debido a esta circunstancia, que muchos autores señalen que en el fondo la Guerra Federal, nunca pasó de ser un intercambio ideológico entre las élites políticas del país.

lanzadores de satelites


La India lanza al espacio el récord de 104 satélites en un solo cohete

La agencia espacial india emitió en directo todo el proceso desde la cuenta atrás hasta la confirmación del éxito de la operación

0 CompartirCompartido vecesImçagenes del cohete indio antes de su lanzamiento al espacio – EFEEFE Nueva Delhi15/02/2017 06:14h – Actualizado: 15/02/2017 16:12h.Guardado en: Ciencia

La India ha lanzado hoy con éxito al espacio en un solo cohete la cifra récord de 104 satélites de siete nacionalidades diferentes, superando así los 33 enviados por Rusia hace tres años, un nuevo logro para la agencia espacial india que ya consiguió en 2014 colocar una sonda en la órbita de Marte.

El lanzamiento se llevó a cabo con un vehículo polar PSLV-C37 a las 09.28, hora local (03.58 GMT), desde una plataforma en la base de Sriharikota, en el estado suroriental de Andhra Pradesh, informó la Organización de la Investigación Espacial de la India (ISRO).

La agencia espacial india emitió en directo todo el proceso desde la cuenta atrás hasta la confirmación del éxito de la operación casi media hora después con la puesta en órbita del cohete, momento en el que comenzó a distribuir los satélites en el espacio.

«Este es un gran momentoel lanzamiento ha sido un éxito», afirmó en directo desde la base de Sriharikota uno de los oficiales de la agencia espacial, que felicitó además a su equipo por el récord alcanzado.

El portavoz del ISRO, Deviprasad Karnik, se mostró sin embargo más cauto en declaraciones a Efe. «No estamos buscando récords o algo parecido, sino que hacemos un uso completo de la capacidad del vehículo» espacial, aseguró el portavoz de la agencia espacial.

De los 104 satélites lanzados a órbita, dos pertenecían a la India y los restantes a compañías públicas o privadas de otros seis países, sobre todo de Estados Unidos, con 96 aparatos, además de Israel, Kazajistán, Holanda, Suiza y Emiratos Árabes Unidos con uno.

Entre los satélites, con un peso total de 1.378 kilogramos, destaca el indio de la serie Cartosat-2, el más pesado de todos con 714 kg y que es utilizado con fines cartográficos.

El cohete poseía espacio complementario para otros satélites, por lo que la ISRO optó por enviar los restantes 103 «nano-satélites» con un peso total de 664 kilogramos, y que supusieron unos importantes ingresos para el brazo comercial de la agencia espacial.

caza espacial


¿Está EE.UU. desarrollando un caza espacial?

La Agencia de Investigación de Proyectos Avanzados de Tecnología de Defensa ha puesto fecha para la entrega de diseños para el XS-1, un avión robótico capaz de lanzar pequeñas cargas, como satélites, al espacio

DARPA-ABC.ES Madrid31/05/2016 20:30h / Actualizado: 01/06/2016 15:22h

La guerra del futuro probablemente se librará en el espacio y girará en torno a los satélites y los sistemas de comunicaciones. El motivo es que sin ellos, no se puede garantizar el funcionamiento de los «smartphones», cajeros automáticos, televisiones, predicciones meteorológicas o sistemas GPS. Además, sin ellos, los ejércitos más punteros quedan inservibles: los satélites son los ojos, los oídos y el sistema nervioso de los ejércitos contemporáneos. Sea como sea, de momento 60 naciones pugnan por encontrar un hueco en la órbita de la Tierra en el que situar sus constelaciones de satélites.

Este es el motivo por el que algunos expertos han alertado de que surja una carrera de armamentos para dominar el espacio, y que en el futuro incluso se llegue a una verdadera guerra espacial. Al margen de los fines militares, lo cierto es también que los satélites necesitan ser repuestos y mantenidos tanto en tiempo de paz como en tiempo de guerra. Por eso, la Agencia de Proyectos de Investigación Avanzados de Defensa de Estados Unidos (DARPA) está trabajando en el proyecto XS-1, cuya finalidad es desarrollar un avión espacial reutilizable y no tripulado capaz de lanzar al espacio nuevos satélites de forma rápida y barata.
Esta semana, la DARPA ha puesto una fecha límite para la presentación de diseños para el XS-1, el 22 de julio. Tal como informa la agencia en su página web, el siguiente paso se producirá en 2017, cuando comience la construcción del aparato.

Los objetivos oficiales del XS-1 son alcanzar la capacidad de hacer diez vuelos en diez días, volar hacia el espacio con una infraestructura no más compleja que la de los aviones atmosféricos, y ser capaz de llevar a la órbita próxima a la Tierra cargas de entre 680 y 1.360 kilogramos.

Reconocimiento y vigilancia en el espacio

Entre sus misiones, estarían, según la DARPA, la de hacer «lanzamientos en respuesta a la demanda, pruebas de vuelo hipersónico, misiones de inteligencia global, vigilancia y reconocimiento», tareas que por sí solas a veces pueden desempeñar los aviones de combate y que podrían ser ampliadas si el XS-1 portara algún sistema de armas.

Desde que en 2007 China destruyera un satélite con un misil a una distancia de 300.000 kilómetros, han surgido leyes para tratar de regular el espacio próximo a la Tierra, pero no han alcanzado plena implementación. Por ello, la DARPA, desarrolladora de armas de infantería, sistemas de camuflaje, vehículos militares, misiles, torpedos, satélites y helicópteros, en principio tendría vía libre para acoplar sistemas de armas en el XS-1, para sumarse al transbordador X-37, cuyas capacidades parecen similares y cuya carga nunca ha sido desvelada en los vuelos que ha hecho este aparato experimental.

Los motivos reconocidos por la DARPA para desarrollar el XS-1 son básicamente los cada vez más elevados costes de lanzar satélites al espacio. Según dice un comunicado de la agencia, el objetivo del programa XS-1 es «hacer frente a estos retos y crear un nuevo paradigma para lograr misiones espaciales más rutinarias, baratas y ágiles, reduciendo el tiempo necesario para lanzar misiones al espacio».

Tal como informa Space, el programa XS-1 comenzó en 2013.
En 2014 DARPA dio fondos a varias corporaciones para avanzar el proyecto:
-a Northrop Grumman (fabricante de cazas, helicópteros y drones) junto a Virgin Galactic,
-a Boeing (fabricante de aviación civil y militar) junto a Blue Origin y
-a Masten Space Systems (productor de cohetes y tecnología espacial) junto a XCOR.
Con todo, la DARPA espera lanzar el primer vuelo del XS-1 entre 2019 y 2020.

Además de aviones espaciales, Estados Unidos trabaja en otras alternativas para proteger sus satélites y sus intereses en el espacio. Estos pasan por sistemas de ciberseguridad, satélites maniobrables para evadir ataques, protección frente a armas e interferencias mejora de los sistemas de detección.
http://www.abc.es/ciencia/abci-esta-eeuu-desarrollando-caza-espacial-201605312030_noticia.html

La guerra del futuro  .http://www.forbes.com/sites/brucedorminey/2014/04/25/why-world-war-iii-could-start-in-space/#3a7c90a17ded
DARPA.mil
  .http://www.darpa.mil/program/experimental-spaceplane
   .http://www.darpa.mil/attachments/20160429_Sponable_XS1_Industry_Day_DISTAR_26422.pdf
ABC.com

  .http://www.abc.es/ciencia/abci-verdadera-guerra-galaxias-201512262009_noticia.html
SPACE.COM
.http://www.space.com/33009-darpa-xs1-military-space-plane-phase-2.html

Masten Space Systems   .http://masten.aero/
XCOR  .http://www.xcor.com/

Revolución Energética: Batería Eléctrica


..
_

Demanda REE
Revolución energética: Las Baterías.

La próxima revolución tecnológica sera cuando de logre desarrollar una batería completamente eficiente. Así cualquier medio de generación de energía podría fácilmente convertir a electricidad y usarse a conveniencia, sin ningún tipo de desperdicio. Hay quienes lo llaman el «enigma del almacenamiento de electricidad».

La masificación de los sistemas de generación con fuentes de energía renovables han generado al menos dos situaciones que deben atenderse:
-La generación excedente que en ocasiones se pierde porque no existe la capacidad eficiente o simplemente es nula para almacenar esta,  y utilizarla en el momento que se requiera.
-La generación que depende de factores no uniformes  (sol, viento, por ejemplo) altera la oferta/demanda uniforme de los sistemas tradicionales, que deben hacer inversiones sustanciales para protegerse de esas fluctuaciones, como conocida «curva del pato».

En cualquier caso como en cualquier sistema de aprovechamiento de la energía hay que tomar en cuenta al menos dos factores:
+la eficiencia de conversión y
+el costo de capital invertido por unidad de almacenamiento de energía para obtener un alto valor de retorno , lo que es conocido como EROI (energy return on energy investment (EROI) ratios )

Así hay dos aplicaciones de almacenamiento de energía acuerdo a la escala:
A gran escala, el almacenamiento en baterías parece estar muy lejos de la comercialización, y por ejemplo en un estudio de la Universidad de Stanford se concluye que el EROI del almacenamiento en baterías es demasiado bajo para que sea una propuesta viable para la energía eólica de todos modos. Por ello el CAES (compressed air energy storage), los imanes térmicos superconductores y el almacenamiento subterráneo de hidrógeno parecen igualmente distantes. Esto deja a la hidroeléctrica de bombeo (pumped hydroelectric storage (PHS) como la única alternativa.
.http://cleantechnica.com/2013/09/13/study-battery-energy-storage-works-for-solar-but-not-wind/
.https://pubs.rsc.org/en/content/articlepdf/2013/ee/c3ee41973h
A baja escala, se implementan una gran cantidad de procesos y tecnologías.
Conversión Química: Consiste en la conversión del exceso de electricidad en productos resultantes de procesos químicos.
Una de las principales apuestas es que será a través de la conversión a productos químicos. Esto posee algunas ventajas: relativamente fáciles de almacenar, los costos de inversión de capital pueden ser muy bajos lo que compensaría si principal deficiencia que es la eficiencia de conversión relativamente bajas ( pudiendo ser a los mas entre  40 y 50%.

En amoníaco (NH3):
El amoníaco puede almacenarse muy fácilmente y utilizarse como combustible líquido para el transporte y como combustible para la generación de electricidad.
“El objetivo es producir amoníaco “verde”. Es decir producido mediante energía renovable. El hidrógeno proviene de la electrólisis y el nitrógeno se extrae del aire. Probablemente la eficiencia sea baja y el coste alto. Con la electrolisis se  separar el hidrógeno del oxígeno en las moléculas de agua mediante electrólisis.  El hidrógeno  obtenido se combinaría con nitrógeno extraído del aire (que es 78% nitrógeno) para formar amoníaco a través del conocido y ampliamente utilizado Proceso de Bosch-Haber 
El CSIRO (Commonwealth Scientific and Industrial Research Organisation, Australian Government ) en Australia también está involucrado. Parece ser que pretende usar el amoníaco para la captura de carbono.
Actualmente, el amoníaco mediante el Proceso de Bosch-Haber permite la síntesis industrial de amoniaco a gran escala,y se produce con mayor frecuencia utilizando hidrógeno extraído del metano o el carbón.
Si la electrólisis no puede competir con el gas natural en la generación de hidrógeno, entonces usar el método «verde» es una garantía de costos más altos.  Esto aplica a:
-la «electrólisis continua de alta presión» con eficiencia del 75 al 80 % frente a
-la «electrólisis intermitente» con una eficiencia del 45 % (quizás).
Una eficiencia del 75% para el almacenamiento y
una eficiencia del 70 % para la recuperación de energía.
Lo que se acerca mucho a duplicar el costo de la energía renovable.

el almacenamiento de productos químicos es la solución escalable más probable y un favorito actual son las baterías de flujo donde puede tener un estanque gigantesco de electrolito.
Las baterías de flujo pueden ser mucho mejores que el de conversión química. Considerando el generador eólico si está almacenando energía que de otro modo se desperdiciaría, la eficiencia no importa tanto. Pero aún agrega costos al sistema de entrega; lo que se duplicará siendo conservador.
Se puede lograr lo mismo con la energía nuclear.
El almacenamiento físico (hidráulica bombeada y aire comprimido) tiende a ser energéticamente eficiente pero difícil y costoso de escalar.
El almacenamiento de productos químicos probablemente tendrá una eficiencia de ida y vuelta <<40%.

El Instituto Fraunhofer ha estudiado el  desdoblamiento electroquímico del agua por electrólisis asi como  el de turbinas eólicas para generar gas natural. Pudiera ser esto ultimo una  solución del almacenamiento de energía, pero pudiera no ser economicamente viable.
consulte:
.http://www.brighthub.com/environment/renewable-energy/articles/78303.aspx
https://iquimicas.com
https://www.textoscientificos.com/quimica/amoniaco/produccion
Pagina de CSIRO
.https://www.csiro.au/en/

«Fisker afirma que la batería de estado sólido es un ‘avance’ para autos eléctricos con ‘500 millas de alcance y 1 minuto de carga'» un cargador de 800 amperios. El cable de extensión grande donde la mayoría del servicio eléctrico doméstico es de 200 amperios
.https://electrek.co/2017/11/14/fisker-solid-state-battery-breakthrough-electric-cars/

batería térmica con paneles solares y Sales

una mejor forma de calentar es con una batería térmica. la ubicación de la batería de calor era gratuita. Captó la indirecta y el artículo muestra las pruebas que realizó.
http://sciencenordic.com/trapping-sun%E2%80%99s-energy-%E2%80%94-box

Almacenar calor para cocinar si desplaza la cocina eléctrica ayudará a la red si muchos lo hacen. La cocina solar de hoy tiene como se mencionó un uso bajo y la razón principal es la falta de almacenamiento combinada con la baja temperatura que solo es suficiente para hervir.

Un ejemplo seria
3 paneles de 250 W (3*250 W PV) que con buena luz solar sirven para calentar 2 almacenamientos térmicos a un máximo de 400 C  durante el dia.  El almacenaje debe estar bien aislado, por lo que se puede mantener 300 C al dia siguiente. Cuanto más pequeña es la rejilla, mejor es su potencial y asegura una cocción sin humo. El humo interior es toxico. La recuperación de la inversión siempre puede ser un desafío, pero la eficiencia es mucho mayor que la conversión a electricidad. El costo es similar al GLP (si este no es subsidiado) y funciona 9 meses al año con sol de Escocia.  Se usan para el funcionamiento una seleccion de sales de cambio de fase. Usado con el  excedente del sistemas normal PV  puede resultar en un almacenamiento térmico efectivo.
Esto también se puede usar para enfriar a través de un enfriador de absorción.

A menudo he analizado los números, pero el factor limitante ha sido la escala. La producción independiente es demasiado pequeña. La distribución tiene demasiadas pérdidas. Podría funcionar en un pequeño centro turístico como la instalación. 100-500 unidades.

Archivos Recuperados:

Revolución energética: Las Baterias.
2016.02.24-¿Por qué son peligrosas las baterías de litio en los aviones?.
Riesgo de catástrofe.
Prohibición.
2017.10.07-Atrapando la energía del sol en una caja
2016.04.28-Cómo crearon por accidente una batería que dura toda una vida. 4
2017.02.07-Crean una batería de litio de estado sólido más duradera y sin ries
go de explosiones. 6

2017.02.14-Batería capaz de durar décadas.
2018.11.22-Desarrollar los grandes sistemasde baterías será clave para aumentar las energías renovables 
No siempre sopla el viento ni hace el mismo Sol
¿Qué sistemas de almacenamiento tenemos para solucionar esta situación?.
Las baterías no solo sirven para almacenar energía.
Predicción, regulación y almacenamiento: los retos a abordar.

==========================.

==========================

2016.02.24-¿Por qué son peligrosas las baterías de litio en los aviones?

BBC Mundo. Tecnología. 24 febrero 2016

Las prueban han demostrado que las baterías pueden incendiarse durante un vuelo.

Ya pasaron un par de décadas desde que las baterías recargables de litio debutaron comercialmente, y aún hoy en día dominan el mercado como la primera elección de energía portátil por sus ventajas, como su durabilidad y ser amigables con el medio ambiente.

Pero estas baterías también acarrean riesgos, especialmente cuando se transportan por vía aérea.

Los expertos piensan que podrían estar detrás de una serie de incendios en aviones de carga en los últimos años.

Es así que la Organización Internacional de Aviación Civil de la ONU (ICAO por sus siglas en inglés) acaba de prohibir el transporte de baterías de ión de litio como carga en aviones de pasajeros.

Riesgo de catástrofe

Las pruebas realizadas hasta ahora por los organismos de aviación han establecido que las baterías de litio pueden autoprenderse y arder con un calor de aproximadamente 600 grados centígrados.

La Agencia Federal de Aviación de EE.UU. cree que estas baterías están vinculados a varios incendios aéreos.

Pruebas separadas también han establecido que las baterías sobrecalentadas pueden desprender vapores que, si se acumulan, pueden dar lugar a explosiones que neutralizan los sistemas de extinción de incendios dejando que los fuegos ardan sin control.

Las pruebas llevaron a Boeing y Airbus a declarar en 2015 que era «un riesgo inaceptable» continuar con el envío de baterías de iones de litio al por mayor.

Ese mismo año, una organización que representa a varios fabricantes de aviones, incluido Boeing, envió un documento a la ICAO indicando que los sistemas contra incendios en los aviones de pasajeros no pueden «suprimir o extinguir un incendio de una cantidad significante de baterías de litio».

La organización explicó que los aviones no pueden manejar las temperaturas particularmente altas de los incendios de litio y la velocidad con la que estos pueden propagarse.

Además, los extintores de fuego halón estándar no son lo suficientemente eficaces contra estos incendios.

Y aunque la mayoría de las baterías de iones de litio son transportadas en barcos de carga, alrededor del 30% son entregadas por transporte aéreo.

La mayoría viajan en las bodegas de los aviones de pasajeros en vez de aviones de carga.

La Administración Federal de Aviación de Estados Unidos (FAA) estima que las compañías aéreas que transportan las baterías de forma masiva a ese país también llevan cerca de 26 millones de pasajeros al año.

Prohibición

En 2013 la línea japonesa ANA varó su flota de aviones Dreamliners debido a un incidente que involucró baterías de litio.

La prohibición de la Organización Internacional de Aviación Civil, que entra en vigor a partir del próximo 1 de abril, no afecta a las baterías contenidas en aparatos electrónicos y dispositivos móviles de los pasajeros, tripulantes de cabina y pilotos en los vuelos comerciales.

El presidente del consejo de OACI, Olumuyiwa Benard Aliu, destacó que la medida seguirá en vigor hasta que el organismo de la ONU ponga en marcha nuevas regulaciones sobre el transporte de baterías en aviones comerciales.

«La seguridad es siempre nuestra prioridad fundamental en la aviación civil internacional. Esta prohibición provisional seguirá en vigor mientras continúa el trabajo separado en la OACI sobre un nuevo estándar de empaquetado de baterías de litio que se espera esté concluido en 2018», dijo Aliu.

https://www.bbc.com/mundo/noticias/2016/02/160224_tecnologia_baterias_litio_peligros_aviones_il

Atrapando la energía del sol — en una caja

¿Planeas cocinar algo en tu choza? Hoy en día, todavía necesita una estufa de gas para hacerlo. Pero pronto, las estufas y hornos que contienen baterías de calor recargables pueden estar disponibles para cualquier cabaña u hogar.

Las celdas solares en el techo de su cabaña pueden proporcionar suficiente energía para un poco de luz y calor, pero si desea suficiente calor para cocinar, debe recurrir a la leña o al gas. Un profesor de NTNU está trabajando en una caja que contiene un horno recargable impulsado por una batería de calor que, con suerte, pronto estará disponible para cabañas y hogares.

Los sistemas de energía «fuera de la red», los sistemas que no están conectados a la red eléctrica nacional, como una cabaña aislada con celdas solares en el techo, requieren buenos métodos de almacenamiento de energía.

La electricidad se puede almacenar en baterías y la energía solar a menudo se almacena como agua caliente. Lo que generalmente falta es calentar baterías con suficiente capacidad y la capacidad de mantener temperaturas lo suficientemente altas para cocinar, alrededor de 200 grados.

“Un disipador de calor como este debería ser parte de cualquier sistema de energía solar disponible para uso personal”, dice el profesor Ole Jørgen Nydal del Departamento de Energía e Ingeniería de Procesos de la NTNU.

La placa está lo suficientemente caliente para cocinar justo cuando quieras usarla, se carga con el excedente de electricidad de las células solares. (Foto: Maren Agdestein/NTNU)
“En este punto, mantener una temperatura lo suficientemente alta durante el tiempo suficiente es realmente solo una cuestión de aislamiento lo suficientemente bueno”, dice, explicando el estado del proyecto. (Foto: Maren Agdestein/NTNU)

En el laboratorio solar de las instalaciones de ingeniería térmica de NTNU, Nydal está trabajando en una caldera que almacena el exceso de energía en forma de calor a unos 200 grados. Esta caldera se puede utilizar para cocinar alimentos tanto en horno como en estufa, o para proporcionar calor a un edificio. Una cabaña, por ejemplo.

Investigación de vanguardia sobre el calor solar

¿Alguna vez has sostenido una hoja de papel bajo una lupa al sol? El papel no tarda mucho en arder. Las fuentes de calor de alta temperatura como esta se utilizan en los llamados concentradores solares.

¿Qué es un concentrador solar? Imagina una construcción parabólica de espejos que concentra los rayos solares en un punto.

Nydal explica que recolectar energía térmica de alta temperatura de los concentradores solares es mucho más efectivo que usar celdas solares o elementos de calefacción.

Por lo tanto, la investigación del calor solar se ha centrado en la integración de sistemas de almacenamiento de calor con concentradores solares. Pero no en este proyecto.

El objetivo de su proyecto actual es encontrar un buen método para almacenar el exceso de carga eléctrica en un disipador de calor.

Al trabajar con una instalación de celdas solares domésticas (o energía eólica/hidráulica a pequeña escala), la idea es recolectar el exceso de energía eléctrica y convertirla en energía térmica de alta temperatura.

Cuando la batería eléctrica conectada a una celda solar está llena, la energía adicional que se produce se dirige al almacenamiento de calor latente para proporcionar energía para cocinar y calentar después de que se pone el sol.

La sal como almacenamiento de calor

Nydal explica que el interior de su batería de calor es una sal de nitrato que se derrite a 220 grados. Esta misma sal se usa a menudo para almacenar y transportar calor en plantas de energía solar a gran escala.

El calor de los elementos calefactores se almacena al derretirse la sal y se libera al enfriarse y volver al estado sólido.

“En este punto, mantener una temperatura lo suficientemente alta durante el tiempo suficiente es realmente solo una cuestión de aislamiento lo suficientemente bueno”, dice, explicando el estado del proyecto.

La estufa que usó como base para el proyecto es una placa de plancha normal que se encuentra comercialmente en los EE. UU., comercializada como una plancha noruega para hacer ‘lefser’, un tipo de pan plano noruego suave.

En su laboratorio en NTNU, Nydal construyó una batería de calor estacionaria alrededor de esta plancha, así como una portátil, para demostrar que su tecnología se puede ampliar.

colaboración africana

La investigación del profesor Nydal sobre calefacción solar ha sido en colaboración con 4 universidades africanas.

Varios candidatos a doctorado de África han visitado el laboratorio de la NTNU, y los estudiantes noruegos han tenido la oportunidad de visitar las universidades africanas.

Los investigadores han investigado varios métodos para capturar y almacenar calor para cocinar, pero el proyecto en curso se centra en los sistemas a base de aceite, así como en los sistemas que incluyen calefacción eléctrica a partir del exceso de producción de energía.

Uno de los incentivos para colaborar con las universidades africanas es crear un concentrador solar conectado a un disipador de calor que se pueda usar para cocinar pan plano injera tradicional etíope.

Este pan es la principal fuente de alimento para 90 millones de personas en Etiopía y se cocina tradicionalmente en hornos de leña.

Sin embargo, el humo del fuego de leña puede ser un peligro para la salud y el método en sí mismo ha llevado a la deforestación. También puede ser costoso y consumir mucho tiempo para las familias.

“Uno de nuestros candidatos a doctorado probó una solución para cocinar injera en un sistema donde un concentrador solar calienta la plancha directamente. Este experimento se copiará en Etiopía”, explica Nydal.

“Entonces veremos si nuestros sistemas realmente serán utilizados por familias en países africanos. No es un hecho que elija una mejor solución tecnológica solo porque existe. Puede haber obstáculos culturales y sociales que superar”.

A Tanzania y de regreso

Nydal quiere continuar con este proyecto durante su año sabático en 2016. Esta primavera, siete investigadores de las universidades colaboradoras en Etiopía, Tanzania, Uganda y Mozambique visitaron la NTNU.

Dos estudiantes de maestría de NTNU realizaron estancias de investigación en Etiopía. El objetivo era crear una buena colaboración, para que los sistemas en los que han estado trabajando puedan desarrollarse y presentarse en las universidades, y ponerse a disposición de los usuarios en ambos extremos.

El sistema de batería de calor se probará en un hospital en Tanzania que está programado para instalar celdas solares en su techo. La energía de la red en esa área a menudo está racionada y no es confiable, explica Nydalen.

“Cuando nuestra batería de calor haya sido probada en África, podemos traerla de vuelta y convertirla en algo que pueda interesar a los propietarios de cabañas noruegas”, dijo.

“En el futuro, esperamos que cualquier superficie expuesta pueda usarse para recolectar energía. Por lo tanto, tiene sentido tratar de recolectar el exceso de energía eléctrica y almacenarla como energía térmica de alta temperatura para nuestros hogares también”.

colaboradores africanos

Instituto de Tecnología de Etiopía-Mekelle, Etiopía
University of Dar Es Salaam, Tanzania
Universidad de Makerere, Uganda,
Universidad Eduardo Mondlane, Mozambique

.https://partner.sciencenorway.no/energy-forskningno-norway/trapping-the-suns-energy–in-a-box/1438275

2016.04.28-Cómo crearon por accidente una batería que dura toda una vida

Redacción BBC Mundo. 28 abril 2016

La estudiante de doctorado Mya Le Thai estaba «jugueteando» con los nanocables cuando decidió colocarles una capa de gel.

Crear una batería que dure toda una vida parecía difícil de lograr, aunque un grupo de investigadores estadounidenses lo consiguió.

Lo que más llama la atención es que todo fue fruto de un accidente.

Científicos de la Universidad de California, en Irvine, Estados Unidos, estaba buscando una forma de sustituir el litio líquido de las baterías por una opción más sólida y segura (las baterías de litio son extremadamente combustibles y muy sensibles a la temperatura) cuando dieron con esta batería 400 veces más eficiente que las actuales.

Empezaron a experimentar con nanocables de oro recubiertos con un gel de electrolitos y descubrieron que eran increíblemente resistentes. La batería podía seguir trabajando de forma efectiva durante más de 200.000 ciclos de carga.

Durante mucho tiempo, los científicos han experimentado con nanocables para baterías.

Esto se debe a que son miles de veces más delgados que el cabello humano, altamente conductores y cuentan con una superficie amplia para el almacenamiento y transferencia de electrones

Hoy en día, la mayoría de nuestros dispositivos inteligentes cuentan con baterías de litio líquido.

El problema estaba en que estos filamentos son extremadamente frágiles y hasta ahora no aguantaban la presión de carga y descarga.

Pero un día la estudiante de doctorado Mya Le Thai decidió colocar en estos delicados hilos una capa de gel.

«Mya estaba jugueteando y lo cubrió todo con una un fina capa de gel antes de empezar el ciclo», explicó Reginald Penner, consejero de departamento de química la Universidad de California en Irvine.

«Descubrió que tan solo usando este gel (de electrolitos) podía someterlos a ciclos (de carga y descarga) cientos de miles de veces sin que perdiera su capacidades».

Y lo hizo durante tres meses.

El problema del oro

«Esto es increíble porque estas cosas típicamente mueren dramáticamente tras 5.000 o 6.000 ciclos, 7.000 como mucho», agregó

Penner le contó a la revista Popular Science que cuando empezaron a probar los dispositivos, se dieron cuenta que no iban a morir.

Los expertos piensan que la efectividad de la batería de Irvine se debe a que la sustancia viscosa plastifica el óxido metálico en la batería y le da flexibilidad, lo que evita el agrietamiento.

«El electrodo revestido mantiene su forma mucho mejor, lo que lo hace una opción más fiable», explicó Thai.

La batería de Irvine es 400 veces más eficiente que una de litio.

«Esta investigación prueba que las baterías con nano cables de oro pueden tener una vida larga y que son una realidad», agregó.

Según el estudio, tras someter la batería a 200.000 ciclos, esta solo perdió el 5% de su carga.

Sin embargo, todavía queda un camino largo por recorrer antes de empezar a ver estas baterías en nuestros celulares.

Por muy delgados que sean estos filamentos, son de oro, lo que hace que las batería sean demasiado caras para fabricarse en masa.

Para solucionar este problema, Penner sugirió aPopular Science la posibilidad de remplazar el oro por un metal más común como el níquel.

http://www.bbc.com/mundo/noticias/2016/04/160428_ciencia_bateria_infinita_gtg

2017.02.07-Crean una batería de litio de estado sólido más duradera y sin riesgo de explosiones

Gracias al uso de un nuevo compuesto, el sulfuro de litio, la duración de carga y la vida útil de las baterías de los dispositivos electrónicos podrían experimentar un antes y un después

EUROPA PRESS – abc_tecnologia Madrid07/02/2017 15:33h – Actualizado: 07/02/2017 15:35h.Guardado en: Actualidad Soluciones

Un equipo de científicos del Instituto Tecnológico de Massachusetts (MIT) ha desarrollado un innovador sistema que podría revolucionar el mercado de las baterías de litio. Gracias al uso de un nuevo compuesto, el sulfuro de litio, la duración de carga y la vida útil de las baterías de los dispositivos electrónicos podrían experimentar un antes y un después.

El grupo de investigadores, dirigido por Frank McGrogan y Tushar Swamy, ha publicado los resultados de su investigación en la revista «Advanced Energy Materials». El estudio aspira a mejorar las baterías, uno de los elementos que más preocupan a los usuarios de »gadgets» desde «smartphones» a coches inteligentes, tanto por la duración de las cargas como por su vida útil o incluso el riesgo de incendio, que ya probó el caso del Samsung Galaxy Note 7.

La gran innovación que presenta el estudio del MIT con respecto a las baterías de ion de litio utilizadas actualmente se centra en el uso de un elemento sólido para conducir la electricidad: el sulfuro de litio. Hoy en día, las baterías de litio incluyen un líquido o gel electrólito, necesario para el funcionamiento de la batería pero que acaba desembocando en la degradación de la misma. Además, al tratarse de un líquido inflamable, es el responsable de que a veces se produzcan cortocircutos dentro de la batería o que ésta se incendie o, incluso, explote.

Las baterías de estado sólido del MIT podrían porporcionar un gran número de beneficios con respecto a las actuales, según las conclusiones del estudio. Además de eliminar el riesgo de explosiones, este nuevo sistema permitiría proporcionar una capacidad de almacenamiento de energía mayor y una vida útil mayor de la batería.

El descubrimiento de los científicos del MIT sigue la línea de otra investigación realizada en la Universidad de Stanford en el año 2010 que empleaba también el sulfuro de litio en las baterías. A pesar de la innovación, el estudio de Stanford presentaba un problema: que la duración de la batería alcanzaba tan sólo 40 o 50 ciclos de carga frente a los 300 o 400 de las del mercado.

La batería sólida del MIT ha solucionado el problema de durabilidad que tenían las del estudio de Stanford, pero sigue presentando un notable inconveniente: es muy frágil. Ante el estrés del uso, la batería puede «romperse como un cristal», según palabras de los propios investigadores. «En las baterías sólidas, la degradación mecánica probablemente regulará la estabilidad y la durabilidad», ha declarado a la web del MIT el experto de la Universidad de Michigan Jeff Sakamoto.

Pese a todo, el avance podría acabar aplicándose en los dispositivos siempre que se proteja la batería de forma suficiente. «Es necesario diseñar en torno a ese conocimiento», ha afirmado Frank McGrogan, autor del estudio, a la web del MIT.

http://www.abc.es/tecnologia/informatica/soluciones/abci-crean-bateria-litio-estado-solido-mas-duradera-y-sin-riesgo-explosiones-201702071533_noticia.html

2017.02.14-Batería capaz de durar décadas

Tue, 14/02/2017 – 09:56

Un grupo de investigadores ha diseñado un prototipo de pila de flujo, es decir, recargable, de larga duración que permitiría, en un futuro alargar la autonomía de los «smartphones»

Los investigadores de la Escuela de Ingeniería y Ciencias Aplicadas (SEAS) de Harvard han diseñado un prototipo de batería de flujo, es decir, recargable, capaz de aguantar diez años, que no es tóxica ni corrosiva. Sin duda, una gran avance que permitiría, en un futuro, alargar la autonomía, por ejemplo, de los «smartphones».

El carbón, el petróleo y el gas son, en la actualidad, los combustibles fósiles con los que se generan principalmente energía. Y, además, son recursos no renovables. Sin embargo, esta nueva batería genera energía limpia gracias a una combinación de moléculas orgánicas disueltas en agua con pH neutro. «Esta nueva química permite una batería no tóxica ni corrosiva, con una vida útil excepcionalmente larga que, además, permite disminuir significativamente los costes de producción», indican los expertos.

La clave de esta batería está en la base de agua. Es decir, los científicos modificaron las estructuras de las moléculas utilizadas en las soluciones, haciéndolas solubles en agua. Así, el equipo de Harvard fue capaz de diseñar una batería que pierde sólo un 1% de su capacidad por cada 1000 ciclos.

«Las baterías de iones de litio (las que se actualizan en la actualidad) ni siquiera sobreviven a 1.000 ciclos completos de carga/descarga», recuerda Michael Aziz, uno de los investigadores. Cualquier dispositivo, que utiliza baterías de litio, con el tiempo presenta problemas tras muchos ciclos de carga y descarga: la pila es cada vez menos duradera y hay que estar continuamente cargándola. «Debido a que pudimos disolver los electrolitos en agua con pH neutro, esta es una batería de larga duración que podrías poner en tu sótano», señala, por su parte, Roy Gordon, otro de los investigadores, ya que no supone peligro alguno.

«Este trabajo sobre los electrolitos orgánicos solubles acuosos es de gran importancia al señalar el camino hacia futuras baterías con una vida de ciclo enormemente mejorada y un coste considerablemente menor», ha declarado Imre Gyuk, Director de Investigación de Almacenamiento de Energía en la Oficina de Electricidad del DOE. «Espero que las baterías de flujo de larga duración sean estándar como parte de la infraestructura de la red eléctrica».

El objetivo del DOE es construir una batería capaz de almacenar energía por menos de 100 dólares por kilovatio hora, consiguiendo así que el viento y la energía solar almacenados fueran competitivos con la energía producida por las centrales eléctricas tradicionales.

http://www.abc.es/tecnologia/informatica/soluciones/abci-bateria-capaz-durar-decada-201702132157_noticia.html?ns_campaign=rrss&ns_mchannel=abc-es&ns_source=fb&ns_linkname=cm-general&ns_fee=0

2018.11.22-Desarrollar los grandes sistemas de baterías será clave para aumentar las energías renovables

22 Noviembre 2018/ Rubén Lijó @rubenlijo

Con el aumento de la actividad industrial, el consumo y el nivel de confort han dado lugar a niveles desorbitados de contaminación. Gran parte de ella la causan las emisiones procedentes de la industria, en la que las tecnologías de generación eléctricas convencionales tiene un papel importante, aunque desde hace unas décadas el boom de las renovables pretende frenar el avance de esta situación.

Sin embargo, las limitaciones propias de la tecnología renovable hacen imposible llegar a porcentajes completamente renovables en la actualidad o el futuro próximo. Hablamos de cuestiones tales como la disponibilidad de energía o la aportación de servicios de regulación, sin los que no se puede garantizar el adecuado suministro de electricidad.

Los grandes sistemas de almacenamiento energético se presentan como una prometedora solución a muchas de estas cuestiones, pero aún queda mucho por andar en este campo. Veamos a continuación cuáles son los principales retos a los que nos enfrentamos.

No siempre sopla el viento ni hace el mismo Sol

El consumo energético es, por su naturaleza, variable. Si bien hay unos patrones de consumo en cierta medida predecibles, en nuestro día a día hacemos uso de la energía procedente de la red sin ningún tipo de restricción horaria o planificación impuesta.

Conjuntamente, el operador del sistema eléctrico verá cómo los consumos procedentes de industria y hogares tendrán una distribución con valles y picos. Los picos se producen en las horas punta, coincidentes con las de mayor actividad en empresas y hogares, y los valles se darán fundamentalmente durante la noche.

Demanda real, prevista y programada para el día 9/11/2018 (REE)

Para ajustarnos a esta demanda variable será necesario disponer de sistemas gestionables, que son capaces de reaccionar de manera instantánea a los excesos o defectos de carga. Y como el viento no sopla de manera constante y al sol hay veces que lo tapan las nubes, tenemos en esta variabilidad uno de los principales condicionantes que han tenido las renovables desde sus orígenes.

Sabemos que la generación y el consumo deben estar en constante equilibrio para mantener los niveles de frecuencia. Teniendo en cuenta los patrones variables de consumo, necesitamos depender de un suministro energético controlable. Es en este punto en el que el almacenamiento energético tiene uno de sus papeles más importantes para ayudar a la integración renovable, ya que puede conseguir convertir una fuente no gestionable como la eólica o la solar en una fuente gestionable.

Hemos contactado con Dr. Elías Jesús Medina Domínguez, experto en integración de energías renovables en sistemas eléctricos, para hablar acerca de estos asuntos. “Dado el funcionamiento de los sistemas eléctricos, que requieren una generación estable y controlable de la energía que se produce en ellos, esta variación de la producción de energía eléctrica puede representar una barrera técnica para la integración de las energías renovables en los sistemas eléctricos”, nos cuenta.

La variación en la generación de energía renovable puede representar una barrera técnica para su integración en los sistemas eléctricos.

Inicialmente, con la instalación de los primeros parques eólicos y las primeras fotovoltaicas conectadas a la red, las fluctuaciones del recurso renovable apenas afectaban a los parámetros de los sistemas eléctricos. Sin embargo, a medida que va aumentando el porcentaje de penetración renovable ya se comienzan a apreciar los efectos.

Hablando de cifras, Elías nos cuenta que “la experiencia en Europa muestra que el límite se encuentra en un 20 % de penetración eólica, a partir del cual es necesario tomar medidas adicionales”. Algo similar ocurre en el caso de la energía solar inyectada en el sistema eléctrico, aunque aún está lejos de acercarse a los porcentajes de generación eólica.

Por otra parte, cabe mencionar que la energía hidroeléctrica sí que es equiparable a las convencionales en gestionabilidad y aportación de servicios de regulación.

Esto se debe a que disponen de una reserva de agua que podrán turbinar cuando sea preciso para accionar generadores eléctricos síncronos (como los que operan en las centrales convencionales). Se trata de una de las grandes bazas con las que cuentan algunos de los sistemas eléctricos con alta integración renovable, como es el caso de Uruguay o España. Pero la creación de centrales hidroeléctricas depende de condiciones orográficas muy específicas y también tiene un alto impacto ambiental que debe ser considerado.

¿Qué sistemas de almacenamiento tenemos para solucionar esta situación?

Ahora bien, ¿qué pasa con la entrada en escena de los sistemas de almacenamiento energético? El Dr. Medina nos cuenta que con sistemas basados en baterías o centrales hidroeléctricas reversibles “se puede adsorber la energía proveniente de fuentes renovables y ceder esa energía posteriormente cuando sea más adecuado para el sistema eléctrico. De este modo”, asegura, “los sistemas eléctricos reciben una energía más estable generada por las fuentes renovables”.

Hay diversas tecnologías de almacenamiento energético a gran escala y cada una tiene un papel clave a la hora de cubrir distintas necesidades. Según el campo de aplicación encontramos tres casos generales: almacenamiento para la mejora de la calidad del suministro, almacenamiento de emergencia y almacenamiento para la gestión de la red.

En el primer caso, por ejemplo, la calidad del suministro eléctrico se puede mejorar con sistemas que cedan la energía acumulada en cuestión de segundos. Este es el caso de los supercondensadores que, con hasta un 95% de eficiencia y apenas un 5% de pérdidas por autodescarga diaria, son capaces de almacenar una densidad de energía inusualmente elevada.

Por otra parte, el almacenamiento de emergencia está pensado para aportar energía activándose en cuestión de minutos y permaneciendo en operación para asegurar la continuidad del suministro. Este es el caso, por ejemplo, de sistemas cinéticos como volantes de inercia acoplados a generadores, que permiten un almacenamiento de energía a corto plazo con rendimientos de hasta el 85%.

Sin embargo, al ser sistemas mecánicos, esta cifra cae hasta un 40% tras apenas un día de almacenamiento debido a las pérdidas por fricción. La energía cinética que almacenan está pensada para ser devuelta a través de generadores como apoyo ante cambios bruscos en la demanda eléctrica.

Pero, sin duda, el principal punto de mira del sector está puesto en sistemas que permitan el almacenamiento prolongado de grandes cantidades de energía y sean capaces de cederla de manera paulatina para dar apoyo a la propia gestión de la red. Este es el tipo de almacenamiento energético que permitiría recoger la energía renovable para posteriormente emplearla de forma gestionable. Hablamos de centrales hidroeléctricas reversibles, centrales de aire comprimido o, lo que está en boca de todos, grandes sistemas de baterías.

Dentro de las baterías tenemos varios tipos, aunque las más populares son las Plomo-ácido, las baterías basadas en Níquel y las baterías de Litio. Además, desde hace unos años están avanzando rápidamente en la carrera las baterías de flujo, diseñadas específicamente para aplicaciones de gran capacidad energética. Están pensadas para operación a largo plazo, con un servicio de hasta 10.000 ciclos al 75% de profundidad de descarga. Hay cuatro diseños principales de baterías de flujo, que varían en función de sus componentes, siendo la basada en vanadio la que llega a una mayor eficiencia con una cifra del 85%.

Las baterías no solo sirven para almacenar energía

Pero, además de utilizar las baterías para poder almacenar grandes cantidades de energía, pueden también servirnos de ayuda a la hora de complementar algunas de las debilidades de las energías renovables. “Al contar con moderna electrónica de potencia pueden proporcionar servicios de regulación, especialmente necesarios en sistemas eléctricos con alta penetración de energías renovables”, nos cuenta Elías al respecto.

Los servicios de regulación que podrían proporcionar las baterías son los de control de frecuencia y control de tensión.

“Básicamente, los servicios de regulación que podrían proporcionar los sistemas de almacenamiento constituidos por baterías son los de control potencia-frecuencia y control de la tensión”. En el caso del control de tensión, los generadores son capaces de controlar las variaciones de este parámetro gracias a la aportación o consumo de potencia reactiva (que es la asociada a los campos magnéticos).

Por otra parte está el control potencia-frecuencia, en el que será necesario adecuar la generación de potencia activa para mantener los niveles de frecuencia del sistema eléctrico dentro de los márgenes dictados por el operador del sistema. En el caso de los países con influencia europea, sus sistemas eléctricos trabajarán en torno a los 50 Hz de frecuencia, mientras que este valor estará en torno a los 60 Hz en países con influencia estadounidense.

Se trata de servicios fundamentales para que el suministro energético pueda asegurar unos estándares de calidad. Sin embargo, en la carrera por el aumento de renovables nada es, por sí solo, suficiente. Muchos factores y retos tecnológicos intervienen en la consecución de este objetivo y únicamente con un esfuerzo coordinado se conseguirán dar los pasos necesarios.

En paralelo al desarrollo de las baterías para sistemas de potencia y su participación en este tipo de servicios de regulación, también desde la propia industria de generadores renovables se plantean soluciones. Este es el caso de fabricantes de aerogeneradores e inversores fotovoltaicos, que llevan presentando al mercado sistemas con los que se aumentan las capacidades de control.

Por ejemplo, nos cuenta Elías que “existen aerogeneradores capaces de proporcionar cierto control de la potencia que generan así como también son capaces de realizar un control de la tensión en su punto de conexión a la red eléctrica”.

De esta manera, desde la propia generación podría contribuirse a la aportación de estos servicios auxiliares, en cierta medida, además del apoyo que puedan darse desde grandes sistemas de baterías en otros puntos de la red. Pero no acaba aquí, sino que “también están siendo dotados de la capacidad de recibir instrucciones de control por parte de las compañías encargadas de controlar el sistema eléctrico”.

Predicción, regulación y almacenamiento: los retos a abordar

De esta manera, con los distintos sistemas de regulación desde los propios generadores y, con apoyo de baterías, se pretende maximizar la participación de las energías renovables en las necesidades del sistema eléctrico.

Además, con la progresiva instalación de grandes sistemas de almacenamiento se podrán reservar los excedentes que no puedan ser inyectados a la red, con lo que evitaremos tener máquinas paradas aun teniendo disponibilidad de recurso. Pero, como bien apuntaba el Dr. Medina, se trata de una tecnología en desarrollo a la que aún se continúan añadiendo nuevas capacidades.

Si bien el aumento de energías renovables en nuestros sistemas eléctricos debería ser la meta a seguir en este sector, ya hemos visto que se tienen que mantener los criterios fundamentales de estabilidad y calidad de la energía. Además, es fundamental garantizar un coste razonable de los sistemas eléctricos y es precisamente este punto en el que flaquea el estado actual de las baterías a gran escala. Los sistemas de almacenamiento energético en baterías son aún muy costosos y tienen una vida útil reducida.

Pero falta hablar de un concepto fundamental para completar las áreas claves de actuación en la búsqueda de la maximización renovable: la capacidad de predicción del recurso. Se están desarrollando herramientas de predicción que, cuenta Elías, “permiten determinar qué potencial renovable se tendrá en un futuro inmediato. Esto nos revelará la cantidad de energía eléctrica generada por fuentes renovables de la que podremos disponer”.

Un aspecto clave, sin duda, a tener en cuenta en la operación del sistema eléctrico. “Contar con esa información permitiría realizar una mejor gestión del sistema eléctrico con generación renovable, pudiendo integrarse y gestionarse mejor”.

Además, mirando al futuro también comienza a trabajarse en la gestión activa de la demanda. Si bien tradicionalmente la generación se ha ajustado a las variaciones del consumo, ahora encontramos que hay generación gestionable y generación no gestionable. Ciertos consumos que puedan activarse y desactivarse de manera controlada, como por ejemplo ocurre con desaladoras, podrán adaptarse a la generación variable de las renovables.

De esta manera podríamos también aprovechar esos excedentes de generación con consumos que sí puedan adaptarse a la disponibilidad del recurso renovable, coexistiendo sectores en los que quien se adapta es la carga y otros en los que la carga será la que determine la adaptación del suministro. Esto, además, tendrá un impacto positivo a la hora de repartir la respuesta ante congestiones en la red entre generación y consumo.

Predicción, regulación y almacenamiento. En esas tres ideas se resumen las necesidades a cubrir para, progresivamente, conseguir disponer de sistemas eléctricos cada vez más limpios. Y aunque el camino parezca estar claro basándonos en estos conceptos, se trata de una carrera de fondo en la que los condicionantes de la técnica y el coste de los dispositivos hacen que ese ideal 100% renovable esté más lejos de lo que deseamos.

.https://www.xataka.com/energia/desarrollar-grandes-sistemas-baterias-sera-clave-para-aumentar-energias-renovables

Las eléctricas de siempre son las que te quieren vender las placas solares de casa, incluso para autoconsumo
.https://www.xataka.com/empresas-y-economia/electricas-siempre-que-te-quieren-vender-placas-solares-casa-incluso-para-autoconsumo

==========================

enfriador de absorción

Este sistema de enfriamiento usa calor en lugar de electricidad para enfriar algo.
Usos: enfriamiento de la planta de fabricación, Uso del calor desperdiciado.
Tipos: solares, de agua, de gas y de bromuro con vapor.
Proceso: Similar al utilizado por los sistemas de aire acondicionado convencionales.
Contiene compresor, condensador y evaporador dentro del sistema.
(1)El refrigerante, normalmente Freon®, se somete a presión y acumula calor en el compresor.
(2)A medida que aumenta la presión y el calor, el líquido se convierte en un gas de vapor.
(3) El gas se mueve al condensador donde el calor se disipa y se convierte nuevamente en líquido.
(4)El líquido enfriado se dirige al evaporador, donde se convierte en gas y extrae calor del aire;
(5) Los ventiladores envían aire frío al interior del edificio.
(6) El gas pasa del evaporador al compresor y el proceso comienza de nuevo.
(*7)En los sistemas de aire acondicionado tradicionales, este proceso se logra con el uso de una bomba eléctrica.

En un enfriador de absorción solar,
los paneles solares se colocan en el techo de un edificio para recolectar el calor del sol.
El calor almacenado se usa luego para calentar el líquido en el sistema de aire acondicionado.
A medida que el líquido se calienta, se convierte en vapor y fluye a través del sistema de la misma manera que los sistemas convencionales.
La principal diferencia es que en lugar de utilizar una bomba eléctrica, el sol calienta el líquido.
En un enfriador de absorción de gas,
la bomba funciona con una línea de gas natural conectada al sistema.
Cuando el sistema está encendido, el gas natural activa la bomba para que fluya refrigerante a través del compresor.
Estos sistemas funcionan de manera más eficiente que los sistemas de aire acondicionado eléctricos, pero aún son más costosos de operar que las variedades solares.
En áreas donde la luz solar no está disponible durante períodos de tiempo prolongados, se usa con mayor frecuencia un enfriador de absorción de gas.

En un enfriador de bromuro con absorción de vapor,


-El refrigerante es agua en lugar de Freon®.
-El sistema también contiene una sustancia salina, generalmente en forma de bromuro de litio.
-El calor de una bomba generadora hace que el agua se separe del bromuro de litio y se convierta en vapor.
En El Evaporador:
(0) Cuando el refrigerador funciona, el cuerpo principal está en estado de vacío.
(1) A medida que el vapor sube al absorbedor (con el agua refrigerante a baja temperatura absorbe el calor) y se enfría el vapor,
(2)El vapor refrigerante (*del generador) en el evaporador se vuelve a mezclar con la solución concentrada del bromuro de litio, se convierte en una solución diluida y se vuelve significativamente más frío. Esto se debe a la extrema presión atmosférica dentro del absorbedor.
(3) En condiciones normales, el agua se vaporiza a 212 ° F (100 ° C), pero dentro del absorbedor, el agua puede vaporizarse a tan solo 46 ° F (8 ° C). Esta baja temperatura permite que el agua se enfríe rápidamente a medida que sale del absorbedor.
(4) El agua enfriada luego se mueve a través del evaporador, donde los ventiladores enfrían el aire que fluye sobre los serpentines del evaporador que contienen el agua enfriada y sale al edificio.
(5)Bajo la acción de la bomba de solución, la solución diluida es calentada por el intercambiador de calor de la solución y finalmente enviada al generador para su calentamiento.
La figura siguiente es el diagrama de flujo de agua caliente de absorción de bromuro de litio chiller. La solución diluida será transmitida por la bomba de solución, entonces entrar en el generador calentadas por intercambiador de calor. La solución diluida en el generador de alta presión deberá ser calentado por el agua caliente que circula en los tubos para producir vapor de refrigerante y la solución será condensado. El vapor de refrigerante entrará en el condensador y enfriado por agua de refrigeración que fluye en los tubos, y el agua refrigerante se reunieron en el condensador entrará en el evaporador estrangulando. A causa de baja presión en el evaporador, se evaporará, absorbiendo el calor de agua fría que circula en los tubos, bajar la temperatura de agua fría y la refrigeración se realiza.

En el generador,
(1) La solución diluida se calienta con agua caliente a alta temperatura para convertirse en una solución concentrada a alta temperatura;
(2) Al mismo tiempo, se genera una gran cantidad de vapor refrigerante a alta temperatura.
(3) La solución concentrada ingresa al absorbedor después del intercambio de calor con la solución diluida del absorbedor a través del intercambiador de calor de la solución.
(4) Al mismo tiempo, el vapor refrigerante generado ingresa al condensador y se enfría para convertirse en agua refrigerante a baja-temperatura. El agua refrigerante ingresa al evaporador después de la despresurización y el estrangulamiento, para completar un ciclo de refrigeración
En el Chiller: Por otro lado, la solución concentrada en la salida del generador de alta presión pasará a través del intercambiador de calor y entrar en absorbente para absorber la baja temperatura de vapor de refrigerante desde el evaporador y el evaporador en estado de baja presión, así como el proceso de refrigeración en curso. La concentración de solución concentrada deberá reducirse una vez que la absorción de vapor de refrigerante. A continuación, deberá entrar en generador por bomba de solución. Lo anterior permite la circulación repetida constantemente el evaporador de baja temperatura de salida de agua fría para el funcionamiento de la refrigeración de aire acondicionado o técnicas de producción.

Baterias de Flujo:

Una batería de flujo es un tipo de batería recargable donde la recarga es proporcionada por dos componentes químicos, disueltos en líquidos contenidos dentro del sistema y separados por una membrana. El intercambio de iones (que proporciona flujo de corriente eléctrica) se produce a través de la membrana, mientras los dos líquidos circulen en su propio espacio respectivo. El voltaje de la celda (pila/batería) se determina químicamente por la ecuación de Nernst y rangos, en aplicaciones prácticas, desde 1.0 a 2.2 voltios.

Una batería de flujo es técnicamente similar tanto a una pila de combustible, como a una celda electroquímica (reversibilidad electroquímica). Aunque tiene ventajas técnicas, tales como depósitos de líquidos separables potencialmente y casi longevidad ilimitada sobre la mayoría de las pilas recargables convencionales, las implementaciones actuales son relativamente menos poderosas y requieren una electrónica más sofisticada.

Aplicaciones

  • Regulación de frecuencia de la red eléctrica.
  • Almacenamiento de energía de fuentes renovables, tales como energía solar y energía eólica.
  • Vehículos eléctricos -. En principio, las baterías de flujo pueden ser rápidamente «recargadas», sustituyendo el electrolito.2

El diseño de las baterías de flujo se encuentra sujeto a los principios de la ingeniería electroquímica

Referencias

Arenas, L.F.; Ponce de León, C.; Walsh, F.C. (June 2017). «Engineering aspects of the design, construction and performance of modular redox flow batteries for energy storage». Journal of Energy Storage 11: 119-153. doi:10.1016/j.est.2017.02.007.

«Electric Vehicle Refuelling System (EVRS) used in conjunction with Vanadium Redox Flow Technology». REDT Energy Storage. Archivado desde el original el 6 de diciembre de 2013.

==========================

==========================

==========================

==========================

==========================

==========================

¿Por qué la semana tiene siete días?


El hombre descubrio el ciclo de las fases lunares. La Luna pasa por cuatro momentos fáciles de discriminar:

luna llena (completamente iluminada).luna menguante (iluminada en una mitad).luna nueva (completamente oscurecida).luna creciente (iluminada en su otra mitad).

Entre dos fases lunares hay aproximadamente una semana de siete días.

En las religiones abrahámicas, por su parte, definen el origen de la semana como el tiempo que tardó Dios en crear los cielos y la tierra, y todo lo que hay en ellos (Génesis 1:1 – 2:4).

El origen de los nombres de los días de la semana

El origen de estos nombres está en la observación del cielo por los antiguos. Durante el año, la inmensa mayoría de los astros visibles no cambiaban de posición unos con respecto a otros. Sin embargo, aquellos hombres observaron a simple vista siete cuerpos celestes que sí variaban de posición: el Sol, la Luna, y los cinco planetas que pueden verse a simple vista: Marte, Mercurio, Júpiter, Venus ySaturno.

La Nota Curiosa: ¿Por qué la semana tiene siete días?

FEB 06, 2017 | CURIOSIDADES – LA NOTA CURIOSA

El hábito de agrupar los días en periodos de siete unidades, que hoy llamamos ‘semana’, es original de los babilonios y fue adoptado por los griegos y los romanos, quienes dieron nombre a estos lapsos sobre la base del número siete.

Los griegos los llamaron hebdomás, de hepta ‘siete’, palabra que perdura hasta nosotros en ‘hebdomadario’, que significa ‘semanal, semanario’. En Roma se adoptó el nombre septimana, que llegó al español como semana ya en el Cantar de Mio Cid.

Entre los romanos, el gran prestigio de la astrología llevó a introducir la semana de siete días, basada en la idea babilónica de las siete mañanas, y los nombres de los días fueron tomados de astros y dioses equiparados a los babilonios. De esta forma, el lunes se llamó así en homenaje a la Luna; el martes recordaba al dios de la guerra, Marte para los romanos; el miércoles, al dios del comercio, Mercurio; el jueves a Júpiter (dies Jove o día de Júpiter), y el viernes, a Venus.

Para los romanos, el sábado era el día de Saturno, pero con el advenimiento del cristianismo el nombre dies Saturni fue cambiado por Sabbatum, derivado del hebreosabbath, proveniente de sabath ‘descansar’, que entre los judíos designa al día semanal de descanso. En latín, el domingo se llamaba Solis dies ‘día del Sol’, pero los cristianos cambiaron ese nombre a Dominica, que significaba ‘día del Señor’ (dies dominus).

Una colaboración de Anahí P. Mtz. para @Culturizando
Con información de: elcastellano.org | Foto: Calendario /Shutterstock

http://culturizando.com/la-nota-curiosa-por-que-la-semana-tiene/

 origen de los nombres de los días de la semana[editar]

El origen de estos nombres está en la observación del cielo por los antiguos. Durante el año, la inmensa mayoría de los astros visibles no cambiaban de posición unos con respecto a otros. Sin embargo, aquellos hombres observaron a simple vista sietecuerpos celestes que sí variaban de posición: el Sol, la Luna, y los cinco planetas que pueden verse a simple vista: Marte, Mercurio, Júpiter, Venus ySaturno.

En hebreo simplemente se numeran (primer día, segundo día, tercer día, etc.) contando desde el domingo, excepto el séptimo y último, que se llamashabbat.

En árabe también se numeran excepto el séptimoasSabt y el sexto al-Jum’ah (día de la reunión en lamezquita).

En griego moderno también se numeran excepto el séptimo sávato, el primero kyriakí (día del Señor), y el sexto paraskeví (día de la preparación).

En portugués los días de lunes a viernes se llamanSegunda-feira, Terça-feira, Quarta-feira, Quinta-feira, ySexta-feira, y los dos restantes se llaman como en español, Sábado y Domingo.

Mientras que los idiomas mediterráneos orientales reflejan la numeración de los días de la semana, los idiomas de Europa Occidental (excepto el portugués) reflejan los nombres de los astros móviles del firmamento: Luna, Marte, Mercurio, Júpiter, Venus, Saturno, Sol. Estos siete cuerpos celestes dieron sus nombres a los días de la semana: lunes, martes, miércoles, jueves, viernes. En español, sábado procede de la palabra hebrea shabbat (día de descanso), y domingo de la palabra latina domínica(día del Señor). No obstante, en algunos idiomas (como el inglés, por ejemplo), se mantienen los nombres originales de estos dos días: saturday (día de Saturno) y sunday (día del Sol); y en otros idiomas se sustituyen los dioses grecorromanos con los dioses germánicos más o menos correspondientes. Así, el dios germánico de la guerra Tiw (tuesday) sustituye al marcial grecorromano Marte, el principal dios germánico Woden (wednesday) al dios secundario Mercurio, el importante dios guerreroThor (thursday) al importantísimo Júpiter, la diosa de la fertilidad Freya (friday) a la diosa del amor Venus.

Los nombres latinos de los dioses relacionados con los astros móviles del firmamento son meras transliteraciones de los nombres griegos, los cuales a su vez son transliteraciones de los nombres babilónicos, los cuales se remontan a los sumerios.[cita requerida] Sin embargo, hubo una mala interpretación, son ejemplos: Nergal es el dios de la guerra pero también de la pestilencia y especialmente del infierno, de esta manera se superpone con el griego Hades. Mientras Cronos es el padre de Zeus, Ninurta es el hijo de Enlil.[cita requerida]

español:domingolunesmartesmiércolesjuevesviernessábado
albanése
diele hënëe martëe mërkurëe enjtee premtee shtunë
alemán
SonntagMontagDienstagMittwochDonnerstagFreitagSamstag
asturiano, leonésdomingullunesmartesmiércolesxuevesvienressábaducatalán,
valenciano
diumengedillunsdimartsdimecresdijousdivendresdissabte
chino
星期天(Xingqitian)星期一(Xingqiyi)星期二(Xingqier)星期三(Xingqisan)星期四(Xingqisi)星期五(Xingqiwu)星期六(Xingqiliu)
estonio
pühapäevesmaspäevteisipäevkolmapäevneljapäevreedelaupäevesperantodimanĉolundomardomerkredoĵaŭdovendredosabatoeuskeraigandeastelehenAstearteasteazkenostegunOstiralLarunbatfrancésdimanchelundimardimercredijeudivendredisamedigallegodomingolunsmartesmércoresxovesvenressábadogriegoΚυριακήΔευτέραΤρίτηΤετάρτηΠέμπτηΠαρασκευήΣάββατοhúngarovasárnaphétfökeddszerdacsütörtökpéntekszombatinglésSundayMondayTuesdayWednesdayThursdayFridaySaturdayitalianodomenicalunedìmartedìmercoledìgiovedìvenerdìsábato
japonés
日曜日→dia del sol
(Nichiyoubi)月曜日→dia de la luna
(Getsuyoubi)火曜日→dia del fuego
(Kayoubi)水曜日→dia del agua
(Suiyoubi)木曜日→dia de la madera
(Mokuyoubi)金曜日→dia del oro
(Kinyoubi)土曜日→dia de la tierra
(Doyoubi)
latíndies soliisdies lunaedies martisdies mercuriidies iovisdies venerisdies saturnismapudungunkiñe anteepu antekila antemeli antekechu antecayu anteregle anteneerlandészondagmaandagdinsdagwoensdagdonderdagvrijdagzaterdagpolacoNiedzielaPoniedziałekWtorekŚrodaCzwartekPiątekSobotaportuguésdomingosegunda-feiraterça-feiraquarta-feiraquinta-feirasexta-feirasábadorumanoduminicălunimarţimiercurijoivinerisâmbătăturcopazarpazartesisaliçarşambaperşembecumacumartesi

El orden de los días de la semana

Samuel A. Goudsmit, en El tiempo (Nueva York, 1966, pág. 24), prueba que los egipcios dividían cada uno de los 12 meses de 30 días (de su año de 360 días) en tres semanas de 10 días. Lo mismo hacían los griegos de esa época. No se sabe en qué momento cambiaron ese calendario por la adoración de los planetas, pero debe haber sido antes delsiglo IV a. C., ya que Heródoto, en La historia (2.82), escribió: «Estos son algunos de los hallazgos de los egipcios. Descubrieron que […] cada día le pertenece a un dios».

Stephen Herbert Langdon, en La mitología de todas las razas (Nueva York, 1964, pág. 154) prueba que los seguidores del culto a Sin (en Harrán), a quienes los escritores árabes y sirios conocían comoarranianos o sabeanos les habían puesto los nombres de los planetas a sus días. Como los hebreos y otros pueblos, consideraban que el día dedicado a Saturno era el séptimo día, así que comenzaban la semana con un día dedicado al Sol. Para el resto de los días utilizaban el mismo orden que los egipcios.

Steven L. Renshaw, en El sistema solar y los nombres de los días, demuestra que esos mismos astros del sistema solar, y en la misma secuencia, se usaron para nombrar los días en India, Tíbet y Birmania. También sucedió lo mismo en Japón, pero esa costumbre se ha podido rastrear solo hasta mil años atrás.

Los soldados romanos estacionados en Egipto se acostumbraron a la semana pagana de siete días y poco a poco la introdujeron en su país, reemplazando la semana oficial de ocho días (octaviano, César Augusto) y los siguientes gobernantes romanos toleraron esta práctica, que se oficializó con Constantino I el Grande en el año 321de nuestra era.

La hipótesis más conocida acerca del origen del orden de los planetas es la siguiente: si se disponen los planetas de acuerdo al conocimiento erróneo ―desde una astronomía geocéntrica― que los antiguos tenían de sus respectivas distancias a la Tierra ―en realidad de cuánto tiempo tardaban en dar un ciclo completo en relación al fondo de estrellas―, el orden (de lejano a cercano, o de más lento a más rápido) sería:

Saturno (),Júpiter (),Marte (),Sol (),Venus (),Mercurio (),Luna ().Hora:123456789101112131415161718192021222324Astro → DíaDía 1Saturno → SábadoDía 2Sol → DomingoDía 3Luna → LunesDía 4Marte → MartesDía 5Mercurio → MiércolesDía 6Júpiter → JuevesDía 7Venus → Viernes

Algunos pueblos mediterráneos pensaban que cada hora del día era regida por el Sol, la Luna o uno de los cinco planetas conocidos en aquel entonces. Los cuales eran dioses que giraban eternamente alrededor de la Tierra. La secuencia en que ellos se gobernaban correspondía al orden inverso de sus distancias a la Tierra.

Según Michael Macrone, en su libro ¡Por Júpiter!(1992), en esa época los egipcios pensaban que el planeta más distante era Saturno. Por lo tanto creían que la primera hora era regida por Saturno, la segunda hora por Júpiter, y así por el estilo. También creían que después de que pasaban las primeras siete horas (regidas por los siete astros conocidos) la cuenta se repetía.

Según la Enciclopedia católica, en el artículo «Domingo», los antiguos egipcios creían que el planeta que regía la primera hora también regía el período completo de 24 horas, y daba su nombre a ese día.

En 1988 se firmó la norma ISO 8601, que es la convención internacional que indica el orden de los días de la semana. Esta norma establece que la semana comienza el lunes y finaliza el domingo, siendo la norma que se sigue en la inmensa mayoría de los países del mundo.3 Sin embargo, en los calendarios litúrgicos y en algunos países, la semana comienza el domingo

wikipedia